پرش به محتویات

نود مدل استنتاج هانگ فیس#

از نود مدل استنتاج هانگ فیس برای استفاده از مدل‌های هانگ فیس بهره ببرید.

در این صفحه، پارامترهای نود برای نود مدل استنتاج هانگ فیس و لینک به منابع بیشتر را خواهید یافت.

این نود از ابزارها پشتیبانی نمی‌کند، بنابراین با نود عامل هوشمند کار نخواهد کرد. در عوض، آن را با نود زنجیره LLM پایه متصل کنید.

اعتبارات

اطلاعات احراز هویت این نود را در اینجا بیابید.

مقدار پارامتر در زیرنودها

زیرنودها هنگام پردازش چند آیتم با استفاده از یک عبارت، رفتار متفاوتی نسبت به سایر نودها دارند.

اکثر نودها، از جمله نودهای ریشه، هر تعداد آیتم را به عنوان ورودی می‌پذیرند، این آیتم‌ها را پردازش کرده و نتایج را خروجی می‌دهند. شما می‌توانید از عبارات برای ارجاع به آیتم‌های ورودی استفاده کنید، و نود هر بار این عبارت را برای هر آیتم حل می‌کند. برای مثال، اگر ورودی شامل پنج مقدار name باشد، عبارت {{ $json.name }} به ترتیب به هر نام حل می‌شود.

در زیرنودها، این عبارت همیشه به اولین آیتم ارجاع می‌دهد. برای مثال، اگر ورودی شامل پنج مقدار name باشد، عبارت {{ $json.name }} همیشه به اولین نام ارجاع می‌دهد.

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
## پارامترهای نود

* **مدل**: مدلی که می‌خواهید برای تولید تکمیل از آن استفاده کنید را انتخاب کنید.

## گزینه‌های نود

* **نقطه پایان استنتاج سفارشی**: یک آدرس URL برای نقطه پایان استنتاج سفارشی وارد کنید.
* **مجازات فراوانی**: از این گزینه برای کنترل احتمال تکرار شدن مدل استفاده کنید. مقادیر بالاتر، احتمال تکرار مدل را کاهش می‌دهند.
* **حداکثر تعداد توکن‌ها**: حداکثر تعداد توکن‌های مورد استفاده را وارد کنید که طول تکمیل را تعیین می‌کند.
* **مجازات حضور**: برای کنترل احتمال صحبت کردن مدل درباره موضوعات جدید، از این گزینه استفاده کنید. مقادیر بالاتر، شانس صحبت کردن مدل درباره موضوعات جدید را افزایش می‌دهند.
* **دمای نمونه‌برداری**: از این گزینه برای کنترل تصادفی بودن فرآیند نمونه‌برداری استفاده کنید. دمای بالاتر، نمونه‌برداری متنوع‌تر ایجاد می‌کند، اما خطر هالوسانی را افزایش می‌دهد.
* **Top K**: تعداد گزینه‌های توکن را که مدل برای تولید توکن بعدی از آنها استفاده می‌کند وارد کنید.
* **Top P**: از این گزینه برای تعیین احتمال استفاده در تکمیل استفاده کنید. مقدار پایین‌تر، گزینه‌های کم‌احتمال‌تر را نادیده می‌گیرد.

## قالب‌ها و نمونه‌ها

<!-- see https://www.notion.so/n8n/Pull-in-templates-for-the-integrations-pages-37c716837b804d30a33b47475f6e3780 -->
<span class="n8n-templates-widget-more"><a href="https://n98n.ir/integrations/hugging-face-inference-model/" target="_blank">Browse Hugging Face Inference Model integration templates</a>, or <a href="https://n98n.ir/workflows/" target="_blank">search all templates</a></span>

## منابع مرتبط

برای اطلاعات بیشتر در مورد این سرویس، به [مستندات مدل استنتاج هانگ فیس در لینگ‌چین]https://js.langchain.com/integrations/llms/huggingface_inference/ مراجعه کنید.


مشاهده مستندسازی [هوش مصنوعی پیشرفته] n98n در این قسمت.

واژگان مورد استفاده در هوش مصنوعی#

  • کامل‌شدن: پاسخ‌هایی هستند که توسط مدلی مانند GPT تولید می‌شوند.
  • توهمات: توهم در هوش مصنوعی هنگامی است که یک مدل زبانی بزرگ (LLM) نادرست تصور می‌کند الگوها یا اشیائی وجود دارند که واقعاً وجود ندارند.
  • پایگاه داده وکتور: پایگاه داده وکتور نمایه‌های ریاضی اطلاعات را ذخیره می‌کند. از آن در کنار جاسازی‌ها و بازیاب‌ها برای ساختن یک پایگاه داده که هوش مصنوعی شما می‌تواند هنگام پاسخگویی به سوالات به آن مراجعه کند، استفاده می‌شود.
  • مخزن وکتور: مخزن وکتور، یا پایگاه داده وکتور، نمایه‌های ریاضی اطلاعات را ذخیره می‌کند. از آن در کنار جاسازی‌ها و بازیاب‌ها برای ساختن یک پایگاه داده که هوش مصنوعی شما می‌تواند هنگام پاسخگویی به سوالات به آن مراجعه کند، استفاده می‌شود.