diff --git a/fa/chat.json b/fa/chat.json new file mode 100644 index 00000000..bedea7a6 --- /dev/null +++ b/fa/chat.json @@ -0,0 +1,135 @@ +{ + "modelLoaderPlaceholder": "یک مدل انتخاب کنید تا بارگزاری شود", + "systemPromptPlaceholder": "تنظیم پروپمت سیستم", + "userRoleText": "کاربر", + "assistantRoleText": "دستیار", + "addMessageButtonText": "اضافه کردن", + "addMessageButtonText/toolTip": "پیام را به متن اضافه کنید بدون اینکه پیش‌بینی فعال شود", + "sendMessageButtonText": "ارسال", + "sendMessageButtonText/toolTip": "پیام و تاریخچه مکالمه را برای پردازش به مدل ارسال کنید", + "ejectButtonText": "خروج", + "unloadTooltip": "مدل را از حافظه خارج کنید", + "cancelButtonText": "لغو", + "loadButtonText": "بارگزاری", + "advancedSegmentText": "پیشرفته", + "chatSegmentText": "چت", + "chatSidebarTitle": "چت‌ها", + "newChatButton": "چت جدید", + "newFolderButton": "پوشه جدید", + "viewModeLabel": "حالت مشاهده", + "noChatSelected": "چتی انتخاب نشده است", + "chatViewOptions": "گزینه‌های نمایش چت", + "uiControls/title": "تنظیمات نمایش", + "noChatSelectedPlaceholder": "یک چت انتخاب کنید", + "unnamedChat": "چت بدون نام", + "emptyFolder": "پوشه خالی است", + + "tokenCount": "تعداد توکن‌ها", + "messageTokenCount": "تعداد توکن‌های ورودی", + "tokenCount/hint": "تعداد توکن‌ها در پیام. با استفاده از توکنایزر مدل انتخابی شمارش می‌شود.\n\nبرای بارگزاری مدل نیاز است.", + "messageTokenCount/hint": "تعداد توکن‌ها در پیام. با استفاده از توکنایزر مدل انتخابی شمارش می‌شود.\n\nشامل تخمینی از توکن‌ها در ضمیمه‌های فایل نمی‌شود.", + + "notes": "یادداشت‌های مکالمه", + "notes/add/first": "یک یادداشت اضافه کنید", + "notes/add/another": "یادداشت دیگری اضافه کنید", + "notes/hint": "یادداشت‌ها را برای ارجاع به این چت ذخیره کنید. یادداشت‌ها فقط برای شما هستند و به مدل ارسال نمی‌شوند. تمام تغییرات به صورت خودکار ذخیره می‌شوند.", + "notes/placeholder": "یادداشت‌های خود را اینجا بنویسید...", + "notes/delete": "حذف یادداشت", + "notes/noteLabel": "یادداشت", + "notes/copyContent": "محتوای یادداشت را کپی کنید", + + "actions/sendMessage/error": "ارسال پیام ناموفق بود", + "actions/loadModel/error": "🥲 بارگزاری مدل ناموفق بود", + "actions/addFile": "[آزمایشی] افزودن فایل به این پیام\n(.pdf، متن ساده یا .docx)", + "actions/changeRole": "تغییر نقش بین کاربر و دستیار.\n\nاین برای هدایت مکالمه به سمت خاصی مفید است.\n\nمی‌تواند برای مراحل 'یادگیری کم‌نمونه' یا 'یادگیری در متن' استفاده شود", + "actions/addImage": "افزودن تصویر", + "actions/deleteMessage": "حذف پیام", + "actions/deleteMessage/confirmation": "آیا از حذف این پیام مطمئن هستید؟", + "actions/copyMessage": "کپی پیام", + "actions/editMessage": "ویرایش پیام", + "actions/editMessage/cannotEditPreprocessed": "پیام‌های پردازش‌شده را نمی‌توان ویرایش کرد چون پس از اجرای پیش‌پردازش مجدداً بازنویسی می‌شوند. برای ویرایش پیام، یکی از موارد زیر را انجام دهید:\n\n - به پیام اصلی بازگردید و آن را ویرایش کنید، یا\n - پیش‌پردازشگر را تغییر دهید تا خروجی دلخواه تولید شود.", + "actions/regenerateMessage": "بازسازی پیام", + "actions/regenerateMessage/error": "بازسازی پیام ناموفق بود", + "actions/branchChat": "شاخه‌گذاری چت پس از این پیام", + "actions/branchChat/error": "شاخه‌گذاری چت ناموفق بود", + "actions/continueAssistantMessage": "ادامه پیام دستیار", + "actions/continueAssistantMessage/error": "ادامه پیام دستیار ناموفق بود", + "actions/predictNext": "تولید پاسخ هوش مصنوعی", + "actions/predictNext/error": "تولید پاسخ هوش مصنوعی ناموفق بود", + "actions/loadLastModel": "بارگزاری مدل آخرین استفاده شده", + "actions/loadLastModel/tooltip": "برای بارگزاری مدلی که آخرین بار با این چت استفاده شده است، کلیک کنید:\n\n{{lastModel}}", + "actions/loadLastModel/error": "بارگزاری مدل آخرین استفاده شده ناموفق بود.", + "actions/continueCurrentModel": "استفاده از مدل کنونی", + "actions/continueCurrentModel/tooltip": "مدل کنونی: {{currentModel}}", + "actions/changeToLastUsedModel": "بارگزاری {{lastModel}}", + "actions/changeToLastUsedModel/error": "تغییر به مدل آخرین استفاده شده ناموفق بود.", + "actions/changeToLastUsedModel/tooltip": "شما آخرین بار از مدل متفاوتی برای ارسال پیام در این چت استفاده کرده‌اید. برای بارگزاری مدل آخرین استفاده شده، کلیک کنید:\n\n{{lastModel}}", + "actions/switchToLastUsedModel": "تغییر به {{lastModel}}", + "actions/switchToLastUsedModel/tooltip": "برای تغییر به مدل آخرین استفاده شده در این چت، کلیک کنید:\n\n{{lastModel}}", + "actions/loadModel": "بارگزاری مدل", + "actions/toggleViewingProcessed/currentlyFalse": "در حال حاضر پیام اصلی را مشاهده می‌کنید. برای مشاهده پیام پردازش‌شده کلیک کنید.", + "actions/toggleViewingProcessed/currentlyTrue": "در حال حاضر پیام پردازش‌شده را مشاهده می‌کنید. برای مشاهده پیام اصلی کلیک کنید.", + "actions/toggleViewingProcessed/hint": "قبل از ارسال پیام به مدل، ممکن است پیام توسط پیش‌پردازشگر پروپمت پردازش شود. برای مشاهده بین پیام اصلی و پیام پردازش‌شده کلیک کنید. فقط پیام پردازش‌شده به مدل ارسال می‌شود.", + "editMessageConfirm/title": "آیا تغییرات را نگه دارید؟", + "editMessageConfirm/message": "شما تغییراتی در یک پیام ایجاد کرده‌اید. آیا می‌خواهید آنها را نگه دارید؟", + "editMessageConfirm/keepEditing": "ادامه ویرایش", + "editMessageConfirm/save": "ذخیره", + "editMessageConfirm/discard": "حذف تغییرات", + "tokenCount/totalNotAvailable": "توکن‌ها: {{current}}", + "tokenCount/totalAvailable": "توکن‌ها: {{current}}/{{total}}", + "tokenCount/totalAvailablePercentage": "متن {{percentage}}% پر است", + "tokenCount/contextOverflow": "متن پردازش‌نشده از حد مجاز توکن‌های مدل بزرگتر است. بسته به سیاست Overflow متن، ممکن است متن بریده شود یا پیام ارسال نشود.", + "modelLoader/manualLoadParams/label": "انتخاب دستی پارامترهای بارگزاری مدل", + "modelLoader/manualLoadParams/hint/before": "(یا نگه دارید ", + "modelLoader/manualLoadParams/hint/after": ")", + "actions/move/error": "انتقال ناموفق بود", + "actions/rename/error": "تغییر نام ناموفق بود", + "actions/createChatAtRoot": "چت جدید...", + "actions/createChatAtRoot/error": "ساخت چت در ریشه ناموفق بود", + "actions/createFolderAtRoot": "پوشه جدید...", + "actions/createFolderAtRoot/error": "ساخت پوشه در ریشه ناموفق بود", + "actions/createChat/error": "ساخت چت ناموفق بود", + + "userFile/fileSizeLimit": "حداکثر اندازه فایل ", + "userFile/noImageSupport": "مدل ورودی تصویر را پشتیبانی نمی‌کند", + "userFile/errorPrefix": "خطا - ", + "userFile/supportedImagePrefix": "نوع تصویر پشتیبانی‌شده نیست - فقط ", + "userFile/supportedImageSuffix": " پشتیبانی می‌شود", + "userFile/unsupportedFileType": "نوع فایل پشتیبانی‌شده نیست - فقط تصاویر، PDFها و فایل‌های .txt پشتیبانی می‌شوند.", + "userFile/maxFilesPerMessage": "حداکثر تعداد فایل‌ها در هر پیام به پایان رسیده است. نمی‌توان بیشتر از {{files}} فایل اضافه کرد.", + "userFile/maxFileSizePerMessage": "حداکثر اندازه فایل در هر پیام به پایان رسیده است. نمی‌توان فایل‌های بزرگ‌تر از {{size}} اضافه کرد.", + "errorTitle": "خطا", + + "prediction/busyModel/title": "مدل مشغول است", + "prediction/busyModel/message": "لطفاً منتظر بمانید تا مدل به پایان برسد و دوباره تلاش کنید", + "prediction/noModel/title": "مدلی انتخاب نشده است", + "prediction/modelLoading": "پیام در صف است و پس از بارگذاری مدل ارسال خواهد شد", + "prediction/noModel/message": "برای ارسال پیام، یک مدل انتخاب کنید", + "prediction/unloadModel/error": "بارگذاری مدل ناموفق بود", + + "retrieval/user/processingLabel": "هوش مصنوعی در حال فکر کردن است...", + "retrieval/powerUser/intermediateStepsHidden": "مراحل میانی مخفی هستند. برای باز کردن کلیک کنید.", + "retrieval/actions/clickToExpand": "برای گسترش مراحل میانی کلیک کنید", + "retrieval/actions/clickToCollapse": "برای جمع کردن مراحل میانی کلیک کنید", + + "style": "ظاهر چت", + + "style/viewMode/markdown": "مارک‌داون", + "style/viewMode/plaintext": "متن ساده", + "style/viewMode/monospace": "تک‌فاصله", + + "style/fontSize/label": "اندازه فونت", + "style/fontSize/medium": "پیش‌فرض", + "style/fontSize/large": "بزرگ", + "style/fontSize/small": "کوچک", + + "topBarActions/duplicateChat": "تکرار چت", + "topBarActions/clearChat": "پاک کردن تمام پیام‌ها", + "topBarActions/clearChatConfirmation": "آیا مطمئن هستید که می‌خواهید تمام پیام‌های این چت را پاک کنید؟", + "topBarActions/clearChatCancel": "لغو", + "topBarActions/clearChatDelete": "پاک کردن همه", + + "noModels.indexing": "در حال فهرست‌بندی فایل‌های مدل... (این ممکن است کمی زمان ببرد)", + "noModels.downloading": "در حال دانلود اولین LLM شما...", + "noModels": "هنوز هیچ مدل LLM موجود نیست! برای شروع یکی را دانلود کنید." +} \ No newline at end of file diff --git a/fa/config.json b/fa/config.json new file mode 100644 index 00000000..bfcadb65 --- /dev/null +++ b/fa/config.json @@ -0,0 +1,257 @@ +{ + "noInstanceSelected": "هیچ نمونه مدلی انتخاب نشده است", + "resetToDefault": "بازنشانی", + "showAdvancedSettings": "نمایش تنظیمات پیشرفته", + "showAll": "همه", + "basicSettings": "پایه‌ای", + "configSubtitle": "تنظیمات را بارگذاری یا ذخیره کنید و با تغییر پارامترهای مدل آزمایش کنید", + "inferenceParameters/title": "پارامترهای پیش‌بینی", + "inferenceParameters/info": "با پارامترهایی که بر پیش‌بینی تاثیر می‌گذارند، آزمایش کنید.", + "generalParameters/title": "عمومی", + "samplingParameters/title": "نمونه‌گیری", + "basicTab": "پایه‌ای", + "advancedTab": "پیشرفته", + "advancedTab/title": "🧪 تنظیمات پیشرفته", + "advancedTab/expandAll": "باز کردن همه", + "advancedTab/overridesTitle": "تغییرات تنظیمات", + "advancedTab/noConfigsText": "هیچ تغییری ذخیره نشده - مقادیر بالا را ویرایش کنید تا تغییرات اینجا نمایش داده شوند.", + "loadInstanceFirst": "مدلی بارگذاری کنید تا پارامترهای قابل تنظیم نمایش داده شوند", + "noListedConfigs": "هیچ پارامتر قابل تنظیمی وجود ندارد", + "generationParameters/info": "با پارامترهای پایه‌ای که بر تولید متن تاثیر دارند، آزمایش کنید.", + "loadParameters/title": "بارگذاری پارامترها", + "loadParameters/description": "تنظیماتی برای کنترل نحوه بارگذاری و مقداردهی اولیه مدل در حافظه.", + "loadParameters/reload": "برای اعمال تغییرات مجدد بارگذاری کنید", + "discardChanges": "لغو تغییرات", + "loadModelToSeeOptions": "مدلی بارگذاری کنید تا گزینه‌ها نمایش داده شوند", + "llm.prediction.systemPrompt/title": "پیام سیستمی", + "llm.prediction.systemPrompt/description": "از این فیلد برای ارائه دستورالعمل‌های پس‌زمینه به مدل، مانند قوانین، محدودیت‌ها یا الزامات کلی استفاده کنید.", + "llm.prediction.systemPrompt/subTitle": "راهنمایی‌ها برای هوش مصنوعی", + "llm.prediction.temperature/title": "دما", + "llm.prediction.temperature/subTitle": "میزان تصادفی بودن ورودی. مقدار ۰ همیشه نتیجه یکسان تولید می‌کند، در حالی که مقادیر بالاتر خلاقیت و تنوع را افزایش می‌دهند", + "llm.prediction.temperature/info": "از مستندات llama.cpp: \"مقدار پیش‌فرض <{{dynamicValue}}> است که بین تصادفی بودن و تعیین‌پذیری تعادل ایجاد می‌کند. در حد نهایی، دمای ۰ همیشه محتمل‌ترین توکن بعدی را انتخاب می‌کند، که به خروجی‌های یکسان در هر اجرا منجر می‌شود\"", + "llm.prediction.llama.sampling/title": "نمونه‌گیری", + "llm.prediction.topKSampling/title": "نمونه‌گیری Top K", + "llm.prediction.topKSampling/subTitle": "توکن بعدی را به یکی از k توکن‌های با احتمال بالا محدود می‌کند. مشابه دما عمل می‌کند", + "llm.prediction.topKSampling/info": "از مستندات llama.cpp:\n\nنمونه‌گیری Top K روشی برای تولید متن است که فقط توکن بعدی را از میان k توکن‌های محتمل‌تر انتخاب می‌کند.\n\nاین روش خطر تولید توکن‌های کم‌احتمال یا غیرمنطقی را کاهش می‌دهد، اما ممکن است تنوع خروجی را نیز محدود کند.\n\nمقدار بالاتر برای k (مثلاً ۱۰۰) توکن‌های بیشتری را در نظر می‌گیرد و به متن متنوع‌تر منجر می‌شود، در حالی که مقدار پایین‌تر (مثلاً ۱۰) بر محتمل‌ترین توکن‌ها تمرکز دارد و متنی محافظه‌کارانه‌تر تولید می‌کند.\n\n• مقدار پیش‌فرض <{{dynamicValue}}> است", + "llm.prediction.llama.cpuThreads/title": "رشته‌های CPU", + "llm.prediction.llama.cpuThreads/subTitle": "تعداد رشته‌های CPU که در طول پیش‌بینی استفاده می‌شوند", + "llm.prediction.llama.cpuThreads/info": "تعداد رشته‌هایی که در طول محاسبات استفاده می‌شوند. افزایش تعداد رشته‌ها همیشه با عملکرد بهتر همبسته نیست. مقدار پیش‌فرض <{{dynamicValue}}> است.", + "llm.prediction.maxPredictedTokens/title": "محدودیت طول پاسخ", + "llm.prediction.maxPredictedTokens/subTitle": "اختیاری: طول پاسخ هوش مصنوعی را محدود کنید", + "llm.prediction.maxPredictedTokens/info": "حداکثر طول پاسخ چت‌بات را کنترل کنید. برای محدود کردن حداکثر طول پاسخ روشن کنید، یا خاموش کنید تا چت‌بات خودش تصمیم بگیرد کجا متوقف شود.", + "llm.prediction.maxPredictedTokens/inputLabel": "حداکثر طول پاسخ (توکن‌ها)", + "llm.prediction.maxPredictedTokens/wordEstimate": "حدود {{maxWords}} کلمه", + "llm.prediction.repeatPenalty/title": "جریمه تکرار", + "llm.prediction.repeatPenalty/subTitle": "چقدر تکرار همان توکن را کاهش دهیم", + "llm.prediction.repeatPenalty/info": "از مستندات llama.cpp: \"به جلوگیری از تولید متن تکراری یا یکنواخت کمک می‌کند.\n\nمقدار بالاتر (مثلاً ۱.۵) تکرارها را به شدت جریمه می‌کند، در حالی که مقدار پایین‌تر (مثلاً ۰.۹) آسان‌گیرتر است.\" • مقدار پیش‌فرض <{{dynamicValue}}> است""llm.prediction.minPSampling/title": "حداقل نمونه‌برداری P", + "llm.prediction.minPSampling/subTitle": "حداقل احتمال پایه برای انتخاب یک توکن جهت خروجی", + "llm.prediction.minPSampling/info": "از مستندات کمک llama.cpp:\n\nحداقل احتمالی که برای یک توکن در نظر گرفته می‌شود، نسبت به احتمال توکن با بیشترین احتمال. باید در بازه [0, 1] باشد.\n\n• مقدار پیش‌فرض <{{dynamicValue}}>", + "llm.prediction.topPSampling/subTitle": "حداقل احتمال تجمعی برای توکن‌های ممکن بعدی. مشابه با دما عمل می‌کند", + "llm.prediction.topPSampling/info": "از مستندات کمک llama.cpp:\n\nنمونه‌برداری Top-p، که به نام نمونه‌برداری هسته نیز شناخته می‌شود، یک روش دیگر برای تولید متن است که توکن بعدی را از یک زیرمجموعه از توکن‌ها انتخاب می‌کند که احتمال تجمعی آن‌ها حداقل p باشد.\n\nاین روش تعادلی بین تنوع و کیفیت ایجاد می‌کند، با در نظر گرفتن همزمان احتمال توکن‌ها و تعداد توکن‌هایی که باید از آن‌ها نمونه‌برداری شود.\n\nیک مقدار بالاتر برای top-p (مثلاً 0.95) باعث تولید متن متنوع‌تری خواهد شد، در حالی که مقدار پایین‌تر (مثلاً 0.5) متن متمرکزتر و محتاطانه‌تری ایجاد می‌کند. باید در بازه (0, 1] باشد.\n\n• مقدار پیش‌فرض <{{dynamicValue}}>", + "llm.prediction.stopStrings/title": "رشته‌های توقف", + "llm.prediction.stopStrings/subTitle": "رشته‌هایی که باید مدل را از تولید توکن‌های بیشتر متوقف کنند", + "llm.prediction.stopStrings/info": "رشته‌های خاصی که هنگام برخورد با آن‌ها مدل از تولید توکن‌های بیشتر متوقف می‌شود", + "llm.prediction.stopStrings/placeholder": "یک رشته وارد کنید و کلید ⏎ را بزنید", + "llm.prediction.contextOverflowPolicy/title": "اضافه بار زمینه", + "llm.prediction.contextOverflowPolicy/subTitle": "چگونه مدل باید رفتار کند زمانی که مکالمه بیش از حد برای پردازش آن بزرگ می‌شود", + "llm.prediction.contextOverflowPolicy/info": "تصمیم بگیرید که چه کاری باید انجام دهید وقتی که مکالمه از اندازه حافظه کاری مدل ('زمینه') فراتر رود", + "llm.prediction.llama.frequencyPenalty/title": "جریمه فرکانس", + "llm.prediction.llama.presencePenalty/title": "جریمه حضور", + "llm.prediction.llama.tailFreeSampling/title": "نمونه‌برداری بدون دم", + "llm.prediction.llama.locallyTypicalSampling/title": "نمونه‌برداری معمولی محلی", + "llm.prediction.onnx.topKSampling/title": "نمونه‌برداری Top K", + "llm.prediction.onnx.topKSampling/subTitle": "محدود کردن توکن بعدی به یکی از k توکن با بالاترین احتمال. مشابه با دما عمل می‌کند", + "llm.prediction.onnx.topKSampling/info": "از مستندات ONNX:\n\nتعداد توکن‌های واژگان با بالاترین احتمال که برای فیلتر کردن top-k نگه‌داشته می‌شوند\n\n• این فیلتر به‌طور پیش‌فرض غیرفعال است", + "llm.prediction.onnx.repeatPenalty/title": "جریمه تکرار", + "llm.prediction.onnx.repeatPenalty/subTitle": "چقدر باید از تکرار همان توکن جلوگیری شود", + "llm.prediction.onnx.repeatPenalty/info": "یک مقدار بالاتر از تکرار جلوگیری می‌کند و مدل را از تکرار خود منصرف می‌کند", + "llm.prediction.onnx.topPSampling/title": "نمونه‌برداری Top P", + "llm.prediction.onnx.topPSampling/subTitle": "حداقل احتمال تجمعی برای توکن‌های ممکن بعدی. مشابه با دما عمل می‌کند", + "llm.prediction.onnx.topPSampling/info": "از مستندات ONNX:\n\nفقط توکن‌های با بیشترین احتمال که احتمالات آن‌ها به TopP یا بیشتر جمع می‌شود، برای تولید نگه‌داشته می‌شوند\n\n• این فیلتر به‌طور پیش‌فرض غیرفعال است", + "llm.prediction.seed/title": "بذر", + "llm.prediction.structured/title": "خروجی ساختاریافته", + "llm.prediction.structured/info": "خروجی ساختاریافته", + "llm.prediction.structured/description": "پیشرفته: شما می‌توانید یک اسکیما JSON فراهم کنید تا فرمت خاصی از خروجی را از مدل تحمیل کنید. برای اطلاعات بیشتر به [مستندات](https://lmstudio.ai/docs/advanced/structured-output) مراجعه کنید", + "llm.prediction.promptTemplate/title": "الگوی درخواست", + "llm.prediction.promptTemplate/subTitle": "فرمت پیام‌هایی که در چت به مدل ارسال می‌شود. تغییر این ممکن است رفتار غیرمنتظره‌ای ایجاد کند - مطمئن شوید که می‌دانید چه کاری انجام می‌دهید!""llm.load.contextLength/title": "طول زمینه", + "llm.load.contextLength/subTitle": "حداکثر تعداد توکن‌هایی که مدل می‌تواند در یک درخواست بررسی کند. برای روش‌های دیگر مدیریت این موضوع، گزینه‌های \"پارامترهای استنتاج\" را ببینید", + "llm.load.contextLength/info": "حداکثر تعداد توکن‌هایی که مدل می‌تواند به طور همزمان بررسی کند، که بر میزان زمینه‌ای که در هنگام پردازش حفظ می‌کند تأثیر می‌گذارد", + "llm.load.contextLength/warning": "تنظیم مقدار بالا برای طول زمینه می‌تواند تأثیر زیادی بر مصرف حافظه بگذارد", + "llm.load.seed/title": "بذر", + "llm.load.seed/subTitle": "بذری برای تولید اعداد تصادفی در تولید متن. -1 تصادفی است", + "llm.load.seed/info": "بذر تصادفی: بذر تولید اعداد تصادفی را تنظیم می‌کند تا نتایج قابل تکرار تضمین شود", + "llm.load.llama.evalBatchSize/title": "اندازه بچ ارزیابی", + "llm.load.llama.evalBatchSize/subTitle": "تعداد توکن‌های ورودی برای پردازش به طور همزمان. افزایش این تعداد باعث بهبود عملکرد با هزینه مصرف بیشتر حافظه می‌شود", + "llm.load.llama.evalBatchSize/info": "تعداد نمونه‌هایی که در یک بچ به طور همزمان پردازش می‌شوند، که بر سرعت و مصرف حافظه تأثیر می‌گذارد", + "llm.load.llama.ropeFrequencyBase/title": "پایه فرکانس RoPE", + "llm.load.llama.ropeFrequencyBase/subTitle": "فرکانس پایه سفارشی برای رمزگذاری موقعیت چرخشی (RoPE). افزایش این مقدار ممکن است عملکرد بهتری در طول زمینه‌های بالا فراهم کند", + "llm.load.llama.ropeFrequencyBase/info": "[پیشرفته] فرکانس پایه برای رمزگذاری موقعیت چرخشی را تنظیم می‌کند که بر نحوه گنجاندن اطلاعات موقعیتی تأثیر می‌گذارد", + "llm.load.llama.ropeFrequencyScale/title": "مقیاس فرکانس RoPE", + "llm.load.llama.ropeFrequencyScale/subTitle": "طول زمینه با این فاکتور مقیاس می‌شود تا از RoPE برای گسترش زمینه مؤثر استفاده شود", + "llm.load.llama.ropeFrequencyScale/info": "[پیشرفته] مقیاس فرکانس برای رمزگذاری موقعیت چرخشی را تغییر می‌دهد تا ریزجزئیات رمزگذاری موقعیت را کنترل کند", + "llm.load.llama.acceleration.offloadRatio/title": "انتقال به GPU", + "llm.load.llama.acceleration.offloadRatio/subTitle": "تعداد لایه‌های مدل که باید برای تسریع با GPU محاسبه شوند", + "llm.load.llama.acceleration.offloadRatio/info": "تعداد لایه‌هایی که باید به GPU منتقل شوند را تنظیم کنید.", + "llm.load.llama.flashAttention/title": "توجه فلش", + "llm.load.llama.flashAttention/subTitle": "استفاده از حافظه و زمان تولید را در برخی مدل‌ها کاهش می‌دهد", + "llm.load.llama.flashAttention/info": "مکانیزم‌های توجه را برای پردازش سریع‌تر و کارآمدتر تسریع می‌کند", + "llm.load.numExperts/title": "تعداد متخصص‌ها", + "llm.load.numExperts/subTitle": "تعداد متخصص‌هایی که باید در مدل استفاده شوند", + "llm.load.numExperts/info": "تعداد متخصص‌هایی که باید در مدل استفاده شوند", + "llm.load.llama.keepModelInMemory/title": "نگه داشتن مدل در حافظه", + "llm.load.llama.keepModelInMemory/subTitle": "حافظه سیستم را برای مدل رزرو می‌کند، حتی زمانی که به GPU منتقل می‌شود. عملکرد را بهبود می‌بخشد اما نیاز به رم بیشتری دارد", + "llm.load.llama.keepModelInMemory/info": "از انتقال مدل به دیسک جلوگیری می‌کند و دسترسی سریع‌تری را تضمین می‌کند، که به هزینه مصرف بیشتر رم است", + "llm.load.llama.useFp16ForKVCache/title": "استفاده از FP16 برای کش KV", + "llm.load.llama.useFp16ForKVCache/info": "مصرف حافظه را با ذخیره کش در دقت نیمه (FP16) کاهش می‌دهد", + "llm.load.llama.tryMmap/title": "آزمایش mmap()", + "llm.load.llama.tryMmap/subTitle": "زمان بارگذاری مدل را بهبود می‌بخشد. غیرفعال کردن این گزینه می‌تواند عملکرد را زمانی که مدل از حافظه سیستم بیشتر است، بهبود بخشد", + "llm.load.llama.tryMmap/info": "مدل را به طور مستقیم از دیسک به حافظه بارگذاری می‌کند""embedding.load.contextLength/title": "طول زمینه", + "embedding.load.contextLength/subTitle": "حداکثر تعداد توکن‌هایی که مدل می‌تواند در یک درخواست پردازش کند. برای مشاهده گزینه‌های اضافی در مورد \"پارامترهای استنتاج\" به گزینه‌های Overflow گفتگو مراجعه کنید.", + "embedding.load.contextLength/info": "حداکثر تعداد توکن‌هایی که مدل می‌تواند به طور همزمان در نظر بگیرد را مشخص می‌کند، که بر میزان زمینه‌ای که در طول پردازش نگه می‌دارد تأثیر می‌گذارد.", + "embedding.load.llama.ropeFrequencyBase/title": "پایه فرکانس RoPE", + "embedding.load.llama.ropeFrequencyBase/subTitle": "فرکانس پایه سفارشی برای رمزگذاری موقعیت چرخشی (RoPE). افزایش این مقدار ممکن است عملکرد بهتری در طول زمینه‌های طولانی‌تر ارائه دهد.", + "embedding.load.llama.ropeFrequencyBase/info": "[پیشرفته] فرکانس پایه برای رمزگذاری موقعیت چرخشی را تنظیم می‌کند، که بر نحوه جاسازی اطلاعات موقعیت تأثیر می‌گذارد.", + "embedding.load.llama.evalBatchSize/title": "اندازه دسته ارزیابی", + "embedding.load.llama.evalBatchSize/subTitle": "تعداد توکن‌های ورودی که به طور همزمان پردازش می‌شوند. افزایش این مقدار عملکرد را بهبود می‌بخشد ولی مصرف حافظه را افزایش می‌دهد.", + "embedding.load.llama.evalBatchSize/info": "تعداد توکن‌هایی که در یک دسته برای ارزیابی پردازش می‌شوند را تنظیم می‌کند.", + "embedding.load.llama.ropeFrequencyScale/title": "مقیاس فرکانس RoPE", + "embedding.load.llama.ropeFrequencyScale/subTitle": "طول زمینه بر اساس این عامل مقیاس می‌شود تا زمینه مؤثر را با استفاده از RoPE گسترش دهد.", + "embedding.load.llama.ropeFrequencyScale/info": "[پیشرفته] مقیاس‌گذاری فرکانس برای رمزگذاری موقعیت چرخشی را تغییر می‌دهد تا دقت رمزگذاری موقعیت را کنترل کند.", + "embedding.load.llama.acceleration.offloadRatio/title": "بارگذاری GPU", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "تعداد لایه‌های مدل که برای شتاب‌دهی GPU محاسبه می‌شوند.", + "embedding.load.llama.acceleration.offloadRatio/info": "تعداد لایه‌هایی که باید به GPU منتقل شوند را تنظیم می‌کند.", + "embedding.load.llama.keepModelInMemory/title": "حفظ مدل در حافظه", + "embedding.load.llama.keepModelInMemory/subTitle": "حافظه سیستم را برای مدل رزرو می‌کند، حتی زمانی که به GPU منتقل شود. این کار عملکرد را بهبود می‌بخشد ولی به حافظه RAM بیشتری نیاز دارد.", + "embedding.load.llama.keepModelInMemory/info": "از جابجایی مدل به دیسک جلوگیری می‌کند و دسترسی سریع‌تری را فراهم می‌آورد که با هزینه مصرف بیشتر RAM همراه است.", + "embedding.load.llama.tryMmap/title": "استفاده از mmap()", + "embedding.load.llama.tryMmap/subTitle": "زمان بارگذاری مدل را بهبود می‌بخشد. غیرفعال کردن این گزینه ممکن است عملکرد را زمانی که مدل بزرگ‌تر از RAM سیستم موجود است، بهبود دهد.", + "embedding.load.llama.tryMmap/info": "مدل‌ها را مستقیماً از دیسک به حافظه بارگذاری می‌کند.", + "embedding.load.seed/title": "بذر", + "embedding.load.seed/subTitle": "بذری برای تولید اعداد تصادفی که در تولید متن استفاده می‌شود. -1 تصادفی است.", + "embedding.load.seed/info": "بذر تصادفی: بذر تولید اعداد تصادفی را تنظیم می‌کند تا نتایج قابل تکرار را تضمین کند.", + "presetTooltip": { + "included/title": "مقادیر پیش‌فرض", + "included/description": "فیلدهای زیر اعمال خواهند شد", + "included/empty": "هیچ یک از فیلدهای این پیش‌فرض در این زمینه قابل اعمال نیستند.", + "included/conflict": "از شما خواسته خواهد شد که انتخاب کنید آیا این مقدار اعمال شود یا خیر.", + "separateLoad/title": "پیکربندی زمان بارگذاری", + "separateLoad/description.1": "پیش‌فرض همچنین شامل پیکربندی زمان بارگذاری است. پیکربندی زمان بارگذاری برای مدل در سطح وسیع است و برای تأثیرگذاری نیاز به بارگذاری مجدد مدل دارد. نگه دارید", + "separateLoad/description.2": "برای اعمال به", + "separateLoad/description.3": ".", + "excluded/title": "ممکن است اعمال نشود", + "excluded/description": "فیلدهای زیر در پیش‌فرض گنجانده شده‌اند اما در زمینه فعلی قابل اعمال نیستند.", + "legacy/title": "پیش‌فرض قدیمی", + "legacy/description": "این پیش‌فرض یک پیش‌فرض قدیمی است. این پیش‌فرض شامل فیلدهایی است که یا به طور خودکار مدیریت می‌شوند، یا دیگر قابل اعمال نیستند." + } + "customInputs": { + "string": { + "emptyParagraph": "<خالی>" + }, + "checkboxNumeric": { + "off": "خاموش" + }, + "stringArray": { + "empty": "<خالی>" + }, + "llmPromptTemplate": { + "type": "نوع", + "types.jinja/label": "الگو (Jinja)", + "jinja.bosToken/label": "توکن BOS", + "jinja.eosToken/label": "توکن EOS", + "jinja.template/label": "الگو", + "jinja/error": "عدم توانایی در تجزیه الگوی Jinja: {{error}}", + "jinja/empty": "لطفاً یک الگوی Jinja وارد کنید.", + "jinja/unlikelyToWork": "الگوی Jinja که وارد کرده‌اید احتمالاً کار نخواهد کرد زیرا به متغیر \"messages\" اشاره نمی‌کند. لطفاً دوباره بررسی کنید که آیا الگوی درستی وارد کرده‌اید.", + "types.manual/label": "دستی", + "manual.subfield.beforeSystem/label": "قبل از سیستم", + "manual.subfield.beforeSystem/placeholder": "پیشوند سیستم را وارد کنید...", + "manual.subfield.afterSystem/label": "بعد از سیستم", + "manual.subfield.afterSystem/placeholder": "پسوند سیستم را وارد کنید...", + "manual.subfield.beforeUser/label": "قبل از کاربر", + "manual.subfield.beforeUser/placeholder": "پیشوند کاربر را وارد کنید...", + "manual.subfield.afterUser/label": "بعد از کاربر", + "manual.subfield.afterUser/placeholder": "پسوند کاربر را وارد کنید...", + "manual.subfield.beforeAssistant/label": "قبل از دستیار", + "manual.subfield.beforeAssistant/placeholder": "پیشوند دستیار را وارد کنید...", + "manual.subfield.afterAssistant/label": "بعد از دستیار", + "manual.subfield.afterAssistant/placeholder": "پسوند دستیار را وارد کنید...", + "stopStrings/label": "رشته‌های توقف اضافی", + "stopStrings/subTitle": "رشته‌های توقف خاص الگو که علاوه بر رشته‌های توقف مشخص شده توسط کاربر استفاده خواهند شد." + }, + "contextLength": { + "maxValueTooltip": "این حداکثر تعداد توکن‌هایی است که مدل برای پردازش آموزش دیده است. برای تنظیم زمینه به این مقدار کلیک کنید", + "maxValueTextStart": "مدل تا", + "maxValueTextEnd": "توکن را پشتیبانی می‌کند", + "tooltipHint": "در حالی که یک مدل ممکن است از تعداد معینی توکن پشتیبانی کند، عملکرد ممکن است در صورتی که منابع سیستم شما نتواند بار را تحمل کند کاهش یابد - در افزایش این مقدار احتیاط کنید" + }, + "contextOverflowPolicy": { + "stopAtLimit": "متوقف شدن در حد", + "stopAtLimitSub": "تولید متوقف می‌شود زمانی که حافظه مدل پر شود", + "truncateMiddle": "برش وسط", + "truncateMiddleSub": "پیام‌ها از وسط مکالمه حذف می‌شوند تا جا برای پیام‌های جدیدتر باز شود. مدل همچنان ابتدای مکالمه را به یاد خواهد داشت", + "rollingWindow": "پنجره متحرک", + "rollingWindowSub": "مدل همیشه جدیدترین پیام‌ها را دریافت خواهد کرد اما ممکن است ابتدای مکالمه را فراموش کند" + }, + "llamaAccelerationOffloadRatio": { + "max": "حداکثر", + "off": "خاموش" + } + } + "saveConflictResolution": { + "title": "انتخاب کنید که کدام مقادیر در پیش‌تنظیم گنجانده شوند", + "description": "انتخاب کنید که کدام مقادیر حفظ شوند", + "instructions": "روی یک مقدار کلیک کنید تا آن را اضافه کنید", + "userValues": "مقدار قبلی", + "presetValues": "مقدار جدید", + "confirm": "تأیید", + "cancel": "لغو" + }, + "applyConflictResolution": { + "title": "کدام مقادیر را نگه داریم؟", + "description": "شما تغییراتی دارید که با پیش‌تنظیم وارد شده تداخل دارند", + "instructions": "روی یک مقدار کلیک کنید تا آن را نگه دارید", + "userValues": "مقدار فعلی", + "presetValues": "مقدار پیش‌تنظیم وارد شده", + "confirm": "تأیید", + "cancel": "لغو" + }, + "empty": "<خالی>", + "presets": { + "title": "پیش‌تنظیم", + "commitChanges": "ثبت تغییرات", + "commitChanges/description": "تغییرات خود را در پیش‌تنظیم ثبت کنید.", + "commitChanges.manual": "فیلدهای جدید شناسایی شده‌اند. شما قادر خواهید بود انتخاب کنید که کدام تغییرات در پیش‌تنظیم گنجانده شوند.", + "commitChanges.manual.hold.0": "نگه دارید", + "commitChanges.manual.hold.1": "برای انتخاب تغییراتی که باید در پیش‌تنظیم ثبت شوند.", + "commitChanges.saveAll.hold.0": "نگه دارید", + "commitChanges.saveAll.hold.1": "برای ذخیره همه تغییرات.", + "commitChanges.saveInPreset.hold.0": "نگه دارید", + "commitChanges.saveInPreset.hold.1": "برای ذخیره تغییرات فقط در فیلدهایی که قبلاً در پیش‌تنظیم گنجانده شده‌اند.", + "commitChanges/error": "ثبت تغییرات در پیش‌تنظیم با خطا مواجه شد.", + "commitChanges.manual/description": "انتخاب کنید که کدام تغییرات در پیش‌تنظیم گنجانده شوند.", + "saveAs": "ذخیره به عنوان جدید...", + "presetNamePlaceholder": "نامی برای پیش‌تنظیم وارد کنید...", + "cannotCommitChangesLegacy": "این پیش‌تنظیم قدیمی است و قابل تغییر نیست. شما می‌توانید یک کپی با استفاده از \"ذخیره به عنوان جدید...\" ایجاد کنید.", + "cannotCommitChangesNoChanges": "تغییری برای ثبت وجود ندارد.", + "emptyNoUnsaved": "یک پیش‌تنظیم انتخاب کنید...", + "emptyWithUnsaved": "پیش‌تنظیم ذخیره‌نشده", + "saveEmptyWithUnsaved": "ذخیره پیش‌تنظیم به عنوان...", + "saveConfirm": "ذخیره", + "saveCancel": "لغو", + "saving": "در حال ذخیره‌سازی...", + "save/error": "ذخیره پیش‌تنظیم با خطا مواجه شد.", + "deselect": "لغو انتخاب پیش‌تنظیم", + "deselect/error": "لغو انتخاب پیش‌تنظیم با خطا مواجه شد.", + "select/error": "انتخاب پیش‌تنظیم با خطا مواجه شد.", + "delete/error": "حذف پیش‌تنظیم با خطا مواجه شد.", + "discardChanges": "رد کردن تغییرات ذخیره‌نشده", + "discardChanges/info": "تمام تغییرات ثبت‌نشده را رد کرده و پیش‌تنظیم را به حالت اولیه خود بازگردانید", + "newEmptyPreset": "ایجاد پیش‌تنظیم خالی جدید...", + "contextMenuSelect": "انتخاب پیش‌تنظیم", + "contextMenuDelete": "حذف" + }, + "flashAttentionWarning": "Flash Attention یک ویژگی آزمایشی است که ممکن است باعث مشکلاتی در برخی مدل‌ها شود. اگر با مشکلی مواجه شدید، سعی کنید آن را غیرفعال کنید.", + "seedUncheckedHint": "دانه تصادفی", + "ropeFrequencyBaseUncheckedHint": "خودکار", + "ropeFrequencyScaleUncheckedHint": "خودکار" +} \ No newline at end of file diff --git a/fa/developer.json b/fa/developer.json new file mode 100644 index 00000000..8704c64b --- /dev/null +++ b/fa/developer.json @@ -0,0 +1,68 @@ +{ + "tabs/server": "سرور محلی", + "tabs/extensions": "LM Runtimes", + "loadSettings/title": "بارگذاری تنظیمات", + "modelSettings/placeholder": "یک مدل انتخاب کنید تا آن را پیکربندی کنید", + + "loadedModels/noModels": "هیچ مدلی بارگذاری نشده است", + + "serverOptions/title": "تنظیمات سرور", + "serverOptions/configurableTitle": "تنظیمات قابل پیکربندی", + "serverOptions/port/hint": "پورت شبکه‌ای که سرور محلی از آن استفاده خواهد کرد را تنظیم کنید. به طور پیش‌فرض، LM Studio از پورت 1234 استفاده می‌کند. اگر پورت در حال حاضر استفاده می‌شود، ممکن است نیاز به تغییر آن داشته باشید.", + "serverOptions/port/subtitle": "پورت برای شنود", + "serverOptions/autostart/title": "راه‌اندازی خودکار سرور", + "serverOptions/autostart/hint": "سرور محلی را به طور خودکار زمانی که مدلی بارگذاری می‌شود، راه‌اندازی کنید", + "serverOptions/port/integerWarning": "شماره پورت باید یک عدد صحیح باشد", + "serverOptions/port/invalidPortWarning": "پورت باید بین 1 و 65535 باشد", + "serverOptions/cors/title": "فعال کردن CORS", + "serverOptions/cors/hint1": "فعال کردن CORS (اشتراک منابع بین‌دامنه‌ای) به سایت‌هایی که بازدید می‌کنید اجازه می‌دهد درخواست‌هایی به سرور LM Studio ارسال کنند.", + "serverOptions/cors/hint2": "CORS ممکن است زمانی که از یک صفحه وب یا VS Code / دیگر افزونه‌ها درخواست می‌فرستید، ضروری باشد.", + "serverOptions/cors/subtitle": "اجازه دادن به درخواست‌های بین‌دامنه‌ای", + "serverOptions/network/title": "ارائه بر روی شبکه محلی", + "serverOptions/network/subtitle": "سرور را به دستگاه‌های شبکه ارائه دهید", + "serverOptions/network/hint1": "آیا اجازه می‌دهید دستگاه‌های دیگر از شبکه به سرور متصل شوند؟", + "serverOptions/network/hint2": "اگر این گزینه انتخاب نشود، سرور فقط در localhost گوش خواهد داد.", + "serverOptions/verboseLogging/title": "لاگ‌برداری دقیق", + "serverOptions/verboseLogging/subtitle": "فعال کردن لاگ‌برداری دقیق برای سرور محلی", + "serverOptions/contentLogging/title": "لاگ کردن درخواست‌ها و پاسخ‌ها", + "serverOptions/contentLogging/subtitle": "تنظیمات لاگ‌برداری درخواست‌ها / پاسخ‌ها محلی", + "serverOptions/contentLogging/hint": "آیا درخواست‌ها و / یا پاسخ‌ها را در فایل لاگ سرور محلی ذخیره کنیم؟", + "serverOptions/jitModelLoading/title": "بارگذاری مدل به‌موقع", + "serverOptions/jitModelLoading/hint": "هنگامی که فعال باشد، اگر درخواستی مدل بارگذاری نشده‌ای را مشخص کند، به طور خودکار بارگذاری شده و استفاده خواهد شد. علاوه بر این، نقطه پایانی \"/v1/models\" همچنین مدل‌هایی که هنوز بارگذاری نشده‌اند را شامل خواهد شد.", + "serverOptions/loadModel/error": "بارگذاری مدل با خطا مواجه شد", + + "serverLogs/scrollToBottom": "پرش به پایین", + "serverLogs/clearLogs": "پاک کردن لاگ‌ها ({{shortcut}})", + "serverLogs/openLogsFolder": "باز کردن پوشه لاگ‌های سرور", + + "runtimeSettings/title": "تنظیمات زمان اجرا", + "runtimeSettings/chooseRuntime/title": "پیکربندی زمان اجرا", + "runtimeSettings/chooseRuntime/description": "یک زمان اجرا برای هر فرمت مدل انتخاب کنید", + "runtimeSettings/chooseRuntime/showAllVersions/label": "نمایش تمام زمان‌های اجرا", + "runtimeSettings/chooseRuntime/showAllVersions/hint": "به طور پیش‌فرض، LM Studio فقط جدیدترین نسخه هر زمان اجرای سازگار را نمایش می‌دهد. با فعال کردن این گزینه، تمام زمان‌های اجرا موجود را مشاهده خواهید کرد.", + "runtimeSettings/chooseRuntime/select/placeholder": "یک زمان اجرا انتخاب کنید", + + "runtimeOptions/uninstall": "حذف نصب", + "runtimeOptions/uninstallDialog/title": "حذف {{runtimeName}}؟", + "runtimeOptions/uninstallDialog/body": "حذف این زمان اجرا آن را از سیستم پاک خواهد کرد. این اقدام برگشت‌پذیر نیست.", + "runtimeOptions/uninstallDialog/body/caveats": "برخی فایل‌ها ممکن است تنها پس از راه‌اندازی مجدد LM Studio حذف شوند.", + "runtimeOptions/uninstallDialog/error": "حذف زمان اجرا با خطا مواجه شد", + "runtimeOptions/uninstallDialog/confirm": "ادامه دهید و حذف نصب کنید", + "runtimeOptions/uninstallDialog/cancel": "لغو", + "runtimeOptions/noCompatibleRuntimes": "هیچ زمان اجرای سازگاری یافت نشد", + "runtimeOptions/downloadIncompatibleRuntime": "این زمان اجرا به عنوان ناسازگار با دستگاه شما تشخیص داده شد. احتمالاً کار نخواهد کرد.", + "runtimeOptions/noRuntimes": "هیچ زمان اجرایی یافت نشد", + + "inferenceParams/noParams": "هیچ پارامتر قابل پیکربندی برای نوع مدل موجود نیست", + + "endpoints/openaiCompatRest/title": "نقاط پایانی پشتیبانی‌شده (شبیه OpenAI)", + "endpoints/openaiCompatRest/getModels": "مدل‌های بارگذاری‌شده فعلی را فهرست کنید", + "endpoints/openaiCompatRest/postCompletions": "مدل تکمیل متن. پیش‌بینی توکن‌های بعدی با توجه به یک ورودی. توجه: OpenAI این نقطه پایانی را 'منسوخ' می‌داند.", + "endpoints/openaiCompatRest/postChatCompletions": "تکمیل‌های چت. ارسال تاریخچه چت به مدل برای پیش‌بینی پاسخ بعدی دستیار", + "endpoints/openaiCompatRest/postEmbeddings": "جذب متن. تولید جذب‌های متنی برای ورودی متن داده‌شده. یک رشته یا آرایه‌ای از رشته‌ها را می‌گیرد.", + + "model.createVirtualModelFromInstance": "ذخیره تنظیمات به عنوان یک مدل مجازی جدید", + "model.createVirtualModelFromInstance/error": "ذخیره تنظیمات به عنوان یک مدل مجازی جدید با خطا مواجه شد", + + "apiConfigOptions/title": "پیکربندی API" +} diff --git a/fa/discover.json b/fa/discover.json new file mode 100644 index 00000000..4d23f05f --- /dev/null +++ b/fa/discover.json @@ -0,0 +1,28 @@ +{ + "collectionsColumn": "مجموعه‌ها", + "collectionsColumn/collectionError": "خطا در بارگذاری جزئیات مجموعه، لطفاً بالای صفحه برای بروزرسانی دوباره تلاش کنید", + "bookmarksColumn": "علامت‌گذاری‌ها", + "searchBar/placeholder": "مدل‌ها را در Hugging Face جستجو کنید...", + "searchBar/huggingFaceError": "خطا در دریافت نتایج از Hugging Face، لطفاً کمی بعد دوباره تلاش کنید", + "sortBy": "مرتب‌سازی بر اساس", + "searchSortKey.default/title": "بهترین تطابق", + "searchSortKey.likes/title": "بیشترین پسند", + "searchSortKey.downloads/title": "بیشترین دانلودها", + "searchSortKey.lastModified/title": "آخرین بروزرسانی", + "searchSortKey.createdAt/title": "آخرین ایجاد شده", + "download.option.willFitEstimation.caveat": "ممکن است عوامل دیگری وجود داشته باشد که مانع بارگذاری مدل شوند، مانند معماری مدل، یکپارچگی فایل مدل یا مقدار حافظه موجود در کامپیوتر شما.", + "download.option.willFitEstimation.fullGPUOffload/title": "انتقال کامل به GPU ممکن است", + "download.option.willFitEstimation.fullGPUOffload/description": "این مدل ممکن است به طور کامل در حافظه GPU شما جای گیرد. این می‌تواند به طور قابل توجهی سرعت استنتاج را افزایش دهد.", + "download.option.willFitEstimation.partialGPUOffload/title": "انتقال جزئی به GPU ممکن است", + "download.option.willFitEstimation.partialGPUOffload/description": "این مدل ممکن است به طور جزئی در حافظه GPU شما جای گیرد. این معمولاً می‌تواند سرعت استنتاج را به طور قابل توجهی افزایش دهد.", + "download.option.willFitEstimation.fitWithoutGPU/title": "احتمالاً جا می‌شود", + "download.option.willFitEstimation.fitWithoutGPU/description": "این مدل احتمالاً در حافظه دستگاه شما جا می‌شود.", + "download.option.willFitEstimation.willNotFit/title": "احتمالاً بیش از حد بزرگ برای این دستگاه", + "download.option.willFitEstimation.willNotFit/description": "نیازهای حافظه برای استفاده موفق از این فایل مدل ممکن است از منابع موجود در دستگاه شما بیشتر باشد. دانلود این فایل توصیه نمی‌شود.", + "download.option.recommended/title": "توصیه‌شده", + "download.option.recommended/description": "بر اساس سخت‌افزار شما، این گزینه توصیه می‌شود.", + "download.option.downloaded/title": "دانلود شده", + "download.option.downloading/title": "در حال دانلود ({{progressPercentile}}%)", + + "feed.action.refresh": "بروزرسانی فید" +} diff --git a/fa/download.json b/fa/download.json new file mode 100644 index 00000000..1ae547b4 --- /dev/null +++ b/fa/download.json @@ -0,0 +1,23 @@ +{ + "postDownloadActionExecutor.zipExtraction/status": "در حال استخراج...", + "finalizing": "در حال تکمیل دانلود... (این ممکن است چند لحظه طول بکشد)", + "noOptions": "هیچ گزینه سازگاری برای دانلود موجود نیست", + + "deeplink/confirmation/title": "دانلود مدل از Hugging Face 🤗", + "deeplink/confirmation/subtitle": "{{modelName}}", + "deeplink/confirmation/selectRecommended": "گزینه توصیه‌شده را انتخاب کنید", + "deeplink/confirmation/selectOption": "گزینه دانلود را انتخاب کنید", + "deeplink/confirmation/recommendedOption": "احتمالاً بهترین گزینه برای بیشتر کاربران", + "deeplink/confirmation/downloadButton": "دانلود", + "deeplink/confirmation/nevermindButton": "فراموش کن", + "deeplink/confirmation/modelPresent/title": "مدل Hugging Face یافت شد ✅", + "deeplink/confirmation/modelPresent/body": "خبر خوب! این فایل مدل در حال حاضر روی دستگاه شما موجود است.", + "deeplink/confirmation/loadInChat": "بارگذاری {{ modelName }} در یک چت جدید", + "deeplink/error/modelNotFound/title": "اوه نه، نتواستیم این مدل را پیدا کنیم", + "deeplink/error/modelNotFound/body": "نام مدل را دوباره بررسی کنید و ممکن است بخواهید گزینه دانلود دیگری را امتحان کنید.", + "deeplink/actions/trySearching": "سعی کنید {{modelName}} را در Hugging Face جستجو کنید", + + "downloadsPanel/title": "دانلودها", + "downloadsPanel/sectionTitle/ongoing": "در حال انجام", + "downloadsPanel/sectionTitle/completed": "تمام شده" +} diff --git a/fa/models.json b/fa/models.json new file mode 100644 index 00000000..1fffcf2e --- /dev/null +++ b/fa/models.json @@ -0,0 +1,85 @@ +{ + "pageTitle": "مدل‌های من", + "filterModels.placeholder": "فیلتر مدل‌ها...", + "aggregate_one": "شما {{count}} مدل محلی دارید که {{size}} از فضای دیسک را اشغال کرده است.", + "aggregate_other": "شما {{count}} مدل محلی دارید که {{size}} از فضای دیسک را اشغال کرده است.", + + "noModels.title": "مدل‌های LLM محلی شما اینجا نمایش داده خواهند شد.", + "noModels.discoverButtonText.prefix": "روی", + "noModels.discoverButtonText.suffix": "دکمه در نوار کناری سمت چپ کلیک کنید تا مدل‌های جالب LLM برای دانلود را کشف کنید.", + "noModels.discoverModelsPrompt": "بروید و برخی مدل‌های LLM محلی را کاوش کنید!", + + "modelsTable.arch/label": "معماری", + "modelsTable.params/label": "پارامترها", + "modelsTable.publisher/label": "ناشر", + "modelsTable.llms/label": "مدل LLM", + "modelsTable.embeddingModels/label": "مدل جاسازی", + "modelsTable.quant/label": "کوانت", + "modelsTable.size/label": "اندازه", + "modelsTable.dateModified/label": "تاریخ اصلاح", + "modelsTable.actions/label": "اقدامات", + + "action.model.delete": "حذف", + "action.model.delete.full": "حذف مدل", + "action.model.delete.confirmation/title": "حذف {{name}}", + "action.model.delete.confirmation/description": "آیا مطمئن هستید؟ این اقدام تمام فایل‌های مرتبط با این مدل را به طور دائم از دستگاه شما حذف خواهد کرد. این عمل غیرقابل بازگشت است.", + "action.model.delete.confirmation/confirm": "حذف", + + "action.createVirtual": "ایجاد پیش‌تنظیم", + "action.createVirtual.details/title": "ایجاد پیش‌تنظیم", + "action.createVirtual.details/create": "ایجاد", + "action.createVirtual.details/cancel": "لغو", + "action.createVirtual.details.base/label": "مدل پایه", + "action.createVirtual.details.name/label": "نام", + "action.createVirtual.details.includeMachineDependent/label": "شامل تنظیمات وابسته به ماشین", + "action.createVirtual.details.includeMachineDependent/hint": "آیا تنظیمات وابسته به ماشین (مانند تنظیمات GPU) را در پیش‌تنظیم شامل کنیم؟ برای به اشتراک‌گذاری توصیه نمی‌شود.", + "action.createVirtual.details.config/label": "پیکربندی‌های جایگزین", + "action.createVirtual.details.config.empty": "بدون پیکربندی جایگزین", + "action.createVirtual.details/error": "ایجاد مدل مجازی با خطا مواجه شد.", + + "loader.model.bundled": "پیش‌ساخته شده", + "action.cancel": "لغو", + "indexingOngoing": "در حال ایندکس کردن مدل‌ها... این ممکن است چند ثانیه طول بکشد", + "index/error_one": "ایندکس کردن پوشه زیر با خطا مواجه شد:", + "index/error_other": "ایندکس کردن پوشه‌های زیر با خطا مواجه شد:", + "badModels/title_one": "ایندکس کردن مدل زیر با خطا مواجه شد:", + "badModels/title_other": "ایندکس کردن مدل‌های زیر با خطا مواجه شد:", + "badModels.virtualModelIncorrectPlacement": "قرارگیری نادرست مدل مجازی. انتظار می‌رود در {{expected}} باشد. در {{actual}} یافت شد.", + "badModels.virtualModelBadManifest": "منفست مدل مجازی نامعتبر (model.yaml):", + "unresolvedVirtualModels/title_one": "حل نشدن مدل مجازی زیر:", + "unresolvedVirtualModels/title_other": "حل نشدن مدل‌های مجازی زیر:", + "unresolvedVirtualModels.missingModel": "مدل وابسته گم شده است: {{missing}}. مسیر وابستگی:\n{{chain}}", + "unresolvedVirtualModels.circular": "وابستگی دایره‌ای شناسایی شد.", + + "modelsDirectory": "دایرکتوری مدل‌ها", + "modelsDirectory.change": "تغییر...", + "modelsDirectory.reset": "بازنشانی به مسیر پیش‌فرض", + "modelsDirectory.reveal.mac": "نمایش در Finder", + "modelsDirectory.reveal.nonMac": "باز کردن در File Explorer", + "modelsDirectory.forceReindex": "بروزرسانی", + "loadState/loaded": "بارگذاری شده", + "loadState/loading": "در حال بارگذاری", + "loadState/unloaded": "بارگذاری نشده", + "loadState/unloading": "در حال تخلیه", + "loadState/idle": "بی‌کار", + "pinned": "این مدل پین شده است. برای حذف پین کلیک راست کنید.", + "lastUsed": "آخرین استفاده شده", + "contextMenu/pin": "پین به بالا", + "contextMenu/unpin": "حذف پین", + "contextMenu/copyAbsolutePath": "کپی مسیر کامل", + "contextMenu/copyModelName": "کپی مسیر مدل", + "contextMenu/openOnHuggingFace": "باز کردن در Hugging Face", + "tooltip/moreActions": "اقدامات بیشتر", + "tooltip/getInfo": "دریافت اطلاعات", + "tooltip/editModelDefaultConfig": "ویرایش پیکربندی پیش‌فرض مدل", + "tooltip/editModelDefaultConfig/override": "ویرایش پیکربندی پیش‌فرض مدل (* در حال حاضر دارای جایگزینی‌ها)", + "tooltip/visionBadge": "این مدل می‌تواند ورودی‌های تصویری را پردازش کند", + + "visionBadge/label": "ویژن فعال شده", + + "loader.action.load": "بارگذاری مدل", + "loader.action.clearChanges": "حذف تغییرات", + "loader.action.cancel": "لغو", + "loader.info.clickOnModelToLoad": "برای بارگذاری یک مدل، روی آن کلیک کنید", + "loader.info.configureLoadParameters": "پیکربندی پارامترهای بارگذاری مدل" +} diff --git a/fa/onboarding.json b/fa/onboarding.json new file mode 100644 index 00000000..25f4f18f --- /dev/null +++ b/fa/onboarding.json @@ -0,0 +1,24 @@ +{ + "action.skipOnboarding": "رد کردن معرفی", + "action.next": "بعدی", + "action.back": "بازگشت", + "action.finish": "اتمام", + + "dismissable_rag_modal": { + "description": "شما اکنون می‌توانید با استفاده از نسل بازیابی افزوده (RAG) با اسناد خود گفتگو کنید. نحوه کار به این صورت است:", + "instructions": { + "attach_files": { + "title": "پیوست فایل‌ها", + "description": "تا ۵ فایل را در یک زمان آپلود کنید، با حداکثر اندازه ترکیبی ۳۰ مگابایت. فرمت‌های پشتیبانی‌شده شامل PDF، DOCX، TXT و CSV هستند." + }, + "be_specific": { + "title": "دقیق باشید", + "description": "هنگام پرسیدن سوالات، تا حد ممکن جزئیات بیشتری را ذکر کنید. این کمک می‌کند تا سیستم مرتبط‌ترین اطلاعات را از اسناد شما بازیابی کند." + }, + "get_responses": { + "title": "دریافت پاسخ‌ها و آزمایش", + "description": "مدل زبانی به پرسش شما و قطعات بازیابی‌شده از اسناد شما نگاه می‌کند و سعی می‌کند پاسخی تولید کند. با پرسش‌های مختلف آزمایش کنید تا بهترین نتیجه را پیدا کنید." + } + } + } +} diff --git a/fa/settings.json b/fa/settings.json new file mode 100644 index 00000000..d698e6af --- /dev/null +++ b/fa/settings.json @@ -0,0 +1,144 @@ +{ + "settingsDialogTitle": "تنظیمات اپلیکیشن", + "settingsDialogButtonTooltip": "تنظیمات اپلیکیشن", + "settingsNewButtonPopover": { + "primary": "تنظیمات اپلیکیشن اکنون در گوشه پایین-راست قرار دارند", + "secondary": "برای باز کردن آن‌ها روی دکمه ⚙️ کلیک کنید.", + "tertiary": "یا فشار دهید" + }, + "appUpdate": "به‌روزرسانی اپلیکیشن", + "checkingAppUpdate": "در حال بررسی به‌روزرسانی‌ها...", + "checkForUpdates": "بررسی به‌روزرسانی‌ها", + "failedCheckingAppUpdate": "بررسی به‌روزرسانی‌ها با شکست مواجه شد", + "newUpdateAvailable": "نسخه جدیدی از LM Studio موجود است! 🎉", + "newBetaUpdateAvailable": "نسخه بتای جدیدی از LM Studio موجود است! 🛠️🎉", + "downloadingInProgress": "در حال دانلود به‌روزرسانی...", + "downloadUpdate": "به‌روزرسانی به LM Studio {{version}}", + "downloadBetaUpdate": "به‌روزرسانی به LM Studio Beta {{version}} (ساخت {{build}})", + "downloadCompleted": "دانلود کامل شد!", + "updateDownloadComplete": "به‌روزرسانی با موفقیت دانلود شد!", + "updateDownloadFailed": "دانلود به‌روزرسانی شکست خورد!", + "hasFinishedDownloading": "دانلود تمام شده است.", + "yourCurrentVersion": "نسخه فعلی شما:", + "latestVersion": "آخرین نسخه:", + "downloadLabel": "الان به‌روزرسانی کنید", + "cancelDownloadLabel": "لغو دانلود", + "downloadingUpdate": "در حال دانلود به‌روزرسانی...", + "updateDownloaded": "به‌روزرسانی جدید با موفقیت دانلود شد. برای اعمال به‌روزرسانی اپلیکیشن را دوباره راه‌اندازی کنید.", + "restartAppToUpdate": "برای اعمال به‌روزرسانی اپلیکیشن را دوباره راه‌اندازی کنید", + "appUpdatedToastTitle": "به {{title}} به‌روزرسانی شد", + "appUpdatedToastDescriptionPrefix": "مشاهده ", + "AppUpdatedToastDescriptionReleaseNotes": "یادداشت‌های نسخه", + "doItLater": "بعداً انجام می‌دهم", + "failedToUpdate": "به‌روزرسانی اپلیکیشن با شکست مواجه شد. لطفاً اتصال اینترنت خود را دوباره بررسی کنید یا بعداً تلاش کنید.", + "retryInBackground": "تلاش مجدد در پس‌زمینه", + "laterLabel": "بعداً", + "releaseNotesLabel": "یادداشت‌های نسخه", + "remindMeLater": "بعداً یادآوری کن", + "failedDownloadUpdate": "دانلود به‌روزرسانی شکست خورد", + "installAndRelaunch": "نصب و راه‌اندازی مجدد", + "uptodate": "شما کاملاً به‌روزرسانی شده‌اید! نسخه فعلی {{version}} است", + "preferences": "تنظیمات", + "general": "عمومی", + "sideButtonLabels": "نمایش برچسب دکمه‌های کناری", + "colorThemeLabel": "تم رنگی", + "complexityLevelLabel": "سطح پیچیدگی رابط کاربری", + "selectComplexityLevelPlaceholder": "یک سطح پیچیدگی پیش‌فرض برای رابط کاربری انتخاب کنید", + "userComplexityLevelLabel": "کاربر", + "powerUserComplexityLevelLabel": "کاربر پیشرفته", + "developerComplexityLevelLabel": "توسعه‌دهنده", + "chatSettingsLabel": "تنظیمات چت", + "chat/alwaysShowPromptTemplate": "همیشه الگوی درخواست را در نوار کناری چت نمایش بده", + "chat/highlightChatMessageOnHover": "هایلایت پیام چت در زمان قرار گرفتن ماوس روی آن", + "chat/doubleClickMessageToEdit": "برای ویرایش پیام چت دوبار کلیک کنید", + "chat/keyboardShortcuts/label": "میانبرهای صفحه‌کلید", + "chat/keyboardShortcuts/verbPrefix": "استفاده از", + "chat/keyboardShortcuts/regenerate": "برای بازتولید آخرین پیام در چت", + "chat/keyboardShortcuts/sendMessage": "برای ارسال پیام", + "onboarding/blockTitle": "راهنمای شروع کار", + "onboarding/dismissedHints": "راهنمای شروع کار رد شده", + "onboarding/resetHintTooltip": "برای فعال کردن دوباره این راهنما کلیک کنید", + "onboarding/resetAllHints": "تمام راهنماهای شروع کار را بازنشانی کنید", + "onboarding/noneDismissed": "هیچ راهنمایی رد نشده است، همه راهنماهای کمکی شروع کار تا زمان رد شدن بعدی نمایش داده می‌شوند", + "firstTimeExperienceLabel": "تجربه اولین استفاده از چت", + "firstTimeExperienceMarkCompletedLabel": "علامت‌گذاری به عنوان کامل شده", + "firstTimeExperienceResetLabel": "بازنشانی", + "showPromptSuggestionsLabel": "نمایش پیشنهادات درخواست هنگام ایجاد چت جدید", + "darkThemeLabel": "تاریک", + "lightThemeLabel": "روشن", + "systemThemeLabel": "خودکار", + "sepiaThemeLabel": "Sepia", + "unloadPreviousModelLabel": "هنگام انتخاب مدل برای بارگذاری، ابتدا مدل‌های بارگذاری شده قبلی را تخلیه کنید", + "languageLabel": "زبان", + "changeLanguageLabel": "زبان اپلیکیشن را انتخاب کنید (هنوز در حال توسعه)", + "developerLabel": "توسعه‌دهنده", + "showExperimentalFeaturesLabel": "نمایش ویژگی‌های آزمایشی", + "appFirstLoadLabel": "تجربه اولین بار بارگذاری اپلیکیشن", + "showDebugInfoBlocksInChatLabel": "نمایش بلوک‌های اطلاعات اشکال‌زدایی در چت", + "autoLoadBundledLLMLabel": "بارگذاری خودکار مدل LLM بسته شده در شروع", + "showReleaseNotes": "نمایش یادداشت‌های نسخه", + "hideReleaseNotes": "پنهان کردن یادداشت‌های نسخه", + "backendDownloadNewUpdate": "نسخه‌های جدیدتر بک‌اند موجود است!", + "backendDownloadNewUpdateAction": "به صفحه توسعه‌دهندگان بروید", + "backendDownloadChannel.label": "کانال دانلود بسته‌های LM Studio Extension", + "backendDownloadChannel.value.stable": "پایدار", + "backendDownloadChannel.value.beta": "بتا", + "backendDownloadChannel.value.latest": "توسعه‌دهنده", + "backendDownloadChannel.shortLabel": "کانال دانلود زمان اجرا", + "backendDownloadChannel.hint": "کانالی را که از آن می‌خواهید بسته‌های LM Studio Extension دانلود کنید انتخاب کنید. کانال \"{{stableName}}\" برای بیشتر کاربران توصیه می‌شود.", + "appUpdateChannel.label": "کانال به‌روزرسانی LM Studio", + "appUpdateChannel.value.stable": "پایدار", + "appUpdateChannel.value.beta": "بتا", + "appUpdateChannel.shortLabel": "کانال به‌روزرسانی اپلیکیشن", + "appUpdateChannel.hint": "کانالی را که می‌خواهید از آن به‌روزرسانی‌های LM Studio اپلیکیشن دریافت کنید انتخاب کنید. کانال \"{{stableName}}\" برای بیشتر کاربران توصیه می‌شود.", + "modelLoadingGuardrails.label": "مقررات بارگذاری مدل", + "modelLoadingGuardrails.description": "بارگذاری مدل‌هایی که از محدودیت‌های منابع سیستم فراتر می‌روند می‌تواند باعث ناپایداری یا فریز شدن سیستم شود. مقررات مانع از بارگذاری تصادفی اضافی می‌شوند. در صورت لزوم می‌توانید این محدودیت‌ها را اینجا تنظیم کنید، اما باید آگاه باشید که بارگذاری مدل‌ها نزدیک به محدودیت سیستم ممکن است پایداری را کاهش دهد.", + "modelLoadingGuardrails.value.off": "خاموش (توصیه نمی‌شود)", + "modelLoadingGuardrails.value.off/subTitle": "بدون احتیاط در برابر بارگذاری زیاد سیستم", + "modelLoadingGuardrails.value.off/detail": "جزئیات خاموش", + "modelLoadingGuardrails.value.low": "آزاد", + "modelLoadingGuardrails.value.low/subTitle": "احتیاط جزئی در برابر بارگذاری زیاد سیستم", + "modelLoadingGuardrails.value.low/detail": "جزئیات آزاد", + "modelLoadingGuardrails.value.medium": "متعادل", + "modelLoadingGuardrails.value.medium/subTitle": "احتیاط متوسط در برابر بارگذاری زیاد سیستم", + "modelLoadingGuardrails.value.medium/detail": "جزئیات متعادل", + "modelLoadingGuardrails.value.high": "سختگیرانه", + "modelLoadingGuardrails.value.high/subTitle": "احتیاط قوی در برابر بارگذاری زیاد سیستم", + "modelLoadingGuardrails.value.high/detail": "جزئیات سختگیرانه", + "modelLoadingGuardrails.value.custom": "دلخواه", + "modelLoadingGuardrails.value.custom/subTitle": "تنظیم محدودیت‌های دلخواه برای بارگذاری مدل‌ها", + "modelLoadingGuardrails.value.custom/detail": "جزئیات سفارشی""modelLoadingGuardrails.custom.label": "محدودیت حافظه: ", + "modelLoadingGuardrails.custom.unitGB": "گیگابایت", + "modelLoadingGuardrails.custom.description": "محدودیت حافظه سفارشی برای بارگذاری مدل تنظیم کنید. اگر بارگذاری مدل‌ها از این محدودیت فراتر رود، بارگذاری انجام نمی‌شود.", + "experimentalLoadPresets": "فعال‌سازی پشتیبانی از پیکربندی بارگذاری مدل در پیش‌فرض‌ها", + "experimentalLoadPresets.description": "آیا اجازه دهید پیش‌فرض‌ها شامل پیکربندی‌های بارگذاری مدل باشند. این ویژگی آزمایشی است و ما بازخوردها را خوشامد می‌گوییم.", + "promptWhenCommittingUnsavedChangesWithNewFields": "پیش‌فرض‌ها: نمایش پنجره تأیید هنگام اعمال فیلدهای جدید به پیش‌فرض", + "promptWhenCommittingUnsavedChangesWithNewFields.description": "این ویژگی زمانی مفید است که بخواهید از اضافه کردن تصادفی فیلدهای جدید به پیش‌فرض‌ها جلوگیری کنید.", + "autoStartOnLogin": "راه‌اندازی سرویس LLM هنگام ورود به سیستم", + "autoStartOnLogin.description": "به‌طور خودکار سرویس LLM را هنگام ورود به کامپیوترتان راه‌اندازی کنید.", + "expandConfigsOnClick": "گسترش پیکربندی‌ها با کلیک به جای قرار دادن ماوس", + "migrateChats": { + "label": "مهاجرت چت‌های قبل از نسخه 0.3.0", + "hasBetterLabel": "مهاجرت مجدد چت‌های قبل از نسخه 0.3.0", + "action_one": "مهاجرت 1 چت", + "action_other": "مهاجرت {{count}} چت", + "inProgress": "در حال مهاجرت چت‌ها...", + "hint": { + "primary": "ما ساختار داده داخلی چت‌های نسخه 0.3.0 و بالاتر را بازنگری کرده‌ایم تا ویژگی‌هایی مانند پیام‌های چت چندنسخه‌ای را پشتیبانی کنیم. برای نمایش چت‌های قدیمی‌تر در اپلیکیشن، آنها باید به فرمت جدید مهاجرت کنند.", + "details": "فرآیند مهاجرت چت‌های قدیمی شما را حذف نمی‌کند، بلکه نسخه‌ای از آنها را در فرمت جدید ایجاد می‌کند.", + "footer": "شما هنوز می‌توانید به چت‌های قدیمی خود از نسخه‌های قدیمی‌تر LM Studio دسترسی پیدا کنید. در حال حاضر، تصاویر به‌طور خودکار مهاجرت نخواهند شد." + }, + "hasBetterHint": { + "primary": "ما مهاجرت چت‌ها را بهبود داده‌ایم از زمانی که چت‌های قدیمی خود را مهاجرت کرده‌اید. آیا می‌خواهید آن را دوباره اجرا کنید؟", + "details": "فرآیند مهاجرت یک پوشه جدید ایجاد می‌کند تا چت‌های جدید مهاجرت شده در آن قرار گیرند. چت‌های قدیمی شما دست نخورده باقی خواهند ماند.", + "footer": "شما هنوز می‌توانید به چت‌های قدیمی خود از نسخه‌های قدیمی‌تر LM Studio دسترسی پیدا کنید. در حال حاضر، تصاویر به‌طور خودکار مهاجرت نخواهند شد." + }, + "success": "چت‌ها با موفقیت مهاجرت شدند!", + "success_one": "چت 1 با موفقیت مهاجرت شد", + "success_other": "چت‌های {{count}} با موفقیت مهاجرت شدند", + "showInstructionsButton": "نمایش دستورالعمل‌ها", + "footerCardText": "چت‌های نسخه‌های قبلی LM Studio باید مهاجرت کنند تا در این نسخه استفاده شوند.", + "hasBetterFooterCardText": "ما مهاجرت چت‌ها را بهبود داده‌ایم از زمانی که چت‌های قدیمی خود را مهاجرت کرده‌اید. شما می‌توانید فرآیند مهاجرت را دوباره اجرا کنید. (ما یک پوشه جدید برای قرار دادن چت‌های جدید مهاجرت شده ایجاد خواهیم کرد.)", + "dismissConfirm": "رد کردن", + "dismissConfirmDescription": "شما همیشه می‌توانید مهاجرت چت‌ها را از طریق تنظیمات مدیریت کنید." + } \ No newline at end of file diff --git a/fa/shared.json b/fa/shared.json new file mode 100644 index 00000000..74cf1de3 --- /dev/null +++ b/fa/shared.json @@ -0,0 +1,5 @@ +{ + "copyLmStudioLinkButton/toolTip": "کپی لینک دانلود مدل", + + "filter.noMatches": "هیچ تطابقی یافت نشد" +} \ No newline at end of file diff --git a/fa/sidebar.json b/fa/sidebar.json new file mode 100644 index 00000000..41e5d5ef --- /dev/null +++ b/fa/sidebar.json @@ -0,0 +1,9 @@ +{ + "chat": "چت", + "discover": "کشف", + "myModels": "مدل‌های من", + "developer": "توسعه‌دهنده", + "runtimes": "زمان‌اجراها", + "settings": "تنظیمات", + "download": "دانلودها" +} \ No newline at end of file