diff --git a/README.md b/README.md index 8595fabd..c0197624 100644 --- a/README.md +++ b/README.md @@ -23,11 +23,11 @@ LM Studio localization - Vietnamese [@trinhvanminh](https://github.com/trinhvanminh), [@godkyo98](https://github.com/godkyo98) - Portuguese (BR) [@Sm1g00l](https://github.com/Sm1g00l), [@altiereslima](https://github.com/altiereslima) - Portuguese (PT) [@catarino](https://github.com/catarino) -- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs] (https://github.com/Mabbs), [@WhatDamon] (https://github.com/WhatDamon) -- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978] (https://github.com/AlphaSu1978), [@HJ-zhtw] (https://github.com/HJ-zhtw) +- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs](https://github.com/Mabbs), [@WhatDamon](https://github.com/WhatDamon) +- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978](https://github.com/AlphaSu1978), [@HJ-zhtw](https://github.com/HJ-zhtw) - Chinese (zh-Hant) [@kywarai](https://github.com/kywarai), [ceshizhuanyong895](https://github.com/ceshizhuanyong895) - Ukrainian (uk) [@hmelenok](https://github.com/hmelenok) -- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai] (https://github.com/dai) +- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai](https://github.com/dai) - Dutch (nl) [@alaaf11](https://github.com/alaaf11) - Italian (it) [@fralapo](https://github.com/fralapo), [@Bl4ck-D0g](https://github.com/Bl4ck-D0g), [@nikypalma](https://github.com/nikypalma) - Indonesian (id) [@dwirx](https://github.com/dwirx) @@ -47,5 +47,5 @@ LM Studio localization Still under development (due to lack of RTL support in LM Studio) - Hebrew: [@NHLOCAL](https://github.com/NHLOCAL) -- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev]((https://github.com/darwindev) +- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev](https://github.com/darwindev) - Arabic (ar) [@haqbany](https://github.com/haqbany) diff --git a/ja/config.json b/ja/config.json index bb475d14..7bf5ba4c 100644 --- a/ja/config.json +++ b/ja/config.json @@ -136,10 +136,13 @@ "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります", - "llm.load.seed/title": "Seed", + "llm.load.seed/title": "シード", "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです", "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", - + "llm.load.numCpuExpertLayersRatio/title": "モデルエキスパート重みをCPUに強制", + "llm.load.numCpuExpertLayersRatio/subTitle": "MoEエキスパート重みをCPU RAMに強制するかどうか。VRAMを節約でき、部分的なGPUオフロードより高速になる場合があります。モデルがVRAMに完全に収まる場合は推奨されません。", + "llm.load.numCpuExpertLayersRatio/info": "すべてのMoEエキスパートレイヤーをCPU RAMに配置するかどうかを指定します。注意レイヤーはGPUに残り、VRAMを節約しながら推論を比較的高速に保ちます。", + "llm.load.numCpuExpertLayersRatio/turnedOnWarning": "⚠️ モデルがVRAMに完全に収まる場合は、これを無効にする必要があります", "llm.load.llama.evalBatchSize/title": "評価バッチサイズ", "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します", @@ -372,21 +375,21 @@ "presets": { "title": "プリセット", - "commitChanges": "変更をコミット", - "commitChanges/description": "変更をプリセットにコミットします。", - "commitChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", - "commitChanges.manual.hold.0": "押しながら", - "commitChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。", - "commitChanges.saveAll.hold.0": "押しながら", - "commitChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", - "commitChanges.saveInPreset.hold.0": "押しながら", - "commitChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", - "commitChanges/error": "プリセットへの変更のコミットに失敗しました。", - "commitChanges.manual/description": "プリセットに含める変更を選択してください。", + "saveChanges": "保存", + "saveChanges/description": "プリセットへの変更を保存します。", + "saveChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", + "saveChanges.manual.hold.0": "押しながら", + "saveChanges.manual.hold.1": "をクリックして、プリセットに保存する変更を選択してください。", + "saveChanges.saveAll.hold.0": "押しながら", + "saveChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", + "saveChanges.saveInPreset.hold.0": "押しながら", + "saveChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", + "saveChanges/error": "プリセットへの変更の保存に失敗しました。", + "saveChanges.manual/description": "プリセットに含める変更を選択してください。", "saveAs": "新規保存...", "presetNamePlaceholder": "プリセットの名前を入力...", "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。", - "cannotCommitChangesNoChanges": "コミットする変更がありません。", + "cannotSaveChangesNoChanges": "保存する変更がありません。", "emptyNoUnsaved": "プリセットを選択...", "emptyWithUnsaved": "未保存のプリセット", "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...", @@ -399,7 +402,7 @@ "select/error": "プリセットの選択に失敗しました。", "delete/error": "プリセットの削除に失敗しました。", "discardChanges": "未保存を破棄", - "discardChanges/info": "すべての未コミット変更を破棄し、プリセットを元の状態に復元します", + "discardChanges/info": "すべての未保存の変更を破棄し、プリセットを元の状態に復元します", "newEmptyPreset": "+ 新しいプリセット", "importPreset": "インポート", "contextMenuCopyIdentifier": "プリセット識別子をコピー", diff --git a/ja/developer.json b/ja/developer.json index 87be85ed..38682c3a 100644 --- a/ja/developer.json +++ b/ja/developer.json @@ -47,6 +47,15 @@ "serverOptions/jitModelLoadingTTL/ttl/unit": "分", "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持", "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)", + "serverOptions/allowMcp/title": "リモートMCPを許可", + "serverOptions/allowMcp/hint": "有効にすると、サーバーリクエストがリモートMCPを使用できるようになります。MCPサーバーを使用する際は常に注意してください。安全でない可能性があります。", + "serverOptions/allowMcp/mode/off": "オフ", + "serverOptions/allowMcp/mode/off/hint": "サーバーリクエストがMCPを使用することを許可しない", + "serverOptions/allowMcp/mode/remote": "リモート", + "serverOptions/allowMcp/mode/remote/hint": "リモートMCPサーバーへの接続を許可します", + + "serverOptions/allowMcp/mode/all": "すべて", + "serverOptions/allowMcp/mode/all/hint": "リモートMCPサーバーとmcp.jsonで定義されたローカルMCPサーバーへの接続を許可します", "serverLogs/scrollToBottom": "一番下に移動", "serverLogs/clearLogs": "ログをクリア ({{shortcut}})", @@ -132,7 +141,7 @@ "quickDocs": { "tabChipTitle": "クイックドキュメント", - "newToolUsePopover": "コードスニペットが\"クイックドキュメント\"で利用可能になりました。ツールの使い方はこちらをクリック!", + "newToolUsePopover": "コードスニペットが\"クイックドキュメント\"で利用可能になりました。Tool Useの使い方はこちらをクリック!", "newToolUsePopoverTitle": "📚 クイックドキュメント", "learnMore": "ℹ️ 👾 LM Studioローカルサーバーのエンドポイントについて詳しくは[ドキュメント](https://lmstudio.ai/docs)をご覧ください。", "helloWorld": { @@ -151,7 +160,7 @@ "title": "埋め込み" }, "toolUse": { - "title": "ツール利用", + "title": "Tool Use", "tab": { "saveAsPythonFile": "Pythonファイルとして保存", "runTheScript": "スクリプトを実行:", @@ -161,18 +170,25 @@ "newBadge": "新規" }, - "endpoints/openaiCompatRest/title": "対応エンドポイント(OpenAI互換)", + "endpoints/openaiCompatRest/title": "対応エンドポイント{{extra}}", + "endpoints/openaiCompatRest/segmentedLabel": "OpenAI 互換", "endpoints/openaiCompatRest/getModels": "現在ロードされているモデル一覧", "endpoints/openaiCompatRest/postCompletions": "テキスト補完モード。プロンプトに基づき次のトークンを予測します。※OpenAIではこのエンドポイントは非推奨です。", "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します", "endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。", + "endpoints/openaiCompatRest/postResponses": "モデル応答を生成するための高度なインターフェース。前の応答のIDを次の入力として渡すことで、状態を持つインタラクションを作成します。", + "endpoints/lmStudioRest/segmentedLabel": "LM Studio", + "endpoints/lmStudioRestV1/getModels": "利用可能なモデルの一覧", + "endpoints/lmStudioRestV1/postModelsLoad": "オプションを指定してモデルをロード", + "endpoints/lmStudioRestV1/postModelsDownload": "モデルをダウンロード", + "endpoints/lmStudioRestV1/postChat": "モデルとのチャット。状態を持つマルチターン会話とMCPをサポート", "model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存", "model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました", "model": { - "toolUseSectionTitle": "ツール利用", - "toolUseDescription": "このモデルはツール利用向けに訓練されています\n\n詳細はクイックドキュメントをご覧ください" + "toolUseSectionTitle": "Tool Use(ツール利用)", + "toolUseDescription": "このモデルはTool Use向けに訓練されています\n\n詳細はクイックドキュメントをご覧ください" }, "apiConfigOptions/title": "API設定" diff --git a/ja/models.json b/ja/models.json index fb8d9821..c6f40c9a 100644 --- a/ja/models.json +++ b/ja/models.json @@ -32,6 +32,7 @@ "loader.model.bundled": "バンドル済み", "action.cancel": "キャンセル", "indexingOngoing": "モデルをインデックス中... しばらくお待ちください", + "indexingPageLoaderText": "モデルをインデックス中...", "index/error_one": "次のフォルダーのインデックス作成に失敗しました:", "index/error_other": "次のフォルダーのインデックス作成に失敗しました:", "badModels/title_one": "次のモデルのインデックス作成に失敗しました:", @@ -63,7 +64,7 @@ "loadState/idle": "アイドル", "pinned": "このモデルはピン留めされています。右クリックしてピン留めを解除します。", "lastUsed": "最終使用", - "contextMenu/pin": "上にピン留め", + "contextMenu/pin": "上部にピン留め", "contextMenu/unpin": "ピン留めを解除", "contextMenu/copyAbsolutePath": "絶対パスをコピー", "contextMenu/copyModelName": "モデル名をコピー", @@ -84,10 +85,10 @@ "tooltip/editModelDefaultConfig": "モデルのデフォルト設定を編集", "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)", "tooltip/visionBadge": "このモデルは画像入力を処理できます", - "tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています", + "tooltip/toolUseBadge": "このモデルはTool Useのためにトレーニングされています", "visionBadge/label": "Vision は有効です", - "toolUseBadge/label": "ツール使用のためにトレーニングされています", + "toolUseBadge/label": "Tool Useのためにトレーニングされています", "loader.action.load": "モデルを読み込む", "loader.action.clearChanges": "変更をクリア", @@ -95,6 +96,16 @@ "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます", "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します", "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります", + "loader.guardrails.estimatedMemoryUsage": "推定メモリ使用量:", + "loader.guardrails.total": "計", + "loader.guardrails.gpu": "GPU", + "loader.guardrails.unavailable": "このモデルのメモリ推定値は利用できません", + "loader.guardrails.notEnoughResources": "現在の設定でモデルを読み込むためのリソースが不足しています", + "loader.guardrails.notEnoughResources/moreInfo": "詳細情報", + "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "システムにこのモデルを読み込むのに十分なメモリがないようです。", + "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "設定でモデルの読み込み制限を調整するか、 を押しながら操作すると、制限を無視して読み込めます。", + "loader.guardrails.notEnoughResources.moreInfoSection.warning": "大きすぎるモデルを読み込むと、システムがオーバーロードされてフリーズする可能性があります。", + "loader.guardrails.notEnoughResources.alwaysAllowLoadAnyway": "(推奨しません) Alt/Optionを押さずに「とにかく読み込む」を常に許可", "virtual": { "local": { @@ -110,6 +121,12 @@ "next": "次へ", "confirm": "作成", "error": "仮想モデルの作成に失敗しました" + }, + "altsSelect": { + "title": "モデルソースの選択", + "resetButton": "デフォルトにリセット", + "description": "このモデルには複数の可能なソースがあります。モデルが読み込まれたときにデフォルトで使用するソースを選択してください。", + "trigger": "モデルのバリアント" } } } diff --git a/ja/onboarding.json b/ja/onboarding.json index cbeebd97..b1242d83 100644 --- a/ja/onboarding.json +++ b/ja/onboarding.json @@ -31,9 +31,9 @@ }, "step_1": { "title": "Tool Useを開始する", - "toolUseCanWorkWithAnyModel": "ツール使用のためにトレーニングされたモデルは他のモデルよりも優れたパフォーマンスを発揮しますが、あらゆるモデルでツールを使用しようとすることができます。詳細については、ドキュメントをお読みください。\nツール使用のためにトレーニングされたモデルには新しいバッジが付けられます:", + "toolUseCanWorkWithAnyModel": "Tool Use のためにトレーニングされたモデルは他のモデルよりも優れたパフォーマンスを発揮しますが、あらゆるモデルでツールを使用しようとすることができます。詳細については、ドキュメントをお読みください。\nTool Use のためにトレーニングされたモデルには新しいバッジが付けられます:", "hasCompatibleModel": "🎉 すでにツールサポートのあるモデルをお持ちのようです!", - "downloadRecommendedModel": "ツール使用のためにトレーニングされたモデルをダウンロード:" + "downloadRecommendedModel": "Tool Use のためにトレーニングされたモデルをダウンロード:" }, "nextButton": "次へ", "letsGoButton": "モデルを読み込み、サーバーを起動", diff --git a/ja/settings.json b/ja/settings.json index 5b96a6c8..5142b7d0 100644 --- a/ja/settings.json +++ b/ja/settings.json @@ -30,7 +30,7 @@ "updateDownloaded": "アプリを再起動して更新を適用する必要があります", "restartAppToUpdate": "アプリを再起動して更新を適用します", "appUpdatedToastTitle": "{{title}}に更新されました", - "appUpdatedToastDescriptionPrefix": "を表示", + "appUpdatedToastDescriptionPrefix": "表示 →", "AppUpdatedToastDescriptionReleaseNotes": "リリースノート", "toolUseToastTitle": "ベータの新機能: Tool Use と Function Calls API", "toolUseToastDescription": "Llama 3.1/3.2、Mistral、Qwen などの一部モデルで OpenAI Tool Use をそのまま置き換えて利用できます。", @@ -92,6 +92,7 @@ "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)", "developerLabel": "開発者", "localServiceLabel": "ローカルLLMサービス (ヘッドレス)", + "modelDefaultsLabel": "モデルのデフォルト設定", "showExperimentalFeaturesLabel": "実験的機能を表示", "appFirstLoadLabel": "アプリ初回ロード体験", "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示", @@ -136,6 +137,7 @@ "modelLoadingGuardrails.custom.label": "メモリ制限: ", "modelLoadingGuardrails.custom.unitGB": "GB", "modelLoadingGuardrails.custom.description": "モデルの読み込みに対するカスタムメモリ制限を設定します。この制限を超えるモデルは読み込まれません。", + "modelLoadingGuardrails.alwaysAllowLoadAnyway": "(推奨しません) Alt/Optionを押さずに「とにかく読み込む」を常に許可", "experimentalLoadPresets": "モデル読み込みのプリセットにおける設定サポートを有効にする", "experimentalLoadPresets.description": "プリセットがモデル読み込み設定を含むことを許可するかどうかを指定します。この機能は実験的であり、フィードバックを歓迎します。", @@ -183,7 +185,7 @@ "dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。" }, "toolConfirmation": { - "label": "Tool Call 確認", + "label": "ツール呼び出しの確認", "neverAsk": { "label": "ツールを実行する前に確認を求めない (推奨しません)", "hint": "ツールを実行する前の確認を無効にします。これは推奨されません。", @@ -191,5 +193,19 @@ "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。", "warnButton": "リスクを理解しました" } + }, + + "defaultContextLength": { + "label": "デフォルトのコンテキスト長", + "maxTitle": "モデルの最大値", + "customTitle": "カスタム値", + "maxSubtitle": "各モデルがサポートする最大のコンテキスト長を使用します。", + "customSubtitle": "新しいモデルを読み込む際のデフォルトのコンテキスト長を設定します。モデルが対応する最大コンテキスト長がより短い場合は、その値が使用されます。", + "invalidNaNError": "無効なコンテキスト長の値です。{{value}} を使用します。", + "invalidRangeError": "無効なコンテキスト長の値です。1から2^30の範囲で指定してください。{{value}} を使用します。", + "largeContextWarning": "コンテキスト長が大きいほど、モデルが使用するメモリも増加します。よく分からない場合は、デフォルト値を変更しないでください。" + }, + "jitTTL": { + "subtitle": "JIT で読み込まれたモデルは、指定された時間アイドル状態が続くと自動的にアンロードされます。" } } diff --git a/ja/shared.json b/ja/shared.json index 4f8b551e..80497b26 100644 --- a/ja/shared.json +++ b/ja/shared.json @@ -50,6 +50,7 @@ "pending": "保留中", "doneWithExclamation": "完了!", "done": "完了", + "beta": "ベータ", "complete": { "completeWithEllipsis": "完了...",