Skip to content
Open
Show file tree
Hide file tree
Changes from 9 commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
8 changes: 4 additions & 4 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -23,11 +23,11 @@ LM Studio localization
- Vietnamese [@trinhvanminh](https://github.com/trinhvanminh), [@godkyo98](https://github.com/godkyo98)
- Portuguese (BR) [@Sm1g00l](https://github.com/Sm1g00l), [@altiereslima](https://github.com/altiereslima)
- Portuguese (PT) [@catarino](https://github.com/catarino)
- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs] (https://github.com/Mabbs), [@WhatDamon] (https://github.com/WhatDamon)
- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978] (https://github.com/AlphaSu1978), [@HJ-zhtw] (https://github.com/HJ-zhtw)
- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs](https://github.com/Mabbs), [@WhatDamon](https://github.com/WhatDamon)
- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978](https://github.com/AlphaSu1978), [@HJ-zhtw](https://github.com/HJ-zhtw)
- Chinese (zh-Hant) [@kywarai](https://github.com/kywarai), [ceshizhuanyong895](https://github.com/ceshizhuanyong895)
- Ukrainian (uk) [@hmelenok](https://github.com/hmelenok)
- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai] (https://github.com/dai)
- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai](https://github.com/dai)
- Dutch (nl) [@alaaf11](https://github.com/alaaf11)
- Italian (it) [@fralapo](https://github.com/fralapo), [@Bl4ck-D0g](https://github.com/Bl4ck-D0g), [@nikypalma](https://github.com/nikypalma)
- Indonesian (id) [@dwirx](https://github.com/dwirx)
Expand All @@ -47,5 +47,5 @@ LM Studio localization

Still under development (due to lack of RTL support in LM Studio)
- Hebrew: [@NHLOCAL](https://github.com/NHLOCAL)
- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev]((https://github.com/darwindev)
- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev](https://github.com/darwindev)
- Arabic (ar) [@haqbany](https://github.com/haqbany)
7 changes: 5 additions & 2 deletions ja/config.json
Original file line number Diff line number Diff line change
Expand Up @@ -136,10 +136,13 @@
"llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください",
"llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します",
"llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります",
"llm.load.seed/title": "Seed",
"llm.load.seed/title": "シード",
"llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです",
"llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します",

"llm.load.numCpuExpertLayersRatio/title": "モデルエキスパート重みをCPUに強制",
"llm.load.numCpuExpertLayersRatio/subTitle": "MoEエキスパート重みをCPU RAMに強制するかどうか。VRAMを節約でき、部分的なGPUオフロードより高速になる場合があります。モデルがVRAMに完全に収まる場合は推奨されません。",
"llm.load.numCpuExpertLayersRatio/info": "すべてのMoEエキスパートレイヤーをCPU RAMに配置するかどうかを指定します。注意レイヤーはGPUに残り、VRAMを節約しながら推論を比較的高速に保ちます。",
"llm.load.numCpuExpertLayersRatio/turnedOnWarning": "⚠️ モデルがVRAMに完全に収まる場合は、これを無効にする必要があります",
"llm.load.llama.evalBatchSize/title": "評価バッチサイズ",
"llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します",
"llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します",
Expand Down
17 changes: 16 additions & 1 deletion ja/settings.json
Original file line number Diff line number Diff line change
Expand Up @@ -92,6 +92,7 @@
"changeLanguageLabel": "アプリの言語を選択 (まだ開発中)",
"developerLabel": "開発者",
"localServiceLabel": "ローカルLLMサービス (ヘッドレス)",
"modelDefaultsLabel": "モデルのデフォルト設定",
"showExperimentalFeaturesLabel": "実験的機能を表示",
"appFirstLoadLabel": "アプリ初回ロード体験",
"showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示",
Expand Down Expand Up @@ -183,13 +184,27 @@
"dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。"
},
"toolConfirmation": {
"label": "Tool Call 確認",
"label": "ツール呼び出しの確認",
"neverAsk": {
"label": "ツールを実行する前に確認を求めない (推奨しません)",
"hint": "ツールを実行する前の確認を無効にします。これは推奨されません。",
"warnTitle": "本当によろしいですか?",
"warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。",
"warnButton": "リスクを理解しました"
}
},

"defaultContextLength": {
"label": "デフォルトのコンテキスト長",
"maxTitle": "モデルの最大値",
"customTitle": "カスタム値",
"maxSubtitle": "各モデルがサポートする最大のコンテキスト長を使用します。",
"customSubtitle": "新しいモデルを読み込む際のデフォルトのコンテキスト長を設定します。モデルが対応する最大コンテキスト長がより短い場合は、その値が使用されます。",
"invalidNaNError": "無効なコンテキスト長の値です。{{value}} を使用します。",
"invalidRangeError": "無効なコンテキスト長の値です。1から2^30の範囲で指定してください。{{value}} を使用します。",
"largeContextWarning": "コンテキスト長が大きいほど、モデルが使用するメモリも増加します。よく分からない場合は、デフォルト値を変更しないでください。"
},
"jitTTL": {
"subtitle": "JIT で読み込まれたモデルは、指定された時間アイドル状態が続くと自動的にアンロードされます。"
}
}