Skip to content

Conversation

@zakki
Copy link
Contributor

@zakki zakki commented Jan 25, 2025

推論部分をONNX Runtimeにしてみる実験しました。
Core(TM) i7-1355U では PyTorchでのCPU推論に比べて、ONNX RuntimeとDirectMLによる統合GPUによる推論で3~4倍速くらいになりそうです。

@zakki
Copy link
Contributor Author

zakki commented Jan 25, 2025

"CoreMLExecutionProvider" でMacの人も高速化するかもしれません。
https://onnxruntime.ai/docs/execution-providers/CoreML-ExecutionProvider.html

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

1 participant