CPU・GPUで推論を実行するモデルのトレーニングとデプロイ設定

CPUで推論を実行するモデル

モデルをCPUで推論を実行する場合、トレーニングパラメータで モデルタイプ軽量(CPUを推奨) を選択してください。

../../../_images/instance_cpu_training.png

展開するデバイスに CPU を選択します。

../../../_images/instance_cpu_deployment.png

GPUで推論を実行するモデル

モデルをGPUで推論を実行する場合、トレーニングパラメータで モデルタイプ軽量(GPUを推奨) を選択してください。

../../../_images/instance_gpu_training.png

エクスポートするモデルタイプとデプロイするデバイスのGPU型番が一致しなければ、モデルを使用することはできません。したがって、デプロイ設定で GPU を選択します。モデルのトレーニングとデプロイに使用する産業用コンピュータのGPU型番が一致する場合にのみエクスポートするモデルタイプを dlkmt を選択します。これ以外の場合に dlkmo を選択します。

../../../_images/instance_gpu_deployment.png