@onnx_runtime_standalone
部署和管理 ONNX 运行时作为 KYC 验证管道模型的独立推理运行时的技能。 ONNX Runtime 提供了 Triton 推理服务器的轻量级替代方案,适用于更简单的部署场景、边缘计算或企业 GPU 基础设施不可用的环境。支持使用可互换的提供程序(CUDA、TensorRT、OpenVINO、DirectML)在 CPU 和 GPU 上执行。
部署和管理 ONNX 运行时作为 KYC 验证管道模型的独立推理运行时的技能。 ONNX Runtime 提供了 Triton 推理服务器的轻量级替代方案,适用于更简单的部署场景、边缘计算或企业 GPU 基础设施不可用的环境。支持使用可互换的提供程序(CUDA、TensorRT、OpenVINO、DirectML)在 CPU 和 GPU 上执行。