lynx   »   [go: up one dir, main page]

arutema47's blog

書いたり書かなかったり。

2024-05-13から1日間の記事一覧

TensorRT-LLMでLLM推論高速化

TensorRT-LLMとは TensorRTをLLM用に多数の推論高速化技術を入れたNvidiaのオープンソースフレームワーク。 GPUメモリ使用率を半分に低減し、速度も1.5-2倍程度改善してくれる強力なフレームワーク。 www.alibabacloud.com TensorRT-LLMについてはこちらのAl…

Лучший частный хостинг