「整个行业都希望能干掉 CUDA,包括谷歌、OpenAI 等公司都在想方设法让人工智能训练更加开放。我们认为 CUDA 的护城河既浅又窄。」在去年年底的一场活动上,英特尔 CEO 帕特·基辛格(Pat Gelsinger)语出惊人地指出了对于英伟达 CUDA 平台的看法。
但即便基辛格认为 CUDA 的护城河「既窄又浅」,他也明白挑战在人工智能训练上挑战英伟达,绝非易事。
根据路透社报道,Linux 基金会联合英特尔、谷歌、高通、ARM 以及三星等公司成立了统一加速基金会(UXL),以英特尔的 oneAPI 为起点,正在开发一套开源软件套件,允许人工智能开发者在任何 AI 芯片上运行他们的代码。
首先我们需要明白,CUDA 既是一种编程语言,也是一种编译器。
作为编程语言,CUDA 是开发者通过 CUDA 与底层硬件(GPU)沟通、调用算力的一种方式,新建一套新的编程语言并不难。作为编译器,CUDA 无疑有很高的性能,这意味着开发者可以通过 CUDA 在 GPU 上更高效地执行程序,用更容易理解的话说: CUDA 可以高效地利用 GPU 的峰值算力。