Meta 推出 LLM Compiler 代碼優(yōu)化模型,可搭配其他 AI 改善代碼生成 / 編譯能力

近日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關(guān)模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個(gè)版本,允許學(xué)術(shù)及商業(yè)使用。

近日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關(guān)模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個(gè)版本,允許學(xué)術(shù)及商業(yè)使用。

Meta 推出 LLM Compiler 代碼優(yōu)化模型,可搭配其他 AI 改善代碼生成 / 編譯能力

Meta 認(rèn)為,盡管業(yè)界各大語(yǔ)言模型已在各種編程代碼任務(wù)中展現(xiàn)了出色的能力,但此類模型在代碼優(yōu)化還有進(jìn)步空間,目前推出的 LLM Compiler 模型便是一款專為優(yōu)化代碼任務(wù)設(shè)計(jì)的預(yù)訓(xùn)練模型,能夠模擬編譯器對(duì)代碼進(jìn)行優(yōu)化,或?qū)ⅰ耙呀?jīng)過優(yōu)化的代碼轉(zhuǎn)換回原本的語(yǔ)言”。

LLM Compiler 在 5460 億個(gè) LLVM-IR 和匯編代碼標(biāo)記的龐大語(yǔ)料庫(kù)上進(jìn)行了訓(xùn)練,據(jù)稱能夠達(dá)到 77% 的“代碼優(yōu)化潛力”,開發(fā)者可以自由將相關(guān)模型配合其他 AI 模型一起使用,從而改善生成代碼的質(zhì)量。

原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.rponds.cn/article/664475.html

蘋果派的頭像蘋果派管理團(tuán)隊(duì)

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評(píng)論