近日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關(guān)模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個(gè)版本,允許學(xué)術(shù)及商業(yè)使用。
Meta 認(rèn)為,盡管業(yè)界各大語(yǔ)言模型已在各種編程代碼任務(wù)中展現(xiàn)了出色的能力,但此類模型在代碼優(yōu)化還有進(jìn)步空間,目前推出的 LLM Compiler 模型便是一款專為優(yōu)化代碼任務(wù)設(shè)計(jì)的預(yù)訓(xùn)練模型,能夠模擬編譯器對(duì)代碼進(jìn)行優(yōu)化,或?qū)ⅰ耙呀?jīng)過優(yōu)化的代碼轉(zhuǎn)換回原本的語(yǔ)言”。
LLM Compiler 在 5460 億個(gè) LLVM-IR 和匯編代碼標(biāo)記的龐大語(yǔ)料庫(kù)上進(jìn)行了訓(xùn)練,據(jù)稱能夠達(dá)到 77% 的“代碼優(yōu)化潛力”,開發(fā)者可以自由將相關(guān)模型配合其他 AI 模型一起使用,從而改善生成代碼的質(zhì)量。
原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.rponds.cn/article/664475.html