來源:大半導體產(chǎn)業(yè)網(wǎng) 據(jù)報道,近日,谷歌和柏林工業(yè)大學的團隊重磅推出了史上最大的視覺語言模型——PaLM-E。通過PaLM-540B語言模型與ViT-22B視覺Transformer模型相結合,PaLM-E參數(shù)量高達5620億(GPT-3的參數(shù)量為1750億)。 作為一種多模態(tài)具身視覺語言模型(VLM),PaLM-E不僅可以理解圖像,還能理解、生成語言,可以執(zhí)行各種復雜的機器人指令而無需重新訓練。谷歌研究人員還觀察到一些有趣的效果,這些效果顯然來自PaLM-E的核心——大型語言模型。PaLM-E表現(xiàn)出了“正遷移”能力,即它可以將從一項任務中學到的知識和技能遷移到另一項任務中,從而與單任務機器人模型相比具有“顯著更高的性能”。 谷歌研究人員計劃探索PaLM-E在現(xiàn)實世界場景中的更多應用,例如家庭自動化或工業(yè)機器人。他們希望PaLM-E能夠激發(fā)更多關于多模態(tài)推理和具身AI的研究。 |