Figure簡歷數量暴漲218%;阿里云成立聯盟推進大模型應用;印度政府批準1030億盧比AI項目丨AIGC大事日報

1、Inflection-2.5用40%計算量實現近GPT-4性能

2、谷歌新API實現手機PC大模型端側運行

3、OpenAI CTO被曝是罷免事件關鍵人物

4、印度政府批準1030億盧比AI項目 要做大模型

5、美團、浙大提出視覺任務統一架構VisionLLAMA

6、阿里云成立物流智能聯盟 專注大模型應用實踐

7、Figure創始人稱簡歷數量暴漲218%

1、Inflection-2.5用40%計算量實現近GPT-4性能

昨天,AI創企Inflection AI發布了最新AI大模型Inflection-2.5,并將其用在了自家聊天機器人產品Pi中。Inflection AI稱該模型為“最好的個人AI”。

Inflection-2.5在基準測試中的性能與GPT-4接近,但訓練計算量只有GPT-4的40%。

Inflection-2.5已經向所有Pi用戶開放,用戶可通過pi.ai、iOS、Android或新的桌面端應用程序使用該模型。

2、谷歌新API實現手機PC大模型端側運行

昨天,谷歌正式發布了MediaPipe LLM Inference API,該API可以讓開發人員更便捷地在手機、PC等設備上本地運行AI大模型。

谷歌對跨設備堆棧進行了重點優化,包括新的操作、量化、緩存和權重共享。谷歌稱,MediaPipe已經支持了四種模型:Gemma、Phi 2、Falcon 和Stable LM,這些模型可以在網頁、安卓、iOS設備上運行,谷歌還計劃將這一功能擴展到更多平臺上。

3、OpenAI CTO被曝是罷免事件關鍵人物

今天,據紐約時報報道,OpenAI罷免Sam Altman的更多細節浮出水面:OpenAI首席技術官Mira Murati去年曾向董事會提出了有關Altman管理的問題,包括她的擔憂和質疑,隨后Altman被短暫逐出公司。

4、印度政府批準1030億盧比AI項目 要做大模型

據路透社報道,昨日印度政府批準了一項1030億盧比(約合人民幣89億元)的AI項目投資,該項目包括開發計算基礎設施和開發大模型。此外,這筆資金還將用于資助AI初創企業,以及為公共部門開發AI應用程序。

5、美團、浙大提出視覺任務統一架構VisionLLAMA

3月1日,來自美團、浙大的研發成員近日共同發布了一篇論文《VisionLLaMA:以視覺任務為主的LLaMA架構》。他們希望通過Meta開源LLaMA架構在視覺領域應用,實現語言和圖像架構的統一。經過研究,他們發現VisionLLaMA在圖像生成(包含Sora依賴的底層的DIT)和理解(分類、分割、檢測、自監督)等多個主流任務上相較于原ViT類方法提升顯著。論文顯示,該研究在統一圖像和語言架構方面的嘗試,可以復用LLM社區在LLaMA上的訓練(穩定且有效的scaling)、部署等一系列成果。

論文地址:https://arxiv.org/abs/2403.00522

代碼地址:https://github.com/Meituan-AutoML/VisionLLaMA

6、阿里云成立物流智能聯盟 專注大模型應用實踐

昨日,阿里云宣布,物流行業內首個專注于大模型應用研究與實踐的聯盟“物流智能聯盟”在杭州成立,旨在加速大模型在物流領域落地,用AI助力物流行業增效降本和業務創新。

據了解,該聯盟由阿里云、菜鳥、高德地圖、中遠海運、東航物流、圓通速遞、申通快遞、中通快遞、德邦快遞、G7易流、地上鐵、浙江大學智能交通研究所等在2024數智物流峰會上共同成立。

7、Figure創始人稱簡歷數量暴漲218%

昨日,Figure創始人Brett Adcock在X上發文稱,公司收到的職位申請數量在過去的兩個月里同比增長了218%。