國家發(fā)展改革委:數(shù)據(jù)中心、人工智能等項(xiàng)目可申報(bào)基礎(chǔ)設(shè)施領(lǐng)域REITs
近日,國家發(fā)展改革委辦公廳印發(fā)《基礎(chǔ)設(shè)施領(lǐng)域不動(dòng)產(chǎn)投資信托基金(REITs)項(xiàng)目行業(yè)范圍清單(2025年版)》,首次將“新型基礎(chǔ)設(shè)施”以獨(dú)立類別納入REITs發(fā)行范圍,包括數(shù)據(jù)中心類、人工智能基礎(chǔ)設(shè)施項(xiàng)目,5G、物聯(lián)網(wǎng)、工業(yè)互聯(lián)網(wǎng)項(xiàng)目。
DeepSeek推出DeepSeek-V3.2
DeepSeek日前推出DeepSeek-V3.2正式版,其推理能力達(dá)到GPT-5水平,輸出長度大幅降低,適合日常使用和通用Agent任務(wù),并首次支持思考模式下的工具調(diào)用,大幅提高了模型的泛化能力。
亞馬遜發(fā)布第四代自研AI芯片
12月1日到5日,亞馬遜云科技AWS re:Invent大會(huì)召開,發(fā)布了第四代AI芯片Trainium4,較上一代性能提升6倍。此外,會(huì)上還發(fā)布了第二代自研模型Nova 2、面向企業(yè)定制模型的Nova Forge服務(wù)等,旨在提升AI基礎(chǔ)設(shè)施能力與智能體應(yīng)用效率。
Mistral AI升級(jí)Mistral 3系列模型
12月3日,法國公司Mistral AI發(fā)布新一代Mistral 3系列模型,包括面向邊緣設(shè)備的Ministral 3和前沿級(jí)混合專家模型Mistral Large 3。該系列全線采用Apache 2.0許可證開源,被認(rèn)為代表了同類產(chǎn)品中的最佳性價(jià)比。
騰訊發(fā)布混元2.0模型
12月5日,騰訊發(fā)布自研大模型混元2.0,模型采用混合專家(MoE)架構(gòu),具備高達(dá)406B總參數(shù)量(激活參數(shù)32B),支持256K超長上下文窗口,推理能力和效率處于業(yè)界領(lǐng)先地位,且在文本創(chuàng)作與復(fù)雜指令遵循等實(shí)用場景上表現(xiàn)突出。
華為開源openPangu-R-7B-Diffusion模型
華為近日開源openPangu-R-7B-Diffusion擴(kuò)散語言模型,創(chuàng)新性地融合了因果注意力掩碼架構(gòu),支持自回歸+擴(kuò)散雙模式解碼,極大提升了“慢思考”能力,并成功將上下文長度擴(kuò)展至32K,在數(shù)學(xué)和編程基準(zhǔn)上大幅超越同類模型。
智譜上線GLM-4.6V系列多模態(tài)大模型
12月8日,智譜上線并開源GLM-4.6V系列多模態(tài)大模型,首次在模型架構(gòu)中將Function Call能力原生融入視覺模型,實(shí)現(xiàn)“圖像即參數(shù),結(jié)果即上下文”的多模態(tài)工具調(diào)用,為真實(shí)業(yè)務(wù)場景中的多模態(tài)Agent提供統(tǒng)一的技術(shù)底座。
OpenAI公布“懺悔訓(xùn)練”新方法
OpenAI近期公開“懺悔訓(xùn)練”(Confessions)新方法,用于提升GPT-5-Thinking等大模型的誠實(shí)性。該方法讓模型在回答后生成“懺悔報(bào)告”,如實(shí)匯報(bào)是否偷工減料或違反指令,經(jīng)訓(xùn)練后懺悔準(zhǔn)確性可達(dá)89%。此方法主要用于監(jiān)控和診斷,而非阻止模型犯錯(cuò)。
谷歌等提出 Evo-Memory框架
谷歌DeepMind研究團(tuán)隊(duì)和伊利諾伊大學(xué)香檳分校日前提出了Evo-Memory智能體框架,不僅評(píng)估智能體在測試時(shí)的學(xué)習(xí)能力,還關(guān)注自我演變的記憶,挑戰(zhàn)智能體能否從連續(xù)任務(wù)流中積累和重用策略。基于此,研究設(shè)計(jì)了ReMem框架,讓上下文本身即可成為模型訓(xùn)練權(quán)重,有望帶來大模型整個(gè)訓(xùn)練模式的轉(zhuǎn)變。

400-101-4733
[email protected]
上海市浦東新區(qū)櫻花路868號(hào)建工大唐國際A座20樓
北京市朝陽區(qū)東三環(huán)光華路眾秀大廈3903