日照市新基建41條,包含1項指導(dǎo)思想、4項發(fā)展原則、1項行動目標、10大重點行動、10大應(yīng)用場景以及15項保障措施,并推出首批總投資69億元的50個重點項目
堅持智能制造主攻方向,持續(xù)推動工業(yè)互聯(lián)網(wǎng)、人工智能、5G等新一代信息技術(shù)在制造業(yè)領(lǐng)域的創(chuàng)新應(yīng)用,加快企業(yè)數(shù)字化、網(wǎng)絡(luò)化、智能化升級步伐
搶抓5G技術(shù)等“新基建”風口,我市以“大平臺、全鏈條、新產(chǎn)業(yè)”為指引,正在大力發(fā)展平臺經(jīng)濟,著力打造“1+1+2+N”的平臺支撐體系
到2022年,海陸空鐵“四港聯(lián)動”“東接日韓、西聯(lián)上合歐洲、南通東盟南亞、北達蒙俄”的國際物流大通道更加通暢,基本形成“內(nèi)暢外聯(lián)、東西互濟、陸海統(tǒng)籌、智慧高效”的現(xiàn)代交通物流運行體系
《山東省數(shù)字基礎(chǔ)設(shè)施建設(shè)指導(dǎo)意見》指出,前瞻布局以5G、人工智能、工業(yè)互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等為代表的新型基礎(chǔ)設(shè)施,持續(xù)推動交通、能源、水利、市政等傳統(tǒng)基礎(chǔ)設(shè)施數(shù)字化升級,構(gòu)建“泛在連接、高效協(xié)同、全域感知、智能融合、安全可信”的數(shù)字基礎(chǔ)設(shè)施體系
山東未來產(chǎn)業(yè)發(fā)展重點:培育發(fā)展新一代信息技術(shù)、軌道交通設(shè)備、海洋工程裝備、先進機械設(shè)備、生物醫(yī)藥、新材料、新能源等新興產(chǎn)業(yè)
數(shù)字山東發(fā)展規(guī)劃(2018—2022年),持續(xù)推進數(shù)字山東建設(shè),完善數(shù)字山東建設(shè)標準體系,啟動大數(shù)據(jù)發(fā)展應(yīng)用領(lǐng)域地方立法工作。
人形機器人市場規(guī)模預(yù)計從 2024 年的 20.3 億美元增長到2029 年的 132.5 億美元,復(fù)合年增長率達 45.5%;中國 60% 的企業(yè)將把AI 融入其主要產(chǎn)品和服務(wù)中,并且這些 AI 功能將成為收入增長的主要驅(qū)動力
從數(shù)據(jù)看數(shù)據(jù)標準和治理保障體制不完善,數(shù)據(jù)流通利用基礎(chǔ)較為薄弱;從算法看模型自身存在不可解釋性和可靠性風險;旺盛的大模型應(yīng)用場景需求加劇人才供需矛盾
十五五”時期推進新型工業(yè)化主要統(tǒng)籌好“四對關(guān)系”:一是高質(zhì)量供給引領(lǐng)和滿足內(nèi)需的關(guān)系;二是做優(yōu)增量和盤活存量的關(guān)系;三是產(chǎn)業(yè)國內(nèi)根植與海外布局的關(guān)系;四是有效市場與有為政府的關(guān)系
AI迎賓接待機器人的核心是人機交互,在智能人機交互的研究中,對情感的識別、分析、理解、表達的能力是重點研發(fā)方向;從人類的語音,面部表情等多個維度捕捉情感信息,并對其進行分析和判別
多模態(tài)感知技術(shù)讓機器人具備類似人類五感的多模態(tài)智能感知能力;通過表情識別、語音情感分析等技術(shù),讓機器人感知人 類情緒并做出相應(yīng)情感回應(yīng),增加親和力和互動性
AI陪伴機器人在外觀設(shè)計具備人類相似特征;在行為模式上模仿人類的行為,具備手眼協(xié)調(diào),動態(tài)足控制能力;在各個領(lǐng)域的實際應(yīng)用和用途,協(xié)助人類完成各種復(fù)雜任務(wù)
機器人機械手有多個關(guān)節(jié)和多個自由度,具有很高的靈活性;配置了必要的傳感器,可以精確控制機械手的操作;微小的外形尺寸使得機械手具有很高的操作精度
展廳迎賓機器人的“小腦”核心技術(shù)正在從基于模型的控制方法向基于學習的控制方法演進,視覺-語言模型為機器人學習復(fù)雜技能提供了新的范式,有很強的泛化能力,能夠根據(jù)不同的指令組合技能
基于模型的小腦技術(shù)路線控制方法有ZMP判據(jù)及預(yù)觀控制,混雜零動態(tài)規(guī)劃方法,虛擬模型解耦控制;基于學習的小腦技術(shù)路線控制方法有強化學習和模仿學習
迎賓服務(wù)機器人需要整合視覺,聽覺,觸覺等多種感知模態(tài),使機器人在復(fù)雜場景中做出更準確的決策;結(jié)合聽覺和觸覺信息,機器人可以更好地理解人類的指令和情感狀態(tài)
LLM(大語言模型+VFM(視覺基礎(chǔ)模型)實現(xiàn)人機語言交互、任務(wù)理解、推理和規(guī)劃;VLM(視覺-語言模型)實現(xiàn)更準確的任務(wù)規(guī)劃和決策;VLA (視覺-語言-動作模型)解決機器人運動軌跡決策問題
迎賓機器人需要具備與人類實時的任務(wù)級交互能力,快速理解人類通過語言,手勢等方式給出的指令,有效執(zhí)行;迎賓機器人需要能夠通過視覺、聽覺、觸覺等多種感官獲取信息