• <optgroup id="qcekm"></optgroup>
    <xmp id="qcekm"><menu id="qcekm"></menu>
  • <menu id="qcekm"></menu>
  • <nav id="qcekm"><strong id="qcekm"></strong></nav>
  • <menu id="qcekm"><strong id="qcekm"></strong></menu>
      您所在的位置:紅商網 >> 天下匯頻道 >> 正文
    思維更像人類的AI終于出現

      挑戰了一個存在三十五年的觀點—

      思維更像人類的AI終于出現

      北京10月25日電,《自然》25日發表的一篇論文,報道了一個具有類似“人類系統泛化能力”的神經網絡,系統泛化能力是指學習新概念并將之與已有概念相結合的能力。研究結果挑戰了一個已存在35年的觀點,即神經網絡不是人腦的可行模型,因為它們缺乏系統泛化的能力。團隊使用的方法或能用于開發行為上更像人類的人工智能(AI)系統。

      人類能學習新概念,如跳躍,并將之應用到其他情景中,如向后跳或跳過障礙物,這種將新老概念結合的能力也被稱為系統泛化。1988年,研究人員提出人工網絡缺少這種能力,所以不能作為人類認知的可靠模型。雖然神經網絡在后來幾十年里取得了重大進展,但仍很難證明其具有系統泛化的能力。

      美國紐約大學科學家團隊此次用證據表明:神經網絡能掌握與人類相似的系統泛化能力。他們使用一種元學習方法優化組織能力(按邏輯順序組織概念的能力),該系統能在動態變化的不同任務中學習,而不是只在靜態數據集上優化(即之前的標準方法)。通過并行比較人類與神經網絡,研究團隊評估了系統泛化能力測試的結果,測試要求學習偽造詞的意思,并推測這些詞之間的語法關系。該神經網絡能掌握、有時甚至能超過類似人類的系統泛化能力。

      團隊認為,他們的研究結果有助于今后開發出行為更像人類大腦的AI。

      【總編輯圈點】

      人類語言和思想的力量來源于什么?你可以認為它來源于一種“組合性”,即從已知的知識中,理解和產生新組合的能力。一個著名的觀點認為,人工神經網絡,這一以模擬人類大腦處理、記憶信息本領為終極目標的技術,缺乏這種能力。人工神經網絡近幾年的進步令人矚目,但這一瓶頸仍然存在,導致越來越多的人認為它在這方面可能真“不靠譜”。然而,科學家現在成功地解決了挑戰,提供出神經網絡在優化后可以達到類似人類系統性組合的證據,無疑是AI領域一個巨大飛躍。

      來源:科技日報 記者:張夢然

    故海文集 國學讀書網 林輝文集
    東治書院2023級國學綜合班學費全免!
    『獨賈參考』:諸利空相,不生不滅,不垢不凈,不增不減。
    【耕菑草堂】巴山雜花土蜂蜜,愛家人,送親友,助養生
    ❤❤❤孔誕寄語:孔子還活著嗎?❤❤❤
    大風水,小風水,風水人
    ❤❤❤人的一生拜一位好老師太重要了❤❤❤
    如何學習易經,才不踏入誤區
    成功一定有道,跟著成功的人,學習成功之道。
    關注『書仙笙』:結茅深山讀仙經,擅闖人間迷煙火。
    研究報告、榜單收錄、高管收錄、品牌收錄、企業通稿、行業會務
    ★★★你有買點,我有流量,勢必點石成金!★★★







      暖暖 视频 免费 高清 在线观看日本,女性二十四种b型图真人图,国产精品久久久久精品小草,国产乱子伦在线一区二区
    • <optgroup id="qcekm"></optgroup>
      <xmp id="qcekm"><menu id="qcekm"></menu>
    • <menu id="qcekm"></menu>
    • <nav id="qcekm"><strong id="qcekm"></strong></nav>
    • <menu id="qcekm"><strong id="qcekm"></strong></menu>
      <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <蜘蛛词>| <文本链> <文本链> <文本链> <文本链> <文本链> <文本链>