• <code id="qkqy2"><abbr id="qkqy2"></abbr></code>
    <dfn id="qkqy2"><dd id="qkqy2"></dd></dfn>
    <rt id="qkqy2"><em id="qkqy2"></em></rt>

    四川中衛(wèi)北斗科技有限公司

    在線咨詢
    微信

    微信掃一掃

    長按二維碼關注微信加好友

    【巨星隕落】霍金今日去世,但人類對宇宙和AI的探索永無止境

    發(fā)布時間:2018-03-14 16:48

    霍金去世的消息令全世界都陷入深切哀悼?;艚鹪e極關注人工智能,指出我們要對AI發(fā)展保持警惕。3月14日也是愛因斯坦誕辰139年的日子,上帝在同一天送來了一位天才,而帶走了另一位。人類對宇宙和AI的探索永無止境,讓我們以這樣的方式祭奠這兩位偉人。

    據英國天空新聞等多家媒體3月14日消息,著名物理學家史蒂芬 · 霍金(Stephen Hawking)去世,享年76歲。

    霍金教授的孩子Lucy、Robert 和 Tim在一份聲明中說:

    我們親愛的父親今天去世了,我們深感痛心。

    他是一位偉大的科學家,也是一位非凡的人,他的工作和成就將會留存多年。

    他的勇敢和堅韌,他的才華和幽默激勵了全世界的人們。

    他曾經說過,“如果宇宙不是你所愛的人的家園,它就不是宇宙?!?/p>

    我們將永遠想念他。

    斯蒂芬 · 威廉 · 霍金 (Stephen William Hawking),1942 年 1 月 8 日出生于英國牛津,是現(xiàn)代最偉大的物理學家和宇宙學家之一、20 世紀享有國際盛譽的偉人之一。


    霍金近幾年對人工智能十分關注,多次發(fā)表對人工智能發(fā)展的看法。他認為,人類需警惕人工智能的發(fā)展威脅,因為人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設計自身,人類將無法與之競爭,從而被取代。


    霍金多次敬告世人,關注人工智能的深遠影響:“強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。對于好壞我們仍無法確定,現(xiàn)在人類只能竭盡所能,確保其未來發(fā)展對人類和環(huán)境有利,人類別無選擇?!?/p>

    霍金的孩子露西、羅伯特和蒂姆在一份聲明中說:“我們深表遺憾,我們深愛的父親今天去世了。


    對于其他科學家和朋友來說,霍金的直覺和幽默感,以及他殘破的身體和合成聲音一樣多,象征著人類心靈的無限可能。


    不僅如此,他也積極參與到各項活動中。2017年1月初,在名為Benificial AI 2017的會議上,近2000名產學研領袖和中堅力量共同聯(lián)名發(fā)布“AI 23 條原則”,從研究問題、倫理價值觀和長期問題三個角度宏觀地為AI發(fā)展提出規(guī)定。聯(lián)名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及馬斯克等等?;艚鹨苍谄渲小C鎸I 可能會被誤用和威脅人類的擔憂,這 23 條原則被期待能確保AI走在“正軌”,以獲得更加健康的發(fā)展。


    霍金在2017年初簽署的這23條原則,分為研究問題、倫理價值觀和長期問題三個部分,以確保人人都能從人工智能中受益,同時保證AI研究和發(fā)展的正確方向。


    人工智能已經為世界各地人的日常生活提供了有益的工具。人工智能技術應該在以下原則的指導下繼續(xù)發(fā)展,將為未來幾十年到幾個世紀的人給予巨大的幫助和力量。


    研究問題


    1)研究目標:人工智能研究的目標應該是創(chuàng)造有益的智能,而不是讓它像經歷生物演化一樣沒有確定的發(fā)展方向。


    2)研究資金:投資人工智能應該附帶確保該研究是用于發(fā)展有益的人工智能,包括計算機科學、經濟學、法律、倫理和社會研究中的棘手問題,例如:


    我們如何使未來的AI系統(tǒng)具有高度魯棒性,這樣才能夠讓它們在沒有故障或被黑客入侵的情況下做我們想要它們做的事情?

    我們如何通過自動化實現(xiàn)繁榮,同時不打破資源和目的的平衡?

    我們如何更新法律制度實現(xiàn)更大的公平和更高的效率,跟上AI的發(fā)展步伐,管控與AI相關的風險?


    AI應該具有怎樣的價值觀,應該具有何等法律和倫理地位?


    3)科學政策互聯(lián):AI研究人員和政策制定者之間應該進行有建設意義、健康的交流。


    4)研究文化:應該在AI研究者和開發(fā)者中培養(yǎng)合作、信任和透明的文化。


    5)避免競賽(Race Avoidance):開發(fā)AI系統(tǒng)的團隊應積極合作,避免在安全標準方面進行削減。


    倫理和價值觀


    6)安全:AI系統(tǒng)應該在整個使用周期內安全可靠,并在可行性和可用性方面有可驗證的衡量標準。


    7)故障透明度(Failure Transparency):如果AI系統(tǒng)造成傷害,應該可以確定原因。


    8)司法透明度:任何涉及司法決策的自主系統(tǒng)都應對其判斷提供合理的解釋,并由主管人權機構審核。


    9)責任:先進人工智能系統(tǒng)的設計師和建設者是使用、濫用這些系統(tǒng)以及這些系統(tǒng)行動造成的道德影響的利益相關者,他們有責任和機會塑造這些影響。


    10)價值觀一致性:在設計高度自治的人工智能系統(tǒng)時,應該確保它們的目標和行為在整個操作過程中與人類的價值觀相一致。


    11)人類價值觀:人工智能系統(tǒng)的設計和運行應與人類尊嚴、權利、自由和文化多樣性的理念相一致。


    12)個人隱私:由于AI系統(tǒng)能夠分析和利用人類產生的數(shù)據,人類也應該有權獲取、管理和控制自身產生的數(shù)據。


    13)自由和隱私:AI 應用個人數(shù)據,其結果不能不合理地限制人類真實或感知到的自由。


    14)共享利益:人工智能技術應當惠及和增強盡可能多的人。


    15)共享繁榮:人工智能創(chuàng)造的經濟繁榮應該廣泛共享,為全人類造福。


    16)人類控制:應該由人類選擇如何以及是否委托人工智能系統(tǒng)去完成人類選擇的目標。 


    17)非顛覆(Non-subversion):要控制先進的人工智能系統(tǒng)所帶來的力量,應當尊重和改善社會健康發(fā)展所需的社會和公民進程,而不是顛覆這種進程。


    18)AI 軍備競賽:應該避免在致命的自動武器開發(fā)方面形成軍備競賽。


    長期問題


    19)能力注意(Capability Caution):在沒有共識的情況下,應該避免對未來AI能力上限做出較為肯定的假設。


    20)重要性:先進AI可能代表了地球上生命發(fā)展歷史的一大深刻變化,應該通過相應的關懷和資源對其進行規(guī)劃和管理。


    21)風險:人工智能系統(tǒng)帶來的風險,特別是災難性或有關人類存亡的風險,必須遵守與其預期影響相稱的規(guī)劃和緩解措施。


    22)不斷自我完善(Recursive Self-Improvement):對于那些不斷自我完善或通過自我復制以能夠快速提高質量或數(shù)量的AI系統(tǒng),必須采取嚴格的安全和控制措施。


    23)共同利益:超級智慧只應該為廣泛共享的倫理理想服務,為了全人類而不是一個國家或組織的利益而發(fā)展。


    今天,也是愛因斯坦的誕辰。

    歷史如此巧合。這兩位偉大的科學家已經離我們而去,但人類對宇宙、人工智能的探索永無止境。讓我們以這樣的方式來紀念他們。

    掃一掃在手機上閱讀本文章

    版權所有? 四川中衛(wèi)北斗科技有限公司    蜀ICP備14007264號-3    技術支持: 竹子建站
    国产精品无码2021在线观看,欧美一级特黄特黄大片连接,亚洲欧洲无码一区2区无码,国产精品无套内谢 国产AⅤ视频一区二区三区 欧美亚洲国产卡通
  • <code id="qkqy2"><abbr id="qkqy2"></abbr></code>
    <dfn id="qkqy2"><dd id="qkqy2"></dd></dfn>
    <rt id="qkqy2"><em id="qkqy2"></em></rt>