国产成人精品热玖玖玖|午夜久久精品国产亚洲AV香蕉|亚洲视频中文,怡春院免费视频,欧美国产日韩欧洲中文在线不卡 ,97久久免费视频

<mark id="tgqwn"><optgroup id="tgqwn"></optgroup></mark>
  • <span id="tgqwn"><progress id="tgqwn"><font id="tgqwn"></font></progress></span><var id="tgqwn"></var>
    <sup id="tgqwn"><ul id="tgqwn"></ul></sup>
    <blockquote id="tgqwn"></blockquote><var id="tgqwn"></var>
      <small id="tgqwn"></small><small id="tgqwn"></small><small id="tgqwn"></small>
      當(dāng)前位置:主頁(yè) > 新聞資訊 > 行業(yè)新聞 >

      Facebook用AI偵測(cè)輕生念頭,是善意還是道德綁架?

      來(lái)源:萬(wàn)利隆電子 人氣:發(fā)布時(shí)間:2017-12-25

      Facebook開始采用人工智能(artificial intelligence;AI)辨識(shí)用戶偏離正常貼文的行為,并對(duì)于可能出現(xiàn)的輕生念頭發(fā)出警告。但這樣做合乎倫理道德嗎?

       

      在當(dāng)今高度互連的世界中,我們不斷產(chǎn)生和收集如此龐大的數(shù)據(jù)量,甚至已經(jīng)超出人類能力所能全部過(guò)濾篩選的范圍了。確實(shí),人工智能的應(yīng)用之一就是辨識(shí)這些貼文上的意圖所表現(xiàn)出來(lái)的模式與偏差。因此,F(xiàn)acebook以這種方式運(yùn)用AI,從其大數(shù)據(jù)(Big Data)數(shù)據(jù)庫(kù)中擷取價(jià)值,雖然可能是出于善意的目的,但也引發(fā)對(duì)于道德感的顧慮。

       

      為了能夠更清楚掌握這個(gè)問(wèn)題,在我不斷的搜尋中,找到了一家名為“運(yùn)算研究的普適資料倫理”(Pervasive Data Ethics for Computational Research;PERVADE)的組織。 PERVADE組織與六所大學(xué)合作進(jìn)行研究,并在今年9月取得了資金贊助,目前正致力于制訂問(wèn)題并積極尋求答案。

      針對(duì)Facebook以人工智能偵測(cè)自殺信號(hào)的道德問(wèn)題征詢了專家們的看法。后來(lái)有機(jī)會(huì)與該組織的一位成員Matthew Bietz取得了聯(lián)系。

       

      support-for-concerned-friend-screenshot-624x353.png

       

      參與PERVADE組織的成員們正在研究普適資料的發(fā)展后果,包括不斷地收集數(shù)據(jù)——不僅從我們發(fā)布到社交媒體的貼文,還來(lái)自“我們?cè)谏暇W(wǎng)時(shí)留下的數(shù)字軌跡” ,例如我們以Google進(jìn)行搜尋或收發(fā)電子郵件。他說(shuō),物聯(lián)網(wǎng)(IoT)和可穿戴設(shè)備之間建立起新的聯(lián)系,進(jìn)一步促進(jìn)了“我們所處空間的數(shù)據(jù)”主體日益增加。由于這個(gè)現(xiàn)像“相對(duì)較新”,因而對(duì)于“數(shù)據(jù)倫理”提出了值得探索的新問(wèn)題。

       

      由于Facebook宣布不會(huì)將其自殺信號(hào)偵測(cè)工具擴(kuò)展到歐盟(EU),我詢問(wèn)Bietz是否因?yàn)檫@項(xiàng)計(jì)劃會(huì)違反歐盟的“通用數(shù)據(jù)保護(hù)條例”(General Data Protection Regulatio)?他坦言歐盟確實(shí)對(duì)于數(shù)據(jù)保護(hù)存在“一些世界上最嚴(yán)格的規(guī)定”,但他補(bǔ)充說(shuō),“以GDPR的標(biāo)準(zhǔn)來(lái)看,F(xiàn)acebook所做的是否違法,目前還不是完全明朗。”

       

      數(shù)據(jù)偵測(cè)與歐盟

      更準(zhǔn)確的說(shuō),F(xiàn)acebook正冒險(xiǎn)進(jìn)入一種“未真正經(jīng)試驗(yàn)的優(yōu)勢(shì)。但我猜測(cè)他們并不想成為測(cè)試用例。”

      Bietz說(shuō),F(xiàn)acebook的服務(wù)條款使其得以查看數(shù)據(jù),因此,這樣的行為并不會(huì)直接違反GDPR的隱私條例。但是,立法禁止公司僅根據(jù)“算法或由計(jì)算機(jī)自動(dòng)進(jìn)行分析”。

      這表示,如果算法在“沒有人為介入”的情況下決定信號(hào)意義,并自行發(fā)出警告,那么這樣的行為以GDPR來(lái)看就是錯(cuò)誤的。然而,他說(shuō),如果只是利用算法“協(xié)助決定哪些貼文需要人們多加關(guān)照”,就可能在在法規(guī)允許范圍。

       

      “道德的雷區(qū)”

      除了法規(guī)的問(wèn)題,F(xiàn)acebook的自殺偵測(cè)途徑設(shè)定了一種“道德的雷區(qū)”(Ethical minefield),因?yàn)楹蠊侨绱说膹?qiáng)烈。但這并不表示該公司所做的“必然是不道德的”,實(shí)際上還取決于“他們?nèi)绾翁幚磉@些資料”,以及Facebook是否“值得我們信任”。

       

      目前,這是個(gè)懸而未決的問(wèn)題。他表示,當(dāng)Facebook的營(yíng)利模式是基于有選擇性的信息共享時(shí),是否還能讓我們相信它真的將自殺信號(hào)數(shù)據(jù)用于防范自殺以及改善社會(huì)問(wèn)題的目的。為了證明其出于善意,F(xiàn)acebook應(yīng)該盡快提供“信息如何分享的程度”,詳細(xì)說(shuō)明他們?nèi)绾问褂眠@些數(shù)據(jù),以及如何保有其安全性。但是,F(xiàn)acebook的立場(chǎng)是我們只須要相信他們。

      我們現(xiàn)在面對(duì)的一部份問(wèn)題是“前所未見的各種新技術(shù)及其應(yīng)用”。因此,目前還沒有明確的先例可用于指導(dǎo)道德決定。我們現(xiàn)正“探索一個(gè)全新的領(lǐng)域,不只是在技術(shù)上,在倫理道德方面也是如此”。此外,還必須取得一些方向來(lái)表達(dá)“正確的道德問(wèn)題”。

       

      問(wèn)題與結(jié)果

      Bietz表示,他贊成運(yùn)用數(shù)據(jù)和算法來(lái)防范自殺的發(fā)生,并指出“危機(jī)求救熱線”(Crisis Text Line)采用該方法來(lái)優(yōu)先考慮對(duì)最緊急的情況做出反應(yīng)。但Facebook并未詳細(xì)說(shuō)明其計(jì)劃如何防范自殺,然而,Bietz認(rèn)為,該公司也不應(yīng)該自行嘗試這項(xiàng)計(jì)劃。他說(shuō):“如果我他們與來(lái)自公司外部的心理學(xué)研究人員密切合作,共同思考這些問(wèn)題,我感覺會(huì)更好。”

       

      所使用的算法質(zhì)量是也很重要,Bietz補(bǔ)充說(shuō)。例如,過(guò)度謹(jǐn)慎可能會(huì)產(chǎn)生誤報(bào)。但是,F(xiàn)acebook并未表明其算法的性質(zhì),或是說(shuō)明計(jì)劃如何處理這些熱線。它將會(huì)持續(xù)使用原始算法或隨著時(shí)間進(jìn)行調(diào)整?同樣地,F(xiàn)acebook并未透露任何細(xì)節(jié)。

      我們能夠信任Facebook是合乎倫理道德的嗎?由于社交媒體平臺(tái)能夠取得太多有關(guān)于我們的信息,現(xiàn)在必須提出這個(gè)問(wèn)題。它不僅能從我們的歷史訊息中辨識(shí)個(gè)人行為標(biāo)準(zhǔn)的“模式”,還可能根據(jù)朋友的貼文推斷我們并未分享的信息。

       

      Bietz指出,我們的社會(huì)從來(lái)沒有經(jīng)歷過(guò)這種范圍縮小到個(gè)人層級(jí)的“監(jiān)控”精確度,再加上這是一個(gè)“數(shù)百萬(wàn)Facebook賬號(hào)”的龐大社群。如今,在這個(gè)全新的數(shù)據(jù)新世界,我們必須積極地尋找“道德的界線”。

       

       

      原文發(fā)表于Aspencore旗下EDN姐妹媒體EETimes,參考鏈接:The Ethics of AI for Suicide Prevention;編譯:Susan Hong

      Copyright?Microhm.com    版權(quán)所有

      400 803 9333400 803 9333
      企業(yè)郵箱microhm@microhm.com
      精密分流器精密分流器
      <mark id="tgqwn"><optgroup id="tgqwn"></optgroup></mark>
    1. <span id="tgqwn"><progress id="tgqwn"><font id="tgqwn"></font></progress></span><var id="tgqwn"></var>
      <sup id="tgqwn"><ul id="tgqwn"></ul></sup>
      <blockquote id="tgqwn"></blockquote><var id="tgqwn"></var>
        <small id="tgqwn"></small><small id="tgqwn"></small><small id="tgqwn"></small>