- 考慮技術和人工智慧的倫理問題
- 確保您的應用將對其利益相關者產生積極影響
道德與行動
什麼是道德?
- 關於什麼是對的,什麼是錯的道德原則
- 在技術和人工智慧領域很重要
- 你不想造成傷害,即使是意外的
- 您的項目必須幫助人們和社會
什麼是演算法偏見?
- 程式師使他們的程式比其他使用者更好地對待某些使用者
- 或者 AI 模型是在不使用不同樣本的情況下訓練的
- 為某些使用者造成不公平的結果
- 它可能不是故意的,但仍會對用戶產生負面影響
觀看此視頻,瞭解有關演算法偏見的更多資訊。
技術的負面影響
我們每天都在使用技術,但往往不知道技術實際上在做什麼——我們如何對它做出反應,它對我們的心理產生了什麼影響。
2021年10月,據透露,Facebook(現為Meta)通過自己的研究,意識到它對一些使用者造成的傷害,但沒有採取任何措施來解決這種情況。
“32%的少女表示,當她們對自己的身體感到不適時,Instagram(由Facebook擁有)會讓她們感覺更糟,”據報導,研究人員寫道。Facebook also reportedly found that 14% of boys in the U.S. said Instagram made them feel worse about themselves.
華爾街日報 - Facebook檔
不傷害
繼《華爾街日報》的文章之後,Facebook的舉報人提供了進一步的資訊,包括:
- Facebook宣傳虛假資訊
- 忽略了某些使用者的仇恨言論和非法活動。
像Facebook這樣的軟體公司在世界範圍內如此有影響力,他們有責任確保他們的軟體不會造成傷害。
雖然您剛剛起步並且沒有 Facebook 或 Instagram 的影響力,但您仍然需要仔細考慮誰將使用您的產品以及他們可能如何受到它的影響。
承諾確保您的專案只產生積極影響!
利害關係人
在開發專案時,您需要考慮您的利益相關者。
利益幹系人是 受專案所採取的決策或行動影響的個人或實體。
直接利益相關者
- 您的使用者
間接利益相關者
- 可能受您的技術影響的人員或組織,但不一定直接影響。
例如,TikTok 的使用者是其直接利益相關者。
但它有一些間接的利益相關者,例如:
- 在 TikTok 上播放音樂的音樂藝術家
- 從 TikTok 中受益的影響者
- 學校,因為學生會受到他們在 TikTok 上觀看的內容的影響
該視頻更詳細地解釋了利益相關者,以及制定合乎道德的技術的其他關鍵點。
以下是在開發應用時需要考慮的一些事項。
- 您的應用會收集用戶資料嗎?
- 您的使用者知道嗎?
- 您是否有權收集數據?
- 您正在採取哪些措施來保護他們的數據隱私?
- 您在 App 中提供的建議或資訊是否準確?
- 你怎麼知道?
應用範例
想像一下,一個名為“雜草檢測器”的移動應用程式可以預測植物是否是雜草。讓我們逐步瞭解您在使用 Weed Detector 應用程式時會考慮的道德問題。
確保數據集代表要分類的物件。
數據應反映正在使用該應用程式的人群。如果您的數據有偏見,則應用程式中使用的 AI 模型可能會出錯。
如果數據集只包含在沙漠中發現的雜草的圖像,該怎麼辦?
如果我們在靠近水邊的植物上使用該應用程式,它可能無法正常工作,因為它沒有使用這些類型植物的圖像進行訓練。
該應用程式對沙漠植物有偏見!
想一想你要對應用進行編碼要做出的每一個決定。
它是否可以做出您最初不打算做出的任何決定?
如果雜草檢測器將番茄植物識別為雜草怎麼辦?這可能會對計劃食用它的人和花園裡的昆蟲產生負面影響。
你能分辨出這些植物中哪一種是雜草嗎?如果你不確定,你會怎麼做?
也許當人們在花園中使用該應用程式時,該應用程式會收集有關房屋位置的數據。它可能會分享有關人們家位置的敏感資訊——這是一個問題!
您的應用共用的信息必須仔細考慮。 用戶應該信任您的專案,尊重他們的資訊,而不是濫用它。如果一個陌生人不知何故知道你的秘密,你會有什麼感覺?
作為開發人員, 我們對 我們的技術如何與人互動負有責任,我們應該始終注意我們的發明可能產生的潛在影響。
活動:道德之旅
確保您的應用僅產生積極影響
- 確定誰是您的利益相關者,包括直接和間接的利益相關者。
- 按照問題的流程圖,檢查你是否正在盡一切努力使你的專案產生積極的影響。
反射
現在您已經更多地瞭解了道德規範以及您在確保專案僅產生積極影響方面的作用,請考慮以下問題:
關鍵術語的審查
- 道德 – 一套道德原則,影響人們如何決定什麼是對的,什麼是錯的
- 偏見 – 某人的先入為主的想法往往對某些人或群體不公平
- 利益相關者 – 將影響組織或企業採取的決策或行動或受其影響的個人或實體
其他資源
這裡有更多關於道德和技術積極影響的視頻。
很好的評論,說明為什麼考慮你所創造的技術的影響很重要。
Gender Shades Project 促進針對 AI 的包容性產品測試。