Question
Q. 樹籬算法(Hedge algorithm)的公平性基礎?
Q. 樹籬算法(Hedge algorithm)的公平性基礎?
群體脈絡線上學習
- a.group-outcome sequence tuple: 時間, 群脈絡, 結果
- b. 先看到群脈絡, 算法給專家們機率, 來決定要聽哪個專家的.
- c. 算法會看到整個損失向量, 然後計算期望損失
Evidence: blum2018preserving
同等錯誤率-每個族群都應享有同樣的服務品質
服務品質均等:
- 同比例不可能: 有個"equalized odds"條件的strong impossibility results, 所以才搜尋替代的「公平性標準(Fairness notion)」.
- 公平性標準: 非歧視預測器, 達成有效性, 維持非歧視性. (given access to non-discriminatory predictors, achieves efficiency while preserving non-discrimination.)
- 替代概念: 「同等錯誤率(Equalized error rates)」–每個族群的平均期望損失應該要是相同的
- 同等錯誤率在「效率與公平性以同樣目標函數測量」的狀況下, 有道理.
- 例子一: 醫療應用, 不同的子母群, 所承擔的醫療風險應該一樣, 才是公平. (🥲真的有道理嗎? 對特定的藥可能無法, 但對醫療服務的確有可能, 要因材施藥)
- 所有子母群都應享受同樣的服務品質(all subpopulations receive same quality of service.): 不應該用一個種族做實驗, 來增強另一種族得到的服務品質.
「同等錯誤率(Equalized error rates)」–每個族群的平均期望損失應該要是相同的
所有子母群都應享受同樣的服務品質
All subpopulations receive same quality of service.
Our results for equalized error rates. The strong impossibility results with respect to equal- ized odds invite the natural question of whether there exists some alternative fairness notion that, given access to non-discriminatory predictors, achieves efficiency while preserving non-discrimination. We answer the above positively by suggesting the notion of equalized error rates, which requires that the average expected loss (regardless whether it stems from false positives or false negatives) encoun- tered by each group should be the same. This notion makes sense in settings where performance and fairness are measured with respect to the same objective. Consider a medical application where people from different subpopulations wish to receive appropriate treatment and any error in treat- ment costs equally both towards performance and towards fairness.1 It is morally objectionable to discriminate against one group, e.g. based on race, using it as experimentation to enhance the quality of service of the other, and it is reasonable to require that all subpopulations receive same quality of service.
實為非歧視的公平: 損失計算在各個族群裡都要一樣
實為非歧視的公平: 損失計算在各個族群裡都要一樣:
- 所有專家是「孤獨公平(Fair in Isolation)」
- 群體脈絡(Group contexts)從固定分佈隨機而來; 也可以從對抗而來.
- 分類問題: 特定族群裡面, 被標記為+的那些時間點
- 在特定子群裡面, 計算一個專家的平均損失表現. 不是算每個時間點, 是算特定的時間點.
非歧視理想: 算法的期望表現在各群體相同
非歧視理想: 算法的期望表現在各群體相同:
- 非歧視理想(Non-discrimination desiderata): 利用「孤獨公平預測子」來做算法, 得到的「期望表現」要在每個群體相同.
- 期望是對realization取的, 表現差異任兩群不要大過$\alpha$.
- 非歧視理想會被「同時」用到多重度量上
- 例子一: 分類問題中, 「偽陽率(False Positive Rate)」與「偽陰率(False Negative Rate)」要在各子群中相當.
- 實務上會focus在一個metric上面.
「群體公平(Group fairness)」實踐–「機會均等(Equality of Opportunity)」–單一度量上的非歧視條件, 才有實現的可能.
「群體公平(Group fairness)」理想與現實–「優勢均等(Equalized odds)」與「機會均等(Equality of Opportunity)」:
- 受歡迎的「群體公平(Group fairness)」–「優勢均等(Equalized odds)」.
- 分類問題例子: 各個族群的偽陽率(False Positive Rate)」與「偽陰率(False Negative Rate)」在各族群要要相當
- 弱一點的「群體公平(Group fairness)」–「機會均等(Equality of Opportunity)」: 非歧視條件僅在「偽陰率(False Negative Rate)」上滿足.
- 在i.i.d.的狀況下, 是可以達成
- 在non i.i.d. online learning會無法達到
- 有兩個impossibility result
Answer
A. 實踐群體公平性以機會均等
這次的50分鐘讀到了, 理想上的群體公平, 應該是「優勢均等(Equalized Odds)」. 然而這篇文章證明優勢均等是不可能的. 因此, 需要放弱「群體公平」的條件, 成為「機會均等(Equality of Opportunity)」, 才能夠有理論結果.
這個對應回Bandit裡面的Equal exposure的故事非常match, 也把expert算法個故事包裝了一番.
評論