留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

人工智能场景下语言偏见可视化工具 DADD 对不平等现象的度量

李俊麒

李俊麒. 人工智能场景下语言偏见可视化工具 DADD 对不平等现象的度量[J]. 中国传媒科技, 2022, (3): 27-29. doi: 10.19483/j.cnki.11-4653/n.2022.03.007
引用本文: 李俊麒. 人工智能场景下语言偏见可视化工具 DADD 对不平等现象的度量[J]. 中国传媒科技, 2022, (3): 27-29. doi: 10.19483/j.cnki.11-4653/n.2022.03.007

人工智能场景下语言偏见可视化工具 DADD 对不平等现象的度量

doi: 10.19483/j.cnki.11-4653/n.2022.03.007
详细信息
    作者简介:

    李俊麒(1998-),女,四川宜宾,上海交通大学文创学院、伦敦大学国王学院数字人文系双硕士,研究方向:文化创意产业、数字人文、文化与社会大数据。

  • 中图分类号: G220

  • 摘要: 人工智能的发展给智能生活带来便利的同时,用户可能会因算法自动处理的个人数据而受到不公平地对待,由此产生了数字歧视这一新型不平等现象。数字歧视是算法通过继承先前决策者的偏见或复制现实世界中的歧视实例进行计算,可能导致之前处于弱势的群体受到更不公正的待遇,从而加剧现有的不平等。本文以红色药丸论坛为例,运用语言偏见可视化工具 DADD 分析其性别不平等程度,并就数字歧视这一问题提出思考。

     

  • [1] 联合国教科文组织 .I’d blush if I could:closing gender divides in digital skills through education[EB/OL].[online]Available at:,2019.
    [2] 汪怀君 . 人工智能消费场景中的女性性别歧视 [J]. 自然辩证法通讯 ,2020(5):45-51.
    [3] Brian,A.The Nature of Technology:What It Is and How It Evolves[M].2011.Free Press.
    [4] Pierce D,Misogynistic Men Online: How the Red Pill Helped Elect Trump Journal of Women in Culture and Society.vol.44,no.3.2019.
    [5] Ferrer,X.and Van Nuenen,T.,n.d.Language Bias Visualiser-DADD.[EB/OL].https://xfold.github.io/WEGenderBiasVisualisationWeb/.
    [6] Amelita T.https://www.newstatesman.com/science tech/internet/2017/02/reddit-the-red-pill-interview-howmisogyny-spreads-online.2011.
    [7] 宋素红,王跃祺,常何秋子 . 算法性别歧视的形成逻辑及多元化治理 [J]. 当代传播 ,2020(5):95-100.
    [8] Wihbey,J.The possibilities of digital discrimination: Research on e-commerce,algorithms and big data. Journalists resource,2015.
    [9] 昌沁 . 新闻传播中人工智能技术造成的伦理失范与对策[J]. 中国传媒科技,2020(11):28-30.
  • 加载中
计量
  • 文章访问数:  315
  • HTML全文浏览量:  37
  • PDF下载量:  9
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-02-02
  • 修回日期:  2022-03-08
  • 网络出版日期:  2022-04-25
  • 刊出日期:  2022-03-15

目录

    /

    返回文章
    返回