热门文章
随机文章
您现在的位置:主页 > 小民新闻 > 内容

人工智能可以打开性别平等的时代吗?每个人都

越来越多的人发现技术非常有希望创造一个公平的世界。
想象一个性别平等的社会。女性不是儿童和男孩的工具,男性不是传统思维的统治者。
这种平等主义社会的人民发挥着与他们的智慧和利益相一致的作用,而不是狭隘和深刻的狭义观念。
这样的社会目前还不存在。
几年前,一位以接受教育而闻名的巴基斯坦妇女Malala Yousafzai失去了生命,因为她想为自己的教育而战。
她的故事并不特别,几个世纪以来女性一直在努力控制自己。
是的,一些国家在发展性别平等方面更为先进。
但是,即使在最先进的环境中,仍然存在显着差异。
那么,有没有办法根据结果重新设计一些社会规范,而不是由于内在的人类偏见而重新设计社会规范?
人工智能可以突破数千年的深层社会偏见。
当前的技术能否创建一种机制,使用深度学习和数据库技术来纠正刻板印象?
深度学习软件,试图模仿人类大脑的大脑活动并思考大脑皮层。
该软件学习识别声音,图像和其他数据。
Ray Kurzweil写了一本关于如何通过软件技术创造思想的书。
深度学习的目的是在机器级重建人类智能。但是,这种学习的结果取决于软件培训的程度,偏见的培训可能会导致偏差的结果。
继续我们的实验,让我们看一个简单的工作场所示例。在会议室里,有一些歧视性的性别评论。
我们想要的结果是:有人举手并阻止他们的评论。
在这个简单的例子中,预期结果很大程度上取决于两个假设。
会议室里至少有一位女士。
公司的文化环境使我们能够自由地表达自己的观点。
如果这种情况由人工智能机器人处理,机器人必须训练其基本假设。
培训不足会导致不良后果。
当机器人收到有关性别歧视的信息时,需要了解情况,应用观点然后采取适当的行动。
如果机器人没有从女性的角度进行编程,则无法达到我们期望的效果。
在技??术企业的环境中,人工智能算法经过培训和测试,因为女性代表性差,缺乏对这种偏见的认识。
只有大约16%从计算机科学专业毕业的女性对偏见的认识较低,对工作的文化和态度根深蒂固。
幸运的是,与人类偏见不同,人工智能偏差可以通过重新编程机器人软件来纠正。
为了消除偏见,必须根据“平等和公平”原则对这些行为进行分类。
了解如何培训和测试您的数据算法,并增加实现这一愿景的机会。
将来,我们的算法可以处理数据,修改机器人行为,并在性别和文化框架中模仿理想的人类语言和概念!
也许在不久的将来,人工智能将在我们的生活中无处不在,包括医学,行为经济学,政治学和许多其他领域。
为了实现这样的未来,我们不仅需要程序员的帮助,还需要医疗专业人员,人类学,经济学和金融等各个领域的人们的帮助。
越来越多的人发现技术非常有希望创造一个公平的世界。
正如马拉拉所说,“女孩应该接受平等教育”,更多的支持者将与之竞争,建立性别平等社会。
本文最初由@ Sugaya Stenosis(微信公众ID:guigudiyixian)发表。每个人都是产品经理。
保留所有权利。
图像来自StockSnap。
Io基于CC0协议。