欢迎来到Coolfensi推广平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!
youtube买评论 --油管带货
youtube买评论 --油管带货公告:
欢迎来到Coolfensi推广平台,平台经营Instagram、Facebook、YouTube、TIKTOK、Twitter粉丝、点赞、播放量服务、客服微信:coolfensi 24小时在线欢迎咨询购买!

youtube买评论 --油管带货

首页 YouTube   作者:coolfensi  2022年11月23日  热度:42  评论:0     
时间:2022-11-23 19:02   热度:42° 
youtube买评论 --油管带货

译者 | 珠子打Soove

我们好我是Soove,那时又是下班北窝的六天。

我在网路上助跑的这时候看见这种两条最新消息:

YouTube AI演算法因种族歧视而将 Black 和 White混为一谈,进而禁言了两个象棋电视频道。

(尽管没文说,但这段话是将白棋和白棋混为一谈成白人和白人。)

原本是在两个月前,一名在象棋音频圈里很有名的YouTube写手Agadmator,则表示他的YouTube电视频道被非官方禁言,其原因在于他的音频中包涵来该中文网站简而言之的有毒和脆弱文本。

Agadmator在YouTube上保有少于一千万的订户采用者,被指出是泵上最畅销的象棋横向写手。

Youtube那么大的两个音频中文网站多于育苗财务人员来过滤器掉违禁品文本是不现实生活的,AI演算法总之要办到,但在探讨象棋对弈的情境下,该AI演算法或许难以界定憎恶论调和恒定谈话。

YouTube非官方仍未说明为什么禁言Agadmato的其原因,但Agadmato的电视频道在24半小时后拔除,引致他推断元凶是他在那个音频中采用black against whitereferring。

他的原意是白棋对付白棋,何况是被AI演算法辨识成了白人对付白人

后,生物学家上场的天数到了。

卡内基·梅隆语言技术学院的计算机生物学家Ashiqur KhudaBukhsh怀疑Agadmato是正确的。

KhudaBukhsh说:我们不知道YouTube具体采用什么工具来检测,但如果它们依靠育苗智能来检测种族歧视语言,则可能会意外触发YouTube的AI过滤器器进而发生这种乌龙事故。

为了检验那个理论,KhudaBukhsh和Rupak Sarkar研究员在两个最先进的语音分类器上进行了测试,这两个AI软件可以经过训练以检测憎恶语音。

采用该软件对来自五个畅销的YouTube象棋电视频道的680,000条文章进行了测试后,研究员发现样本集中标记的文章中有82%没明显的种族歧视语言或憎恶论调。

KhudaBukhsh和Sarkar两位研究员在本月AAAI 2021 会议上的一次演讲中说道,诸如black(白棋),white(白棋),attack(攻击)和threat(威胁)等象棋术语或许被错误地辨识分类了。该软件的准确性取决于所提供的样本,而YouTube分类器的训练数据集可能很少包涵象棋谈话的样本,进而引致演算法进行了误分类。

看见这里Soove我就郁闷了,就这?这才哪到哪啊?

只是白人攻击威胁白人就算种族歧视和憎恶论调了?

这要是搁在中国象棋的情境下那不得变成白人吃白人了?

(象棋吃子)

如果是这种,那AI演算法是不是要赶紧帮忙报警🚔啊?

唉,美国人在种族歧视和憎恶论调这块上的风气我们懂得都懂。

研究人员后建议社交媒体平台应该将象棋语言纳入AI演算法中,以防止进一步的困扰。试想,如果像Radic这种有名的写手被错误地禁言,那么对其他不太知名的写手来说,这很可能正在悄然发生。

YouTube拒绝指出是什么其原因引致了Agadmato的音频遭到禁言,但后来又则表示 当我们注意到音频被误删除后,我们迅速采取行动恢复了被删除的音频。

所以说从这件事上可以看出育苗智能仍是不够智能,太依赖训练数据集了,也很是缺乏常识,本质就是两个育苗智障。

那么请问育苗智障(乌龙)哪家强?

1、特斯拉在无人墓地感应到行人

随着汽车缓慢向前行驶,鬼影竟然也跟着在移动。

何况是摄像头把墓地旁边的葬礼花圈误辨识为是两个人?

可是这种的话,系统就会检测到很多的鬼影才对,因为音频中可以看见墓地里摆了很多的花圈。

那会不会是有人碰巧在上坟呢?

也不对,因为事实证明当把镜头转移到墓地和周围的环境的这时候,车主确实发现这里空无一人。

此后,有其他网友也发出了特斯拉汽车在无人街道感应到行人的音频。

2月15日,福建厦门一网友则发现特斯拉汽车在两旁无车时显示有公交,而实际两旁并无车辆。网友们纷纷则表示有点吓人。

当事人称这种情况持续了十几分钟,而特斯拉售后则表示这可能是雷达误侦测。

据了解,特斯拉感应系统采用摄像头与毫米波雷达融合探测,来辨识和感知真实环境中的物体,摄像头获得的图像,部分是行人,其他是车辆、动物或者其他障碍物,准确辨识障碍物的具体类别,对车内人员的安全非常重要,对其他人也是如此,系统准确而及时的辨识障碍物就非常关键。

2、人脸辨识乌龙,引致男子无辜蹲狱10天

新泽西州的一名男子蹲了10天的牢房。人脸辨识软件开发商Clearview AI因采用从社交媒体获取的照片来辨识犯罪嫌疑人而一直受到密切的关注。

据新泽西先锋媒体(NJ Advance Media)报道,警方在全力搜捕一名盗窃嫌疑人 ,此男子从一家酒店礼品店行窃,在警方赶到时, 该男子交出一张驾照,名字是Jamal Owens。

后来该男子逃出酒店,驾驶车辆逃离警察的追捕。

而警察后来在没验指纹、没测DNA,仅靠现场拍摄的驾照图像结合人脸辨识系统,结果人脸数据库发现有一名名叫Njeer Parks与嫌疑人的照片高度匹配,这种就锁定了Nijeer Parks为罪犯。

Nijeer Parks被捕后拍摄的照片。

Nijeer Parks后被警方拘留,但尴尬的是,他压根就没去过案发现场所在的那个城镇,甚至,他根本就不会开车,连驾照都没。

最后,在法官向检察官要求出示人脸辨识软件之外的更多证据后,检察官才撤案,但Nijeer Parks可是因此白白蹲了10天的牢房。

3、AI摄像机把光头当足球

在两个月前苏格兰足球冠军联赛的一场比赛上,场边的AI摄像机将裁判员的光头辨识成了足球,疯狂追了一整场。

无论哪支球队进攻,无论哪个球员带球,AI摄像机都选择了视而不见。

相反,它却不弃不离地跟着一名边裁,并不时给出锃光瓦亮的光头C位特写。

所以电视机前的球迷们压根看不到任何球员的跑位,而是欣赏了一整场的光头盛宴。

4、Google图像辨识演算法把白人辨识成大猩猩

在遥远的2015年,一白人哥们Jacky Alciné震惊地发现,自己被Google图像辨识演算法歧视了:Google Photos竟然把他的朋友分类成了大猩猩(gorilla)!

Google当时迅速道歉并承诺整改。

可是到了2018年时,据《连线》杂志报道,谷歌并没真的整改,只是直接懒省事去掉了大猩猩(gorilla)那个类别。

很好,谷歌很有精神嘛,这种一来就再也不会有白人群体被辨识成大猩猩了。不过,大猩猩也不会有机会被认作大猩猩了,因为演算法里没大猩猩那个物种存在了。

Google后也承认了从图像辨识的数据集标签中删掉了大猩猩一项,后来连黑猩猩也被屏蔽了。

以上Soove只是简单举了两个例子,育苗智能火了那么多年,还是强烈依靠数据集、没常识、不能举一反三,何况真的只能应了下面这句话吗?

有多少育苗就有多少智能......

参考链接:

https://www.youtube.com/watch?v=TgPp7ltPd8Y

https://www.dailymail.co.uk/sciencetech/article-9279473/YouTube-algorithm-accidentally-blocked-chess-player-discussing-black-versus-white-strategy.html

https://www.news18.com/news/buzz/youtube-ai-blocked-chess-channel-after-confusing-black-and-white-for-racist-slurs-3454316.html

[赠书福利]

AI科技文章本次联合【博文视点】为我们带来12本《深度学习500问:AI工程师面试宝典》正版新书。

在2月18日文章《《深度学习500问》正式出版!GitHub星标数超4.2万的火爆之作 | 赠书〉留言区留言,欢迎我们畅所欲言,谈一谈你对本书的看法和期待或者在学习深度学习时遇到的困难。

AI 科技文章将会在留言区选出 12名读者,每人送出《深度学习500问:AI工程师面试宝典》一本。

活动规则:

1. 在本文留言区留言,在综合留言质量(留言是敷衍还是走心)和留言点赞最高的读者中选出12位读者获得赠书。获得赠书的读者请联系 AI 科技文章客服(aitechreview)。

2. 留言文本会有筛选,例如选我上去、这书写的很棒(仅仅两个字)等文本将不会被筛选,亦不会中奖。

3. 本活动天数为2021年2月18日 - 2020年2月25日(23:00),活动推送天数内仅允许赠书福利中奖一次。

youtube买评论 --油管带货