有个问题想问一下差友们:谁上学的时候没有在课堂上开过小差?
其实对于正常人来说,基本不太可能时刻保持精神和情绪的专注,开小差这种事可太正常了。
托尼读书的时候也常常干点不怎么和学习有关的事,不过那时候会不会挨骂,主要得看老师稀不稀罕搭理你。。。
别以为自己隐藏得好,其实在讲台上看大家的小动作基本都一清二楚。
不过由于一些众所周知的原因,现在的学生也慢慢接受了网课形式的上学新体验。
甚至个别人可能还觉得是件 “ 好事 ”:毕竟隔着网线和屏幕,老师对学生的状态不能一览无余,到底听没听课只有自己知道。
哪知道一山更比一山高,英特尔之前搞出来的一个情感 AI(Emotion AI)就被海外的教育机构拿去做了学生们的 “ 监视器 ”。
美国有一个基于 Zoom 开发的名叫 「 Class 」的教育 App 就搭载了英特尔的这项技术,他们认为这能够解决老师们上网课时的困难,而且能及时向遇到问题的学生提供帮助。
根据海外媒体的报道,英特尔的情感 AI 可以通过摄像头捕捉学生们的肢体动作、面部表情,然后结合具体情境来分析和判断他们当时的情绪或行为。
比如当你面露疑惑的时候,它就会提醒老师这个学生 “ 没听懂 ” 课堂内容;甚至在你趴在桌子上的时候它有可能会认为你觉得今天的课程很无聊等等。。。
所以这项技术是怎么做的呢?不外乎还是 AI 训练的那一套。
英特尔先是通过摄像头拍摄了成千上万张学生们听课时的表情,然后再让心理学家们根据那些表情进行情绪分类,这个时候基础的算法数据模型就做好了。
最后拿着这套模型,日复一日进行 AI 智能训练。。。
然而这项技术在海外并没有得到太多支持,很多网友甚至将矛头对准了英特尔表示反对。
他们对 Emotion AI 的准确性和科学性提出了质疑。。。而且其实从表情变化判断情绪,这是人的基本能力之一吧?
这也要搞一套 AI 智能的东西出来。。。就挺没必要的。
当然,托尼相信英特尔做这项技术的初衷可能并不是为了监测学生,而且 Class 的初心或许也是好的,但它的方式真的很难让人认同。
虽然人的情绪或者行为大多有迹可循,可往往在生活中可能会有很多复杂的因素才共同构成了某种情绪。
上个世纪有两位心理学家( 保罗·埃克曼 & 华莱士·弗里森 )在经过研究和总结后发现,人类的面部表情可以和包括愤怒、快乐、蔑视在内的 7 种情绪 一一 对应并概括。
保罗·埃克曼和华莱士·弗里森的著作 ▼
这一发现虽然成为了早期情感识别技术的理论依据,但它在当时就引起了很大的争议。。。
因为不同文化背景下的人们表达情绪的方式可能不同。比如前两年网络爆火的 “ 黑人抬棺 ”。。。就是加纳特有的喜丧习俗。
如果让 Emotion AI 来分析人家的情况,这 7 种情绪真能代表亲友们的复杂心理?说不定在人工智能眼里,那些人个个都将成为 “ 不肖子孙 ”。
即使文化背景相同,每个人对于情感的表达也可能存在差异。何况用单一化的标签来代表人的整体行为本身就是一种不严谨的方法。
用错误的方式得出错误的答案,怎么可能指向正确的结论?
按照 Emotion AI 的逻辑,如果我因为今天的早餐特别难吃,然后家里的猫还打碎了花瓶。。。这时候又赶上了网课,那么 Class 此时能连续捕捉到的可能是托尼紧皱着眉头、嘴角向下暗自咬牙的表情画面。
于是我此时可能处于一种对课堂极度不满意,甚至还想对着老师吐口水的状态?
在托尼看来,这完全是一种凌驾于他人之上的姿态在做事,堪称科技圈的 “ 我不要你觉得,我要我觉得。”
太离谱了。。。真的。
另一个争议是,英特尔的这项技术还可能涉及到对人权和隐私权的侵犯。
比如,Class App 必须通过捕捉面部图像来分析判断情绪,这就意味着你得时刻打开摄像头。
当然,一个国家正常公民的个人住所是应该被保护不受侵犯的,住宅内的正常活动也不应该受到监视或监听。
只是托尼觉得,仅仅是上网课的话,老师和学校要求大家开启摄像头也合情合理。
这些年我们一直能听到有些公司在利用大数据或者软件在 “ 监控 ” 大家的生活,就像之前被曝出的 「 深信服 」事件那样。
但 Emotion AI 这种直接能定义人们主观情绪的东西,好像并不多?其实这玩意儿不仅国外现在开始应用,国内曾经也有过好几次类似技术。
比如 2017 年贵州的部分学校,就在学生身上测试过一套 “ 智慧校服 ”。不仅能收集学生的指纹、人脸信息、行为和身体状况,还能把数据及时上报给学校和家长。
还有杭州的一所中学曾经也在 2018 年上线过一套“ 智慧课堂行为管理系统 ”。通过教室内的摄像头分析学生表情和动作,并对学生行为打分。
就像大学里老师会记录你的课堂表现做平时分一样。
如果有学生存在上课打瞌睡或者走神的情况,除了影响学生自己的考评,还会降低整个班级的评分,并公示在走廊的电视机上。
一人犯错全班吃亏,这一波直接倒退到公元前 356 年,商君直呼内行。。。
还有 2019 年南方都市报报道称在北京实地走访,也发现部分 院校或机构采用了所谓的 “ 智慧校园 ” 系统等。
这些都和英特尔这次的 Emotion AI 技术类似,当然也伴随着争议。
要我说人们之所以会反对,除了基于对人权的尊重外,还有一部分原因是因为恐惧 “ 技术被滥用 ”。
就拿这种所谓的情绪 AI 在教育上的应用来说,不仅变相给学生们套上了一层枷锁,同时也限制了老师的工作。
比如:用这种技术检测到的学生们上课状况,作为老师们的工作指标之一?
其实技术本身是为了帮助任课老师更好地了解到课堂学生的状况,同时也能了解到自己的课堂效果好不好。
只是数据永远不能完全代表现实中的实际情况。
或许管理者仅凭学生们回答问题的次数、睡觉的人数就能直接评价老师们的水平。
这种简单而粗暴的逻辑,就和通过考试成绩判断学生是不是 “ 坏孩子 ” 一样不讲道理。
然后层层加压之后老师们可能迫于无奈,也只好用相同的逻辑来考量自己的学生。除非他们真的不在乎自己的职业生涯好不好。。。
这难道是一个比较正确的教育方式吗?
如果需要 “ 监视 ” 才能让老师们好好工作、学生们好好读书,那么说明这件事从一开始就走错了方向。
为什么不可以用其他方式来激发孩子们的学习热情?
难道被 “ 监视 ” 着学生们就能好好学习了?
所以英特尔 Emotion AI 的主要开发者,以及一些海外的教育分析师在接受采访的时候也说了,这项技术的目标并不是为了监视或者惩罚任何人,但这并不意味着教师或者管理者不能用这种方式使用它。
表达的意思我也听出来了,就是说技术是无罪的,主要还是得看人们怎么用。
可托尼还是觉得,Emotion AI 根本就不算是一项成熟的技术。
将这样一个理论依据都还存在争议的东西拿出来,就算使用方法没问题它也仍然是悬在人们头顶的一把利剑。
人之所以为人,有很大一部分就是因为需要自主,对自由选择和个人控制的渴望是我们的天性,更是人权之一。
谁也不会想要处在被人 “ 监视 ” 的生活环境中,并且不知道自己什么时候、做了什么事就被别人打上一个结论性的标签。
也正是因为人人都能自由选择,才有了这百花齐放、丰富多彩的世界。