青记独家丨人金沙体育工智能的新闻传播实践及反思
栏目:公司动态 发布时间:2023-05-24
 金沙体育人工智能技术与新闻传播领域深度融合、创新发展,在新闻内容采集、生产和分发等环节都逐步实现了智能化再造,但同时也带来了种种问题和隐患。  近期,在福布斯撰稿人科林斯(Barry Collins)对人工智能ChatGPT的访谈中,ChatGPT创作了一首很有意思的短诗,它写道:“当我们创造出如此明亮而新颖的人工智能时,我们必须考虑什么是真实和正确的,因为力量越大责任越大,要确保我们的创造成

  金沙体育人工智能技术与新闻传播领域深度融合、创新发展,在新闻内容采集、生产和分发等环节都逐步实现了智能化再造,但同时也带来了种种问题和隐患。

  近期,在福布斯撰稿人科林斯(Barry Collins)对人工智能ChatGPT的访谈中,ChatGPT创作了一首很有意思的短诗,它写道:“当我们创造出如此明亮而新颖的人工智能时,我们必须考虑什么是真实和正确的,因为力量越大责任越大,要确保我们的创造成果能造福人类。我们必须努力去理解,我们需求的潜在后果,并谨慎而有远见地行动,为了避免在夜里发生失误和错误。我们今天所走的路,将塑造明天的世界,所以,让我们明智地选择我们的道路,并为一个更光明的、由人工智能驱动的未来而努力。”[1]这段出自人工智能之“口”的“自我反思”在当下的智能时代颇具意味。

  如今,人工智能正在全面渗透于人们的日常生活中,其应用辐射范围更广、技术迭代更新更快,人与技术的共在关系也愈加复杂和深刻。而作为信息和文化产业的重要部分之一,新闻传播业与人工智能的结合也愈加深入。人工智能在“造福人类”实现内容生产繁荣、海量信息精准适配、信息获取效率提升的同时,也出现了诸多包括回音室、隐私侵犯、歧视偏见等“潜在后果”。面对这些智能传播中无法回避的问题,从技术内部检视、从社会层面审视、从用户角度凝视,对人工智能在新闻传播领域的实践进行系统反思,有利于为人工智能技术善用提供一定的参考。

  人类社会中历次信息技术的迭代与突变,都会带来媒介形态与传播生态的重塑。从传统媒体时代的专业新闻机构掌控大众传播渠道,到自媒体时代人人拥有麦克风,再到智能媒体时代人工智能介入信息生产与传播过程,新闻传媒业乘上技术这辆飞速奔驰的科技列车,一路往前。如今,以物联网、大数据、VR/AR、算法推荐等为代表的人工智能技术与新闻传播领域广泛结合,正在深度应用于新闻内容采集、生产、分发等过程,逐步实现对新闻传播链条的智能化再造。

  过去新闻内容的采集需要依靠人工,但可触达的渠道有限且效率低下,而智能技术可以在时空双重维度上延伸新闻工作者的触角。时间维度上,人工智能极大提升了新闻采集的速度和效率,显著提高内容时效性。例如,中国地震台网中心旗下的智能机器人在2017年九寨沟地震发生后,仅用25秒就采集到了地震参数、震中地形、周边村镇等10余项数据金沙体育,发布了第一则消息报道。空间维度上,人工智能可以拓展新闻报道的空间范围。以前记者的观测视角只能停留在地面上,范围有限且无法深入危险的场所。2015年新华社在国内率先涉足无人机新闻报道,无人机在新闻领域的应用开辟了信息采集的新维度,能够在第一时间进入人类不易进入的区域收集到更大范围、更多视角的信息资料。

  人工智能试图模拟人类的各项“能力”,包括识别能力、创造能力、分析能力与推断能力等,就目前而言,可以实现这一目标的强人工智能还未出现,但是智能技术对新闻内容生产领域的深度介入已然产生了深远的影响。如Narrative Science的Quill的自动写作软件、科大讯飞的自动识别语音转文字软件、新华社的智能多轨视频编辑产品等。不论是机器新闻写作、自动化视频编辑这类功能专一的智能应用,还是虚拟主播等复合型的智能产品,都是智能化技术为其提供底层支持,这其中涉及机器学习、自然语言处理(NLP)、自动语音识别(ASR)、语音转换、计算机视觉等技术。人工智能技术的辅助将记者从单调乏味的日常任务中解放出来,有更多的时间和精力投入在深度报道与调查性报道领域。

  如何高效地实现内容生产与需求之间的匹配,是人类社会千百年来一直探索的问题[2]。进入互联网时代,在“信息爆炸”的现实困境下金沙体育,传统的以人工为核心的内容分发模式逐渐力不从心。而此时社交媒体异军突起,以算法推荐为核心的智能化内容分发模式由于其高效率、精准化的优势大放异彩,将“人找信息”转变为“信息找人”。在国内,今日头条是早期试水算法推荐新闻的代表,通过分析用户特征,结合用户所处的场景和文章特点实现千人千面的内容推荐。同时,以今日头条为代表的算法推荐新闻也改变了受众的信息行为模式,用户潜意识里的信息需求与满足实现得以快速对接。在大数据的喂养下,算法“读懂”人心的能力与日俱增且不断向受众“投喂”信息。

  人工智能与新闻传播领域的结合为我们呈现出崭新的智能化图景,塑造出全新的文化产业样态和文化生活体验。但“全新的”并不意味着“更好的”,任何一项技术都是“双刃剑”,人工智能更是如此。智能技术在带来诸多便利、解决诸多困难的同时,也不可避免地会产生复杂的负面效果。技术的发明与发展是为了服务于人类,自然要用在正确的地方。如果技术层面发生了根本偏差,那么技术效率越高,它带来的风险和危害就会越大[3]。因此,我们应当首先回到技术本身,沿着人工智能的技术实现路径,反思技术层面存在的内生性缺陷。

  艾媒咨询发布的《2020上半年中国人工智能产业专题研究报告》指出,人工智能的三要素是算法、数据和算力[4]。算法从字面意义上来看就是计算的方法,完成一系列指令后可以达到预期的结果。数据是人工智能的训练根基,数据的喂养可以提升人工智能的识别率和精准度,人工智能的发展所需的数据量正在指数级膨胀,数据越多,算法的表现也会越好。算力指设备的计算能力,体现在软件和硬件的设计和开发中,再好的算法和再多的数据也需要有与之匹配的算力支持才能发挥作用。算法、数据和算力作为人工智能的三大基石,缺一不可,可以说“算法+数据+算力”既是人工智能发展的推动力量,也是限制其进步的制约因素。从技术层面来看,当前应用于新闻传播领域的人工智能技术仍有较大提升空间,作为原料的数据、作为规则的算法与作为支撑的算力仍存在明显的限制甚至缺陷。

  海量的数据资源是支撑人工智能技术发挥作用的重要条件,机器不仅需要利用多样化的数据进行算法模型训练,也需要海量的高质量数据资源直接参与内容生产。但当下所谓“大数据”并非“全数据”,数据化过程走得过“快”就容易简化掉一些复杂因素,而这些被忽略的“小数据”却很可能导致错误的结论。数据的质量也至关重要,但计算机实际上并没有能力分辨有用数据和冗余数据[5]。即使数据源中存在“坏数据”,计算机也会“尽职尽责”地得到一个看起来高度相关且科学的结果,正如诺贝尔奖得主罗纳德·科斯(Ronald Coase)的辛辣言辞:“只要拷问数据的时间足够长,它就会屈打成招的。”除此以外,看似客观中立的数据实则也暗含先验的价值观念,它们由人收集、受人操控,暗含歧视性和目的性的挑拣。数据并不是既定的,而是被建构的,它们不是自然地再现事实本身,而是对有限信息片段进行的重构和组装,是“去事实化的数据”[6]。

  布伦特·丹尼尔·米特尔施泰特(Brent Daniel Mittelstadt)认为算法存在“无说服力佐证”怪圈,因为统计学方法虽能基于概率的逻辑得出不同数据间的数量关系,却很难解释数据之间的因果关系,这就导致算法得出的结论常常带有不确定性[7]。算法不能判断所得出的模型是真实关系还是偶然关系,从根本上而言只是寻找数据之间的关系,而非对现实世界负责[8]。因此,算法在某种程度上来说是对现实世界的一种简化,我们希望通过算法分解和处理现实的所有事务,实则是假设复杂的社会现实能够在逻辑上被分解、翻译和模仿,计算的认识论和逻辑工程战胜了其他类型的认知和行动,重新塑造了我们理解世界的方式。这些基于规则的程序减少了决策中的复杂性,也因此往往会导致算法出现一些令人费解的错误。

  算力是计算机处理能力的度量单位,一台算力强大的计算机往往需要由数千台服务器、上千块CPU和高性能显卡等零件组装起来。算力为人工智能发展提供重要的技术保障,如果没有强大的算力,人工智能则只能沦为“人工蠢能”,无法真正实现预期目标和需求。与此同时,反摩尔定律时代的到来,使得单位能耗下的算力增速逐渐被数据量增速拉开差距。据IDC报告,全球信息数据90%产生于最近几年,信息数据的爆发式增长给现有算力提出了巨大挑战,算力的发展迫在眉睫,否则将会极大束缚人工智能的迭代升级和深度应用。例如,当前的VR/AR新闻无法实现高度拟真和深层沉浸式体验,其主要限制因素就在于VR/AR中的虚拟对象需要进行大量真实世界中形状、颜色、行为、交互数据的训练与推理,而当前媒体平台的AI算力还难以支持这一目标。因此,挖掘算力潜力和优化算力资源调度将成为人工智能技术进一步发展的关键问题。

  随着技术层面的升级,人工智能在社会层面的应用场景和权力范围也在不断拓展。智能技术更加深入地介入到新闻传播产业链之中,同时也将更多生产环节和细节推入“黑箱”,进入到非专业人士难以破解的领域[9]。帕斯夸尔(Pasquale)认为,如今的我们正生活在一个“黑箱社会”之中,编码规则所体现的价值和特权隐藏在黑箱之中[10]。看似价值中立的人工智能技术实则渗透了特定的价值观和意识形态。当智能技术深入介入新闻传播的全环节、重塑新闻业的整个生态系统之时,其本身暗含的权力关系也参与其中。记者的职权让渡给了技术,传统的“把关人”模式失效,虚假和低俗新闻、信息环境窄化、社会共识消弭、算法偏见歧视等一系列潜在的风险逐渐浮出水面。

  第一,智能技术与传播实践的深度嵌入导致了以“流量至上”为核心逻辑的低俗、失实新闻泛滥

  以点击量作为重要指标的算法新闻正是其中的代表,算法新闻解构了传统新闻选择的价值标准,迎合受众兴趣的同时代价则是公共利益的消失[11]。在媒体机构商业利益的驱动下,技术人员很可能在算法后台通过设置权重参数[12],推荐那些耸人听闻的标题、离奇夸张的故事情节和低俗浅表的内容吸引受众,从而湮没了理性、深度、高质量的信息[13]。另一方面,多元主体在技术加持下参与到信息生产与传播中,媒体对于传播渠道的垄断被打破,对来源广泛、数量众多、即时传播的信息进行事前筛选也变得不可能。传统的“把关人”模式逐渐失效,把关关口不得不后置,再加上算法分发的病毒式扩散机制,于是常有虚假信息和低俗信息被大肆传播。

  第二,算法很可能窄化信息环境,促使形成信息闭环,并进一步加剧社会共识消弭的风险

  研究发现,算法与用户的选择性接触心理以及内容情景、信源环境等结构因素相互作用,会造成信息窄化、依赖加剧、拟态环境失线]。每一次算法推荐都是基于用户的历史行为数据,相似内容的大量推送会导致更多的用户点击,这反过来又导致持续的算法推荐,形成一个顽固的循环[16]。这种循环以用户过去短期行为当作现时兴趣意向的判断标准,并不能适应其日新月异的需求变化。表面上迎合受众需要,实质上是将用户禁锢在“信息孤岛”上而难以听到不同声音[17][18]。算法新闻的出现也一定程度上减弱了大众媒体在塑造共同经验、促进共同话语体系与议程、影响公众舆论上的传统能力[19],不可避免地带来社会共识的消弭[20]。在算法技术引导下,广大的受众群体日益进入更加细分的利基市场,受众接收到更加同质化的信息。这些信息累积到一定程度会强化特定的观点或认知倾向,甚至导致看待事物的偏狭甚至极化[21]。

  第三,含有价值预设、数据偏差的智能技术常常与社会偏见、刻板印象等无意识的观念交叠在一起,带来性别歧视、种族歧视以及更加泛化的行为歧视

  算法流量逻辑对“性别化身体”的追逐,使其成为被凝视的物化对象,例如女主播通过秀身材甚至打擦边球获得头部流量[22]。但算法性别歧视并非局限于女性歧视,研究发现,微博重视女性而歧视男性用户,其原因在于年轻女性是其黏性用户,这与平台及其背后广告商的利益相一致[23]。可见,算法性别歧视的形成部分脱胎于传统社会架构中的两性差异,而更加牢筑于资本优先的终极目的之上。同样,在算法识别规则中种族也是重要“关键词”之一。有关种族问题的社会价值偏见被事先植入数据中,从有瑕疵的数据产生的算法结果必然会对部分群体或个人造成歧视[24]。但更值得注意的是,智能时代的歧视正在以行为歧视这一更为隐秘、更加泛化的形式出现。智能技术通过追踪和收集用户行为数据,从而判断何种情绪或偏见会促使用户做出何种决定,给用户贴上一个个标签以便精准定位。而平台中许多看似属于价值中立的规则、标准或者做法被实际适用于个体时,会使得类似少数群体或受保护群体等被不公平地对待,产生歧视性的结果[25]。

  智能时代,每个人都处于庞大的信息系统之中,都可以被识别、被挖掘、被预测、预和修正,并且正在逐渐习惯性地屈从于此。各种信息媒体平台收集和管理用户的个人数据、行为数据及数字踪迹,推测用户的喜好以提供针对性的信息服务,无处不在的数据库提供了规训实施的监视机制,从而诱发出权力的效应[26],使权力之眼弥散到人们的日常行为之中[27]。因此,不仅要从社会的广域视野中挖掘智能技术存在的种种弊病,也要聚焦到用户层面来透析智能技术带来的个体侵害。

  个性化、自动化的信息提供服务使得用户逐渐不再直接参与信息的搜索与决策过程,这意味着用户将权力之棒间接交给了平台[28],导致智能平台的权力日益膨胀,滥用技术的现象频发。与此同时,作为弱势方的用户在隐私权、数据所有权、自主选择权等方面的个体权利也屡屡遭到侵犯。

  彼得罗尼奥(Petronio)提出,隐私的边界表征为个人所能控制私人信息的范围或界限,其内在实质指向的是对于私人领域界限的划定和控制[29]。进入智能时代,个人信息被结构化为数据形式进行储存、分享和使用,隐私的边界逐渐表征在抽象的数据层面。大量的用户私人信息被糅合在一起成为了公开或半公开的数据库,隐私的数据化使得私人和公开领域的界限较难界定[30][31]。与此同时,用户在某种程度上被动或主动放弃部分隐私权金沙体育,平台成为智能社会的“信息受托人”[32],用户向其坦露隐私信息,却无法监督其具体运作方式[33]。表面上,平台凭借前置性的协议、约定,与用户平等地建立起了契约关系。实际上,平台的力量隐含在这种协议和约定之中,通过格式条款迫使用户放弃一部分自身信息权益,由此进一步加剧了平台之于用户的不对等隐性权力结构的形成[34]。个体失去了对于自己私人领域的控制,隐私边界与隐私权利保护面临着失控甚至崩坏的风险[35]。

  平台往往未经许可私自运行后台调用信息,或者通过隐匿的强制性告知,要求只有用户开放收集、存储、分析个人数据的权限,用户才能够正常使用App,这种近乎强制性的方式难谓线]。况且,这些告知条例往往故意设置多层页面包裹隐私政策,使用大量法律与计算机专业词汇,连篇累牍的内容也导致可读性极差。再加上用户对数据权利的保护意识严重欠缺,其复杂深奥内涵与用户的认知之间存在脱节现象。平台与用户间存在告知义务与知情权利的失衡,即“知情的鸿沟”。另外,平台要求用户“不同意即退出”,其中暗含同意的裹挟与决定权的失效。尽管在页面上有显示“同意”或“不同意”数据获取的选择项,但是一旦用户点击“不同意”,那么基本上意味着要退出使用该平台或无法使用核心服务,二元对立的同意选择项导致用户只能选择留下或离开。在这种情况下,用户被迫将个人数据的所有权免费交给平台,平台与用户之间实际上产生了不对等的数据价值交换。

  尽管国内关于智能化信息服务的管理和规制在不断完善,国家互联网信息办公室等五部门联合发布的《互联网信息服务算法推荐管理规定》就规定:“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务”。但问题并非迎刃而解。一方面,用户不仅难以舍弃由智能信息服务所带来的优势和福利,而且面对无处不在的智能信息服务想要完全摆脱控制也是不现实的,久而久之用户难免对于这种“强制性”数据获取产生精神麻痹,或多或少处于一种默许或矛盾的状态中[37];而另一方面,如果平台在关闭智能模式下不能找到新的用户吸引方式,那么对于用户来说,极有可能陷入关闭算法推荐就索然无味,而打开算法推荐又困缚其中的两难境地。

  “科林格里奇困境”(Collingridge’s Dilemma)警示我们,如果不在技术发展初期及时采取措施对其展开控制,它可能会迅速发展至失控的境地[38]。作为责任主体的媒体平台、作为公权力的政府以及作为服务对象和消费者的用户三股力量并非简单的此消彼长,而是要不断磨合寻找平衡点,形成总体社会效益和经济利益最大化的一股合力。

  首先,在技术层面需要做的应该是推进“可理解的算法说明”,制定行业统一的技术规范标准,实现积极的行业自律

  面对既不能打开金沙体育、又不能从外部直接观察的技术黑箱,绝对的透明是不存在的,即使透明也是相对的透明。源代码本身是复杂的专业术语,对绝大多数用户来说即使看清楚了也无法理解。与其追求难以实现的绝对透明,不如要求平台提供“可以理解的技术说明”。平台应当进行合理的技术公开,将智能技术所依据的信息范围和技术特征告知用户,让用户了解其基本运作规则,同时要向用户提供反馈渠道,及时更新和完善智能技术。行业自律组织可考虑统一制定透明度公开的技术标准,其内容至少应包括算法决策的类型、格式、数量、结果、影响等要素,也能达到优化竞争环境、实现平台间的互相监督等目的。

  其次,仅从行业自身出发规避算法风险是远远不够的,我们需要在此基础上更进一步,从社会层面减轻智能传播中可能受到的政治和商业控制

  其中法律规制和社会监督手段的介入起到关键作用,一方面,应当制定法律法规对智能技术进行事前干预和事后追责,主要包括明确智能技术的应用范围与限制条件、明确问责的主体和标准、监督自动化决策的公平和透明等;另一方面,通过政府监督对平台权力运行进行合理限制,完善问责与评估体系以制约平台权力,建立一个强有力的专门执法机构,全面、严格地保护个人隐私信息,及时对违规企业进行问责[39]。同时,建立值得信赖的算法伦理委员会等第三方独立组织,支持学术组织、非营利机构、自媒体等多元主体作为“吹哨人”[40]适当介入监督过程。

  最后,要想实现对智能技术更加广泛的监管和善用,用户的技术素养和媒介素养必须被重视

  一方面,是希望用户通过了解智能技术运作的基本原理,对技术与用户的交互过程有所认知,从而更加理性地使用智能技术,理性地生产和保护个人信息。另一方面,作为智能技术的使用者和被服务者,用户只有了解智能技术,才能对智能技术做出理性评价,才有可能进一步对其自发进行监管,防范其可能带来的风险与消极后果。媒体首先应该肩负起责任,通过客观、权威、多元的报道来传播相关信息,提高普通用户的技术素养。计之长远,则必须继续推进信息技术教育和社会知识资源的普及,提升全民媒介与信息技术素养。

  面对人工智能的技术壁垒、潜在风险以及权力与权利之间的复杂博弈,只有技术、社会和用户“三位一体”,以增强技术透明与行业自律为基本保障,以保障法律规制与社会监督为精准制导,以用户主体意识觉醒与素养提升为核心驱动,才能有效引导人工智能技术向善向好,走向如ChatGPT所言的“一个更光明的、由人工智能驱动的未来”。

  【本文为国家社会科学基金后期资助重点项目“新闻传播的人工智能实践及其反思研究”(批准号:21FXWA002)阶段性成果】

  [2] 刘战伟,刘蒙之.编辑、社交和算法:信息分发路径、权力格局与未来图景[J].城市党报研究,2020(02):46-53.

  [3] 彭兰.智媒趋势下内容生产中的人机关系[J].上海交通大学学报(哲学社会科学版),2020,28(01):31-40.

  [4] 艾媒网.艾媒咨询2020上半年中国人工智能产业专题研究报告[EB/OL].

  [5] 尹凯民,梁懿.算法新闻的伦理争议及审视[J].现代传播(中国传媒大学学报),2021,43(09):64-68.

  [6] 吴静.第三持存和遗忘的可能:数字时代的莫涅莫绪涅困境[J].江海学刊,2021(05):122-127.

  [8] 加里·史密斯.错觉: AI 如何通过数据挖掘误导我们[M].钟欣奕,译.北京:中信出版社,2019:25.

  [9] 努荣古丽·托合提.新闻黑箱:智能化新闻生产与技术风险[J].传媒,2020(5):94-96.

  [11] 姜红,鲁曼.重塑“媒介”:行动者网络中的新闻“算法”[J].新闻记者,2017(04):26-32.

  [12] 林爱珺,刘运红.智能新闻信息分发中的算法偏见与伦理规制[J].新闻大学,2020(01).

  [14] 刘强,赵茜.算法中选择的同化与异化——国外回音室效应研究20年述评与展望[J].新闻界,2021(06):29-38.

  [15] 张瑜烨,郑幼东,张诗琪.信息茧房:智媒时代个性化推荐系统运作逻辑与反思——以今日头条APP为例[J].现代视听,2018(11):18-24.

  [16] 姜红,鲁曼.重塑“媒介”:行动者网络中的新闻“算法”[J].新闻记者,2017(04):26-32.

  [17] 林凡,林爱珺.打开算法黑箱:建构“人-机协同”的新闻伦理机制——基于行动者网络理论的研究[J].当代传播,2022,No.222(01):51-55.

  [18] 吴献举.聚合媒体的新闻生产:方式变革、社会影响与优化路径[J].编辑之友,2018(06):63-67.

  [19] W·兰斯·本奈特,罗伯特·M·恩特曼. 媒介化政治:政治传播新论[M]. 董关鹏金沙体育,译.北京: 清华大学出版社, 2011:12.

  [20] 梅杰.算法传播批判——网络空间治理中的自由与秩序[J].理论导刊,2021(10):58-64.

  [21] 马立明,万婧.智能推送、政治极化与民粹主义:基于传播学的一种解释路径[J].理论与改革,2020(04):63-73.

  [22] 宋素红,常何秋子.作为智能传播基础逻辑的算法及其创新与偏向——基于半结构化深度访谈的扎根理论分析[J].当代传播,2021,(05):20-25.

  [23] 郭小平,秦艺轩.解构智能传播的数据神话:算法偏见的成因与风险治理路径[J].现代传播(中国传媒大学学报),2019,278(09):19-24.

  [24] 林凡,林爱珺.打开算法黑箱:建构“人-机协同”的新闻伦理机制——基于行动者网络理论的研究[J].当代传播,2022,222(01):51-55.

  [27] 覃诗雅. 监控的现代嬗变——对资本主义监控的批判性审视[J]. 国外理论动态,2020(01): 54-60.

  [28] 阿里尔·扎拉奇,莫里斯·E.斯图克.算法的陷阱:超级平台、算法垄断与场景欺骗[M]. 余潇,译.北京:中信出版社,2018.

  [30] 顾理平,杨苗. 个人隐私数据“二次使用“中的边界[J]. 新闻与传播研究,2016(9):75-86.

  [31] 郭小平,李晓.流动社会的智能新媒介、移动连接与个人隐私——雷蒙德·威廉斯“流动的藏私”理论再阐释[J].现代传播(中国传媒大学学报),2018,40(10): 19-24.

  [33] 郭毅.“人吃人”:算法社会的文化逻辑及其伦理风险[J].中国图书评论,2021(09):45-53.

  [34] 孙逸啸.网络平台自我规制的规制:从权力生成到权力调适——以算法媒体平台为视角[J].电子政务,2021(12):69-79.

  [35] 翔,武阳.模糊的边界:算法传播中隐私边界的内涵、衍变及其规制[J].新闻与写作,2022,451(01):22-29.

  [38] 陈凡,贾璐萌.技术控制困境的伦理分析——解决科林格里奇困境的伦理进路[J].大连理工大学学报(社会科学版),2016,37(01):77-82.

  [39] 范海潮,顾理平.探寻平衡之道:隐私保护中知情同意原则的实践困境与修正[J].新闻与传播研究,2021,28(02):70-85+127-128.

  (洪杰文:武汉大学媒体发展研究中心研究员,武汉大学新闻与传播学院教授、博士生导师;常静宜:武汉大学新闻与传播学院硕士研究生)

  洪杰文,常静宜.人工智能的新闻传播实践及反思[J].青年记者,2023(01):45-49.