近日,中国青年报·中青校媒面向全国高校学生发起了关于AI工具使用情况的调查,本次调查在全国高校中随机抽取了近万名学生进行问卷填写,回收了共7055份有效问卷。最终调查数据结果表明,有84.88%的受访者曾使用过AI工具,其多用于资料查询,文章撰写以及翻译。对于AI的态度,77.51%的受访者表示AI可在一定程度上提升工作和学习的效率,放大自身能力和优势。但同时,83.47%的受访者表示担心不法分子利用AI工具犯罪,损害他人和社会的利益,79.38%的受访者表示AI工具在发展的同时需做好监管和治理。
现如今,AI工具的技术发展突飞猛进,特别是在经历过年初的ChatGPT和Midjourney两款AI软件迅速爆火之后,越来越多的人开始对AI工具的功能和使用产生兴趣。随着时间发展,AI使用者的队伍不断壮大。而中青校媒的调查数据显示,这绝非少数,几乎每六名大学生中就有一名学生在使用AI工具。近期以ChatGPT为主的语言模型人工智能已经可以处理语言、数学、编码、视觉、法律、医学等不同领域的内容。人们既可用其进行写作、绘画、翻译、资料搜集,同时也可用其进行代码编写,研究数据整理分析等一系列复杂的工作。很显然,AI可以在很大程度上给人们的学习研究以及工作生活带来便利。
但由于目前人工智能还处于新起阶段,相关监管机制体系和管控措施的不完善带来的是一系列风险问题。大量数据被集中用于AI模型的训练,在存储和使用的过程中很容易就会被泄露,从而使个人的隐私安全遭到侵犯,而AI内容的版权没有明确的界定,随之而来的是诸多侵权以及版权纠纷的问题。同时,AI在语言和图形方面的强大功能在一定程度上也为犯罪分子提供了便利,目前已经出现多起利用AI诈骗,传播虚假消息的案例。诸如以上内容可以看出,AI的发展并不是十全十美的。
“大模型要监管和发展兼顾,我们不能盲目发展,让大模型变成脱缰的野马。”复旦大学教授、上海市数据科学重点实验室主任肖仰华在2023世界人工智能大会上表示。AI发展并融入人们学习工作的趋势是不可避免的,为了应对其发展过程中产生的种种矛盾和风险问题,政府必须加强对AI的严格监管和把控,开展制定关于AI模型监管方面的相关配套法律法规的工作,完善监督机制,提升治理成本;企业要做好配合工作,提供大模型服务的厂商要提升服务的规范性,保障用户充分的知情权,同时需建立AI模型工具的安全底线,规范合理使用,从数据源头把关,加快其使用内容合规性认证;学校和媒体则需共同承担起宣传的责任和义务,及时建立起用户对大型模型隐私安全问题的防范意识,提升大众正确看待和使用AI的能力。
AI是一把“双刃剑”,在发展其自身优势的同时,更应做好监管措施,形成以政府为主导,企业、学校、媒体等其他单位共同配合的管控模式。让AI在合理合法的范围内给使用者带来便利,方能“上善若水”。
稿源:荆楚网(湖北日报网)
作者:刘小燕(武汉经开区)
责编:王舒娴
Copyright © 2001-2026 湖北荆楚网络科技股份有限公司 All Rights Reserved
互联网新闻信息许可证 4212025003 -
增值电信业务经营许可证 鄂B2-20231273 -
广播电视节目制作经营许可证(鄂)字第00011号
信息网络传播视听节目许可证 1706144 -
互联网出版许可证 (鄂)字3号 -
营业执照
鄂ICP备 13000573号-1
鄂公网安备 42010602000206号
版权为 荆楚网 www.cnhubei.com 所有 未经同意不得复制或镜像