西部热线 | 助力西部开发,关注西部民生! |
adtop
adtop01
当前位置: 西部热线 > 新闻

盈小花:人工智能未来需要解决的核心挑战

作者:赵仓唐    栏目:新闻    来源:21世纪经济报道    发布时间:2025-06-27 15:39   阅读量:7090   会员投稿

随着人工智能技术的飞速发展,其在各个领域的应用日益广泛,为人类社会带来了巨大的变革和机遇。然而,人工智能的未来发展也面临着诸多核心挑战,这些挑战涉及技术、伦理、社会、法律等多个层面,需要全球各界共同努力来应对。

一、技术瓶颈(一)高质量数据集紧缺

数据集是人工智能“学习”的基础和源泉。从全球开源数据集语种来看,英语开源数据集占比最高,截至2023年底达到了56.9%,而中文开源数据集占比仅为5.6%。造成国内高质量数据集紧缺的原因是多方面的,包括数据标准和规范的缺失、数据共享和开放程度低、数据处理投入不足等。数据集的紧缺会限制人工智能算法的训练效果,影响模型的准确性和泛化能力。

(二)智能芯片依赖进口

尽管中国在智能芯片领域取得了一定进展,但仍存在产业链完善度、技术积累、国际政治环境等多方面的挑战。智能芯片产业链涉及设计、制造、封装、测试等多个环节,当前中国智能芯片产业链存在短板,尤其是在芯片设计软件、芯片制造设备等方面依赖进口。此外,中国在智能芯片设计和制造方面的技术积累尚不足,相较国际领先水平仍有一定差距。

(三)能源消耗问题

训练大模型需要巨大的算力和能源消耗,这对环境和资源提出了严峻挑战。据统计,2025年AI数据中心能耗预计达77.7太瓦时,是2023年的两倍。如何在保障AI技术发展的同时,降低能源消耗,推动绿色可持续发展,是当前亟待解决的问题。

二、伦理道德困境(一)数据隐私与安全

在数字时代,数据是驱动人工智能的核心要素。人工智能系统广泛收集数据,大量个人信息被纳入,若缺乏严格监管,数据易被不当使用。数据在传输和存储过程中也可能因技术漏洞被盗取。例如,黑客利用AI技术制造更加复杂和难以识别的网络钓鱼攻击,通过大规模自动化漏洞利用,极大地提升了攻击的效率和隐蔽性。

(二)算法偏见与歧视

人工智能在判断和决策过程中,因训练数据不平衡或算法设计缺陷,可能产生偏见与歧视问题。例如,某些贷款审批算法存在性别偏见,面部识别技术对不同种族和性别人群存在识别偏差。算法推荐系统还可能放大偏见,导致用户喜好趋同,造成流行性偏见。

(三)决策不透明与责任归属

人工智能算法决策过程类似“黑箱”模型,其不可见性使人们难以理解和解释机器学习算法的决策过程。在医疗诊断和金融投资等关键领域,缺乏透明度和可解释性可能导致人工智能作出错误决策,且无法被理解和纠正。当人工智能系统出错或造成损害时,责任归属界定极为复杂,由于人工智能系统的复杂性和不确定性,涉及人类设计师、制造商、使用者等多方参与,传统责任理论难以直接适用。

三、社会影响与就业结构调整(一)就业冲击

人工智能的普及可能导致部分岗位被替代,引发“技术性失业”。虽然AI也将创造新的职业机会,如数据科学家、AI工程师等高技能职位,但就业结构的调整可能带来短期内的失业压力。例如,简单数据录入、客服工作已被自动化系统取代,制造业机器人操作、物流自动分拣系统提高了生产效率,降低人力成本,短期内导致低技能岗位失业率上升。

(二)社会不平等加剧

自动化导致部分职业消亡,加剧社会经济不平等。同时,AI技术的滥用可能导致虚假信息泛滥、社会信任危机等问题,进一步影响社会稳定。

(三)人类能力退化

过度依赖AI可能削弱人类的某些能力,如深度阅读和独立思考。例如,长期使用导航系统可能使人类空间导航能力下降。

四、法律与政策监管滞后(一)监管框架缺失

目前全球正通过欧盟AI法案等立法尝试构建治理框架,但技术迭代速度远超规范制定进程。现有的法律法规难以适应人工智能技术的快速发展,导致一些新兴的AI应用处于监管的空白地带。

(二)国际合作需求

人工智能科技及其应用,国家之间依然存在流通限制。未来需要加强国际合作,共同制定人工智能的国际标准和规范,以促进人工智能技术的健康发展。例如,在数据跨境流动、算法透明度、责任归属等方面,需要各国达成共识并形成框架性协议。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

adl03
adr1
adr2