收到消息的张生一边感叹宋长生的效率和人脉资源,同时也担心自己准备不足,而无法通过安全会议。
今天和甘杨谈完,也就不用再回公司了,直接就回宿舍了。回自己房间前,还特意去了5楼杨雄的房间找了一趟,但并未看到人,大概率还在公司,自己加班呢。
像杨雄这样的人,不让他加班,反而会让他不悦,给予足够的自由和尊重,是他们这些科学家最希望得到的。
随后便给秘书发了条信息,让其通知杨雄后天一起去参加会议,便开始梳理自己后天需要讨论的内容和突发情况的应对。
张生自己捋了一下,最多的安全问题应该是在AI和核能开发上,既然本次会议已经决定开启了,那么说明国家还是希望能够有私企来协助或作为主力支撑科技的发展。
那么如果安全问题做的好,大概率是允许进行后续的研究的。
AI其实早就允许私企研究与开发的,只是大部分企业都是用来牟利的,如几年后的推荐系统、智能客服等。
而出自于牟利的前提,AI在国内都是没有阶段性的成就,以至于后来的人工智能被大众称之为人工智障。
当然2007年,AI的研究和使用还不是很普及,所以会议上还是需要做汇报的。
AI的主要安全问题主要表现在以下几点:
1.数据隐私和安全:AI系统依赖大量数据进行训练,这些数据可能包含敏感个人信息,如身份信息、健康记录、金融数据等。数据泄露或被非法访问可能侵犯个人隐私,导致身份盗用、诈骗等问题。
2.算法偏见和歧视:AI算法在设计或训练过程中可能无意中吸收并放大人类社会中存在的偏见,导致在决策过程中对特定群体不公,比如在招聘、贷款审批、刑事判决等方面可能对性别、种族等特定群体产生歧视。
3.自主武器和军事风险:AI在军事领域的应用,尤其是自主武器系统的开发,可能降低战争门槛,增加误判和非人道行为的风险。若控制不当,这类武器可能对无辜平民造成伤害。
4.网络安全威胁:AI系统本身及其运行环境可能成为黑客攻击的目标,利用AI的漏洞进行数据盗窃、服务中断或植入恶意代码,影响国家安全、基础设施稳定和个人安全。
5.人工智能失控:随着AI的智能化水平提升,理论上存在AI系统超出设计者预期、无法有效控制的风险,即所谓的“超级智能”问题,尽管这一情况目前更多存在于科幻讨论中,但引发了伦理和安全上的长远考虑。
6.伦理道德问题:AI决策过程的透明度和责任归属问题,以及在生命伦理、隐私权、劳动市场变革等方面的挑战,都需要社会、法律和伦理框架的重新审视。
7.不良信息传播:AI驱动的内容生成和分发系统可能被用于传播虚假信息、恶意内容或进行心理操控,影响社会稳定和公众信任。
8.经济和就业冲击:AI自动化可能取代大量传统工作岗位,引发就业结构变化和经济不平等问题,需妥善规划转型期的社会保障和再就业方案。
以上安全问题,都会成为国家安全隐患,所以需要对其进行严加的审核和监管。
至于核能,这个就不用说,几乎算是红线,谁都不敢碰。
本章未完 点击下一页继续阅读