各大厂商禁止光标,程序员重回“搓手时代”?
作者:365bet登录 发布时间:2025-12-08 10:15
文章| Super关注另一大厂商,建立了自己的代码防火墙。近日,据鞭牛石报道,相关人士爆料,快手研发线发布通知,限制多家第三方编程软件的使用权限。很多同学发现,办公电脑上只要打开光标,就死机,无法使用。这让一些将人工智能编程工具深度集成到日常开发流程中的工程师措手不及。主要辅助工具的突然故障不仅打断了编码的高度自动化节奏,也迫使许多原本由AI完成或生成的环节重新回归手动操作,整体开发效率大幅下降。几分钟内自动生成的模板代码现在必须手动输入;本来可以用自然语言描述的功能逻辑现在又得重新阅读文档和API了。效率效率直线下降,工作流程被打乱,员工甚至开玩笑说:“如果没有 Cursor,我连 Hello World 都写不好。”这并不是一个孤立的案例。近两年,随着AI工具从“新奇玩具”迅速转变为“开发标准”,越来越多的技术团队开始面临一个问题:一方面效率有明显提升,另一方面却存在难以衡量的安全担忧。当远程模型生成的一行代码可能携带未知数据、训练偏差甚至知识产权错误时,公司需要重新评估——所谓的“智能帮助”的界限应该划在哪里?那么,其他大厂商是否也出现过类似的情况呢?这种“防火墙代码”是一道安全防范措施,还是一种防不胜防的过度防御?我们如何权衡其背后的考虑、潜在风险和实际收益? 01 Byte 微软亚马逊,选择牺牲办公效率要安全吗?事实上,对代码和数据安全的警惕并不是AI时代的新问题。企业在大机型渗透到开发流程之前就已经建立了层层保护机制。事实上,对代码和数据安全的警惕并不是AI时代特有的新问题。在大车型还没有渗透到开发过程中的时候,企业已经建立了层层保护机制。他们的主要目标之一是防止敏感代码和业务逻辑通过开发工具或外部服务意外泄露。从上世纪到2000年代初,随着开源协作和远程开发日益流行,企业开始严格限制开发者使用非杀戮的第三方IDE插件、脚本工具或远程调试服务。当时的控制逻辑很简单:任何能够将本地代码上传到外部服务器的行为都被考虑d 潜在的数据泄露风险。于是,“禁止使用非官方插件”、“禁用h自动报错”、“关闭远程日志返回”等策略就成为了大型科技公司研发安全基础的一部分。进入云时代后,这一原则不但没有放松,反而更加确立。即使在 GitHub、GitLab 等平台被广泛采用的今天,许多公司仍然强制要求私有仓库存储、代码提交审核,甚至限制剪贴板操作和屏幕操作。监控屏幕共享等行为只有一个目的:确保核心代码不离开内网。现在,当像 Cursor 和 Copilot 这样的 AI 编程工具默认将用户输入发送到云模型进行推理时,它们本质上会触发相同的安全警报机制:你写的每一行注释和每一个未完成的草稿都可能无意中离开业务边界。因此,快手的资源人工智能编程工具的困境实际上是行业集体转变的一个缩影。当人们认识到“代码是一种财产”时,任何将未定义的代码片段上传到外部模型的尝试都会被安全团队视为不可接受的风险暴露。事实上,过去一年来,不少科技巨头都悄悄收紧了对第三方AI开发工具的控制,甚至不惜牺牲短期效率,以维护数据主权的底线。 Byte 是最早采取系统化措施的公司之一。 5月28日,安全与风控部门向全体员工发送邮件,明确表示:“为避免潜在的数据泄露风险”,6月30日起,将批量禁用Cursor、Windsurf等第三方编程软件。与此同时,Byte热情地推广自己开发的编程助手Trae,并要求研发团队逐步转向这款内部工具。这一步不不仅切断了外部模型对内部代码的“窥探”路径,也标志着其在AI辅助开发领域闭环技术的加速发展。大约在同一时间,微软也在政策层面划出了红线。 9月,在国会听证会上,该公司副董事长兼总裁布拉德·史密斯表示,微软已全面禁止员工使用与Deepseek相关的应用程序。 “我们不允许任何未经验证的人工智能服务与公司代码进行交互,”他强调。 “这不仅关乎知识产权,还关乎客户信任。”除了国家因素外,北美不同企业之间也互相“提防”。据路透社报道,亚马逊近日向工程师发布了一份内部备忘录,要求优先使用自研的AI编码工具“KIRO”,并明确将不再支持任何新的AI开发工具接入开发。环境。这意味着OpenAi的Codex、Anthropic的Claude Code、Cursor等深受开发者欢迎的工具并未被纳入官方推荐列表。备忘录特别指出:“代码的所有生成活动都必须在受控且可听的内部系统中进行。”除了这些互联网公司,更不用说一些已经关注数据安全的老牌公司了。例如,位于深圳的领先ICT和计算公司一直遵守内部信息不得在线访问的要求,并且底层程序也禁止任何向外部网络上传文件的行为。如今,利用自家AI产品编写自己的代码已不再是某家公司的临时策略,而是成为行业安全的默认规则。在这个代码就是竞争、模型就是风险源的时代,所有大企业,与其牺牲意义,不如在保证开发效率的同时,还必须保证代码和数据的安全。 02 徒劳和不安全感,企业更害怕哪个?然而,随着大公司筑起代码墙,另一种声音继续向员工呼喊:太多的开放性是否会扼杀创新?如今,当人工智能正在重塑软件工程范式时,拒绝好的工具可以节省数据,但也可能导致企业错过生产力飞跃的关键窗口。作为这一波AI浪潮中营收最大的公司,NVIDIA CEO黄仁勋一直强调AI带来的根本性生产力提升。在第三季度公布历史最高季度营收570亿美元后,他向员工发出了“AI时代职场铁律”:“只要一项任务能AI自动化,就一定是AI自动化,为什么不呢?”他还针对不鼓励员工使用人工智能的管理者提出了一个罕见的强烈问题:“你疯了吗?”于黄仁旭在n看来,AI工具带来的效率提升不是边际效应,而是指数效应。在当今竞争激烈的技术领域,任何对外部高效工具的系统性禁止都会使企业在吸引人才和项目交付速度方面下降。这种生产力与安全性之间的矛盾在国内厂商的研发线上尤为尖锐。当 Cursor 和 Copilot 等外部工具出于安全考虑而被全面禁止时,许多工程师被迫使用该公司开发的替代工具。然而,这些内部工具的性能往往达不到预期。来自大型电商平台的高级后端工程师Leo在沟通中告诉我们,他的团队彻底改用内部AI助手,但体验非常糟糕:“我用光标写评论,它可以直接生成80%可用的身体功能。外面有更好的‘武器’,但我问编辑使用“生锈的刀”。这种对内部工具的“抱怨”在技术界引起了很大的共鸣。程序员间流传的一个经典笑话就是对这种低效帮助的无奈例证:“如果你写了一个函数的90%,让国产AI编程应用补足剩下的10%,它就能帮你改正前90%代码中的所有错误。”更可笑的是,随着程序员习惯了不发达的AI助手,他们与机器的“对话”模式开始变得异常且充满怨恨。我们从科技圈流传的一份“20大AI提示编程语言”排行榜中,可以看到独特的“黑色幽默”。这个列表不是关于传统意义上的编程语言,而是关于程序员在与 AI 编程工具交互时经常说的“问题”和“指令”——这更像是抱怨和请求。从l可以看出程序员的抱怨最多的是,除了排在第一位的“为我构建一个完整的可运行程序”之外,正常的“代码”需求之外,大量诸如“不要为我生成另一个待办事项”、“你上次就犯了这个错误”、直白的“你的代码根本无法编译”等高频指令,都透露出程序员对效率的强烈不满,重复的错误以及对某些AI工具上下文缺乏了解。这些“提示语”本质上是对AI的“纠错”和“训练”,而不是顺畅的协作。对于经验丰富的副驾驶和拥有SOR等工具的高召回率和上下文理解能力的工程师来说,这种体验相当于对降维的攻击。因此,不少工程师认为,现阶段一味追求“绝对安全”,禁用领先的外部工具,是用看得见的效率损失来换取不安全的。可靠且风险极低的潜在数据。安全肯定是底线,但如果技术团队损失30%甚至更多的开发效率,就会减缓产品差异化。最终,这是企业的主要竞争。随着AI浪潮席卷开发领域,代码安全成为所有科技巨头必须坚守的“第一原则”。从历史遗留下来的安全基线,到技术上闭环的自研工具,各大厂商都在以前所未有的速度打造“代码防火墙”。然而墙内与墙外的AI效率差距,真正让工程师陷入了“既要安全又怕摔倒”的问题。使用相对低效的内部工具并忍受工程师的抱怨和生产力的损失来确保绝对的代码主权?或者,在仔细评估风险后,探索更安全的方式来部署外部工具并拥抱世界上最前沿的工具生产率?这场关于数据主权和技术卓越的游戏的最终决定权留给了大制造商。但可以肯定的是,在AI重塑软件工程的时代,安全策略本身也需要智能升级。 特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。 注:以上内容(包括图片和视频,如有)由网易HAO旗下a上传发布,网易HAO为社交媒体平台,仅提供信息存储服务。
电话
020-66888888