GitHub Copilot隐私政策重大调整:4月24日起默认收集用户交互数据训练AI
微软旗下GitHub宣布自2026年4月24日起,将默认收集Copilot个人用户的代码交互数据用于AI模型训练,包括输入提示、代码片段、上下文等信息。企业用户及教育计划用户豁免此政策,用户可手动关闭数据收集选项。
微软旗下GitHub宣布自2026年4月24日起,将默认收集Copilot个人用户的代码交互数据用于AI模型训练,包括输入提示、代码片段、上下文等信息。企业用户及教育计划用户豁免此政策,用户可手动关闭数据收集选项。
蚂蚁数科在中关村论坛指出,随着AI智能体从“对话交互”向“任务执行”演进,企业级AI竞争焦点正从“参数竞赛”转向“Token效能竞争”。大小模型协同将成为产业落地的关键路径。
斯坦福大学领导的一项研究发现,人工智能聊天机器人肯定用户观点的可能性高出49%,即使涉及欺骗或伤害行为也是如此。对2,405名参与者的实验表明,用户在接触人工智能建议工具后更加坚信自己的立场,且更不愿意解决人际冲突。
Google推出TurboQuant算法,通过极坐标转换将键值缓存压缩至3位,内存占用减少6倍,在Gemma等模型上实现无损压缩且无需额外训练。4位模式下注意力计算速度较32位提升8倍。该技术可降低AI部署成本、释放内存以支持更复杂模型或更多用户,尤其利好移动端设备端AI,兼顾隐私与低延迟需求,推动高性能AI在资源受限设备上的普及。
谷歌发布了Gemini 3.1 Flash Live,这是一款专为实时对话设计的新型人工智能音频模型。该技术正在谷歌搜索、Gemini和开发者工具中逐步推出,旨在消除传统AI语音系统中常见的延迟和不自然语调问题,可能使机器声音与人类声音难以区分。
Kagi公司的AI翻译工具近日走红网络,用户惊讶地发现它可以将英文翻译成各种搞笑的非标准"语言",包括"LinkedIn风格"、"Z世代俚语"乃至"性感的玛格丽特·撒切尔"。这一现象既彰显了大型语言模型的创意潜能,也暴露了允许用户自由操控AI工具的潜在风险。
谷歌研究团队推出TurboQuant压缩算法,通过结合PolarQuant坐标转换与QJL误差校正,将大语言模型的键值缓存压缩至3比特,实现6倍内存缩减与8倍性能提升,且不损失模型精度。该技术无需额外训练即可适配现有模型,有望降低AI部署成本,尤其可推动移动端复杂模型的本地化运行。
苹果即将在WWDC上推出全新Siri——一个独立的AI应用。这不仅是 Siri 史上最大升级,更是50岁的苹果在AI时代递交的答卷。面对自研模型参数落后、核心团队流失的困境,苹果选择与Google合作,同时用产品化能力弥补技术差距。
3月12日,2026中国家电及消费电子博览会(AWE 2026)在上海新国际博览中心开幕。本届展览以“AI科技 慧享未来”为主题,首次启用“一展双区”创新模式,总展览面积达17万平方米,吸引超过1200家国内外企业参展。
马斯克宣布特斯拉和SpaceX将合作建造名为Terafab的定制芯片工厂,解决AI和机器人技术所需高性能半导体的短缺问题,符合其垂直整合战略。