📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
英媒:OpenAI缩短了AI模型的安全测试时间
金十数据4月11日讯,据英国金融时报报道,OpenAI大幅削减了用于测试其强大人工智能模型安全性的时间和资源,这引发了人们对其技术在没有足够保障的情况下仓促推出的担忧。与几个月前相比,工作人员和第三方团队最近只有几天的时间来对OpenAI最新的大型语言模型进行“评估”。据8名熟悉OpenAI测试流程的人士称,这家初创公司的测试变得不那么彻底,没有足够的时间和资源专门用于识别和降低风险,因为这家市值3000亿美元的初创公司面临着迅速发布新模型、保持竞争优势的压力。知情人士透露,OpenAI一直在争取最早于下周发布其新模型o3,给一些测试人员不到一周的时间进行安全检查。而此前,OpenAI允许几个月的时间进行安全测试。