
OpenAI本周发布了两个GPT -SS-1220B和GPT-SS-20B。这些新模型旨在带来强大的思维功能,使用弹性工具,并为更广泛的受众提供自定义,均在Apache 2.0许可下。
与独家在OpenAI云基础架构上托管的GPT-4或GPT-4O模型不同,任何人都可以在本地下载和通过各种发布平台下载和操作GPT-SS模型,从而可以减少机构,打击工具和增强数据控制。
GPT -SS-1220B和GPT-SSS-20B型号旨在在剩下的剩余资源的情况下执行广泛的任务。开创性的120B型号包含1,70亿个教师,并且由于体验结构(MEE),每个符号仅激活51亿个老师,这使得可以在80 GB的图形处理单元上播放该模型。同时,每种代码仅使用20B版本的36亿活跃教师,这仅需要16 GB的内存 – 非常适合消费者移动设备和边缘设备。
两种模型都支持128,000个上下文窗口,以及低,中和更高电压水平的思维链(COT),并有组织的指导格式。它还与使用工具(例如实现Python图标并搜索必须运行工作流程工作的Web的功能)的功能集成在一起。
关于使用OpenAI中最先进技术的培训,包括与O-Series OpenAI模型共享发育比率的GPT -SS模型(例如O3,O4,O4-Mini)。
模型取决于局部局部(绳索),本地零星的关注以及多个价格关注,以达到速度和性能的平衡。预训练的重点是STEM,编程和一般知识,其基于GPT-4O使用的超集组的独特符号(称为O200K_HARMONY-OPEN)。
Openai强调,安全对于开发这些开放模型至关重要。该公司已经清算了培训前数据,以避免暴露于有风险的受试者(例如化学,生物和核场),并使用序列和分层序列进行教育,以提高针对敌对行动的耐用性。
为了使用最坏的情况模拟滥用情况,OpenAI已将模型设置为网络安全和生物学等敏感领域。但是,即使尝试使用其训练堆“手臂”模型进行故意尝试,模型仍未达到OpenAI框架中指定的高风险水平。独立评论证实了这些结果。
此外,Openai推出了一支红色团队,拥有一套500,000美元的奖金,以增加任何安全弱点,鼓励全球人工智能界在测试模型中合作。
在拥抱中可以使用模型,因为它们是在MXFP4中确定的,以进行有效的性能。 Openai还发布了推断Pytorch和Apple Metal的工具,并在Python和Rust提供了和谐协调协调模型。
出版合作伙伴包括主要平台,例如Azure,AWS,Huging Face,Vercel,Ollama,Llama.cpp等。在设备的正面,它可以保证与Nvidia,AMD,Cerebras和Groq支持词汇的合作。
Microsoft还通过ONNX将GPT-SS-20B本地化本地版本带到Windows,可通过Foundry Local和AI工具用于Visual Studio代码。
尽管具有功能,但GPT -SS模型只是文本,缺乏多媒体功能,例如了解图像或声音。它们的幻觉仍然远高于较新的皇家模型,其中GPT-1220B幻觉占Profinqa标准响应的49%,而O1为16%。
借助GPT-SS,OpenAi重新开放了大门,以发展透明和分散的人工智能。强大的功能与安全建筑工程之间的平衡,这些模型使研究人员,初创企业和开发人员能够探索和控制全球级别的语言模型。