快捷导航

媲美GPT-4的开源模型泄露!正式版本还会更强

[复制链接]
查看: 321|回复: 0
发表于 2024-4-8 21:59:35 | 显示全部楼层 |阅读模式
有一次我老婆她公司也举行这种培训活动,我那天正好送她去,结果听了五分钟,听不下去了,我蹓跶到楼下大厅,拿起备用机拨打了110,说是诈骗活动,场面很火爆,内容很洗脑,结果没十分钟警察就来了[doge],上去大概半小时左右吧!我老婆下来了,我假装不知,问怎么你也偷溜啦?她神神秘秘的告诉我,有人报警,活动取消了[滑稽],嘿嘿嘿,深藏功与名,这帮神经病,就是欠110收拾。
Mistral-Medium竟然意外泄露?此前仅能通过API获得,性能直逼GPT-4。

CEO最新发声:确有其事,系早期客户员工泄露。但仍表示敬请期待。

换句话说,这个版本尚且还是旧的,实际版本性能还会更好。

这两天,这个名叫“Miqu”的神秘模型在大模型社区里炸了锅,不少人还怀疑这是LIama的微调版本。

对此Mistral CEO也做出了解释, Mistral Medium是在Llama 2基础上重新训练的,因为需尽快向早期客户提供更接近GPT-4性能的API, 预训练在Mistral 7B发布当天完成。

如今真相大白,CEO还卖关子,不少网友在底下戳戳手期待。

Mistral-Medium意外泄露

我们还是重新来回顾一下整个事件。1月28日,一个名叫Miqu Dev的神秘用户在HuggingFace上发布一组文件“miqu-1-70b”。

文件指出新LLM的“提示格式”以及用户交互方式同Mistral相同。

同一天,4chan上一个匿名用户发布了关于miqu-1-70b文件的链接。

于是乎一些网友注意到了这个神秘的模型,并且开始进行一些基准测试。

结果惊人发现,它在EQ-Bench 上获得83.5 分(本地评估),超过世界上除GPT-4之外的所有其他大模型。

一时间,网友们强烈呼吁将这个大模型添加到排行榜中,并且找出背后的真实模型。

大致怀疑方向主要有三个:

与Mistral-Medium是同一个模型。

有网友晒出了对比效果:它知道标准答案还说得过去,但不可能连俄语措辞也跟Mistral-Medium完全相同吧。

Miqu应该是LIama 2的微调版本。

但另外的网友发现,它并不是MoE模型,并且同LIama 2架构相同、参数相同、层数相同,。

不过马上就受到其他网友的质疑,Mistral 7b也具有与 llama 7B 相同的参数和层数。

相反,这更像是Mistral早期非MoE版本模型。

不过讨论来讨论去,不可否认的是在不少人心中,这已经是最接近GPT-4的模型了。

如今,Mistral 联合创始人兼首席执行官 Arthur Mensch承认泄露,是他们一位早期客户员工过于热情,泄露了他们训练并公开发布的一个旧模型量化版本。

至于Perplexity这边CEO也澄清说,他们从未获得过Mistral Medium的权重。

网友担心是否会撤下这个版本。

有趣的是,Mensch并没有要求删除HuggingFace上的帖子。

而是留下评论说:可能会考虑归属问题。

参考链接:

[1]https://www.reddit.com/r/LocalLLaMA/comments/1af4fbg/llm_comparisontest_miqu170b/

[2]https://twitter.com/teortaxesTex/status/1752427812466593975

[3]https://twitter.com/N8Programs/status/1752441060133892503

[4]https://twitter.com/AravSrinivas/status/1752803571035504858

责任编辑:随心

相关阅读:自信AI

相关帖子

有些人是真的为了生存,挣钱,不得不做,有些人可能是真的被洗脑了,觉得这样的行为很有用?无论那样,都挺悲哀的。我希望工作并不是全部,一天24小时,除了工作睡觉,还要陪伴家人啊,和朋友在一起,或者一个人待着,干自己喜欢的事情……你想要我免费加班,可以啊,一个月因为特殊情况加几天班,也不会特别在意 。只是家里有情况的时候,单位也可以通融一下……都是互相的嘛。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册账号

本版积分规则

精彩推荐

让管理企业更简单

  • 反馈建议:麻烦到企业之家管理处反馈
  • 我的电话:这个不能给
  • 工作时间:周一到周五

关于我们

云服务支持

精彩文章,快速检索

关注我们

Copyright 企业之家  Powered by©  技术支持:飛    ( 闽ICP备2021007264号-5 )