如你所见这只是一个日记本而已

#赛博鸡蛋 一些羊毛
#光与影 摄影作品或创作过程记录
#吃点好 吃啥了
#面基
#活动
#灵感菇 一些 MVP 的 demo 或 idea 记录

点击讨论区进群

友情链接:@stvgateway
联系Steven:@stvlynn_bot
对不起
真的绷不住了
电影院全是现充😤
#买买买
2900拿下Macbook Pro 2016 16+512
电池循环700+ 有点灵
大家觉得值嘛
每次做公众号,微信都没法从外部图床拉取图片
微信里里外外都是答辩
公众号不支持markdown就算了,我还要一个个把图片存下来再传上去
请放南翔小笼,苏式面,南京鸭血粉丝
(头图是用bing画的)
#体验小记

大势已去:Google Bard深度评测

🔗 详细内容:链接

💡摘要:
前天Google进行了Bard开始了公测。作为公测的第一批用户,我只能说Bard虽然达到了“能用”的水平,但相比已经成熟的Bing来说就没那么亮眼了,至少不是一个国际领先的科技大厂所交的作业,更像是一个赶鸭子上架临时做出来的产品。后续的表现还有待观察。

频道群组
还记得文心一格是什么?基于ERNIE-ViLG API的开放作图平台😂,肾3+4=肾7的多模态出现了!
然后,根据飞桨在hf的demo代码,一格用的应该是另一个翻译模型,而非百度翻译。不过倒是正常的整句翻译。
但是,最生草的是,他是把非中翻译成中文,然后直接输入模型!
这是ernie-vilg 2开源base模型https://github.com/PaddlePaddle/ERNIE/tree/ernie-kit-open-v1.0/Research/ERNIE-ViL2

那么问题来了,既然是中文模型,对中文理解为什么如此糟糕。
个人怀疑内部应当有映射表,起到了类似翻译的作用。但是映射不意味着翻译,几乎是逐句逐词转换,例如熊熊烈火,很可能映射为熊和火的token。
然而如果真的是这样,那这种先翻译中文再映射的方式可就真的画虎不成反类犬了。
雪糕模数据集收集:
收集雪糕图(白丝),黑丝也可
不限性别,无需露脸
768×1024及以上,评论区投稿原图
可以投稿别人的
Mix4的续航连半天都撑不过了
真的不如iPhone 13mini
#今日蠢事 上课了但是我脑子没反应过来,然后继续玩手机并往嘴里炫薯片,直到同学发消息来:是否嚣张了点
Back to Top