这一个星期不光是sora发布, ​还有一件事情也非常值得注意, ​英伟达发布了一个30多g的, 可供

这一个星期不光是sora发布,
​还有一件事情也非常值得注意,
​英伟达发布了一个30多g的,
可供所有人下载的Chat with RTX,
​需要电脑30系或者40系显卡8G显存+

主要能干这么几个事儿
​1.不联网离线利用本地数据训练垂直模型,
​可以安装开源的各种各样的大语言模型,
​尤其适合构建本地的Ai知识库。
​2.怎么用呢?适合场景,比如你在本地有几千个Gb的资料,​它可以全部看完,并且帮你把这些内容做分类整理,甚至你提问它问题,它基于ai来回答,你可以把网上的视频链接给他,它帮你看,帮你在本地你的电脑上建立一个索引。

简直就是买显卡送ai,
只有英伟达的显卡可以用,
温馨提示一下,虽然官方说需要最低8g显存,但是随便跑一个大模型,显存占用都到了13个G,所以这个事儿的起步是16g显存的显卡,目前在5000块钱『单纯显卡价格』以内,价位里面最划算的就是我们这个ai电脑配的4060ti16g显存版本,也就是说你用4070的8g的显存版你都跑不动,因为显存不够!

未来Ai的趋势只有两个方向,一个是在线的Ai能力的极其强大,就比如说sora,硬是通过几千台甚至上万台算力实现的文本生成短视频的功能,另外一个就是本地的Ai算力的小型化和垂直化!
链接

Ai破局

2万学费,我学到了什么?一场关于认知的革命

2024-4-9 23:04:44

Ai破局

杀疯了丨揭秘:炸翻整个AI圈的Sora模型,究竟是怎么被OpenAI炼成的? 昨天,OpenAI 风

2024-4-9 23:04:47

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索