这一个星期不光是sora发布,
还有一件事情也非常值得注意,
英伟达发布了一个30多g的,
可供所有人下载的Chat with RTX,
需要电脑30系或者40系显卡8G显存+
主要能干这么几个事儿
1.不联网离线利用本地数据训练垂直模型,
可以安装开源的各种各样的大语言模型,
尤其适合构建本地的Ai知识库。
2.怎么用呢?适合场景,比如你在本地有几千个Gb的资料,它可以全部看完,并且帮你把这些内容做分类整理,甚至你提问它问题,它基于ai来回答,你可以把网上的视频链接给他,它帮你看,帮你在本地你的电脑上建立一个索引。
简直就是买显卡送ai,
只有英伟达的显卡可以用,
温馨提示一下,虽然官方说需要最低8g显存,但是随便跑一个大模型,显存占用都到了13个G,所以这个事儿的起步是16g显存的显卡,目前在5000块钱『单纯显卡价格』以内,价位里面最划算的就是我们这个ai电脑配的4060ti16g显存版本,也就是说你用4070的8g的显存版你都跑不动,因为显存不够!
未来Ai的趋势只有两个方向,一个是在线的Ai能力的极其强大,就比如说sora,硬是通过几千台甚至上万台算力实现的文本生成短视频的功能,另外一个就是本地的Ai算力的小型化和垂直化!
链接