我是小编,苹果手机和平板如何安装应用,以及像安卓手机一样,通过安装文件包的方式来安装应用。第一次使用苹果设备需要在设置中登录自己的FID账号,账号和密码非常重要。不要忘记使用App Store下载应用,需要登录苹果的FID账号。朋友分享的a...
Tag:教程苹果安装手机小白录屏iPhoneApple安装包
相信大家最近在使用deep thick的时候,经常会遇到这种服务器繁忙无法回答的情况。要想解决这个问题,除了不断刷新重试外,你还可以把它部署到你的本地电脑中,这样就算是电脑没有联网,也可以放心使用了。本期内容我是四百铺小编,就教大家一种非常简单的deep sig本地部署方法,所有人都能听懂,都可以操作,希望你能看到最后,并在收藏的同时点个赞,感谢大家。
首先我们需要用到的是饿了么这款软件,这是一个免费开源的本地大语言模型运行平台,可以帮你把deep sig模型下载到你的电脑并运行。它既支持windows也支持MacOS,直接在官网点击下载即可。下载后傻瓜式安装完成后,在电脑中搜索CMD,打开之后输入饿了么并回车。
如果看到的是这样的输出,就说明你已经安装成功了。如果提示你找不到该命令,可以检查一下你系统的环境变量有没有配置饿了么的安装目录。如果已经有该配置,但是还是提示你找不到该命令的话,重启一下电脑应该就可以了。

接下来我们到饿了么官网首页,点击这里的DPSIGRE,会进入到DPSSIG模型的下载主页。Deep sig R一。目前主要有1.5B、7B、8B、14B、32B、70B、671B这几种不同量级的开源模型。如果后面的B是英文B0,也就是十亿的首字母,整体代表的是模型的参数量,1.5B是15亿参数,7B就是70亿参数。参数量越大,意味着你得到的回答的质量也就越高,但所需GPU资源也越高。
如果你的电脑没有独立显卡,那就选择1.5B的版本。如果有独立显卡,但是显存是4G或8G左右,可以选择7B或8B的版本。我笔记本的显卡是8G显存的4060。虽然也可以运行32B版本的deep sik,但模型回答的速度非常卡,但运行8B的模型就非常流畅。确定好模型版本之后,你只需要把对应的命令粘贴到CMD终端,回车等待模型下载完成,然后自动运行就好了。当你看到这个success的时候,deep sick本地版的部署好了。
但现在只能在终端使用这种命令行的方式来进行对话,体验不太好。所以我们需要借助一些第三方工具实现这种官网中的对话样式。这里推荐大家使用Cherry studio这款工具,这是一个支持多家大模型平台的AI客户端,使用它可以直接对接饿了么API,实现这种窗口式的大模型的对话效果。首先到官网下载软件,安装完成之后,点击左下角的设置,在模型服务中选择饿了吗。首先把顶部的开关打开,然后点击底部的管理按钮,在弹出的界面中添加你刚才下载的deep thick模型,然后回到首页的一个模模型,这时你就可以和deep sig进行对话了。如果你安装了多个deep sig模型,也可以点击顶部进行切换。
接下来我们通过一个题目来测试一下模型回答的质量。题目很简单,一个挂钟敲6下需要30秒,敲12下需要几秒?正确的答案是66秒。我们首先来看一下1.5B这个模型的回答,可以看到回答的速度非常快,但输出的回答很啰嗦,答案也不对。接下来再来看一下8B模型的结果,回答的很简洁,而且结果也是正确的。首先确定了每敲一下的时间间隔,然后计算了敲12次总共消耗的时间。从此我们也可以得出参数量越多的模型,回答的质量也是越高越准确。
不过你即使是使用70亿参数的版本,它也不是我们在官网中使用的deep sick RE。因为官网使用的是这个671B的纯血版deep sick。你别看它的模型大小只有400G要想在本地运行该模型,你至少需要4块84G显存的A10显卡。这个成本对于个人来说基本上是不可能实现的。所以我们在本地运行这些缩小版模型的意义更多的是折腾和体验。不过对于个人来说,8B或32B的版本其实已经完全够用了。特别是在断网的情况下,它依然可以正常工作,而且不会出现服务器繁忙的情况,这一点是在线版本无法比拟的。好了,本期内容就到这里,如果你觉得这个教程对你有帮助,记得点赞、收藏、分享给更多的朋友,我们下期再见。