欢迎光临
一起进步吧

webmaster的文章

普通人如何免费用上满血版Deepseek-R1-AI学用

普通人如何免费用上满血版Deepseek-R1

满血版 deepseek-R1, 参数 671B,理论上需要 350G 以上显存/内存才能够部署 FP4 的量化版本。对于家用电脑来说,这是不可能的,即使采用压缩、分层等优化方法,使用最新的 Nvidia RTX5090 显卡(32G 显存),每秒低于 10tokens 的推理输出速度不具备实用价值。普通人能实际部署的仅仅是 Deepseek-R1-distill 蒸馏版模型,这是大家可以真正用得上的版本;模型大小从 1.5B 到 70B 都有。那么问题来了,普通人为什么要部署呢?作者是没有“雅兴”在自己电脑上部署大模型的,而之前采用 tencent cloud studio 部署的最大尺寸就是 14b,距离“白嫖”上 671b 满血版本还差得远。 在线使用方面,deepseek 官方频繁提示“服务器繁忙,请稍后再试”并且停止了 API 充值,普通用户使用 API 可以是解决在线翻译、本地 UI 调用等需求的,好在 Deepseek-R1 是开源的,那我们就来看看哪些地主家有余粮(显卡/计算卡),要求当然是提供全尺寸 R1 模型的推理服务和一定的免费 API 额度。 Nvidia Nvidia 要是没余粮了,那其他家就更不可能有余粮了。无需注册,打开「Nvidia NIM Deepseek-R1」就可以在网页端直接使用上满血版的 deepseek r1 推理服务了,「Nvidia NIM Deepseek-R1」是当下最稳定、响应最快的平台,没有之一。目前,匿名用户使用 deepseek r1 会存在排队现象,但一般不会超时。本文示例在不进行注册登录的前提下,对话排序为第 149(line 149),发送问题到实际输出显示的等待时间约 10 秒,老黄家的余粮一定是最充足的。 作为测试对比,在 deepseek 官方 api 调用出现错误的情况下,匿名状态在网页端翻译本文标题,没有任何排队等待,使用下文的硅基流动 api 也很慢,某为不是纯国产不受任何制约吗?舍不得堆量!登陆后同样使用 nvidia nim 提供的 api 也没有报错,并且响应输出快速。 Nvidia 提供免费免注册的在线全尺寸 deepseek r1 推理服务的同时,也可以注册 nvidia nim 账号以使用 api,注册用户赠送 5000 点积分。在右侧 api 调用代码区,可以直接使用给出的 base_url(https://intergrate.api.nvidia.com/v1),api_key 则可以通过点击右上方的『Get API Key』进行注册并创建。 点击页面右上角的『Login』或右侧的『Get API Key』,都可以打开注册界面。输入电子邮箱开始注册,注册过程参考「视频分享」。 完成注册后,将获得 1000 点积分,使用企业邮箱、额外填写企业信息,进一步获得 4000 点积分,也就是说,普通用户通常可以获得 5000 点积分。企业信息的角色、行业等都可以随意填写,但建议尽量保证企业名称的真实性。填写完成之后点击『Continue』就可以完成填报,会自动进行验证、积分增加和页面重定向。 接下来,就可以将创建 API key 并在相关应用中使用。本文以沉浸式翻译为例,打开设置后,选择『翻译服务』,不要下拉选择 deepseek,而应该点击顶部的添加OpenAI兼容服务。 在自定义 AI 设置页面,关键信息如下: API 接口地址(Base_url):https://integrate.api.nvidia.com/v1/chat/completions API KEY:你的 api key 模型(Model name):deepseek-ai/deepseek-r1 填写完毕之后,可点击页面顶部右侧的『点此验证服务』进行验证,填写无误的情况下,都会验证成功。接下来,就可以无视 deepseek 官方抽疯,继续爽玩全尺寸 deepseek-r1 了。 硅基流动 硅基流动是一家中国...

赞(0)webmasterwebmaster工具 阅读(529)去评论
一分钟:免费在Cloud Studio上部署、使用Deepseek-R1:14B-AI学用

一分钟:免费在Cloud Studio上部署、使用Deepseek-R1:14B

腾讯云 2 月 2 日宣布,DeepSeek-R1大模型可一键部署至腾讯云 HAI(腾讯云高性能应用服务)上,开发者仅需 3 分钟就能接入调用。通过 HAI,开发者可以省去买卡、装驱动、配网络、配存储、装环境、装框架、下载模型等繁琐步骤,只需两步即可调用 DeepSeek-R1 模型。国内可用的云端 AI 算力平台,百度飞浆 AI Studio 仅可部署运行 PaddlePaddle 深度学习开发框架,而作为国内竞品的「腾讯 Cloud Studio」则没有这一限制,并且每月可免费使用 10000 分钟,随用随开、即时关闭,是轻量化 DeepSeek-R1 部署的绝佳平台。这不,甚至有传闻说腾讯是 deepseek 背后的较大股东。 在腾讯 Cloud Studio 以及 Google Colab、SageMaker Studio Lab 等提供免费 16GB 显存的 GPU 平台上,没有必要委屈自己部署 7b、8b 模型,都是可以部署 14b 模型的。本文将快速(1分钟)在 tencent cloud studio 部署 deepseek-r1:14b 的过程进行演示,在 google colab 等其他平台上同理。具体操作过程可参考对应「视频分享」。 腾讯 Cloud Studio 提供免费配额部署 AI 模型应用的主流云端算力平台包括 Google colab、Amazon SageMaker Studio Lab、Kaggle、Gradient、阿里云天池、百度 AI Studio、腾讯 Cloud Studio等。 「Google Colab」- 没有总计使用时间限制,每次连续使用时间不超过 12 小时,提供多种 GPU 选项; 「Amazon SageMaker」- 作为对标 google colab 的竞品,SageMaker Studio Lab 提供 Tesla T4 GPU,显存为 16GB,持久化存储空间 15 GB,每天运行时间不超过 8 小时,单次使用时间被限制为 4 小时; 「Kaggle」– 提供 16GB 显存的 P100,每周总运行时间不超过 40 小时,单次限制 6 小时,持久化存储空间 20GB; 「Gradient」- 提供 8vCPU和 30GB RAM,Quadro M4000 GPU 仅 8GB 显存,且持久化存储空间只有 5GB; 「Azure 100/student」- Microsoft Azure 学生账户的 100...

赞(0)webmasterwebmaster工具 阅读(381)去评论

在翻译插件中接入、使用Deepseekv3/gemini 2.0 flash等AI翻译服务-AI学用

在翻译插件中接入、使用Deepseekv3/gemini 2.0 flash等AI翻译服务

目前流行的翻译插件基本上都基于或融合了 AI 技术,为用户提供更准确、更生动的在线实时翻译效果。沉浸式翻译是其中的佼佼者,很早介绍过,作者个人除了对这款浏览器插件的“侵入”程度有点不感冒外,总体使用体验没得说。不过,没有哪款翻译软件会自带 AI 平台的 API Key,都是需要用户自备的,而 deepseek v3 新用户注册赠送的 500 万 tokens,如果不是开发者的话,恐怕还没用完就过期了。所以,让我们将 deepseek v3 接入沉浸式翻译吧!操作过程参考「视频分享」。 沉浸式翻译支持众多的翻译接口,当然也包括国内外众多 AI LLM 的 API 接口。在翻译插件中接入、使用 OpenAI、Claude 等,要么自行解决 API Key ,或者购买插件自身的 Pro 会员。我们可以将 deepseek v3 接入,以最低成本享受高质量的翻译服务。 网页、字幕与文件翻译-沉浸式翻译插件 ➡️ 去下载安装 国货之光-Deepseek开放平台 ➡️ 去注册 国外大模型访问必备–嘀嗒云  ➡️ 去订阅 Deepseek API Key Deepseek 对于新注册用户赠送 500 tokens,有效期 1 个月,除非经常使用,普通用户一般一个月是消耗不了 500 tokens 的。要取得 deepseek api key,打开开发者平台就可以在『API keys』下创建一个了。 翻译插件中配置使用 早先版本的『沉浸式翻译』需要利用 OpenAI 兼容格式接入 deepseek,新的版本不再需要这么繁复的操作了,只需要填入 deepseek API key,打开、切换即可。不考虑赠送的 tokens 消耗,即使充值使用也是非常值得的,相比 OpenAI、Claude 等,不仅国内使用毫无障碍,而且价格也完全可以接受。 首先,你可以在 github repo 或打开沉浸式翻译『官方站点』后在对应浏览器扩展商店安装插件。 接下来,可以打开翻译插件在工具栏显示的选项,这样就不用每次都点击『管理扩展』再配置插件了。 然后,打开插件设置页,选择第二项『翻译服务』,下拉至 deepseek 卡片,点击 deepseek 卡片内右下角的『需设置』,在 deepseek 设置页输入 deepseek api key 后,就可以启用 deepseek 了。 使用 翻译插件的使用可以自行摸索,无非全文翻译、划词翻译、字幕同步翻译和文件翻译,沉浸式翻译插件都是支持的,而且来自于 deepseek 大预言模型的能力一定远超默认的微软翻译(谷歌翻译不可用)。作者个人倒是对两个快捷键的使用比较感兴趣。 当然,对于翻译质量/偏好、上下文长度等有特殊要求,可以购买价格昂贵的 OpenAI 和 Claude API Key,同时需要能够解决国内访问、连接问题。”沉浸式翻译+deepseek“ 是最具性价比的选择,日常的网页、字幕或文件的翻译需求,完全胜任。另外,免费方案包括在沉浸式翻译中接入当前还免费 gemini 2.0 flash,缺点是无法直连。 更多精彩,敬请关注「老E的博客」!

赞(0)webmasterwebmaster工具 阅读(425)去评论
阿里云轻量应用服务器升级200Mbps峰值带宽-AI学用

阿里云轻量应用服务器升级200Mbps峰值带宽

上月,阿里云升级/推出了 200Mbps 带宽的轻量应用服务器,价格 35元/月起,覆盖国内、国外大多数可用区,当很多商家还“爬行”在 1-5M 固定带宽的时代,可谓对国内友商形成降维打击。需要注意的是,请大家看清楚,200Mbps 是峰值带宽,而非固定带宽,什么是峰值带宽?就是带宽上限是 200Mbps,但是实际上可能达不到,这一点官方已有明确说明:实例规格峰值公网带宽为出、入方向的峰值上限,不作为业务承诺指标,当阿里云在业务高峰期出现资源争抢时,公网带宽可能会受到限制,不适合应用于对公网质量有强保障诉求的场景。 作者第一时间订购了一台国内的轻量应用服务器,总体上没有遇到限速的情况,可能和使用场景有关。购买阿里云国际区服务器用来扶墙或者国内服务器从事不受阿里欢迎的业务,并且长时间大流量跑满带宽肯定会被严格限速。可是,有这种使用场景的应该是少数吧。作者的使用体验,概括起来一句话:传说中的京德专线。 随便找了台 DE 小鸡,国内晚高峰(21:00)通过阿里 轻量服务器 ping 延迟稳定 150ms 内,几乎没有抖动,作者 VPS 的可用区为张家口,欧洲方向延迟满分。阿里云的北京、乌兰察布、张家口、承德等可用区都提供 200Mbps 峰值的轻量产品供选购,同时在这里建议不要选择上海、深圳、广州等一线城市可用区。 如有意愿,别忘了猛戳「这里」领取作者提供的优惠券,新用户可打 85 折,看不上这点蝇头小利的可略过。领券后,打开「https://www.aliyun.com/product」后,点击『立即购买』,即可打开可用区、规格选择下单页面。 在地区、规格选择及下单页面,一般应将镜像切换为『系统镜像』,获得更干净的系统。 最后,个人心得,提示如下: 更多精彩,敬请关注「老E的博客」!

赞(0)webmasterwebmaster其他 阅读(289)去评论
在cursor中配置添加deepseek v3、google gemini2模型-AI学用

在cursor中配置添加deepseek v3、google gemini2模型

近期国产大模型 deepseek v3 刷屏,根据其发布的数据,deepseek v3 在所有的开源大模型中位列榜首,评测成绩与当今最先进的闭源模型 Claude-3.5-Sonnet、GPT-4o 等相比也不分伯仲。更重要的是价格便宜,每百万输入 token 优惠期内 0.1 元。如果把 deepseek v3 接入到 cursor 中,比起每月 20$ 美元真的很香。能接入吗?当然可以!cursor 基于 vscode,vscode 下 cline 能做的 cursor 必定也支持。cursor 中不仅能接入 deepseek v3,还能接入 gemini 2.0 以及其他你心仪的模型。本文简要介绍接入 deepseek v3 和 gemini 2.0 flash 的方法,也为大家提供在 cursor 中接入其他非官方/第三方大语言模型的思路。 在 cursor 中的操作简单 5 个步骤: 第一步 点击 cursor 上方的齿轮图标,打开 cursor 设置 第二步 选择第二项『Models』后,点击模型列表底部的『+Add  Model』,添加模型。模型名称为 deepseek-chat,输入后回车即可。 第三步 在下方 OpenAI API Key 处输入 API Key 和 Base URL,Base URL 为 https://api.deepseek.com 或 https://api.deepseek.com/v1。 第四步 除新添加的 deepseek-chat 外,取消模型列表中其他所有模型的勾选(或取消所有 OpenAI 模型的勾选)。 第五步 点击 API Key 右侧的『Verify』按钮,稍等片刻即可完成模型添加。 完成模型添加之后,就可以在 chat 或 composer 模式中选择、使用 deepseek v3 了,也可以彻底甩掉梯子,不用再忍受“慢吞吞”的响应回复了。 Gemini 2.0 flash 也可以添加到 cursor 中,与 deepseek v3 稍有不同,新版的 cursor 模型列表已经内置了 gemini 2.0 flash,不需要在额外添加模型(Add model)。 同样,Gemini API key 的输入,自然应该在独立的 Google API Key 板块,在进行验证时无需取消其他模型的勾选,当前版本的 cursor 默认的 google LLM 就是 gemini...

赞(0)webmasterwebmaster工具 阅读(525)去评论
Cline+Deepseek v3-AI编程最具性价比搭配-AI学用

Cline+Deepseek v3-AI编程最具性价比搭配

DeepSeek 新版 v3 模型正式发布,AI 饭圈转疯了!延续便宜大碗特点的基础之上,DeepSeek V3发布即完全开源,并且网页在线和 API 同步更新。Deepseek官方还延续了一贯的新版本模型发布送 token 的优良传统,国内首注册的新用户赠送等值¥10 的 500万 token。AI 编程/开发领域竞争日趋激烈,cline、cursor、github copilot 等可以接入、堪用的模型越来越多。小朋友全民信息学的今天,普罗大众也应该具备基本的编程思想,已经或即将为人父母的,自然也不能缺席。用了 AI,仍然可以不会,但不能不用。 作者并非程序员,但参考一些开源小项目,是绝不会从头造轮子的。无论是 shell 脚本还是流行的 go、js、rust 程序,借助 AI copilot 应用,可以大大提高效率。热门的 cursor、codeium/windsurf 都有尝试,但免费续杯太折腾,而且对网络环境有要求。Cline+deepseek 组合应该是尤其适合非专业人士使用的,cline 免费、deepseek 便宜,个人认为即便对于专业开发领域的需求也足以应付。 Cline Cline(原Claude Dev)是一个可以使用你的命令行界面和编辑器的人工智能助手。在热门的 AI 编程助手工具中,cline 是免费、开源的,几乎允许接入所有热门大模型的 API。 Cline 作为 VSCode 插件安装,搭建开发环境更加简便。Cline 用来学习编程语言或者开发框架是非常有用,可以快速帮你搭建起一个可用的 demo,自动识别搭建过程中出现的错误并进行改进。Cline 支持大量主流的大模型,由于支持 OpenAI compatible API 和 Ollama,也就是说基本可以使用绝大部分大模型帮助完成任务。尽管当前在 AI 编程领域代码的天花板取决于 Claude 3.5 Sonnet,Cline 也推荐 Claude 3.5 Sonnet,但 deepseek v3 的发布,应该会在 Cline 2.0 以来使用 customized XML tags 的基础上,获得相比之前更好的效果。 当然,最新可免费接入使用的是 gemini 2.0 flash。Gemini 2.0 可直接登录「 Google AI studio」创建 API key,在 cline 中设置即可。 普通用户要撕开“开发者”的神秘面纱,尝试 AI 编程与开发,可以按照以下步骤安装使用 cline: 首先,在「vscode 官方站点」下载、安装 VSCode。 接下来,打开 VSCode,在扩展市场中搜索 cline ,点击第一个搜索结果右侧的『安装/Install』。 Deepseek v3 Deepseek v3 发布以来,一直在进行注册即送体验金(10元/500万tokens)的活动。无论是网页端还是接入API,只要输入国内 +86 手机号注册就可以获得 500 tokens 的赠送额度。 在「Deepseek 官网」点击点击『接入 API』并通过手机号注册,500 tokens 实时体现,无需额外操作。 进入接入 API 页面后,点击左侧的『API keys』,再点击『创建 API key』,将创建的 API key 复制备用,在 cline 等接口工具中就可以使用了。 Deepseek v3...

赞(0)webmasterwebmaster工具 阅读(446)去评论
电视直播神器新分支:颜值提升、功能更丰富-AI学用

电视直播神器新分支:颜值提升、功能更丰富

Mytv-android作者于近期发布了名为“天光云影”的新分支作品,同样内置源,UI 进行了调整和优化。首先要说明,开源的 Mytv-android 和 mytv 中文都叫“我的电视”,但不是同一个工具,作者也各有其人。Mytv 早已不再更新,本站也未做任何跟踪关注,而 mytv-android 则基于原生 android 开发,一直在更新,甚至近期还发布了 UI 更新的“天光云影”。确实没搞清楚 mytv-android 和 mytv 两款工具区别的这下就算明白了。故意混淆两者的,一眼就能识别,靠骗人兜售 TV 源或者直播软件的,到哪都是过街老鼠。 mytv-android新分支-天光云影 天光云影是 my-android 作者新推出的分支为 feature/ui 分支,是在功能、界面方面适当优化与加强的分支版本,具体操作、直播源并无变化。有关 mytv-android 的使用请参考「往期博文」和「视频分享」。 相比主分支的 mytv-android,天光云影多了 3 项功能,分别是主题设置、云同步、多屏同播,尤其是多屏同播,虽然适用场景很少,但可能很多小伙伴都有兴趣玩耍一下。 天光云影可在作者 tg 产品频道中下载最新版,这里仅列出当前最新的 3.3.0 稳定版本和 3.3.1 测试版本供直链下载,本站不做更新。天光云影分为正常版本和伪装版本,伪装版本会伪装成 Z 视介(com.chinablue.tv),可解决鸿蒙系统小窗无法横屏,并且支持超级桌面。 天光云影 3.3.0 稳定版(正常版本) 天光云影 3.3.0 稳定版(伪装版本) 天光云影 3.3.1 测试版(正常版本) 天光云影 3.3.1 测试版(伪装版本) 使用建议 安装可以使用 U 盘或者 adb 工具,这里提供「kxds」直链下载地址备用。使用方面,天光云影就是 mytv-android ,因此使用上没有什么不同。首次运行,『直播』界面没有缓存或历史记录,打开『全部频道』会显示默认 fmm IPv6 源的所有频道,天光云影进行了分类,主要包括央视、地方、数字等 3 类。 『设置』界面,和主分支 mytv-android 相比,增加了『主题』、『云同步』两项,其他无变化。 功能板块, 打开『多屏同播』,默认会播放直播源中的第一个频道,可以在菜单中选择『增加』或『切换』当前频道等。 使用限制 首先,主分支的 mytv-android 和 feature/ui 分支的天光云影都要求 android 5.0+ 版本。具体设备方面,手机、电视、机顶盒等没有限制。 其次,使用默认的 fmm 或其他 IPv6 源,网络必须具备 IPv6 环境。如果在『设置』中 自定义 IPv4 源,则无需考虑网络环境问题。上篇博文中已将相关 IPv4 源提供,很多小伙伴无论 IPv4 或 IPv6 直播源都可以愉快使用,存在问题的需要检查自己的运营商、网络环境、网络配置,和软件工具、直播没有关系。 最后,也是最重要的,需要能够顺畅访问 github 等互联网站点。即使默认内置源 URL 添加了 ghproxy(github 加速代理),但 ghproxy 并不总是能正常工作,其中包括 dns 错误解析、污染、sni 阻断等各种问题,其他第三方源或自定义源绝大多数都直接引用了 github、jsdelivr 等被屏蔽的站点内容,直播源文本文件都下载不了,还看什么电视!所以,你需要:👏全球专线 轻量使用👏 更多精彩,敬请关注老E的博客!

赞(0)webmasterwebmaster工具 阅读(790)去评论

"隐蔽“的免费阿里企业邮箱

阿里云提供的免费企业邮箱服务近年来对国内用户变得非常神秘,多数情况下官网只能找到企业邮箱的购买入口,无法注册、开通免费的服务。阿里云刻意将能选择免费服务的企业邮箱注册入口隐藏了起来,当前有效的 5 年免费企业邮箱入口如下: 该免费企业邮箱支持 2 个域名、50 个账户,每账户空间配额为 5GB,企业网盘 2GB。域名无需在阿里云新注册,使用已有域名也可以。 企业邮箱 接下来,勾选同意企业邮箱免费版服务协议后,一路支付就完成了订阅。 在企业邮箱管理控制台,点击『设置解析』,将相以下 7 条记录添加到 DNS 域名记录中。阿里云/万网购买的域名可以一键添加,但 spf、dkim 记录可能遗漏。 @        MX             mxn.mxhichina.com  5@        MX             mxw.mxhichina.com  10mail    CNAME    mail.mxhichina.comsmtp   CNAME   smtp.mxhichina.compop3   CNAME   pop3.mxhichina.com@         TXT        v=spf1 include:spf.mxhichina.com -all@        TXT         v=DKIM1; k=rsa; p=MIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEAuQCL/lhon6Wew8TGN2Lj1gDzo4ercMw+HvAuo4UBRtrUaHJz65/BcXyrFsJ8/1KWQhL7OsImnR4k8NggFIys8UavoeUeULav7m9K4ymbPgKWGbrnxCdhUvAnei5pMdPVwq21myd7YQh5OdVjHlrEZ0ByEp1BE6LRxH8v0B0H3tXgACU4IVYrtyHKsuZ/v6br30WhhFJCjUJTYzU4oDjpQgqOnzt2rtLtdtvJ7TCJXxNCYP6J2CwPvLC+ucfhnxJKuoSJBCaRJkYCjupZX0DLNAaevUAzqOC9mJy6tvuj1Y/bRLeNUPR8FzeySyqwmIc7UhLjxqYMpyVNOxV4yJ5BPwIDAQAB; 再对管理员密码进行初始化、分配员工账号后,用户就可以使用 mail.yourdomain.com 登录企业邮箱 web 端收发邮件了。 阿里云企业邮箱默认强制使用 2FA ,可能会造成不便。使用 postmaster 账户等录企业邮件,点开左侧『安全管理』,选择『账号安全策略』。 可以关闭 2FA,或者修改为『身份验证器认证』方式进行 2FA 验证。同时,阿里云企业邮箱默认关闭了第三方客户端的收发邮件功能,可在『账号安全策略』页面启用,其他各项配置均可在 postmaster 管理员面板进行编辑。 总体上,免费的阿里云企业邮箱和收费版功能上并无本质上的差异,可以完全满足个人、小微企业的需求。相比 lark/feishu 而言,更加单纯,额外的办公协同与管理则通过钉钉加以实现。送达率方面也比较优秀,提供了 spf、dkim 支持,仅极少数国外邮箱会标记垃圾邮件(spam)。

赞(0)webmasterwebmaster应用平台 阅读(599)去评论
Windows下ChatTTS的本地部署-AI学用

Windows下ChatTTS的本地部署

ChatTTS 是一个开源自然语言处理项目,可以生成自然流畅的语音输出。其训练数据涵盖了大量中英文语料库,包括丰富的对话场景和语境信息,使模型能够生成逼真、自然的语音。更重要的是,chattts 支持对笑声、停顿和插入词等声音元素的控制,使得生成的语音更加生动真实。开源以来,持续火爆。毫无疑问,ChatTTS 是目前最好的文本转语音项目,但对新手而言,由于其版本和 API 的迭代,本地化部署一直存在不低的门槛。本文主要讲解在 windows 11 虚拟环境下本地化部署 ChatTTS 的方法和过程,以 conda 为主。由于 python venv 环境无法在 windows 下顺利编译 pynini,也无法在 venv 环境下通过 conda forge 安装预编译的 pynini 包,适合不需要归一化处理的应用。 Git 拉取项目、下载模型甚至安装 python 包,都离不开稳定的网络环境,有需要的可注册订阅「LH机场」。如果需要一个干净的整合包,可以采用本文随附的整合包,仅包含必须依赖、模型和一个示例 example.py文件,下载可通过关注公众号『智能生活引擎』后,发送关键词『ChatTTS』获取直链下载链接。 前备条件 ChatTTS 本地部署原生为 linux 平台,且迭代较快,很多时候,小伙伴会发现项目主页的示例脚本不做修改无法运行。本文列举的部署方法和过程,在满足以下前备条件的前提下,是肯定可以成功的。 克隆代码仓库 创建并激活虚拟环境 在 ChatTTS 目录下创建 venv 目录,并指定以此目录创建 conda 虚拟环境。激活该环境后,后续所有命令在此环境下执行。 删除通过指定目录创建的虚拟环境应使用以下命令。 安装依赖 需要注意的是 pynini 务必选择 2.1.5 预编译版本,nemo_text_processing 和 WeTextProcessing 依赖于 2.1.5 版本,而非最新的 2.1.6 版本。如需使用 GPU 加速,在「pytorch 官网」,获取正确的安装命令,pip3 可替换为 pip、torchvision 可剔除,并注意示例的 cuda 版本为 11.8,如不同务必自行替换。 需要使用 jupyter notebook 运行的,还需安装 jupyter。 VENV虚拟环境部署ChatTTS 同样,通过 python 自带的 venv,我们也可以创建虚拟环境、本地部署 chattts并制作整合包,依赖的安装都是在虚拟环境下进行的。ffmpeg 等后端音视频处理工具自行安装并配置好环境变量,否则运行会报错。 之后,我们可以在 ChatSTS 目录(注意不是 ChatTTS 子目录)下创建 python 脚本文件example.py。 激活虚拟环境后运行 example.py  脚本,首次运行会自动从 hugging face 下载模型。 example.py 仅仅提供了一个针对当前版本 ChatTTS 可用的示例,在此基础上可以向 ChatGPT 提问,逐步构建完成你期望的应用。包含所有模型的最小整合包,可通过关注公众号『智能生活引擎』后,发送关键词『ChatTTS』获取直链下载链接。

赞(0)webmasterwebmaster工具 阅读(811)去评论

更好地应用AI

共同记录与分享优秀的合规AI平台、AI应用实践、工具以及AI领域最新动态,无论是熊孩子的教育还是一些工作、生活中的任务,都可以让AI这一强大的“副驾驶”帮助我们更接近一个个小目标

关于我们联系我们

登录

找回密码

注册