ChatLLM Web
一个在浏览器中运行的大型语言模型(LLM)对话工具,无需服务器支持,使用WebGPU加速。支持多对话、模型缓存、Markdown和流式响应,所有数据存储在浏览器中保护隐私。
• Copy the embed code to showcase this product on your website
• Share on X to spread the word about this amazing tool
项目地址: https://github.com/Ryan-yang125/ChatLLM-WebDemo: https://chat-llm-web.vercel.app### 特点: - 🤖 一切都在浏览器内运行,无需服务器支持,并且使用 WebGPU 进行加速。- ⚙️ 模型在 Web Worker 中运行,确保不会阻塞用户界面,提供无缝体验- 🚀 通过在 Vercel 上单击一次即可轻松免费部署,不到 1 分钟,即可获得自己的 ChatLLM Web。- 💾 支持模型缓存,只需要下载模型一次。- 💬 多对话聊天,所有数据都存储在浏览器中,保护隐私。- 📝 支持 Markdown 和流式响应:数学、代码高亮等。- 🎨 响应式和设计良好的 UI,包括暗黑模式。### 截图