SoulLink 是一款面向渐冻症(ALS)、脑瘫、中风后遗症等 / 表达障碍人群的下一代 自主智能体(Agent)沟通系统。
它不仅仅是一款输入法工具,而是被设计为患者的“数字外骨骼大脑”和“心灵伙伴”,通过语义预测和多模态交互,尽可能减轻表达负担,帮助用户找回“被看见、被理解、能掌控”的尊严与自由。
本项目的整体设计理念明确参考并致敬 Google 的论文
“Using large language models to accelerate communication for eye gaze typing users with ALS”
在此基础上,结合中文 AAC 场景和本土医疗沟通需求,对交互方式、预测逻辑与智能体结构进行了再设计与工程化落地。
项目由 杨玉彬(独立开发者) 设计与实现,持续维护与优化。
如需合作、交流或反馈问题,可通过以下方式联系:
- 电话:13302125795
- 邮箱:yangyubin1116@gmail.com
⚠️ 当前版本仍处于 Demo 阶段,很多功能尚未完善,接口与行为可能会有较大调整,不建议直接用于生产环境,仅供学习、研究和交流使用。
-
沟通模式(Communication Mode):
- 语义级智能联想输入:基于上下文和用户画像进行词句预测,减少逐字拼写。
- 场景感知:支持日常、就医、照护等不同场景的表达模板与推荐句式。
- 多端可调节:输入偏好、按键布局、字号等均可在前端设置面板中自定义。
-
健康助理(Agent 模式):
- 陪伴式对话与情绪支持:通过自然语言对话陪伴用户,缓解长期沟通受限带来的孤独感。
- 医疗知识与工具调用:集成医学相关搜索与知识问答,辅助患者和家属理解病情、用药及康复信息。
- 生存模式(Survival Mode):监听并识别“求救”“不舒服”等高危表达,用于触发紧急提醒或后续联动。
- 个性化记忆系统:记录用户偏好、常用句式与历史对话,让系统越用越懂你。
- 前端(Frontend):Vue 3、TypeScript、Vite、Pinia(状态管理)。
- 后端(Backend):Python 3.12、FastAPI、LangChain、LangGraph。
- 大模型(AI Models):支持 OpenAI 协议兼容的云端模型,也支持本地模型(如 Ollama)。
- Python:3.10+(推荐 3.12)
- Node.js:18.0+
- Git
-
在项目根目录创建并(可选)激活虚拟环境:
python -m venv venv # 激活: # Windows: venv\Scripts\activate # macOS/Linux: source venv/bin/activate
-
安装后端依赖:
pip install -r requirements.txt
-
配置环境变量: 在项目根目录创建
.env文件(可从模板复制或手动填写),例如:LLM_MODEL_NAME=qwen-plus LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 LLM_API_KEY=your_api_key_here ENABLE_HEALTH_AGENT=true
-
启动后端服务:
cd backend python app/main.py # 或使用 uvicorn: # uvicorn app.main:app --reload --host 0.0.0.0 --port 8000
-
进入前端目录:
cd frontend/SoulLink_front -
安装前端依赖(注意这里是 Node 的 npm,而不是 python -m):
npm install
-
启动前端开发服务器:
npm run dev
-
在浏览器中访问:
http://localhost:5173
后端相关参数(模型选择、限流配置等)通过根目录下的 .env 文件进行配置;前端界面的一些偏好(如 UI 调整)可在设置面板中修改。
