We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
这个issue负责相关测试和技术的探讨,如果有兴趣和有思路/建议欢迎提出。
请求动机
方法描述 采用微调模型来训练人格,加入其中的选项
可能的问题 微调模型的使用价格是正常模型的六倍,因此必须要非常长的设定才赚。同时,微调模型如果输入文字训练失败,可能会导致输出内容错误,这会导致一定资源的浪费。
可能方案1 直接使用微调模型,将历史记录输入微调模型作为模型的训练。这种操作对于记忆究竟能有多稳固是不太清楚的。
可能方案2 将历史记录的文本记录下来,在发生新对话的时候,使用某种常规的或者是使用AI的方法,将历史记录的文本中相关的文字检索出来,并且贴在前面。这种操作对于记忆的稳固性有保障,但是如何实现新对话检索旧对话,是这个方案的技术难点。
The text was updated successfully, but these errors were encountered:
No branches or pull requests
这个issue负责相关测试和技术的探讨,如果有兴趣和有思路/建议欢迎提出。
计划1:基于微调模型的模型设置
请求动机
方法描述
采用微调模型来训练人格,加入其中的选项
可能的问题
微调模型的使用价格是正常模型的六倍,因此必须要非常长的设定才赚。同时,微调模型如果输入文字训练失败,可能会导致输出内容错误,这会导致一定资源的浪费。
计划2: 基于某种方案的长期记忆存储
请求动机
可能方案1
直接使用微调模型,将历史记录输入微调模型作为模型的训练。这种操作对于记忆究竟能有多稳固是不太清楚的。
可能方案2
将历史记录的文本记录下来,在发生新对话的时候,使用某种常规的或者是使用AI的方法,将历史记录的文本中相关的文字检索出来,并且贴在前面。这种操作对于记忆的稳固性有保障,但是如何实现新对话检索旧对话,是这个方案的技术难点。
The text was updated successfully, but these errors were encountered: