neurosama吧 关注:21,535贴子:112,147
  • 2回复贴,共1
求助

如何实现语音跟模型对话,还有ai主动对话

只看楼主收藏回复

我们自己学着组的模型,目前只能跟大多数模型一样打字生成,只有问一句答一句的能力,现在我们想攻克这两个难关,求指路


IP属地:山东来自Android客户端1楼2024-11-10 16:01回复
    我是第一次使用贴吧答得不好请见谅。
    一,仅有文本对话能力:
    1.加入神经网络:你可能需要往模型上对接一些发声与语音识别神经网络模块,在发声模块的选择上,往往使用适合声学的,如循环神经网络(RNN)及其变体。
    2.朗读程序:如果你不想为了简单一个语音对话能力便大费周章,你可以简单粗暴地找到随处可见语音识别与朗读程序,可以使用输入法的语音识别 谷歌朗读与变声器(neuro就是用变声器的),也可以从github上git一个。
    二、只能问一句答一句
    1.更换神经网络:使用一个依赖于时间的可循环神经网络,如常见的循环神经网络(RNN)及其变体,与新兴但不成熟的脉冲神经网络(SNN)。但你们已经做好了,神经网络的转变是复杂的,还是算了吧。
    2.客户端层面上的修改:讲究的就是一个简单,如果客户在一端时间内保持沉默,直接在后台对ai发送:“你继续往下说。(要表现地我没说过这句话一样)”,同时,你在对话没开始时可以对ai进行一定的要求。这涉及到一些“提示词”(如果你不知道提示词,想了解更多就搜索“提示词”)。
    好了,给你的建议就到这了,如果我对你的话存在误解,或者我讲的话不够清晰,欢迎继续提问,不过本人时间条件有限,恐怕难以回复。总之,希望你的工作一帆风顺,做出你心目中的AI。


    IP属地:福建来自Android客户端2楼2024-11-10 17:09
    收起回复