如何在iOS SDK中使用语音识别?
我知道SIRI-Services没有公开的API,但是有简单的语音识别API吗? 所以,如果我有一个文本字段,用户点击该文本字段,一个典型的麦克风button的键盘出现,如果他按下它的话语得到承认和转换成一个string对象? 或者这个button可能默认显示?
有许多图书馆可用。 你可以使用它们中的任何一个。
-
openears //这是最好的图书馆
-
VocalKit (弃用开放式耳朵)
- TTS
- ispeech (不免费)
希望它可以帮助你。
注 :
如果你下载openears ( 其中包含一个名为“OpenEarsSampleApp”的示例项目 )@efimovD提到这个
检查视图控制器中的代码,您将看到一个可能的命令的数组。 这东西检测命令! 不是一些谈话。 它会监听并试图比较你所说的与数组中的单词
您可以使用Expect Labs提供的MindMeld iOS SDK。 它支持iOS上的连续(stream式)语音识别。 它还支持任何自定义内容域的自然语言理解和内容发现。
试试看: https : //expectlabs.com/docs/sdks/ios/gettingStarted