iOS设备已经embedded了用于辅助function的VoiceOverfunction的语音合成器。 有没有一种方法可以使用这些合成器以编程方式生成基于文本的声音? 我的问题是:我正在做一个简单的应用程序,让孩子们学习颜色,而不是logging我想要支持的每种语言的颜色名称,并将它们存储为audio文件,我宁愿在运行时生成声音一些文字转语音function。 谢谢 [编辑:这个问题被问到iOS7之前,所以你应该真的考虑投票的答案,忽略旧的,除非你是一个软件考古学家]
那么文件最后说了,我需要在我的手腕上轻松几个月。 因为我是一名.NET开发人员,这可能会使我的生活停滞一段时间,而我并不急于做这件事。 这就是说,开发人员有没有什么好的免提select? 任何人都有成功使用任何语音识别软件在那里? POSTSCRIPT:我已经恢复了我的arm,双手编程不成问题。 龙自然地说,工作得不错,但速度较慢,不像键盘那样编程比我想象的要快。
给定两个stringtext1和text2 public SOMEUSABLERETURNTYPE Compare(string text1, string text2) { // DO SOMETHING HERE TO COMPARE } 例子: 第一个string:StackOverflow 第二个string:StaqOverflow 回报率:相似度为91% 回报可以在%或类似的东西。 第一个string:简单的文本testing 第二个string:复杂的文本testing 返回:这些值可以被认为是相等的 有任何想法吗? 做这个的最好方式是什么?
为了识别[可能] bot生成的用户名。 假设你有一个像“bilbomoothof”这样的用户名..它可能是无稽之谈,但它仍然包含发音的声音,所以出现人为的。 我接受它可能是从一个音节字典或单词部分中随机产生的,但让我们暂时假设这个机器人有点垃圾。 假设你有一个像“sdfgbhm342r3f”这样的用户名,对于一个人来说,这显然是一个随机的string。 但是,这可以通过编程来识别吗? 有没有可用的algorithm(类似于Soundex等),可以识别这样的string中的发音? PHP / MySQL适用的解决scheme最受赞赏。
我有Android G1固件1.6,我试图从应用程序中logging下面的代码的声音。 MediaRecorder recorder = new MediaRecorder(); recorder.setAudioSource(MediaRecorder.AudioSource.MIC); recorder.setOutputFormat(MediaRecorder.OutputFormat.THREE_GPP); recorder.setAudioEncoder(MediaRecorder.AudioEncoder.AMR_NB); recorder.setOutputFile(path名); recorder.prepare(); recorder.start(); 我的manifest.xml有: <uses-permission android:name =“android.permission.RECORD_AUDIO”/> 我有: 09-23 14:41:05.531:错误/ AndroidRuntime(1718):未捕获的处理程序:由于未捕获的exception,线程主要退出 09-23 14:41:05.551:错误/ AndroidRuntime(1718):java.lang.RuntimeException:setAudioSource失败。 09-23 14:41:05.551:错误/ AndroidRuntime(1718):在android.media.MediaRecorder.setAudioSource(本地方法) 如何正确录制语音?
我使用Android上的语音识别function,我喜欢它。 这是我的客户最受称赞的function之一。 但是,格式有些限制。 你必须调用识别器的意图,让它把录音发送到谷歌,并等待文本回来。 我的一些想法将需要在我的应用程序中录制audio,然后将剪辑发送到谷歌进行转录。 有没有什么办法可以发送一个audio片段来处理语音文本?
这是可能的,而无需修改Android API? 我find了一篇关于这个的文章。 有一个评论,我应该做的android API的修改。 但没有说如何做修改。 有谁能给我一些build议,如何做到这一点? 谢谢! 我find了这篇文章; SpeechRecognizer他的需求和我的几乎一样。 对我来说这是一个很好的参考! 我已经完全解决了这个问题。 我从这个中国网站search了一个可用的示例代码这里是我的源代码 package voice.recognition.test; import android.app.Activity; import android.content.Intent; import android.os.Bundle; import android.view.View; import android.view.View.OnClickListener; import android.speech.RecognitionListener; import android.speech.RecognizerIntent; import android.speech.SpeechRecognizer; import android.widget.Button; import android.widget.TextView; import java.util.ArrayList; import android.util.Log; public class voiceRecognitionTest extends Activity implements OnClickListener { private TextView mText; private SpeechRecognizer sr; private static […]
在.NET中有两个类似的命名空间和用于语音识别的程序集。 我试图了解这些差异,以及何时适合使用其中一种。 有System.Speech.Recognition从程序集System.Speech(在System.Speech.dll中)。 System.Speech.dll是.NET Framework类库3.0及更高版本中的核心DLL 还有Microsoft.Speech.Recognition从程序集Microsoft.Speech(在microsoft.speech.dll中)。 Microsoft.Speech.dll是UCMA 2.0 SDK的一部分 我发现文档混淆,我有以下问题: System.Speech.Recognition表示这是“Windows桌面语音技术”,这是否意味着它不能用于服务器操作系统或不能用于高规模的应用程序? UCMA 2.0语音SDK( http://msdn.microsoft.com/en-us/library/dd266409%28v=office.13%29.aspx )说,它需要Microsoft Office Communications Server 2007 R2作为先决条件。 不过,我在会议中被告知,如果我不需要在线状态和工作流等OCS功能,我可以使用UCMA 2.0 Speech API,而不需要OCS。 这是真的? 如果我正在为一个服务器应用程序构建一个简单的识别应用程序(比如我想自动转录语音邮件),而且我不需要OCS的功能,那么这两个API之间有什么区别?