是否有可能定义一个Android虚拟设备用于开发Google Glass应用程序(直到设备变得广泛可用)?
使用Glass,您可以通过“OK,Glass”菜单启动应用程序,似乎可以select最接近的匹配项,除非命令在几英里之外,您可以很清楚地看到命令列表。 无论如何,从应用程序中,或从语音提示(在最初的应用程序触发器之后)有一个类似的列表,并返回最近的匹配。 随机(非现实世界)的例子,一个应用程序,显示你的颜色,“确定玻璃,显示红色的颜色” “显示颜色”可能是你的语音触发,似乎是用“最近邻居”方法上的玻璃来匹配的,然而,“红色”只是作为自由文本阅读,很容易被误认为是“恐惧”或“头脑”甚至“读”,因为没有办法区分“读”和“红”。 有没有办法将预先批准的选项(红色,绿色,蓝色,橙色*等)列表传递到这个阶段,或在应用程序内传递给另一个语音提示,以便用户可以看到列表并获得更准确的结果当有一组预期的响应(如主要的确定玻璃屏幕)? *好吧,没有橙色押韵,我们可能在那里安全
我正在寻找一种在我的Android设备和不依赖云API的Google Glass之间发送数据的方法。 这是支持吗? 我在“我的玻璃”应用程序中看到蓝牙连接,这让我觉得可以完成。 有没有一个示例源代码显示如何完成? 或者我必须反编译MyGlass应用程序来弄清楚? 有没有一个这样的数据传输的首选方法? 理想情况下,我想在两个方向上传输数据。