这更多的是一个概念性的问题,而不是直接的“如何做到这一点”。 一般来说,可以通过HTML5和nodeJS / binaryJS实现类似Flash的解决scheme来stream式传输audio(独立于从哪里获取stream数据,例如webRTC或其他)。 如果是这样,你会怎么做呢? 在这里find的和从2010年开始只有一个关于stackoverflow的查询。自那时起,NodeJS和HTML5已经成长和成熟了。 人们通常做的事情是:当使用多媒体stream(即video或audio)到服务器时,在getUserMedia()完全到达之前,在当前时间点肯定没有什么比Flash 更快的 – 这实际上可能需要一段时间直到99浏览器用户的百分比将可以使用它。 将数据stream式传输到服务器的一般做法是使用客户端Flash或Flex应用程序,然后连接到像RED5 , FMS或Wowza这样的RTMP协议驱动的媒体服务器。 例如,通过RTMP发送麦克风input的客户端应用程序可能看起来像(简化版) import flash.net.NetStream; private var myMic:Microphone; private var nc:NetConnection; private var ns:NetStream nc = new NetConnection(); ns = new NetStream(nc); nc.connect(rtmp://localhost/serverApp); myMic = Microphone.getMicrophone(); ns.attachAudio(myMic); 与服务器应用程序一起,可以很容易地将数据传输到服务器。 我想要做的是:在nodeJS上运行应用服务器(可能实现socketIO和binaryJS ),以捕获传入的RTMPstream。 就像是 //require var rtmp = require('node-rtmp'), var fs = require('fs'); //rtmp server address var […]