我正在使用WebGL来渲染二进制编码的网格文件。 二进制文件是以big-endian格式写出来的(我可以通过在hex编辑器中打开文件或使用fiddler查看networkingstream量来validation这一点)。 当我尝试使用Float32Array或Int32Array读取二进制响应时,二进制被解释为little-endian,我的值是错误的: // Interpret first 32bits in buffer as an int var wrongValue = new Int32Array(binaryArrayBuffer)[0]; 我找不到在http://www.khronos.org/registry/typedarray/specs/latest/中的任何types数组的默认sorting的引用,所以我想知道什么是交易? 我应该假设所有的二进制数据在使用types数组读取时应该是小尾数? 为了解决这个问题,我可以使用一个DataView对象(在前面的链接中讨论)并且调用: // Interpret first 32bits in buffer as an int var correctValue = new DataView(binaryArrayBuffer).getInt32(0); DataView函数(如“getInt32”)默认读取big-endian值。 (注意:我已经使用Google Chrome 15和Firefox 8进行testing,它们的行为方式都是一样的)