我有两个应用程序,如下所述: pipe理员应用程序,我可以通过它将.mp4file upload到服务器。 我正尝试在iPad中使用移动应用程序下载.mp4。 pipe理员应用程序是通过使用asp.net 4.0和SQL Server,IIS7。 移动应用程序由asp.net mvc3,jquerymobile,HTML5组成。 截至目前,我已经在IIS7 MIMEtypes节添加MIMEtypes的video/mp4 .mp4。 当我试图在iPad中下载.mp4文件时,我看到一个带有十字箭头的深黑色屏幕。 任何人都可以请帮我解决这个问题。 请告诉我mimetypes的video/mp4是否是.mp4是正确的。
我无法解决如何使用新的Youtubeembedded代码风格自动播放video。 我尝试添加&autoplay = 1的URL,这与旧的风格,但没有奏效。 例如, http://www.youtube.com/embed/JW5meKfy3fY是embedded式链接,但http://www.youtube.com/embed/JW5meKfy3fY&autoplay=1不起作用。 谁能告诉我该怎么做? 谢谢
好的,现在我们可以在App Store上提交我们应用程序的video预览。 根据苹果,我们应该使用iOS8设备和OSX 10.10. 问题是你必须有所有不同的设备(4“,4.7”,5.5“和iPad)。 有没有其他的select? 我想捕捉模拟器的video。 问题是当以100%的分辨率显示时,设备屏幕比我的FullHD监视器大。 任何能以全分辨率从模拟器捕捉video的解决scheme? 编辑:由于很多人回答问题,我不是让我说: – logging一个设备的大小和扩展它不是我问的; – 如何logging任何应用程序预览不是我问的; – 你如何做你的预览不是我要求的; 我问的是, 如果它不适合在屏幕上,你能以100%的分辨率从模拟器录制video吗?
忘记截图,是否有可能捕获在Android运行的应用程序的video? 根植或不根植,我不在乎,我想至less15fps。 更新:我不想要任何外部硬件。 其目的是使其非常便于携带,每一帧都在Android OS中捕捉。 如果它跨越了应用SDK的边界,我愿意去操作系统级别的修改,但我需要一个起点。
我试图通过使用以下命令使用video的开始和结束时间来剪切video ffmpeg -ss 00:00:03 -t 00:00:08 -i movie.mp4 -acodec copy -vcodec copy -async 1 cut.mp4 通过使用上面的命令,我想从00:00:03到00:00:08剪切video。 但是这并不是在那段时间之间切换video,而是在第一个11秒钟之前剪切video。 谁能帮我解决这个问题? 编辑1: 我试图通过使用mark4obuild议的以下命令来剪切 ffmpeg -i movie.mp4 -ss 00:00:03 -t 00:00:08 -async 1 cut.mp4 但它显示了以下错误。 编码器“aac”是实验性的,但实验性编解码器未启用 所以我添加了-strict -2到命令即, ffmpeg -i movie.mp4 -ss 00:00:03 -t 00:00:08 -async 1 -strict -2 cut.mp4 现在它工作正常。
我一直想弄清楚如何用FFmpeg旋转video。 我正在使用纵向模式拍摄的iPhonevideo。 我知道如何使用MediaInfo (优秀的库,顺便说一句)确定当前的旋转度,但我现在卡在FFmpeg。 从我读到的,你需要使用的是一个vfilter选项。 根据我所看到的,应该是这样的: ffmpeg -vfilters "rotate=90" -i input.mp4 output.mp4 但是,我无法得到这个工作。 首先, -vfilters不再存在,现在只是-vf 。 其次,我得到这个错误: No such filter: 'rotate' Error opening filters! 据我所知,我有一个FFmpeg的所有选项的构build。 运行ffmpeg -filters显示了这一点: Filters: anull Pass the source unchanged to the output. aspect Set the frame aspect ratio. crop Crop the input video to x:y:width:height. fifo Buffer input images and send […]
我已经看到了很多关于如何将video从服务器stream式传输到Android设备的信息,但是对于其他方面来说,ala Qik并不多。 有人能指出我在这里的正确方向,或者给我一些build议,如何解决这个问题?
我正在使用AlAssetsGroup enumerateAssetsAtIndexes列出照片(相机)应用程序中的资产。 对于给定的video资源,我想确定它是以纵向还是横向模式拍摄的。 在下面的代码中,asset是一个AlAsset ,我已经testing过它是否是一个video资产[asset valueForProperty:ALAssetPropertyType]是AlAssetTypeVideo ,那么: int orientation = [[asset valueForProperty:ALAssetPropertyOrientation] intValue]; 在这种情况下, orientation始终为0,即ALAssetOrientationUp 。 也许这是所期望的,所有的video都是正确的,但是一个纵向video在MPEG-4中被表示为一个90度的横向video(即,所有的video实际上都是横向的,如果你没有在Mac上尝试MediaInfo应用相信我)。 在文件内部和/或如何访问信息,告诉我实际上是以纵向方向握住手机时录制的? 考虑到资产的url,我也尝试了这一点: AVURLAsset *avAsset = [[AVURLAsset alloc] initWithURL:url options:nil]; CGSize size = [avAsset naturalSize]; NSLog(@"size.width = %f size.height = %f", size.width, size.height); CGAffineTransform txf = [avAsset preferredTransform]; NSLog(@"txf.a = %f txf.b = %f txf.c = %f txf.d = […]
我正在研究一个image processing问题,用于某些场景的半实时检测。 我的目标是以某种方式将实时video作为Motion JPEG帧存入Java代码中。 我对Java媒体框架非常熟悉,不幸的是,我认为我们可以认为这是一个有效的API。 我对Axis盒子也很熟悉,虽然我真的很喜欢他们的解决scheme,但是我希望对我的具体问题有任何批评意见。 这就是我为这个讨论的目的而定义“最佳”的方式: 延迟 – 如果我使用这个videostream来控制摄像机,如果可能的话,我想保持我的往返延迟小于100毫秒。 这是从我的控制input到看到可见变化的时间之间的时间。 一段时间后编辑:另一个要记住的是,相机控制可能是手动和自动(事件触发器)的组合。 我们需要立即看到这些图片,即使高品质的饲料是分开存档。 免费/开源比不免费更好。 可调编解码器参数 – 我需要能够调整编解码器的某些情况。 有时高速低分辨率stream实际上更容易处理。 与Java“集成” – 将这个解决scheme绑定到我的代码有多麻烦? 我是否通过套接字发送数据包? 打url? 安装Direct3D / JNI组合? Windows / Linux /两者? – 我更喜欢操作系统不可知的解决scheme,因为我必须交付给几种风格的操作系统,但可能有一个解决scheme是最佳的一个,而不是其他。 注:我知道其他图像/video采集编解码器,这不是这个问题的重点。 由于帧精度的损失,我特别对stream媒体API(例如,MPEG4) 不感兴趣。 但是,如果我的问题的解决scheme提供了另一个帧精确的数据stream,请join。 对这个问题的后续处理:在这一点上,我强烈倾向于购买安讯士video编码器等设备,而不是直接在软件或PC上采集video。 但是,如果有人有替代品,我很乐意听到他们的声音。
我试图让这个工作在Android 4.1(使用升级的华硕Transformer平板电脑)。 感谢Alex对我以前的问题的回应 ,我已经能够将一些原始的H.264数据写入一个文件,但是这个文件只能用ffplay -f h264来ffplay -f h264 ,好像丢失了关于帧率的所有信息快速播放)。 此外颜色空间看起来不正确(atm使用摄像机在编码器侧的默认值)。 public class AvcEncoder { private MediaCodec mediaCodec; private BufferedOutputStream outputStream; public AvcEncoder() { File f = new File(Environment.getExternalStorageDirectory(), "Download/video_encoded.264"); touch (f); try { outputStream = new BufferedOutputStream(new FileOutputStream(f)); Log.i("AvcEncoder", "outputStream initialized"); } catch (Exception e){ e.printStackTrace(); } mediaCodec = MediaCodec.createEncoderByType("video/avc"); MediaFormat mediaFormat = MediaFormat.createVideoFormat("video/avc", 320, […]