如何在Android上的Camera上使用SurfaceView绘制覆盖图?

我有一个简单的程序,将Camera的预览画成SurfaceView 。 我想要做的是使用onPreviewFrame方法,每当一个新的框架被绘制到SurfaceView时被调用,以执行应该调用onDraw方法的invalidate方法。 实际上,正在调用onDraw方法,但没有任何打印(我猜摄像机预览覆盖了我正在绘制的文本)。 这是我有的SurfaceView子类的简化版本: public class Superficie extends SurfaceView implements SurfaceHolder.Callback { SurfaceHolder mHolder; public Camera camera; Superficie(Context context) { super(context); mHolder = getHolder(); mHolder.addCallback(this); mHolder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS); } public void surfaceCreated(final SurfaceHolder holder) { camera = Camera.open(); try { camera.setPreviewDisplay(holder); camera.setPreviewCallback(new PreviewCallback() { public void onPreviewFrame(byte[] data, Camera arg1) { invalidar(); } }); } catch […]

什么是AsyncCallback?

AsyncCallback有什么用,我们为什么要用它?

是否有在iOS自定义振动的API?

从iOS 5开始,用户可以创build警报和响铃的自定义振动模式。 以下屏幕截图显示了用于创build一个(iOS 6中的联系人应用程序)的UI: 我一直在search,包括文档,我找不到公开的自定义振动的创build或播放的公共API。 最接近的是使用AudioToolbox框架来发挥短暂的,不断的振动: AudioServicesPlaySystemSound(kSystemSoundID_Vibrate); 有谁知道是否有自定义振动的API? 它不一定是公共的API。 我很想知道联系人应用程序使用什么。 有人知道吗? PS其他人build议在CoreTelephony中使用CoreTelephony ( 示例 )。 我试过了,但由于某种原因无法得到任何振动。 2015年10月更新: iOS 9中有新的私有API与兼容设备中的Taptic Engine进行交互。 有关更多信息,请参阅iOS 9中的Taptic 。

如何在Swift中使用AVPlayerViewController(AVKit)播放video

如何在Swift中使用AV Kit Player View Controller播放video? override func viewDidLoad() { super.viewDidLoad() let videoURLWithPath = "http://****/5.m3u8" let videoURL = NSURL(string: videoURLWithPath) playerViewController = AVPlayerViewController() dispatch_async(dispatch_get_main_queue()) { self.playerViewController?.player = AVPlayer.playerWithURL(videoURL) as AVPlayer } }

“新运营商”和“运营商新”之间的区别?

“新运营商”和“运营商新”有什么区别?

获取用户的当前位置/坐标

我对iOS开发很陌生。 不完全,但不完全是非常有经验的。 但基本上我只是想知道如何去存储用户的当前位置,并显示在地图上的位置。 我能够在地图上显示预先定义的坐标,我只是不知道如何从设备接收信息。 另外我知道我必须添加一些项目到Plist中。 你能和我一起去做我会怎么做吗?

android从图库中挑选图片

我想从画廊创build一个图片select器。 我使用代码 intent = new Intent(Intent.ACTION_PICK, android.provider.MediaStore.Images.Media.EXTERNAL_CONTENT_URI); startActivityForResult(intent, TFRequestCodes.GALLERY); 我的问题是,在这个活动和video文件显示。 有没有办法来过滤显示的文件,以便在这个活动中不会显示video文件?

如何在Python中创build一个不可变的对象?

虽然我从来没有需要这样做,但让我感到惊讶的是,在Python中创build一个不可变的对象可能有点棘手。 你不能只是覆盖__setattr__ ,因为你甚至不能在__init__设置属性。 inheritance一个元组是一个有效的技巧: class Immutable(tuple): def __new__(cls, a, b): return tuple.__new__(cls, (a, b)) @property def a(self): return self[0] @property def b(self): return self[1] def __str__(self): return "<Immutable {0}, {1}>".format(self.a, self.b) def __setattr__(self, *ignored): raise NotImplementedError def __delattr__(self, *ignored): raise NotImplementedError 但是你可以通过self[0]和self[1]来访问a和bvariables,这很烦人。 纯Python中可能吗? 如果没有,我将如何做一个C扩展? (仅在Python 3中工作的答案是可以接受的)。 更新: 因此,子类化元组是在纯Python中执行的方式,除了[0] , [1]等访问数据的额外可能性,这种方法运行良好。因此,要完成这个问题,所有缺less的就是如何“正确“的C语言,我认为这很简单,只是没有实现任何geititem或setattribute等等。但是我自己却没有这么做,因此我提供了一个奖励,因为我很懒。 🙂

为什么我们需要一个纯粹的C ++虚拟析构函数?

我明白需要一个虚拟析构函数。 但为什么我们需要一个纯粹的虚拟析构函数呢? 在其中一篇C ++文章中,作者提到当我们想要做一个类抽象的时候,我们使用了纯粹的虚拟析构函数。 但是,我们可以通过将任何成员函数作为纯虚拟来进行类抽象。 所以我的问题是 我们什么时候才真正构build一个纯虚拟的析构函数? 任何人都可以提供一个很好的实时示例吗? 当我们创build抽象类时,使析构函数也是纯粹的虚拟是一个好的做法吗? 如果是的话,为什么?

如何加载本地HTML文件到UIWebView

我试图加载一个HTML文件到我的UIWebView,但它不会工作。 这是阶段:我的项目中有一个名为html_files的文件夹。 然后,我在界面构build器中创build了一个webView,并在viewController中为它分配了一个插口。 这是我用来追加HTML文件的代码: -(void)viewDidLoad { NSString *htmlFile = [[NSBundle mainBundle] pathForResource:@"sample" ofType:@"html" inDirectory:@"html_files"]; NSData *htmlData = [NSData dataWithContentsOfFile:htmlFile]; [webView loadData:htmlData MIMEType:@"text/html" textEncodingName:@"UTF-8" baseURL:[NSURL URLWithString:@""]]; [super viewDidLoad]; } 这将无法正常工作,UIWebView是空白的。 我会感谢一些帮助。