我已经使用了Andrea Vedaldi的SIFT实现来计算两个相似图像的筛选描述符(第二个图像实际上是从不同angular度放大同一个对象的图片)。 现在我无法弄清楚如何比较描述符来告诉图像有多相似 ? 我知道这个问题,除非你以前真的玩过这些东西,否则这个问题是无法回答的,但是我认为以前做过这个的人可能会知道这个 ,于是我就提出了这个问题。 我做的小生成描述符: >> i=imread('p1.jpg'); >> j=imread('p2.jpg'); >> i=rgb2gray(i); >> j=rgb2gray(j); >> [a, b]=sift(i); % a has the frames and b has the descriptors >> [c, d]=sift(j);
我需要一个algorithm,可以确定两个图像是否“相似”,并识别类似的颜色,亮度,形状等模式。我可能需要一些指针,人类大脑用什么参数来“分类”的图像。 .. 我曾经看过基于hausdorff的匹配,但似乎主要是为了匹配转换的对象和形状的图案。
这是我想要做的: 我正在定期用摄像头拍照。 有点像时间stream逝的东西。 但是,如果没有什么变化,也就是说,图片几乎看起来一样,我不想存储最新的快照。 我想有一些量化差异的办法,我必须经验地确定一个门槛。 我在寻找简单而不是完美。 我正在使用python。