Tag: python

我怎样才能提高我的爪子检测?

在我之前关于在每个爪子里find脚趾的问题之后,我开始加载其他的测量,看看它会如何保持。 不幸的是,我很快就遇到了一个前面提到的问题:认出爪子。 你看,我的概念certificate基本上花了每个传感器的最大压力随着时间的推移,并开始寻找每一行的总和,直到它find了!= 0.0。 然后它对列进行相同的操作,一旦发现多于2行的数据再次为零。 它将最小和最大的行和列值存储到某个索引。 从图中可以看出,在大多数情况下,这种方法效果很好。 然而,这种方法有很多缺点(除非是非常原始的): 人类可以有“空心的脚”,这意味着足迹本身有几个空行。 因为我担心这可能会发生在(大)狗,所以在切断爪子之前,我至less要等2,3或3个空行。 如果另一个联系人在达到多个空行之前在另一个联系人中创build联系人,则会产生问题,从而扩大该区域。 我想我可以比较列,看看他们是否超过一定的价值,他们必须是单独的爪子。 当狗非常小或步伐较快时,问题会变得更糟。 会发生什么事情呢,前爪的脚趾还在接触,而后爪的脚趾刚刚开始与前爪在同一区域内接触! 用我的简单的脚本,它将不能够分裂这两个,因为它将不得不确定该区域哪些帧属于哪个爪子,而目前我只需要看所有帧的最大值。 哪里开始出错的例子: 所以现在我正在寻找一个更好的方式来识别和分离爪子 (之后我会去决定它是哪个爪子的问题!)。 更新: 我一直在修补,以实现乔的(真棒!)答案,但我很难从我的文件中提取实际的爪子数据。 当应用于最大压力图像时,coded_pa​​ws显示了所有不同的爪子(参见上文)。 但是,解决scheme遍历每一帧(以分离重叠的爪子),并设置四个矩形属性,如坐标或高度/宽度。 我无法弄清楚如何把这些属性存储在一些可以应用于测量数据的variables中。 因为我需要知道每一个爪子,它的位置是在哪个框架中,并且将它连接到哪个爪子(前/后,左/右)。 那么如何使用Rectangles属性为每个爪子提取这些值呢? 我有我在我的公共Dropbox文件夹中的问题设置中使用的测量( 示例1 , 示例2 , 示例3 )。 对于任何感兴趣的人,我还设置了一个博客 ,让你保持最新:-)

Python:tf-idf-cosine:查找文档相似度

我正在按照第1部分和第2 部分提供的教程,不幸的是,作者没有时间做最后部分,其中涉及使用余弦来真正find两个文档之间的相似性。 我在文中的例子跟随从以下链接的帮助从stackoverflow我已经包括在上面的链接中提到的代码只是为了让答案生活容易。 from sklearn.feature_extraction.text import CountVectorizer from sklearn.feature_extraction.text import TfidfTransformer from nltk.corpus import stopwords import numpy as np import numpy.linalg as LA train_set = ["The sky is blue.", "The sun is bright."] #Documents test_set = ["The sun in the sky is bright."] #Query stopWords = stopwords.words('english') vectorizer = CountVectorizer(stop_words = stopWords) #print vectorizer transformer […]

在Matplotlib中,参数在fig.add_subplot(111)中意味着什么?

有时我遇到这样的代码: import matplotlib.pyplot as plt x = [1, 2, 3, 4, 5] y = [1, 4, 9, 16, 25] fig = plt.figure() fig.add_subplot(111) plt.scatter(x, y) plt.show() 其中产生: 我一直在疯狂地阅读文档,但是我找不到111的解释。 有时我看到一个212 。 fig.add_subplot()意思是什么意思?

将parameter passing给Python中的另一个函数?

是否有可能将parameter passing给Python中的另一个函数? 说一些像: def Perform ( function ) : function 但要传递的函数将如下所示: Action1() Action2(p) Action3(p,r)

将sqlalchemy行对象转换为python字典

是否有一个简单的方法来迭代列名称和值对? 我的sqlalchemy版本是0.5.6 这里是我尝试使用字典(行)的示例代码,但它会抛出exception,TypeError:'用户'对象不可迭代 import sqlalchemy from sqlalchemy import * from sqlalchemy.ext.declarative import declarative_base from sqlalchemy.orm import sessionmaker print "sqlalchemy version:",sqlalchemy.__version__ engine = create_engine('sqlite:///:memory:', echo=False) metadata = MetaData() users_table = Table('users', metadata, Column('id', Integer, primary_key=True), Column('name', String), ) metadata.create_all(engine) class User(declarative_base()): __tablename__ = 'users' id = Column(Integer, primary_key=True) name = Column(String) def __init__(self, name): self.name = […]

Python对象字段中的字典

你知道是否有一个内置的函数来从任意对象build立一个字典? 我想要做这样的事情: >>> class Foo: … bar = 'hello' … baz = 'world' … >>> f = Foo() >>> props(f) { 'bar' : 'hello', 'baz' : 'world' } 注意:它不应该包括方法。 只有领域。

如何从Python中的URL读取图像数据?

我正在处理的是一个本地文件时,我想要做的事情非常简单,但是当我尝试使用远程URL执行此操作时,问题就出现了。 基本上,我试图从一个URL从一个URL中创build一个PIL图像对象。 当然,我总是可以获取URL并将其存储在一个临时文件中,然后将其打开成一个图像对象,但是这样做效率很低。 这是我有: Image.open(urlopen(url)) 它发出抱怨seek()不可用,所以然后我试着这样做: Image.open(urlopen(url).read()) 但是那也行不通。 有没有更好的方法来做到这一点,或者正在写一个临时文件的方式来做这种事情?

在scikit-learn中将分类器保存到磁盘

如何将经过训练的朴素贝叶斯分类器保存到磁盘并使用它来预测数据? 我从scikit学习网站有以下示例程序: from sklearn import datasets iris = datasets.load_iris() from sklearn.naive_bayes import GaussianNB gnb = GaussianNB() y_pred = gnb.fit(iris.data, iris.target).predict(iris.data) print "Number of mislabeled points : %d" % (iris.target != y_pred).sum()

下划线与双下划线与variables和方法

有人很高兴向我解释__method()损坏,而不是进一步打扰他,因为有很多其他人需要帮助,我想知道是否有人可以进一步阐明差异。 例如,我不需要修改,但是保持私有,所以有人不能做instance._method()? 还是它使它不再覆盖另一个variables? 我不需要我的内部方法“隐藏”,但由于它们是特定的使用,我不希望他们在课堂以外使用。

使用scikit-learn将其分为多个类别

我试图使用scikit-learn的监督式学习方法将文本分成一个或多个类别。 所有我试过的algorithm的预测函数只返回一个匹配。 例如,我有一段文字“纽约的剧院与伦敦的剧院相比”。我已经训练了algorithm,为每一个文本片段select一个地方。 在上面的例子中,我希望它返回纽约和伦敦,但它只返回纽约。 是否有可能使用Scikit学习返回多个结果? 甚至还可以以最高的概率返回标签? 谢谢你的帮助 —更新 我尝试使用OneVsRestClassifier,但我仍然只有一个选项回到每一块文本。 以下是我使用的示例代码 y_train = ('New York','London') train_set = ("new york nyc big apple", "london uk great britain") vocab = {'new york' :0,'nyc':1,'big apple':2,'london' : 3, 'uk': 4, 'great britain' : 5} count = CountVectorizer(analyzer=WordNGramAnalyzer(min_n=1, max_n=2),vocabulary=vocab) test_set = ('nice day in nyc','london town','hello welcome to the big apple. […]