我一直在阅读关于如何read.table对于大型数据文件无效。 另外R如何不适合大数据集。 所以我想知道在哪里可以find实际限制,以及(1)读取各种大小的数据的性能图表(2)处理不同大小的数据。 实际上,我想知道什么时候performance恶化,什么时候我碰到路障。 此外,任何与C ++ / MATLAB或其他语言的比较都将非常有帮助。 最后如果对Rcpp和RInside有什么特别的性能比较,那会很棒!
我在R中有一个很大的性能问题。我写了一个迭代data.frame对象的函数。 它只是添加一个新的列data.frame和积累的东西。 (操作简单)。 data.frame大约有850K行。 我的电脑还在工作(现在大约10小时),我不知道运行时间。 dayloop2 <- function(temp){ for (i in 1:nrow(temp)){ temp[i,10] <- i if (i > 1) { if ((temp[i,6] == temp[i-1,6]) & (temp[i,3] == temp[i-1,3])) { temp[i,10] <- temp[i,9] + temp[i-1,10] } else { temp[i,10] <- temp[i,9] } } else { temp[i,10] <- temp[i,9] } } names(temp)[names(temp) == "V10"] <- "Kumm." return(temp) […]