S3限制桶中的对象
有没有人知道我可以放入S3存储桶的对象数量是否有限制? 我可以把一百万,一千万等等放在一个桶里吗?
据亚马逊:
写入,读取和删除每个包含1个字节到5个TB的对象。 您可以存储的对象数量是无限的。
资料来源: http : //aws.amazon.com/s3/details/截至2015年9月3日。
看起来极限已经改变了。 您可以存储5TB单个对象。
您可以存储的数据总量和对象数量是无限的。 各个Amazon S3对象的大小范围可以从1字节到5太字节。 可以在单个PUT中上传的最大对象是5千兆字节。 对于大于100兆字节的对象,客户应考虑使用分段上传function。
- 每桶对象没有限制。
- 每个账户最多有100个存储桶(如果需要更多,您需要申请亚马逊)。
- 即使将数百万个对象存储在单个存储桶中,性能也不会下降。
从文档,
无论您使用多个存储桶还是less数几个存储桶,可以存储在存储桶中的对象数量没有限制,性能也没有差别。 您可以将所有对象存储在一个存储桶中,也可以将其组织到多个存储桶中。
截至2016年8月
虽然可以在一个存储桶中存储无限数量的文件/对象,但是当您在存储桶中列出“目录”时,默认情况下只会为该存储桶中的前1000个文件/对象提供该文件/对象。 要像这样访问大型“目录”中的所有文件,您需要对其API进行多个调用。
“您可以在一个存储桶中存储任意数量的对象,并在存储桶中写入,读取和删除对象,对象的大小可以达到5 TB。
从http://aws.amazon.com/s3/details/ (截至2015年3月4日)
@ Acyra-从单个桶中执行对象传递的性能将取决于其中对象的名称。
如果文件名被随机字符隔开,那么它们的物理位置将在AWS硬件上进一步传播,但是如果您命名了所有的“common-x.jpg”,“common-y.jpg”,那么这些对象将被存储在一起。
如果您同时请求这些文件,这可能会减慢文件的传输速度,但是不足以让您担心,数据丢失或中断的风险更大,因为这些对象存储在一起将会丢失或不可用。