250g硬盘分区以及超大数据运行效率问题

来源:百度知道 编辑:UC知道 时间:2024/06/06 04:10:33
第一种分发 250计算后有232.8g可用容量
盘符 大小 分区后剩余 作用
c: 22 g 210.8 system
d: 40 g 170.8 temp + vm
e: 20 g 150.8 vm
f: 50 g 100.8 soft
g: 90 g 10.8 data
h: 10.8 linux
第二种分发
c: 22 g 210.8 system
d: 60 g 150.8 temp + vm
e: 50 g 100.8 soft
f: 90 g 10.8 data
g: 10.8 linux
现在的问题是,我需要同时运行4台虚拟机,大概同时加载10g大小的虚拟机系统文件,10g文件在一个分区读取运行速度快些,碎片少些,还是将4台虚拟机分别置于2个不同分区,那种效率更高?速度更快?碎片更小?
数据放在不同分区读取的时候效率是不同的,在外围的c盘,效率最高可以达到60m左右,在最后一个盘g盘,速度仅仅40m左右..
我举一个例子..在图书馆一个工人(硬盘磁头),2个放书的箱子(2个分区),一个箱子里面放1000本书,没有顺序摆放的书籍,“随机”每次拿一本快..还是2个箱子分别里面都放500本(假设自然,科学两大类),随机拿取他们快?(工人会先判断是那一类,然后随机拿取)

在同一块硬盘上,无论你放哪个分区理论上效率都是一样的.

而碎片问题,也不论你是放在N个分区中,还是全部放在1个分区中.只要有频繁的读写操作,就会产生碎片.

但可以教你一个小技巧.

比如你某个分区在平时需要担任频繁的读写任务的话.

你在格式化分区的时候,把 "分配单元大小" 设置小一点.

可以帮助你控制随便的产生.

也就是说,读写越频繁 "分配单元大小" 设置得要越小.

补充: 你说的很正确,但是你得考虑到IDE的环境.以及系统环境.
而理论只是给你一个标准罢了.