判断题:计算机的运算速度的含义是指每秒钟能执行多少条操作系统的命令。

判断题:计算机的运算速度的含义是指每秒钟能执行多少条操作系统的命令。
请判断正误并给出解释。
指令类型不同,执行所需要的时间也不同。那计算机的运行速度怎么衡量?

不对。

计算机的运算速度是指每秒处理的百万级的机器语言指令数。运算速度是衡量CPU速度的一个指标。像是一个Intel80386 电脑可以每秒处理3百万到5百万机器语言指令,即我们可以说80386是3到5MIPS的CPU。

MIPS只是衡量CPU性能的指标。是指每秒钟所能执行的指令条数,一般用“百万条指令/ 秒”来描述。微机一般采用主频来描述运算速度,主频越高,运算速度就越快。

扩展资料:  

1946年诞生的ENIAC,每秒只能进行300次各种运算或5000次加法,是名符其实的计算用的机器。此后的50多年,计算机技术水平发生着日新月异的变化,运算速度越来越快,每秒运算已经跨越了亿次、万亿次级。

2002年NEC公司为日本地球模拟中心建造的一台“地球模拟器”,每秒能进行的浮点运算次数接近36万亿次。

十年之后,即2012年6月18日,国际超级电脑组织公布最新的全球超级电脑500强名单,美国超级电脑(超级计算机“红杉”)重夺世界第一宝座。“红杉”持续运算测试达到每秒16324万亿次,其峰值运算速度高达每秒20132万亿次,令其他计算机望尘莫及。                         

参考资料来源:百度百科-运算速度    

温馨提示:答案为网友推荐,仅供参考
第1个回答  2010-01-24
错的吧,
应该是“指令”而不是“命令”。

对于不同的体系结构,
相同的命令可以被翻译成不同的指令,
所以命令式不能做衡量标准的吧。
应该是指令。

一般MIPS或者CPI就可以衡量了,
这两个标准是把所有指令都算上然后平均的吧。

要是比较CISC/RISC的话,
就要考虑下程序被翻译后的指令条数。本回答被网友采纳
第2个回答  2010-01-24
这是正确的。根据冯·诺依曼的计算机原理,计算机内部其实就是执行一条条预先存在存储器里的指令…那么它的运算速度就是单位时间里执行指令的条数。
第3个回答  2010-01-24
计算机的运算速度与许多因素有关,如机器的主频、执行什么样的操作、主存本身的速度(主存速度快,取指、取数就快)等都有关。早期用完成一次加法或乘法所需的时间来衡量运算速度,即普通法,显然是很不合理的。后来采用吉普森发,它综合考虑了每条指令的执行时间以及它们在全部操作中所占的百分比。
现在机器的运算速度普遍采用单位时间内执行指令的平均条数来衡量,并用MIPS(Million Instruction Per Second,百万条指令每秒)作为计量单位。例如,某机器每秒能执行200万条指令,则记住2 MIPS。也可以用CPI(Cycle Per Instruction)即执行一条指令所需的时钟周期(机器主频的倒数)数,或用FLOPS(Floating Point Operation Per Second,浮点运算次数每秒)来衡量运算速度。
目前国产的最快好像是那个叫“天河一号”的,国防科技大学去年10月研究出来,每秒万亿次好像,目前我国是第二个能整出来这种数量级运算速度的国家,呵呵,骄傲一下吧,爽!
第4个回答  2010-01-24
这是错误的.
应该是执行基本运算指令的速度, 至于是哪些运算, 不同的处理器不同.