题目:
计算机程序为什么采用二进制?
解答:
简单是一个原因,更重要的是稳定,因为电脑内部信号传输的时候,归到根本上还是电信号的传播,采用二进制,就可以采用脉冲信号(高位代表1,低位代表0),而信号传输过程中肯定会受到干扰和衰弱,因为采用的是脉冲信号,所以即使有较大的信号干扰,依旧可以复原出来,因为二进制的非0即1特性.稳定的特点使得硬件的信号传输可靠性非常高,现在一般达到10的9次方数量级,再加上数据校验等技术,可以使得可靠性达到10的15~20次方左右,也就是讲传输一千万亿个bit才会出现一个错误,基本可以讲不会出错了.但是使用二进制也有它的缺陷,因为有些数学中的有些数字到二进制的转换不是等价的,也就是讲把一个数转换到2进制,在转换到10进制,数字就变了,这是由于计算机中存储二进制是有长度的,所以就会有取舍,所以就会有误差,在数学计算中,这些误差是没法忽略的,例如数学中很常见的大规模矩阵计算,用普通的计算机就很痛苦,因为得到的结果常常误差太大而不可用.但是要想改变也不容易,如果用十进制,数据传输的稳定性是没法和二进制相比的.
1.《计算机采用二进制的原因 计算机程序为什么采用二进制?》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《计算机采用二进制的原因 计算机程序为什么采用二进制?》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/jiaoyu/537838.html