计算机浮点数表示法的固有缺陷

网友投稿 257 2022-09-02

计算机浮点数表示法的固有缺陷

今晚使用马尔科夫模型,在写转移概率矩阵时,使用 pyhton 自带的函数 sum 来检查是否每一行的和都为 1

然而

In[4]: sum([0.12, 0.16, 0.20, 0.20, 0.00, 0.00, 0.20, 0.12, 0.00])Out[4]: 1.0In[5]: sum([0.15, 0.15, 0.20, 0.20, 0.00, 0.00, 0.20, 0.10, 0.00])Out[5]: 0.9999999999999999In[6]: import numpy as npIn[7]: np.sum([0.15, 0.15, 0.20, 0.20, 0.00, 0.00, 0.20, 0.10, 0.00])Out[7]: 1.0

看到也有人发现了类似的问题,这是计算机浮点数表示法的固有缺陷,也就是说,所有语言里都会有这样的问题。

计算机要存储、计算十进制数,要先把十进制转为二进制,计算后再把二进制转为十进制数。

但对于小数而言,二进制能表示的基数由1/2、1/4、1/8、1/16......这些组成,所以必定有一部分小数无法表示,这也是计算机中浮点数精度缺失的根本原因所在。浮点数具体的存储标准需要参考IEEE 754。

对于一些要求精确计算的场合(比如上面的numpy),一种解决方法是将小数扩大为整数,比如将 0.15 变成 15,这样表示起来就不会有误差,这也是一些计算机或编译环境中的除法 / 默认为整除的原因(至少整数不会出错)

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:中古调式(调式音阶) 二
下一篇:和声学笔记
相关文章

 发表评论

暂时没有评论,来抢沙发吧~