但现在的服务器毕竟是为传统运算而搭建的,存储方式始终没有更改,导出的结果当然大得惊人。而当运算过程由线性读取变成立体读取,所以展示效率会变得极其低下,一个非常小的数据,就会在膨胀为原本的无数倍。
这也是为什么服务器会在一个极小的时间里瞬间崩溃,时间尺度小得几乎只存在于理论之中,就像上次安集自己也说过类似的话,传统硬盘要在那么短的时间内被全部改写,且不说算力无法达到,就算物理条件都满足,其需要的能量恐怕能吧机房都炸飞了。
一开始安集不太明白,这些专家们为什么不拿出具体数据,反而是使用一系列‘无数倍’‘非常小’之类的形容词。不过稍微想想也能清楚,现在还没有真正捕捉到一次病毒爆发过程,当然不可能凭空捏造一些确切数据。
但这也让安集很自然地联想到,一个月前自己在学校机房用超算去模拟陨石数据时发生的事情。到现在他都还对那两个天文数字很难释怀,一个是真空光速,一个是普朗克时间。也就是像专家们提到的‘极大’和‘极小’。
一个多小时后,实验已经顺利开展了两次,结果当然是吻合的。正如孙莹莹之前说的,这个所谓的捕捉过程确实极其无聊,毕竟现在也不是真正的病毒爆发,大家都只是假象了一个随机文件,然后模拟类似的数据膨胀方式,整个过程都显得太温和了。