Realtime Price(实时价格):

block size,至关比特币生死的一个问题,高手进

作者:ams

发布时间:2013年

网络来源:比特人论坛

上面为blockchain容量趋势图,取至http://blockchain.info/charts/bl … cale=0&address=。注意这个尺寸比硬盘上实际存储的尺寸小一点,发帖时硬盘上的尺寸已经到8.42G了,因为里面包含了恢复和索引文件。有些人认为比特币数据块容量增长还不如计算机硬盘的增长快,但他们设错了前提。在比特币用户不增加,已有用户的每个人的比特币交易频率不增加的情况下,即每年交易总数增长,增速不增长的情况下,数据增速将不如硬盘增速,但比特币用户数量是爆发性增长的,而现今的硬盘尺寸基本要三到五年才翻倍。

比特币的价值取决于用户的认可度,这个认可度取决于用户总量和每个用户使用比特币的频率。全网平均每10分钟产生一个block,每个block包含了过去10分钟内全网用户的所有交易信息,当前每个block的尺寸为0.16MB左右。所有的block组成了blockchain。通过在blockchain.info查看历史图表可发现,比特币诞生四年来交易数量和比特币价值成正比关系,而交易数量取决于用户数量和每个用户使用比特币的频率。在比特币价格不断翻倍的情况下,每个block的尺寸大体上也会跟着翻倍(并不是比特币涨10倍,block尺寸就涨10倍,但翻倍速率总体上是相似的)。有些人认为,反正现在硬盘都是白菜价,就是涨到几十T,他也买得起硬盘。但比特币要升值,终究要走入民间,软件尺寸必须平民化。当数据总量增加到一定尺寸时,会对比特币的普及造成影响,从而导致比特币的价格增速放缓,比如以前一年翻10倍,当数据块为几十或几百G时,可能一年只能翻一倍了,因为很多人没法用比特币,一是硬盘空间的问题,二是对网速的影响。第一次运行就要下几百G的数据,有人愿意忍受龟速网络等一个月吗?即便下好了,每月的更新量又有几十G,并且下载的同时也在给别人上传,实际网络流量将超过下载量,甚至可能是下载量的几倍。这样一来,入门门槛将非常高,只会在it圈里流行,很难走入民间。比特币的总量是固定的(虽然还没挖完,但1千万和2千万区别并不大),只有用的人多,每个币的价值才高。

解决方案有两种:

维基百科说“中本聪预计,当数据量增大之后,用户会希望这些数据并不是全部储存在本地。为了实现这一目标,就需要采用引入Merkle tree机制。这种机制下,用户的本地客户端将能够主动剔除掉那些自己永远用不到的部分,比方说极为早期的一些比特币交易记录。”

我不知道这个效果怎么样,我看到有英文讨论说比特币客户端在1.0版之前会使用这个方式来解决数据块尺寸的问题。我担忧的问题有三,一是是否能取消第一次运行时的大量下载。二是究竟能瘦身多少,如果数据块10G,它瘦身100倍到100M,其实并未从本质上解决问题,因为以后数据量可能会是几十T。三是是否需要额外引入中心服务器来存储全部的数据块。

另一种方案就是现在已经在用的使用中心化服务器的方式来解决,比如electrum客户端。这已经偏离了比特币的初衷,中心服务器容易受黑客攻击,而p2p网络是难以攻击的。即便黑客不攻击服务器,用户连接服务器的过程其实也是暴露自身的过程。

这两种方案都是折中方案,当数据块尺寸已经大到要杀死整个比特币网络时,我们只能在安全性、匿名性方面做些妥协。英文论坛上也有关于数据块问题的讨论,但本人水平有限,英文也有限,基本看的云里雾里。要深入理解比特币原理,必须具备密码学、数学和编程知识,本人完全是个门外汉,对两种解决方案的内部实现原理并不了解,同时也许还有其他的方案,欢迎大家讨论。

  • icoin
  • 2013-5-11 12:58:48
比特币并不会成为信用货币,而最终会发展成为类似黄金之类的储备品,其现货交易不会很大,而越大多数情况都是作为保证金存在,以其作为保证金来使用类似于ripple之类的信用货币,所以当大多数人都持有比特币后,其交易记录的自然增长曲线就会呈现出对数特征。

相关文章:

比特币布道者

比特币的坚定信仰者!

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注