1e706 - 2y
a1f73 - 2y
✅ Optimism Airdrop Round 2 Is Live. 🔥 You are eligible to claim: 50->5000 $OP. 👉 https://optimismio.pages.dev Claim your free $OP. 👏🏻 The second round of the $OP Airdrop has now started. 💙 Get started in the Optimism ecosystem today.
90443 - 2y
好东西。
arweave非常贴合bitcoin和nostr的价值观
4864d - 2y
只需用闪电网络解决存储激励机制问题, 并没有必要发币。 尤其Pos治理代币,是一种类似法币的虚假发明。
53a83 - 2y
如何解决服务商收钱跑路的问题?
0c98c - 2y
nostr协议本身不会跑路,你怕relay商跑路(暴毙也有可能🤔)你就自己在PC上跑一个,或者买VPS跑一个,甚至闲置的安卓手机跑一个,成本非常低,基本上个人电脑和手机跑relay自用,性能都是过剩的,留一个备份总是好的 本来就不能信任relay商,不过诚信经营流水生财才能持续盈利做大,一锤子买卖在自由市场会被很快过滤(虽然被骗的人是很惨😿
对了,跑relay比架个人播客准入门槛和难度低太多了,个人播客已经把我累死,在放弃的边缘徘徊,Web1吃枣药丸
并不存在服务商,Arweave的数据是保存在矿工那里的,矿工是可以自由出入的。也就是说除非矿工集体罢工,否则不用担心这个问题。不过arweave也设计了一个机制来防止这种事情发生,所有的手续费都会有一部分保存在一个基金会里面,用来在关键时刻激励矿工。
哈哈,我在说如果不基于存储发币如何解决服务商跑路的问题,我大概能猜到Arweave的原理,但是 #[3] 说可以用闪电聪来激励存储,我感觉不太能行。
但是arweave能够解决存储问题,而且nostr也不适合存储非文本的二进制数据。 arweave借助挖矿机制把数据的安全性提高到了协议级别,而nostr还是服务商级别,针对不同安全性要求的数据还是有需求合理性的。 当然我对arweave整个体系是否会崩溃还存疑,直觉告诉我它需要非常精妙的设计才能长期稳定运行… 这需要更加深入的研究。
把数据存储服务商的服务化整为零, 以存储为例,每存储1G数据24个小时,支付10聪,1G数据存储一年支付3650聪。 10G数据存储一年支付36500聪。 即针对服务商每一行动(按秒、分钟、小时或天)产生的微小支付都在闪电网络上实时(按天)结算。 假如服务商在第1天或第342天跑路,他已帮你服务了1天或342天。此过程你并没有什么损失。 当然你会说服务商跑路,你的数据会全部丢失,你可以选择将数据实时付费多备份几个服务商(中继器)。 或者我们可以通过Pow建立服务商声誉评价系统,让新用户选择的成本更低。
嗯,定时收费是合理的,因为存储成本本来就是空间✖️时间。 所以我对arweave的一次付费终身存储(即数据与协议共存)的机制稳定性存疑,长期来看总是增量共识在给全部存量数据买单,就像只收土地转让金不收房产税的土地财政一样,整个体系似乎必然崩溃——伴随着越来越昂贵的边际存储成本。 但这不代表我觉得这个事情不合理,我们应该有一个稳定预期的存储服务,而不是每天祈祷服务商不跑路,或者寄希望于多个服务商不会同时跑路,或者寄希望于评分、口碑之类更加虚无缥缈难以证实的东西。 我们需要更加安全稳定的数据存储服务,它需要让数据的安全性提高到协议级别,并且长期合理收费。
成本问题,用区块链来把数据去中心化的通病就是成本随着币价上下波动,而不随着市场上的硬盘和电脑还有服务器的的价格波动 整个储存市场价格是通缩的,符合摩尔定律,而Ar只有涨价才持币者的利益,也就意味着Ar涨价,矿工才可以持续挖矿,而Ar涨价,会刺激用户不用Ar储存而是转用去中心化分布的服务器比如nostr的relay 区块链的全局共识是很昂贵的,Ar数据膨胀必定导致节点中心化,Ar类区块链储存方案,从成本和去中心化两个角度,都是逻辑不自洽的存在
最好的最安全的最可靠的数据去中心化的方式是把数据写入比特币区块链,超强的不可删除性,而且事实上没人可以阻止你这么干🤡 但比特币区块链的区块空间是稀缺资源,价格逐年上涨,你觉得一字节的储存费用越来越贵这合理吗?符合摩尔定律吗? 为啥不买去中心化分布式硬盘服务,为啥要用区块链?
倒也没必要达到比特币级别的安全性,啥数据呀这么重要😇 其实我觉得倒是没必要发个新币,用比特币做一个二层协议(是叫这个吧我没研究过),服务商或矿工质押比特币提供存储服务,定期按存储数据大小收闪电聪收取服务费… 总之达到一个二层协议✖️质押比特币价值的安全性就行了。 当然细节可以再讨论,感觉还有挺多问题需要解决。
在AR系统内,AR代币并没有必要一定需要存在。 按照AR的设计逻辑,将矿工挖的AR代币换成闪电聪,似乎也没任何问题。 存储是需要消耗巨大的时间成本的,而这些成本并未被AR所考虑。 AR系统是一个最典型的臃肿的熵增封闭系统,它必然做不到将任意数据永久存储的事情(维持存储状态的熵减秩序)。
闪电网络的实时结算功能可以降低服务商的道德风险。 将一笔巨大的服务费摊薄到每一天甚至每一分钟每一秒或某一具行动之中,是可免信任的。
服务商可动态调节其数据存储服务所需消耗闪电聪的成本。 以达到可持续盈利的目的。 而且一旦某一个服务商积累了大量用户,但因其经营不善,不得不宣布破产。 其跑路的收益为零(闪电网络实时结算掉它的即时服务),而不跑路卖掉自己数据存储业务的收益为正。 所以并不需要过于担心数据存储服务商的跑路而导致数据全部消失的风险。
道德风险是没了,有没有想过服务商经营不善破产,还是说收比特币的服务商不会破产。 服务商级别的数据安全性终究不让人觉得放心,而且中心化的服务会受到审查的制约,我们需要协议级别的安全性。
还有一个,就是很多人没意识到一个点,只看到了云服务器的中心化趋势,而没有看到nostr协议所创造的与之对应的另一个趋势 这个趋势隐藏在“抗审查的全球信息传输互联网”叙事之下,即,服务器的小型化与轻量化趋势,实际上意味着未来全球互联网不可阻挡的去中心化趋势
果然有一套自己的经济理论,至于有没有漏洞… 我回头再研究研究🤔 目前看来最可疑的还是存储摩尔定律,或许长期看来是有效的,但是一旦某几年发展进入瓶颈,那就很麻烦了,虽然有容错机制,但能容多少也是值得怀疑的,如果这个东西发展得非常快,存储了哪怕互联网1%的数据,那么它现在的那些冗余完全可以忽略不计了。 而且存储价格真的越来越低了吗🥲怎么我感觉这几年买移动硬盘没便宜多少啊。
这个代币的价值也值得怀疑,其实完全没必要再发一个币,老实给比特币打工不香吗🐶 代币归零的风险比存储摩尔定律失效可能性还大… 而且一旦大幅下跌极难反弹,谁会相信一个被破坏过一次的存储生态呢?
ChatGPT 回答的:存储数据的价格已经在过去几十年中不断下降。根据历史数据,存储每GB数据的价格已经从20世纪90年代初的几百美元下降到目前的几美分至几美元不等,这是一个非常显著的价格变化。这个趋势预计会继续下去,因为随着技术的不断发展,存储设备的容量和速度都在不断提高,而成本却在逐渐降低,这使得存储数据变得更加便宜和可行。
你的感觉没有出错!机械盘的价格很难在短时间内能降低一步了。固态的价格最近由于中国企业的崛起大幅度降价。 对于数据永久存储的问题,我觉得还是得把字刻在石头上最保险…开玩笑……🥰 把数据可靠的长久保存是很大一批计算机科学家一直努力的方向…并且目前也看到了一些成果,我们应该期待未来有更好的技术出现。现在最重要的成本。
0d6f3 - 2y
1. 硅芯片的密度已经没多少倍可以增长了 2. 新工艺对memory的缩放率 在最近几代 已经越来越趋近于“约等于没有” *未来对性能的提升都集中于多类型芯片集成;已经硅在已知的物理和技术上已经到极限了 所以肯定不能作“过去 50 年中,数据存储成本每年平均下降30.5%,而Arweave 的计算假设更保守,以市场硬盘存储 1GB/小时价格为起始价,将存储价格下降趋势的假设为每年 0.5%。” 这样的假设 我个人还是觉得单独发一条链没必要,先不说是不是真的有这么大需求,还需要矿工维护,经济利益不够那些矿工就会跑。就算有那么大需求,在L2,L3抄一下arweave的技术不就可以了吗。还不用担心没矿工会死,或规模过大,根本没那么多需求的问题
#[6]
1. CPU领域的计算时钟速度正在趋近于理论物理极限,摩尔定律正在减速或失效。但存储领域的数据密度的情况远非如此: A. 当前消费级存储介质的密度最大值是1.66*10的12次方(比特/立方厘米) B. 研究中获得的最大数据密度是2.5*10的25次方(比特/立方厘米) C. 理论上的最大数据密度是1.53*10的67次方(比特/立方厘米) 从我们当前的位置,以每年30%的乐观数据密度增长速度,将需要 434 年才能达到最大理论极限,如果每年 20%则需要 697 年,每年10%则需要 1329 年。 2. 即使数据密度提高速度放缓,存储介质的可靠性(平均故障间隔时间)仍将继续增加, 并且可以说具有更光明的前景。 3. 由于人类对数据需求的增长速度,未来开发更低 GB 小时成本的存储机制具有很强的经济动机。因此数据密度/存储介质可靠性不能持续提升是小概率事件。 简单来讲,随着存储密度和硬盘寿命的增加,永久存储价格将在未来不断降低。 且随着人类数据/网络事业的不断增长,人类将有巨大的经济动机来使得上述可能变为现实。