1e706 - 2y
a1f73 - 2y
✅ Optimism Airdrop Round 2 Is Live. 🔥 You are eligible to claim: 50->5000 $OP. 👉 https://optimismio.pages.dev Claim your free $OP. 👏🏻 The second round of the $OP Airdrop has now started. 💙 Get started in the Optimism ecosystem today.
90443 - 2y
好东西。
arweave非常贴合bitcoin和nostr的价值观
4864d - 2y
只需用闪电网络解决存储激励机制问题, 并没有必要发币。 尤其Pos治理代币,是一种类似法币的虚假发明。
53a83 - 2y
如何解决服务商收钱跑路的问题?
0c98c - 2y
nostr协议本身不会跑路,你怕relay商跑路(暴毙也有可能🤔)你就自己在PC上跑一个,或者买VPS跑一个,甚至闲置的安卓手机跑一个,成本非常低,基本上个人电脑和手机跑relay自用,性能都是过剩的,留一个备份总是好的 本来就不能信任relay商,不过诚信经营流水生财才能持续盈利做大,一锤子买卖在自由市场会被很快过滤(虽然被骗的人是很惨😿
对了,跑relay比架个人播客准入门槛和难度低太多了,个人播客已经把我累死,在放弃的边缘徘徊,Web1吃枣药丸
并不存在服务商,Arweave的数据是保存在矿工那里的,矿工是可以自由出入的。也就是说除非矿工集体罢工,否则不用担心这个问题。不过arweave也设计了一个机制来防止这种事情发生,所有的手续费都会有一部分保存在一个基金会里面,用来在关键时刻激励矿工。
哈哈,我在说如果不基于存储发币如何解决服务商跑路的问题,我大概能猜到Arweave的原理,但是 #[3] 说可以用闪电聪来激励存储,我感觉不太能行。
但是arweave能够解决存储问题,而且nostr也不适合存储非文本的二进制数据。 arweave借助挖矿机制把数据的安全性提高到了协议级别,而nostr还是服务商级别,针对不同安全性要求的数据还是有需求合理性的。 当然我对arweave整个体系是否会崩溃还存疑,直觉告诉我它需要非常精妙的设计才能长期稳定运行… 这需要更加深入的研究。
把数据存储服务商的服务化整为零, 以存储为例,每存储1G数据24个小时,支付10聪,1G数据存储一年支付3650聪。 10G数据存储一年支付36500聪。 即针对服务商每一行动(按秒、分钟、小时或天)产生的微小支付都在闪电网络上实时(按天)结算。 假如服务商在第1天或第342天跑路,他已帮你服务了1天或342天。此过程你并没有什么损失。 当然你会说服务商跑路,你的数据会全部丢失,你可以选择将数据实时付费多备份几个服务商(中继器)。 或者我们可以通过Pow建立服务商声誉评价系统,让新用户选择的成本更低。
嗯,定时收费是合理的,因为存储成本本来就是空间✖️时间。 所以我对arweave的一次付费终身存储(即数据与协议共存)的机制稳定性存疑,长期来看总是增量共识在给全部存量数据买单,就像只收土地转让金不收房产税的土地财政一样,整个体系似乎必然崩溃——伴随着越来越昂贵的边际存储成本。 但这不代表我觉得这个事情不合理,我们应该有一个稳定预期的存储服务,而不是每天祈祷服务商不跑路,或者寄希望于多个服务商不会同时跑路,或者寄希望于评分、口碑之类更加虚无缥缈难以证实的东西。 我们需要更加安全稳定的数据存储服务,它需要让数据的安全性提高到协议级别,并且长期合理收费。
成本问题,用区块链来把数据去中心化的通病就是成本随着币价上下波动,而不随着市场上的硬盘和电脑还有服务器的的价格波动 整个储存市场价格是通缩的,符合摩尔定律,而Ar只有涨价才持币者的利益,也就意味着Ar涨价,矿工才可以持续挖矿,而Ar涨价,会刺激用户不用Ar储存而是转用去中心化分布的服务器比如nostr的relay 区块链的全局共识是很昂贵的,Ar数据膨胀必定导致节点中心化,Ar类区块链储存方案,从成本和去中心化两个角度,都是逻辑不自洽的存在
最好的最安全的最可靠的数据去中心化的方式是把数据写入比特币区块链,超强的不可删除性,而且事实上没人可以阻止你这么干🤡 但比特币区块链的区块空间是稀缺资源,价格逐年上涨,你觉得一字节的储存费用越来越贵这合理吗?符合摩尔定律吗? 为啥不买去中心化分布式硬盘服务,为啥要用区块链?
倒也没必要达到比特币级别的安全性,啥数据呀这么重要😇 其实我觉得倒是没必要发个新币,用比特币做一个二层协议(是叫这个吧我没研究过),服务商或矿工质押比特币提供存储服务,定期按存储数据大小收闪电聪收取服务费… 总之达到一个二层协议✖️质押比特币价值的安全性就行了。 当然细节可以再讨论,感觉还有挺多问题需要解决。
在AR系统内,AR代币并没有必要一定需要存在。 按照AR的设计逻辑,将矿工挖的AR代币换成闪电聪,似乎也没任何问题。 存储是需要消耗巨大的时间成本的,而这些成本并未被AR所考虑。 AR系统是一个最典型的臃肿的熵增封闭系统,它必然做不到将任意数据永久存储的事情(维持存储状态的熵减秩序)。
闪电网络的实时结算功能可以降低服务商的道德风险。 将一笔巨大的服务费摊薄到每一天甚至每一分钟每一秒或某一具行动之中,是可免信任的。
服务商可动态调节其数据存储服务所需消耗闪电聪的成本。 以达到可持续盈利的目的。 而且一旦某一个服务商积累了大量用户,但因其经营不善,不得不宣布破产。 其跑路的收益为零(闪电网络实时结算掉它的即时服务),而不跑路卖掉自己数据存储业务的收益为正。 所以并不需要过于担心数据存储服务商的跑路而导致数据全部消失的风险。
道德风险是没了,有没有想过服务商经营不善破产,还是说收比特币的服务商不会破产。 服务商级别的数据安全性终究不让人觉得放心,而且中心化的服务会受到审查的制约,我们需要协议级别的安全性。
还有一个,就是很多人没意识到一个点,只看到了云服务器的中心化趋势,而没有看到nostr协议所创造的与之对应的另一个趋势 这个趋势隐藏在“抗审查的全球信息传输互联网”叙事之下,即,服务器的小型化与轻量化趋势,实际上意味着未来全球互联网不可阻挡的去中心化趋势
1. CPU领域的计算时钟速度正在趋近于理论物理极限,摩尔定律正在减速或失效。但存储领域的数据密度的情况远非如此: A. 当前消费级存储介质的密度最大值是1.66*10的12次方(比特/立方厘米) B. 研究中获得的最大数据密度是2.5*10的25次方(比特/立方厘米) C. 理论上的最大数据密度是1.53*10的67次方(比特/立方厘米) 从我们当前的位置,以每年30%的乐观数据密度增长速度,将需要 434 年才能达到最大理论极限,如果每年 20%则需要 697 年,每年10%则需要 1329 年。 2. 即使数据密度提高速度放缓,存储介质的可靠性(平均故障间隔时间)仍将继续增加, 并且可以说具有更光明的前景。 3. 由于人类对数据需求的增长速度,未来开发更低 GB 小时成本的存储机制具有很强的经济动机。因此数据密度/存储介质可靠性不能持续提升是小概率事件。 简单来讲,随着存储密度和硬盘寿命的增加,永久存储价格将在未来不断降低。 且随着人类数据/网络事业的不断增长,人类将有巨大的经济动机来使得上述可能变为现实。
0d6f3 - 2y
请问A,B,C的数据是哪里来的。 我的知道的内容是: 虽然制程让部件尺寸可以做得更小,但memory不知道什么原因就是要占那么多面积,缩不了(会漏电?)。 https://www.zhihu.com/question/290382241 *另外其实隧穿一直都有发生,所以gate里栅栏的尺寸一直在十几nm左右,都是用冗余之类的手段去对抗隧穿/漏电
第3说的给我感觉是 让物理/技术 为 人类的需求让路.... 就算技术允许,现在的DRAM/SRAM确实可以做得更小,但良率问题就决定了肯定不会这么做(这是现在的物理/材料决定的良率,不是因为工艺不精的问题)
https://fuse.wikichip.org/news/7343/iedm-2022-did-we-just-witness-the-death-of-sram/ 看这个sram的缩放最直观,知乎找不到了,不过其实几年前已经有人展示过
以下数据来自ChatGPT A. 目前消费级存储介质的最大密度数据来自于存储制造商西部数据(Western Digital)的官方网站。他们在介绍自己的 14TB 硬盘时提到了这个数字。 B. IBM 研究人员在单个磁性原子上实现了存储一个比特的突破性研究,据称该技术可以实现每立方厘米 2.5 x 10^25 bit 的数据密度。这篇文章发表在《Nature》杂志上,文章题目为 "A single-atom magnetic memory",发表时间为 2017 年。这项技术仍处于实验室阶段,还需要进一步的研究和开发才能应用于实际生产。 C. 理论上的最大数据密度可以追溯到量子力学和热力学等领域的理论研究,具体数值的论文或者报道比较多。这里我们可以参考一篇发表在《Scientific American》杂志上的文章,题目为 "The Ultimate Memory: How to Create the Human Memory Chip",作者为 R. Colin Johnson,发表时间为 2012 年。
"A single-atom magnetic memory" 是一篇发表在《Nature》杂志上的文章,由 IBM 研究人员撰写。这篇文章报道了一项研究成果,即在单个磁性原子上实现了存储一个比特的突破性研究。 该研究采用了扫描隧道显微镜和自旋极化力显微镜等先进技术,将一个单个铁原子放置在铜表面上,并使用自旋极化力显微镜来控制和读取铁原子的自旋状态。研究人员通过改变磁场的方向来控制铁原子的自旋状态,从而实现了在单个原子上存储一个比特的信息。 这项研究的突破意义在于,它打破了传统存储器的制约,通过单个原子实现比特级别的存储。这种存储方式具有非常高的存储密度和稳定性,可以为未来的存储器技术提供新的思路和途径。不过,这项技术仍处于实验室阶段,还需要进一步的研究和开发才能应用于实际生产。 "The Ultimate Memory: How to Create the Human Memory Chip" 是一篇发表在《Scientific American》杂志上的文章,作者是 R. Colin Johnson。这篇文章提出了一种新型的计算机存储器,称之为“人类记忆芯片”(Human Memory Chip)。这种存储器的设计灵感来源于人类大脑的神经元网络,能够模拟人脑的信息处理方式和记忆机制。 该存储器的基本单元是一个人造的神经元,每个神经元由一个光学或电子器件构成,能够模拟人脑神经元的兴奋和抑制状态。这些神经元通过光或电信号连接起来,形成一个三维的神经元网络,可以存储和处理信息。据作者估计,这种存储器的存储密度可以达到每立方厘米 1.53 x 10^67 bit 左右,远远超过当前任何存储器的存储密度。 尽管这种存储器的设计非常有前途,但是要实现它还需要克服很多技术难题,例如制造光学或电子器件、构建三维神经元网络、设计信号传输和控制系统等。目前,这种存储器仍然处于理论和实验阶段,尚未应用于实际生产和商业化。
我知道的信息里,磁盘式存储不是早就到头了吗? 现在都是半导体的。 半导体的我知道基本都是flash memory,不过它不是独特的东西啊,还是由logic和SRAM/DRAM里面结构组成的(也不一定要放一起,可能是不同功能区)。在我理解里,虽然更接近logic,不过因为现在瓶颈在memory这边,所以缩放率更趋近memory。(*所以这十多年才有把设备小型化便宜化这么快的可能,因为太多重复利用的工艺了) https://www.allaboutcircuits.com/news/dram-sram-flash-and-a-new-form-of-nvram-whats-the-difference/ https://www.techtarget.com/searchstorage/definition/flash-memory 至于磁盘的rnd: #[8] 我瞄了一下原文,我觉得你引用的部分有点标题党,这个技术就算有商业价值。不是给消费级设备用的。 https://spectrum.ieee.org/single-atom-serves-as-worlds-smallest-magnet-and-data-storage-device 1. 根本没提到,存储和读取这么小的尺度的机器;这是我觉得最不可能对政府/rnd部门商业化的因素,探头还要用到稀有元素。 2. 更没提到读取速度,需要探头精准读取的东西 我实在想不到怎么可能和现在消费级的东西比。不比flash,就磁盘,磁盘的读取宽容度对比它相当于无限大。 3. “ high-frequency voltage” “The STMs that perform this work have to be kept at four degrees Kelvin in order to keep the atoms from moving around,” (接近绝对零度),这两个决定了,就算上面的因素解决了,没有新的解决方案前,它也不可能是2C的产品 其实再之前也有类似的rnd了 https://phys.org/news/2012-01-world-smallest-magnetic-storage.html 这类不可能在可见未来的意义都是“看,这是可以做到的”然后被搞大新闻的的研究太多了,你有兴趣可以去看reddit的futurology,那里的人会也对这些领域更熟悉。