<div dir="ltr"><div>When blocks are found under or over the 10 minute threshold, hashing difficulty is raised or reduced dinamically to keep a balance. This intelligent measure has avoided us having discussions and kept a balance.</div><div><br></div><div>The same way you can&#39;t assume how much hashpower there will be to find the next blocks, why can&#39;t we have a</div><div>function that adapts to the transactional volume on the blockchain, one which allows us to grow/shrink an acceptable maximum block size. We&#39;re not putting caps on processing, why should we put a date based cap on transactional volume per block? You can&#39;t predict the future, but you can look at what&#39;s happened recently to correct these limits.</div><div><br></div><div>Such function/filter should be able to recognize real sustained growth in transactional volume and let us adjust the maximum accepted blocksize to allow for the organic growth that will come due to real activity from things like distributed market-places, decentralized bitcoin based services (and all the things the community dreams about and might be building already), truly decentralized technological breakthroughs that geniunely need to use the blockchain. &lt;Going the off-chain way only leads to centralization and personal/corporate agendas, which to me goes against the Bitcoin ethos&gt; </div><div><br></div><div>It should be able to adapt fast enough so that we don&#39;t have episodes where people need to wait 4 hours to days for transactions to get on the blockchain and be confirmed. I believe proposals that include &quot;every 100,000 blocks&quot; are out of touch with reality, the blocksize needs to adapt the same way blockdifficulty already adapts to growth or lack of hashing power.</div><div><br></div><div>I&#39;m not a statistician/mathematician, but I&#39;m sure if we propose the parameters that need to be considered for a realistic blocksize that reflects the needs of the Bitcoin network users, there&#39;s plenty of crypto/statistician/mathematician brain power to propose such filtering function here.</div><div><br></div><div>Things that could be considered:</div><div>- median number of transactions per block (between 6 to 12 hours, you should be able to adjust to a real shopping sprint for instance, or huge pop band/artist decides to sell concert tickets on Bitcoin)</div><div>- median fees offered per transaction (can we detect spammers)</div><div>- median blocksizes</div><div>- median size per transaction</div><div>- number of new addresses signing off transactions, number of addresses we&#39;ve already seen in the blockchain before (are these spammers creating lots of new addresses to move around the same outputs, is there an efficient way to detect the likelyhood of a transaction being spam? Bayes? No clue, no mathematician)</div><div>- median velocity between which an address receives an input and sends it to another one?</div><div>- more things I&#39;ve no knowledge of since I&#39;m not familiar with the details, but could immediatly come to mind to the experts.</div><div><br></div><div>Mining Centralization is already happening due to its competitive nature, we don&#39;t complain or try to force hashing limits, we shouldn&#39;t do the same for storage. There will be no shortage of blockchain mirrors, and those interested in running full nodes, will surely find a way to do so. <br><br>Angel</div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature"><a href="http://twitter.com/gubatron" target="_blank">http://twitter.com/gubatron</a><br></div></div>
<br><div class="gmail_quote">On Fri, Jul 17, 2015 at 4:29 PM, Luke Dashjr via bitcoin-dev <span dir="ltr">&lt;<a href="mailto:bitcoin-dev@lists.linuxfoundation.org" target="_blank">bitcoin-dev@lists.linuxfoundation.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Friday, July 17, 2015 3:55:19 PM Jeff Garzik via bitcoin-dev wrote:<br>
&gt; BIP PR: <a href="https://github.com/bitcoin/bips/pull/173" rel="noreferrer" target="_blank">https://github.com/bitcoin/bips/pull/173</a><br>
<br>
I&#39;m concerned that miners are prematurely bumping their soft limit to 1 MB<br>
lately. The only reason block size limit lifting is remotely reasonable is if<br>
we can trust miners to at the very least keep their soft limits set at a<br>
manageable size, but this assumption appears to already be failing in<br>
practice.<br>
<br>
We are unlikely to approach 1 MB of actual volume by November, so I would<br>
prefer to see the activation date on this moved later - maybe November 2016,<br>
if not 2017. It would also be an improvement to try to follow reasonably-<br>
expected bandwidth increases, so 15% (1.15 MB) rather than doubling. Doubling<br>
in only a few months seems to be far from a &quot;conservative&quot; increase.<br>
<br>
If we can get some kind of commitment from miners not to move their soft<br>
limits beyond 1 MB until some future-agreed-on point, maybe the BIP is<br>
acceptable as-is.<br>
<br>
On Friday, July 17, 2015 4:12:05 PM Tier Nolan via bitcoin-dev wrote:<br>
&gt; It establishes a precedent for hard forks not to require a vote though.<br>
<br>
Hardforks are not something where voting makes sense. They need consensus<br>
among /nodes/, not majority among /miners/. No hardfork has ever had such a<br>
vote.<br>
<br>
Luke<br>
_______________________________________________<br>
bitcoin-dev mailing list<br>
<a href="mailto:bitcoin-dev@lists.linuxfoundation.org">bitcoin-dev@lists.linuxfoundation.org</a><br>
<a href="https://lists.linuxfoundation.org/mailman/listinfo/bitcoin-dev" rel="noreferrer" target="_blank">https://lists.linuxfoundation.org/mailman/listinfo/bitcoin-dev</a><br>
</blockquote></div><br></div>