<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Jun 1, 2021 at 12:44 PM Mike Hammett <<a href="mailto:nanog@ics-il.net">nanog@ics-il.net</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div><div style="font-family:arial,helvetica,sans-serif;font-size:10pt;color:rgb(0,0,0)">That is true, but if no one uses it, is it really gone?<br><br><div><br></div></div></div></blockquote><div><br></div><div>There's an underlying, I think, assumption that people won't use access speed/bandwidth that keeps coming up.</div><div>I don't think this is an accurate assumption. I don't think it's really ever been accurate.</div><div><br></div><div>There are a bunch of examples in this thread of reasons why 'more than X' is a good thing for the end-user, and that average usage over time is a bad metric to use in the discussion. At the very least the ability to get around/out-of serialization delays and microburst behavior is beneficial to the end-user.</div><div><br></div><div>Maybe the question that's not asked (but should be) is:<br>  "Why is 100/100 seen as problematic to the industry players?"</div><div> </div><div><br></div></div></div>