Zum Inhalt springen

Bitcoin SV (BSV, BCHSV)


Empfohlene Beiträge

vor 3 Minuten schrieb fjvbit:

=> BTC ist extrem langfristig ausgelegt. Skalliert Offchain.

Offchain? Auf Deutsch: BTC skaliert nicht.

 

vor 3 Minuten schrieb fjvbit:

Im Moment wäre es sowieso kein Problem. Praktisch niemand nutzt BSV für reale Dinge außer Spielerei / Demo.

Nehmen wir aber an, wir hätten mal 1 000 000 Transaktionen pro Sekunde. Oder wovon träumt man bei BSV, ich bin auf dem laufenden?

Ist aber auch egal. BSV würde vor allem nicht langfristig laufen. Weil es einfach nicht möglichst die Nodes vernünftig zu betreiben.

Man starte eine neue BSV Node, bei einer 1000 TB Blockchain, wo jeden Tag ein paar 100 GB dazu kommen. Glückwunsch das ist ja bestimmt gar kein Problem. Mit 5G geht das natürlich.:D

Wenn man einen Node starten möchte, muss man auch die entsprechenden Resourcen haben. Das ist doch in der realen Welt auch so. Möchtest du musizieren, brauchst du ein Instrument, möchstest du Malen brauchst du einen Pinsel. Klar kannst du auch durch die Zähne pfeifen oder mit Fingern malen, aber damit kommst du meistenst nicht weit :D 

Bist du User oder Miner?

So war es bei Bitcoin gedacht, höre auf den, der die Idee hatte:

"In Bitcoin, there are multiple peer-to-peer networks. The ledger acts as a peer network where highly connected commercial systems that are designed to end in data centres compete to earn fees through the validation and transmission of transactions. Such peers I defined in section 5 of the white paper. Such are systems that act commercially, to make a profit validating and logging transactions."
...
"Users, on the other hand, were catered by having a limited system referred to as simplified payment verification (SPV). Nodes therein communicate directly. The original client was set to use IP-to-IP connectivity, to allow peers to communicate directly. Each peer exchanges information with another peer whom they are negotiating an exchange with, at which point the communication path does not need a widely distributed network. As I explained in my code, the peer-to-peer network defined in section 5 of my white paper was created to prevent double-spending."

https://craigwright.net/blog/law-regulation/myths-of-decentralisation/

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Minuten schrieb DefinierMirCoin:

Offchain? Auf Deutsch: BTC skaliert nicht.

 

Wenn man einen Node starten möchte, muss man auch die entsprechenden Resourcen haben. Das ist doch in der realen Welt auch so. Möchtest du musizieren, brauchst du ein Instrument, möchstest du Malen brauchst du einen Pinsel. Klar kannst du auch durch die Zähne pfeifen oder mit Fingern malen, aber damit kommst du meistenst nicht weit :D 

Bist du User oder Miner?

So war es bei Bitcoin gedacht, höre auf den, der die Idee hatte:

"In Bitcoin, there are multiple peer-to-peer networks. The ledger acts as a peer network where highly connected commercial systems that are designed to end in data centres compete to earn fees through the validation and transmission of transactions. Such peers I defined in section 5 of the white paper. Such are systems that act commercially, to make a profit validating and logging transactions."
...
"Users, on the other hand, were catered by having a limited system referred to as simplified payment verification (SPV). Nodes therein communicate directly. The original client was set to use IP-to-IP connectivity, to allow peers to communicate directly. Each peer exchanges information with another peer whom they are negotiating an exchange with, at which point the communication path does not need a widely distributed network. As I explained in my code, the peer-to-peer network defined in section 5 of my white paper was created to prevent double-spending."

https://craigwright.net/blog/law-regulation/myths-of-decentralisation/

Also wie viel Transaktionen pro Sekunde sind geplant?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 22 Minuten schrieb DefinierMirCoin:

Millionen

Na prima, ich habe das mal schnell mit 2 Millionen gerechnet. Die kleinste Mehrzahl...

image.png.3f9c246595e063e0e028eb731231ca2b.png

Selbst schon mal nachgerechnet?

Ich mache das mal für dich.

Bei einer angenommenen durchschnittlichen Blockgröße von 500 Byte.

Bekommt einen Netto Durchsatz von rund 1 GB pro Sekunde. D. h. um es lokal laufen zu lassen, braucht man schon 10 GBit Netzwerk.

Mir ist auch kein bezahlbares Plattensystem mit einer Geschwindigkeit von 1 GB pro Sekunde bekannt. SSD kommt bei den benötigten Speicheranforderungen nicht in Frage.

nach 10 Jahren (BTC Alter) wären das mal locker rund 10 000 TB. BTC Mining wäre ein Kindergeburtstag im Vergleich.

Kannst du nur im entferntesten vorstellen, wie lange es dauert nur eine Transation zu prüfen, ob sie gültig ist bei "nur" 10 000 TB.

Jetzt willst du aber 2 Millionen neue Transaktionen generieren. Ich behaupte das ist nach einem Jahr für ein ganzes Rechenzentrum schon kaum zu schaffen.

Da von langfristig zu sprechen... naja, ein Witz.

Ich gehe davon, du hast es selbst noch nie überschlagen, sonst würdest du das nicht erzählen.

Mit heutiger Hardware, wäre das nicht zu machen. Ich behaupte nicht mal ein Node wäre bezahlbar dafür.

Aber der Trend bei Blockchain geht zum 2. Node. Ich kann noch nicht mal sehen, wie das im lokalen Netzwerk realistisch laufen soll, bei 10 GB Netz.

Und willst das weltweit über das Internet machen?

Nicht dein ernst...

=> Schrott

 

 

Bearbeitet von fjvbit
  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb MixMax:

Egal wo man hinrennt, würde man sich verrückt machen.
Da brüllt aber nur ein kleines Kind im Sandkasten "ICH BIN JESUS UND WERDE DIE WELT RETTEN".

 

Vielleicht gibt es genügend Menschen die erlöst werden wollen?

Vielleicht?

Könnte die Erkenntnis fehlen?

Können nicht sie selbst die Veränderung auslösen?

Vielleicht?

Ist Angst die Seele auf?

Vielleicht?

Ich weiß es nicht.

Es bleibt spannend.

;o))

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 19 Minuten schrieb fjvbit:

Na prima, ich habe das mal schnell mit 2 Millionen gerechnet. Die kleinste Mehrzahl...

image.png.3f9c246595e063e0e028eb731231ca2b.png

Selbst schon mal nachgerechnet?

Ich mache das mal für dich.

Bei einer angenommenen durchschnittlichen Blockgröße von 500 Byte.

Bekommt einen Netto Durchsatz von rund 1 GB pro Sekunde. D. h. um es lokal laufen zu lassen, braucht man schon 10 GBit Netzwerk.

Mir ist auch kein bezahlbares Plattensystem mit einer Geschwindigkeit von 1 GB pro Sekunde bekannt. SSD kommt bei den benötigten Speicheranforderungen nicht in Frage.

nach 10 Jahren (BTC Alter) wären das mal locker rund 10 000 TB. BTC Mining wäre ein Kindergeburtstag im Vergleich.

Kannst du nur im entferntesten vorstellen, wie lange es dauert nur eine Transation zu prüfen, ob sie gültig ist bei "nur" 10 000 TB.

Jetzt willst du aber 2 Millionen neue Transaktionen generieren. Ich behaupte das ist nach einem Jahr für ein ganzes Rechenzentrum schon kaum zu schaffen.

Da von langfristig zu sprechen... naja, ein Witz.

Ich gehe davon, du hast es selbst noch nie überschlagen, sonst würdest du das nicht erzählen.

Mit heutiger Hardware, wäre das nicht zu machen. Ich behaupte nicht mal ein Node wäre bezahlbar dafür.

Aber der Trend bei Blockchain geht zum 2. Node. Ich kann noch nicht mal sehen, wie das im lokalen Netzwerk realistisch laufen soll, bei 10 GB Netz.

Und willst das weltweit über das Internet machen?

Nicht dein ernst...

=> Schrott

vor 41 Minuten schrieb MixMax:

Wie geil, wollt ich auch gerade berechnen :D

Euch fehlt es entweder an Vorstellungskraft oder Erfahrung.

Natürlich können praktisch nur soviel TX/s bedient werden wie die jeweils aktuelle Hardware/Infrastruktur es zulässt.
Aber Fakt ist doch, das steigt mit der Zeit. Oder seht ihr das anders? 

Wir reden nicht umsonst von Server-Farmen fürs Mining. Glaubst du die nutzen Standard Infrastruktur wie bei euch zu Hause?
RaidSSD Verbunde oder Dells XtremeIO mit 40GBit sind
heute schon Standard in mittelgrößeren Unternehmen. Auch das wird nicht weniger.
https://www.dellemc.com/en-us/collaterals/unauth/data-sheets/products/storage-2/h16095-xtremio-x2-next-generation-all-flash-array-ds.pdf

Die Millionen TX/sec sind natürlich Zukunftsmusik, aber das wird mit Sicherheit kein Problem in der Praxis. Und Terabyte Blöcke werden dann normal sein. 

Anfangs muss der Durchsatz ja auch nicht konstant 7/24h vorhanden sein, sondern erstmal als Peak zu verstehen.
Jeder Weg wird in kleinen Schritten gegangen. Erstmal wird Visa getoppt:
"VisaNet handles an average of 150 million transactions every day and is capable of handling more than 24,000 transactions per second."
https://usa.visa.com/run-your-business/small-business-tools/retail.html

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 34 Minuten schrieb DefinierMirCoin:

Euch fehlt es entweder an Vorstellungskraft oder Erfahrung.

Natürlich können praktisch nur soviel TX/s bedient werden wie die jeweils aktuelle Hardware/Infrastruktur es zulässt.
Aber Fakt ist doch, das steigt mit der Zeit. Oder seht ihr das anders? 

Wir reden nicht umsonst von Server-Farmen fürs Mining. Glaubst du die nutzen Standard Infrastruktur wie bei euch zu Hause?
RaidSSD Verbunde oder Dells XtremeIO mit 40GBit sind heute schon Standard in mittelgrößeren Unternehmen. Auch das wird nicht weniger.
https://www.dellemc.com/en-us/collaterals/unauth/data-sheets/products/storage-2/h16095-xtremio-x2-next-generation-all-flash-array-ds.pdf

Die Millionen TX/sec sind natürlich Zukunftsmusik, aber das wird mit Sicherheit kein Problem in der Praxis. Und Terabyte Blöcke werden dann normal sein. 

Anfangs muss der Durchsatz ja auch nicht konstant 7/24h vorhanden sein, sondern erstmal als Peak zu verstehen.
Jeder Weg wird in kleinen Schritten gegangen. Erstmal wird Visa getoppt:
"VisaNet handles an average of 150 million transactions every day and is capable of handling more than 24,000 transactions per second."
https://usa.visa.com/run-your-business/small-business-tools/retail.html

Ok, wir haben raus gefunden, 2 000 000 ist auf absehbare Zeit  komplett unmöglich.

gucken wir uns 1/100 an:

24000 ist ungefähr 1/100 von der Tabelle. Ich leider die Tabelle nicht gespeichert, dann könnte ich ganz leicht mit den Daten spielen.

das wären also dann rund

10 MB / Sekunde (machbar aber schon sehr sportlich über das Internet)

gucken wir Langzeit:

Nun haben wir nach 10 Jahren "nur" noch 100 TB Daten.

Jetzt müsste man abschätzen, wie schnell die Validierung einer einzelnen Transaktion bei dem schnellsten zur Verfügung stehenden Raid gehen könnte.

Mir ist nicht genau bekannt, wie viel Prozent der Daten man lesen müsste, um eine Transaktion zu prüfen. Gehen wir mal von 1/1000 aus. keine Ahnung, ob die Größenordnung passt. Die Aufgabenstellung habe ich noch nie untersucht.

Realistisch kann IMHO nur 100% Ram sein. Ich kann mir niemals vorstellen, dass das mit Plattenzugriffe gehen würde.

=> wir bräuchten nach 10 Jahren rund 100 GB Ram als Cash für die Daten.

Jetzt müssen wir also pro Transaktion 100 GB im Ram prüfen. Und das 20 000 Mal pro Sekunde...

ei, auch schon extrem sportlich. Und das nach nur 10 Jahren. Wenn man sich einen langfristigen Betrieb vorstellen würde...

=> Meiner Meinung nach schon extrem Anspruchsvoll auch nur einen Node zu betreiben. Wie eben schon geschrieben, der Trend geht zum 2. Node bei Blockchain.

Auch wären die Kosten gewaltig für nur einen Node. Wer würde die Kosten übernehmen?

Edit:
Und ja ich gebe dir recht, so etwas will sich niemand zu Hause hinstellen, alleine der Stromverbrauch von dem Rechenzentrum (ein Node müsste im Prinzip ein ganzes Rechenzentrum sein, dass sich die Arbeit teilt)

Dafür wäre Mining ein Witz, nur echte Node Besitzer könnten realistisch minen :D

Das haben vor mir auch schon andere ausgerechnet, deswegen die Aussage Mining und Node ist eins. 

Weil einen Node betreiben zu müssen, wäre schon Mining :D

Edit2:
Aber wenn ich das sowieso schon zentral machen muss, warum nicht gleich eine Datenbank?

Die kann das viel effizienter als eine Blockchain.

Bearbeitet von fjvbit
  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde schrieb fjvbit:

Ok, wir haben raus gefunden ...

Ich will dir ungern deine Illusionen kaputt machen, aber 

"Users in the system are only required to maintain a copy of the block header to which they can compare transactions. At present, the block header is under 50 MB in size. ...  A decade from now, the growth will only be linear. So, we have a system that scales by Moore’s law exponentially yet takes a linear amount of resources."

Lese und lerne:
https://craigwright.net/blog/bitcoin-blockchain-tech/simplified-payment-verification/
https://craigwright.net/blog/bitcoin-blockchain-tech/merkle-trees-and-spv/
 

Zudem habe ich das Gefühl du verwechselst Transaktionen pro Sekunde mit Input/Output pro Sekunde bei deinen RAM Berechnungen.

 

vor 1 Stunde schrieb fjvbit:

Auch wären die Kosten gewaltig für nur einen Node. Wer würde die Kosten übernehmen?

Du hast wieder nicht aufgepasst: Nodes=Miner und Miner verdienen am Reward bzw. den TX Fees.
Und wenn ein Unternehmen sich ein ValidationNode aufsetzt, muss es zu seinem Geschäftsmodell passen. Die Hardware kann er abschreiben.
 

vor 1 Stunde schrieb fjvbit:

Aber wenn ich das sowieso schon zentral machen muss, warum nicht gleich eine Datenbank?

Ich verstehe garnicht, warum ihr immer davon ausgeht, dass keine Datanbanken zum Einsatz kommen?
Es spricht überhaupt nichts dagegen als Node/Mining Betreiber die Blockchain zu analysieren und entsprechend den Anforderungen aufbereitet in spezielle Datenbanken zu hinterlegen.
Das wird fast jeder OnTop-Service im Ecosystem so tun, um schnelle Ergebnisse zu liefern. Viele BSV Basis-Frameworks des mysteriösen Unwriter sind heute schon darauf ausgelegt in externen DB verwendet zu werden. Und viele Services bauen darauf auf.

Bearbeitet von DefinierMirCoin
  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb fjvbit:

Na prima, ich habe das mal schnell mit 2 Millionen gerechnet. Die kleinste Mehrzahl...

image.png.3f9c246595e063e0e028eb731231ca2b.png

Selbst schon mal nachgerechnet?

Ich mache das mal für dich.

Bei einer angenommenen durchschnittlichen Blockgröße von 500 Byte.

Bekommt einen Netto Durchsatz von rund 1 GB pro Sekunde. D. h. um es lokal laufen zu lassen, braucht man schon 10 GBit Netzwerk.

Mir ist auch kein bezahlbares Plattensystem mit einer Geschwindigkeit von 1 GB pro Sekunde bekannt. SSD kommt bei den benötigten Speicheranforderungen nicht in Frage.

nach 10 Jahren (BTC Alter) wären das mal locker rund 10 000 TB. BTC Mining wäre ein Kindergeburtstag im Vergleich.

Kannst du nur im entferntesten vorstellen, wie lange es dauert nur eine Transation zu prüfen, ob sie gültig ist bei "nur" 10 000 TB.

Jetzt willst du aber 2 Millionen neue Transaktionen generieren. Ich behaupte das ist nach einem Jahr für ein ganzes Rechenzentrum schon kaum zu schaffen.

Da von langfristig zu sprechen... naja, ein Witz.

Ich gehe davon, du hast es selbst noch nie überschlagen, sonst würdest du das nicht erzählen.

Mit heutiger Hardware, wäre das nicht zu machen. Ich behaupte nicht mal ein Node wäre bezahlbar dafür.

Aber der Trend bei Blockchain geht zum 2. Node. Ich kann noch nicht mal sehen, wie das im lokalen Netzwerk realistisch laufen soll, bei 10 GB Netz.

Und willst das weltweit über das Internet machen?

Nicht dein ernst...

=> Schrott

 

 

Ähm, neee ...

Ein Jahr hat mehr als 365 Stunden ...

 

  • Haha 1
  • Thanks 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Minuten schrieb Jokin:

Ähm, neee ...

Ein Jahr hat mehr als 365 Stunden ...

 

ahhhhhh

stimmt, alles noch mal * 24

Nicht aufgepasst, danke 

Also der Datenspeicher noch mal Faktor 24. Na dann gute Nacht....

Selbst bei 24 000 TX, ist das nach 10 Jahren gar nicht mehr lustig...

sorry war schon spät, gut das du aufgepasst hast :D

Bearbeitet von fjvbit
  • Like 3
Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 7.2.2020 um 05:54 schrieb Jokin:

Um 1-GB-Blöcke von anderen Nodes akzeptieren zu lassen muss ich ca. 5,4 BSV als Gebühren mitgeben - bei aller Technologieverliebtheit: Ich sehe keinen Benefit für mich persönlich darin meine These zu beweisen. Ich gebe 5,4 BSV und mehr als bestenfalls die Bestätigung erhalte ich nicht.

Komm schon, du würdest es doch auch für mich tun. 
Wenn wegen dir BSV ausfällt, tausch ich sofort alle BSV in BTC, versprochen!

  • Haha 2
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb fjvbit:

Selbst bei 24 000 TX, ist das nach 10 Jahren gar nicht mehr lustig...

24.000 Transaktionen pro Sekunde sind nicht erst nach 10 Jahren nicht mehr lustig.

24.000 Transaktionen sind ab der ersten Sekunde schon nicht mehr lustig.

Im Testnet wurde ein 1-GB-Block gebaut: https://stn.whatsonchain.com/block-height/14893 - dieser Block hat die 5,4 Mio. Transaktionen im Verlauf der 66 vorherigen Minuten gesammelt. Somit musste der Node ca. 1.400 Transaktionen je Sekunde validieren. Das ist schon nicht sooo schlecht.

Der Node muss die Transaktionen aber nicht nur empfangen.

... eigentlich bekommt der Node doch erstmal eine Info von einem anderen Node: "Hey, ich hab eine neue Transaktion ... hier der Hash, kennste die schon?" ... dann schaut der Node bei sich nach und wenn er die nicht kennt, fordert er sie komplette Transaktion an. Wenn er die dann hat, broadcastet er die Transaktion seinerseits nochmal an alle mit ihm verbundenen Nodes auf dieselbe Weise - das kann bedeuten, dass für eine Transaktionen zahlreiche Netzwerkverbindungen auf- und abgebaut werden müssen.

Bottleneck Nr. 1 ist also der Netzwerkverkehr, der ist deutlich größer als die Transaktionen an sich sind.

Bottleneck Nr. 2 ist die Rechenleistung des Nodes um Transaktionen zu validieren bevor er sie weiterbroadcastet und in seinen Mempool aufnimmt. Und dann muss er ja auch noch aus den Transaktions-Hashes einen Block basteln und auch diesen Hash mit der Liste aller darin enthaltenen Transaktionen weiterverteilen. Die anderen Nodes müssen ihrerseits den Block prüfen und schauen ob alle darin enthaltenen Transaktionen in ihrer eigenen Datenbank liegen. Was nicht da ist, muss angefragt werden.

Also 1.400 Transaktionen je Sekunde ist schon recht gut - aber für das Visa-Netzwerk muss das nochmal um Faktor 10 skaliert werden.

Bei Lightning ist das nicht soooo schwer, da müssen nicht alle Nodes miteinander synchronisiert werden, das machen immer nur die am Paymentchannel beteiligten Nodes.

Und naja - mag sein, dass man das ständige Synchronisieren aller Nodes mit allen Transaktionen als "Skalieren" bezeichnet, aber das ist ein immenser Datenverkehr, der da verursacht wird und das skaliert ganz sicher nicht so wie sich CSW das gedacht hatte ...

  • Thanks 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Minuten schrieb DefinierMirCoin:

Komm schon, du würdest es doch auch für mich tun. 
Wenn wegen dir BSV ausfällt, tausch ich sofort alle BSV in BTC, versprochen!

Ok, dann schick mir mal 6 BSV rüber: 145sMdmVprBGB4EpGPvChay8hX6yGvAQum - dann baue ich die 1-GB-Transaktion und wir schauen mal was das BSV-Netzwerk damit macht.

  • Like 1
  • Up 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 8 Minuten schrieb Jokin:

... das kann bedeuten, dass für eine Transaktionen zahlreiche Netzwerkverbindungen auf- und abgebaut werden müssen
Bottleneck Nr. 1 ist also der Netzwerkverkehr...

Das ist falsch. Die Netzwerkverbindungen bleiben pro connected Node solange aufgebaut bis er verschwunden ist, dazu gibt es regelmäßige Pings. Wenn du dir mit Torrent etwas lädst, wird auch nicht nach jedem Datenblock die Verbindung zu den anderen gekappt, oder?

vor 19 Minuten schrieb Jokin:

Bottleneck Nr. 2 ist die Rechenleistung des Nodes um Transaktionen zu validieren ...

Wie vorhin geschrieben:  "we have a system that scales by Moore’s law exponentially yet takes a linear amount of resources."
Wenn also heute die Rechenleistung reicht, dann wird sie das auch in 10 Jahren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 26 Minuten schrieb Jokin:

Ok, dann schick mir mal 6 BSV rüber: 145sMdmVprBGB4EpGPvChay8hX6yGvAQum - dann baue ich die 1-GB-Transaktion und wir schauen mal was das BSV-Netzwerk damit macht.

lol. Du wolltest mir/uns doch etwas beweisen, nicht umgekehrt.
Ich bin mir sicher, dass BSV über deine "Attacke" nur müde lächelt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

9 hours ago, DefinierMirCoin said:

"Users in the system are only required to maintain a copy of the block header to which they can compare transactions. At present, the block header is under 50 MB in size. ...  A decade from now, the growth will only be linear. So, we have a system that scales by Moore’s law exponentially yet takes a linear amount of resources."

Zumindest bei CPUs gilt das Moore'sche Gesetz längst nicht mehr, war erst vor kurzem ein Artikel darüber bei heise.de.

Bei Festplatten, Netzwerkbandbreite, Hauptspeichergröße etc  bin ich mir nicht sicher, aber die steigen IMHO von Haus aus deutlich langsamer als vor und zu SNs Zeiten die CPU-Leistungen.

In Summe haut das jedenfalls nicht hin mit dem "das System skaliert exponentiell, die Anforderungen aber nur linear".

Außerdem steigen die Anforderungen nur für User, denen die Blockheader reichen, linear, für "deine" Nodes steigen sie - mindestens! - exponentiell.

  • Like 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb PeWi:

Zumindest bei CPUs gilt das Moore'sche Gesetz längst nicht mehr, war erst vor kurzem ein Artikel darüber bei heise.de.

Bei Festplatten, Netzwerkbandbreite, Hauptspeichergröße etc  bin ich mir nicht sicher, aber die steigen IMHO von Haus aus deutlich langsamer als vor und zu SNs Zeiten die CPU-Leistungen.

In Summe haut das jedenfalls nicht hin mit dem "das System skaliert exponentiell, die Anforderungen aber nur linear".

Außerdem steigen die Anforderungen nur für User, denen die Blockheader reichen, linear, für "deine" Nodes steigen sie - mindestens! - exponentiell.

Da mache ich mir überhaupt keine Sorgen.

Du weisst schon, dass die Zeit zur Block/TX-Validierung nur einen geringen Bruchteil der durchschnittlichen 10 Minuten ausmacht? Die meiste Zeit wird damit "verschwendet" um per Zufall den Wert zu ermitteln, der zur aktuellen Difficulty passt. D.h. wenn tatsächlich irgendwann Moores Law ungültig wird und weltweit keiner mehr hinterherkommt, wird sich die Difficulty wieder verringern. 10 Minuten sind auch in Zukunft 10 Minuten.

Ich glaube aber nicht dass es jemals soweit kommt. Wahrscheinlicher ist es, dass Lösungen gefunden werden, die mehr auf eine parallele Validierung abziehlt.
Wichtig ist nur, dass die Daten schnell genug zur Verfügung stehen. Aber das ist heute schon kein Problem. Es kommt nur darauf an, wie die Daten aufbereitet werden.

Sagt dir "BigData" etwas? 
"Für Big Data kommen daher neue Arten von Datenspeicher- und Analyse-Systemen zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeiten.
https://de.wikipedia.org/wiki/Big_Data

Schau mal was Google heute schon in Petto hat 
"Mit BigQuery können Sie Daten im Gigabyte- und Petabytebereich mithilfe von ANSI SQL blitzschnell analysieren."
https://cloud.google.com/solutions/big-data/

Wie gesagt, Bitcoin muss nicht bis in die Unendlichkeit skalieren, aber die paar Terabyte werden sicher kein Problem darstellen.

Bearbeitet von DefinierMirCoin
Link zu diesem Kommentar
Auf anderen Seiten teilen

1 minute ago, DefinierMirCoin said:

Du weisst schon, dass die Zeit zur Block/TX-Validierung nur einen geringen Bruchteil der durchschnittlichen 10 Minuten ausmacht? Die meiste Zeit wird damit "verschwendet" um per Zufall den Wert zu ermitteln, der zur aktuellen Difficulty passt. D.h. wenn tatsächlich irgendwann Moores Law ungültig wird und weltweit keiner mehr hinterherkommt, wird sich die Difficulty wieder verringern.

Korrekt. Es ging aber nicht nur um die Ermittlung des passendes Hashes, sondern auch um den Speicherplatz für die vielen Transaktionen, den Netzwerkdurchsatz etc pp.

2 minutes ago, DefinierMirCoin said:

D.h. wenn tatsächlich irgendwann Moores Law ungültig wird

Laut Artikel ist Moore's Law bereits seit einigen Jahren nicht mehr gültig.

3 minutes ago, DefinierMirCoin said:

Wahrscheinlicher ist es, dass Lösungen gefunden werden, die mehr auf eine parallele Validierung abziehlt. [...]
"Für Big Data kommen daher neue Arten von Datenspeicher- und Analyse-Systemen zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeiten.

Dir ist aber bewusst, dass Parallelisierung nur linear skaliert?

Deswegen ist ja auch Moore's Law nicht mehr erfüllt, weil die Steigerung der letzten Jahre größtenteils über die Erhöhung der Core-Zahlen erfolgte, und die Zahl der Cores im Prozessor eben nicht exponentiell wächst. Im Gegenteil, mit mehr Cores wächst der Synchronisierungs- und Kommunikationsaufwand zwischen den Kernen exponentiell.

  • Thanks 1
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Minuten schrieb PeWi:

Korrekt. Es ging aber nicht nur um die Ermittlung des passendes Hashes, sondern auch um den Speicherplatz für die vielen Transaktionen, den Netzwerkdurchsatz etc pp.

Ja und das spielt alles mit rein in den 10 Minuten.
 

vor 4 Minuten schrieb PeWi:

Laut Artikel ist Moore's Law bereits seit einigen Jahren nicht mehr gültig.

Zumindest bei GPUs ist es noch gültig
https://www.youtube.com/watch?v=7uvUiq_jTLM

 

vor 5 Minuten schrieb PeWi:

Dir ist aber bewusst, dass Parallelisierung nur linear skaliert?

Das ist mir schon bewusst, aber du verwechselst immernoch Terabytes mit Unendlich.
Wenn heute schon schnelle Petabyte-Analysen kein Problem sind, schau ich da ganz entspannt in die Bitcoin Zukunft.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.