Zum Inhalt springen

mahatma

Mitglied
  • Gesamte Inhalte

    864
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von mahatma

  1. ja, aber du willst keinen text string hashen, sondern die "echten daten". Also am besten im hex editor ne binäre Datei erstellen, da die 32 byte hex zahl eingeben, die datei abspeichern und dann die datei hashen. dann müsste es passen.
  2. Du hast den String "101101...." gehasht. Du müsstest den Hash der Binary Daten deiner 256 bit Hashen, in Hex Format wäre das: b491541e66922d7f2189a341f771bc1eac389c14f1caa56408e3eb5b667c3ccb. Also die gleiche "Zahl", aber in Hex Darstellung, als 32 Byte binary. Wenn de das in ne binary datei schreibst und die hashst müsste das richtige rauskommen. naja, kann er ja willkürlich wählen, oder nicht. eine von den 8 Möglichkeiten fürs letzte Wort. die restlichen 8 bit müssen durch den Hash aufgefüllt werden. @andoo Was ich mittlerweile mache um das 24te Wort rauszufinden und auf dem Weg kein elektronisches Gerät zu verwenden: Ich erstell mir die 256 bit Zahl, so wie du auch, und komm dann auf 23 Wörter. Die geb ich in meiner Bitbox02 ein, direkt an der Bitbox, also keine internetverbindung/ auslesbarewr kontakt zu pc etc. Dann zeigt es dir direkt 8 verschiedene wörter zur auswahl fürs 24te wort an. Kannste an der bitbox auswählen und hast dann garantiert nen gültigen seed ohne irgendwelche hilfsmittel (ausser die bitbox02, aber da musstn später eh eingeben) verwendet zu haben... PS: Ansonsten zum rumspielen und hin und her konvertieren: https://iancoleman.io/bip39/ Nur halt nicht für den echten seed verwenden, bzw dann nur offline in echt sicherer umgebung. Besser mit der bitbox. 23 wörter würfeln, bitbox macht den rest.
  3. Und mal wieder was von RADIX: Ein neues Interview von Dan the Man, grad paar Tage alt. Wie immer ne ausführliche Erklärung in die Technologie von Radix, aktuelle Infos zu Roadmap und Entwicklungsstand jetzt und daneben tiefgehende Schulung in Konsensmechanismen, permissionless Netzwerke und das ganze Ökosystem an sich. Ich geniess es dem Typen zuzuhören... https://www.youtube.com/watch?v=E9yr7JN3oC0 Ums wieder und wieder und wieder zu wiederholen und die Geschichte langsam ins Bewusstsein der Masse zu bringen: Dan hat 2013 erkannt, dass es für ne echt globale, dezentrale Lösung für nen public Ledger der potentiell mit allen Daten der Welt umgehen kann, lineare Skalierung erfordert. Und hat sich dann zuerst drangemacht, dieses Problem zu lösen, bis er nach 8 Jahren Arbeit nen Konsensmechanismus hatte, der linear Skaliert, also mehr Durchsatz bekommt je mehr Geräte sich dem Netz anschliessen. Erst danach hat sich so langsam ein Ökosystem gebildet, erstmal ein sehr vereinfachtes Mainnet (Olympia), seit letztem Jahr ein Mainnet mit der vollen Funktionspalette von Skrypto, SC-Fähigkeit und so weiter, mit dem später auch verwendeten Konsensmechanismus, nur bis jetzt nur ein Shard (Babylon). Das heisst alles, von der RadixEngine, zum Transaktionsmanifest, der atomic Composability, usw. ist alles im Hinblick auf das spätere Sharded Netzwerk entwickelt. Jetzt muss man es nur noch einschalten, nachdem es auf Herz und Nieren getestet wurde und wird, im Test läuft es bereits seit Jahren unter dem Namen Cassandra, im Mainnet soll es innerhalb des nächsten Jahres als Xi'An online gehen. Dann hat es Potential zu nem neuen Netzstandard zu werden, so wie tcp/ip zum Beispiel. Radix bereitet sich gerade darauf vor, ein echtes Cassandra Netz mit möglichst vielen Nodes weltweit aufzubauen, quasi ein Testnetz das sich wie ein Mainnet verhält, um dann unter realen Bedingungen Tx-Durchsatz und so Zeugs zu messen und die Limits zu testen. Hier spricht Dan im oben verlinkten Video davon: https://www.youtube.com/watch?v=E9yr7JN3oC0&t=4801 Ziel ist nen neuen Weltrekord aufzustellen, mit 1.000.000+ SC-Transaktionen pro Sekunde. Hat keiner der Tech Jungs von euch Bock sich zu beteiligen? @skunk,hast du noch Ressourcen für ne Cassandra-Node übrig ? Die einmalige Chance beim Weltrekord mitzumachen, Geschichte zu schreiben, und gleichzeitig tiefer in die Tech von Radix einzusteigen? Ich wär ja brennend an euren Erfahrungen und Einblicken interessiert, leider hab ich keine Möglichkeiten das selbst zu machen... PS: Das ist die Telegram Gruppe: https://t.me/cassandraplayground
  4. naja, willst das ich Zahlen einsetze? Also gut: Angenommen wir haben nen Computer der pro Sekunde 1000 Milliarden Seeds überprüfen kann. Das bedeutet, ne 256 bit Zahl wählen, die zugehörigen Adressen errechnen und schaun ob da Saldo drauf ist. (Keine Ahnung wie schnell das mit zB der kompletten Hashpower des BTC Netzwerkes möglich wäre, nur mal ein willkürlicher Wert. So oder so ist das "Bottleneck" das Überprüfen der zugehörigen Adressen, vielleicht hat da jemand ne Zahl, was für ne Rate man da erreichen kann) 1000 Milliarden wären 10^12. Ein Jahr hat 24*3600*365= ungefähr 30.000.000 Sekunden. Also könnten pro Jahr grob 3*10^19 Seeds abgegrast werden. Im obigen Beispiel mit den 3 Teilen würde das bedeuten das man im Jahr in etwa ein zehn-millionstel des Zahlenraums von 3*10^26 abchecken könnte, (was dem Zahlenraum eines 8 Worte Seeds entspricht). Aktuell gibt es so weit ich weiss grössenordnungsmässig ca 100 mio BTC Adressen mit Guthaben drauf. Hab jetzt das mit der Stochastik nicht mehr wirklich parat, aber würde sagen in diesem Konstrukt wäre der "Erwartungswert" ca 10 Treffer pro Jahr. Falls man der Einfachheit halber annimmt, das pro Sekunde 1000 Milliarden Adressen überprüft werden, im Falle von Seeds wären es multiple Adressen pro Seed, käm also noch n Faktor drauf. So, bei genau dem gleichen Konstrukt mit nem 24 Wort Seed, wäre der Zahlenraum 3*10^79, also um nen Faktor 10^53 grösser. Um mit ner Wahrscheinlichkeit von 1 : 1 Billion (1 : 1.000.000.000.000) einen Treffer zu bekommen, müsste die gleiche Rechenleistung über 10^40 Jahre lang aufgewendet werden, das heisst selbst bei eine Billion mal eine Billion mal Alter des Universums würde immer noch n Faktor von ca einer Million fehlen. (wenn ich mich jetzt bei nen Nullen nicht verzählt habe. )
  5. ja echt, was ein typ... habs ja beim ersten post auch noch ernstgenommen und bin auf seinen Text übers Minen eingegangen, aber dann wurds schnell klar das der entweder komplett nur rumtrollt oder sich da ne solide paranoide Schizophrenie manifestiert...
  6. Ich werd jetzt hier ab und an mal die AMA Tecnicals von Piers Ridyard und Dan Hughes posten. Wie ich finde unfassbar guter Kontent, detaillierte und hochgradig kompetente Einführung und Erklärungen zu DLTs, Konsensmechanismen, und permission-less Netzwerke im allgemeinen. Hier ist die Folge 2: https://www.youtube.com/watch?v=1rNeL-X40lc Dabei geht Dan ausführlich auf die Unterschiede zwischen deterministischem Konsens (also Abstimmrunden) und probabilistischen Konsens (PoW) ein, die Auswirkungen auf die "liveliness", also die Resilienz eines Netzwerks gegen Ausfälle, und den konkret von ihm in Cassandra verwendeten Hybrid-Konsens-Mechanismus.
  7. ok, verstehe, das ist aber dann wohl eher ne Betrachtung philosophischer Natur... Klar gibt es Grenzen wo der Datendurchsatz in den Hauptleitungen des Internets an seine Grenzen stösst bzw. es schlicht keine Hardware mehr gibt, die man zum Netzwerk beisteuern könnte. Worums hier geht ist dass der Konsensmechanismus voll parallelisierbar und dezentral ist, es also keinen Aspekt im Design desselbigen gibt, der irgendwann in ein Limit laufen würde, vorrausgesetzt bei Bedarf werden dem Netzwerk neue Nodes zugefügt. Und dies ist höchst bemerkenswert, man muss sich erstmal klarmachen was das eigentlich bedeutet! Ein Dezentrales Netz welches praktisch beliebige Datenmengen auf Ledger Ebene verarbeiten kann, mit allen kryptographischen Gimmiks und Sicherheiten die man von Kryptowährungen kennt, jedes Objekt ist signierbar und mit der internen Logik des Ledgers verarbeitbar. Anwendungen wie voll dezentrale Social Netzwerke, Filesharing, Streaming usw sind da nur der Anfang und deren Implementierung wird im Vergleich zu ähnlichen Realisierungen jetzt ein Kinderspiel werden, weil die ganze grundlegende Architektur mit dem Cerberus Konsensmechanismus bereits gegeben ist. Muss man nur noch drauf aufbaun. Hab hier mal zwei Videos für euch, wo der "Schöpfer von Cerberus" mit seinem ersten Testnetz bischen am rumspielen ist und mal paar Sachen ausprobiert. Sind von 2021, also schon paar Tage alt. Hier hat man anscheinend mal mit nem Entwickler zu tun der erst macht, und dann redet. Das Netzwerk heisst Cassandra und ist als sowas wie ne Forschungs und Test Umgebung für den Cerberus Mechanismus zu sehen. Im ersten Video hat Dan paar Tage des kompletten Twitter Feeds ins Cassandra Netz gefüttert und spielt damit rum, erklärt dabei auch schön den Konsensmechanismus. https://www.youtube.com/watch?v=4DlSZwMZfr8 Und im folgenden Video spielt er mit Websites, kleinen Spielen und anderem Kontent, den er in seiner voll dezentralen Testumgebung laufen lässt. https://www.youtube.com/watch?v=nXhABv1B9lk Absolut sehenswert, würd mich auch interessieren was die Tech-Jungs hier so davon denken.
  8. Sorry @McWinston, ich zitier dich nochmal Tatsächlich ist das die Botschaft von Radix, sie behaupten einen voll parallelisierbaren, voll dezentralen Konsensmechanismus entwickelt zu haben, der linear skaliert, also immer mehr Durchsatz bekommt, je mehr Validatoren beteiligt sind. Der Mechanismus läuft bereits im Testnetz, funktioniert (Kassandra Netzwerk) und leistet anscheinend erstaunliches. Mit dem nächsten grossen Update von Radix, dem Xi'an Update welches irgendwann 2024 kommen soll, wird der Mechanismus im Mainnet umgesetzt. Wenn das so wäre, wäre das echt ein Gamechanger und ne Revolution, ein voll Web3 und DeFi fähiges Netzwerk, welches die ganzen Assets, Tokens, NFT und so weiter direkt im Ledger "verdrahtet" hat, dafür gebaut wurde, und über ne eigene, intuitive, auf Rust aufbauende Programmiersprache angesprochen werden kann, und dabei kein oberes Limit für die Anzahl der Transaktionen pro Sekunde hat, egal was für komplexe SmartContracts beteiligt sind. Im Babylon Netzwerk welches momentan live ist, ist bereits die volle SmartContract Fähigkeit implementiert, "skrypto"-Programmierer sind am Entwickeln von Anwendungen, nur ist es momentan noch ein Shard, also 100 Validatoren, das Sharding was dann die volle Leitung von Radix entfaltet kommt erst mit dem Xi'an Update. (wird aber im Kassandra Netz bereits ausführlich getestet und scheint zu funktionieren, wie gesagt) Ich hab mal versucht mir den Cerberus Konsensmechanismus reinzuziehen und hoffe das halbwegs verstanden zu haben. Ich werd das mal hier niederschreiben, das hilft mir auch beim Verständnis, und vielleicht dem ein oder anderen interessierten dem die Whitepaper zu schwer zum lesen sind. Es ist ein Asset-basierter Ansatz, der Token etc nativ im Protokoll festlegt und beschreibt, und deren Besitz "echt" ist, in ner Adresse, und wo nicht in einem Smartcontract die Liste der Besitzer aufgeführt ist, ohne das die Besitzer von ihrem Glück wissen, dazu müssen sie erst den Smartcontract abfragen, ob denn ihr Public Key mit aufgelistet ist. Jede Transaktion lässt sich im Prinzip als ne Änderung von verschiedenen, an der Transaktion beteiligten Zuständen auffassen. Die Radix Engine kann somit jede Transaktion als ein Set von Zustandsänderungen mit verschiedenen Abhängigkeiten ausdrücken. Jede Transaktion besteht somit aus ner Reihe Zuständen VOR dem Ausführen der Transaktion, und ner Reihe von Zuständen NACH Ausführen der Transaktion. Viele shards, jeder shard ca 100 Validatoren, Anzahl der Shards wird dynamisch bestimmt und zugeteilt, dabei wird regelmässig geshuffelt. Jetzt gibt es die Summe aller "Zustände" im Netzwerk. (Ein Zustand kann zB sein, die und die Adresse hat soviel von dem Token.) Jeder Zustand lässt sich durch nen Hash ausdrücken, ist dadurch einzigartig und die Geschichte ist Kollisionsfest. Zu jedem Zeitpunkt ist dem Netz die Anzahl der Validatoren bekannt. Je nachdem wieviele Validatoren es gibt, wird der Eimer der Zustände auf Untergruppen verteilt, so dass es pro 100 Validatoren eine Gruppe gibt. So entstehen die Shards, quasi eine dynamische Shard Erzeugung. Dabei erfolgt die Zuordnung der Zustände in die verschiedenen Gruppen bzw Shards deterministisch über die Höhe des Hashwerts des Zustandes. Bei zB 200 Validatoren würden 2 Gruppen gebildet. Ist der Hashwert kleiner als 0,5x2^256 kommt der Zustand in die Gruppe A, bei nem Hashwert grösser als 0,5*2^256 in Gruppe B. Da die Gesamtzahl der Validatoren eine dem ganzen Netz bekannte Zahl ist, kann auf diese Weise sich jeder Zustand einem Shard zuordnen und es kann ein an ner Tx beteiligter Zustand von anderen beteiligten Validatoren automatisch im richtigen Shard gesucht und gefunden werden, weil sich die richtige Shard automatisch aus dem Wert des den Zustand beschreibenden Hashes ergibt. Jedem Shard werden (Gesamtanzahl der Zustände)/(Anzahl der Shards) Zustände zugeordnet. Einzige notwendige Information für diesen Schritt ist die Anzahl der angemeldeten Validatoren. Zwischenstand: mehrere Shards, jeder Shard 100 Validatoren, jeder Shard voll mit ner Anzahl von "Zuständen". Jede Transaktion erfordet ein Ändern der beteiligten Zustände, welche zufällig auf verschiedenen Shards verteilt sind. Jeder der 100 Validatoren in nem Shard baut nun ne Art "Block", bzw schlägt vor was die nächste Runde lokal, in diesem Shard, passieren soll. Diese Vorschläge werden an alle Validatoren im Shard verteilt, also hat dann jeder Validator 100 Blöcke vor sich liegen. Dann stimmen die Validatoren über die Blöcke ab, jeder gibt je nach Wahlrecht (hier kann zB der Stake reinkommen) ne Stimme über den nächsten Block ab, bzw. wählt aus den 100 vorgeschlagenen Blöcken einen aus. Aus jedem Block wird der Hash ermittelt, das kann zB Wahlkriterium sein, man wählt den Block mit gültigen Vorgängen/Zuständen und dem höchten Hashwert. Damit hat man ne schöne, echt zufällige Komponente drin, ähnlich wie bei PoW. Sobald ne Mehrheit sich für nen Block entscheídet, wird dieser lokal, für die genannte Gruppe der Validatoren, valide. Jetzt kommt Cerberus ins Spiel, der Konsensmechanismus, der zwischen den verschiedenen Gruppen bzw. Shards "vermittelt". Ich versuch das mal etwas stümperhaft in meinen Worten wiederzugeben, wie ich das verstanden habe. Jede Transaktion hat ne Anzahl von involvierten "Zuständen". Diese Zustände sind zufällig auf die verschiedenen Validatorgruppen (shards) verteilt, (Zuteilkriterium: Hash des Zustandes). Da die Zuteilung deterministisch ist(errechenbar aus dem Hash des Zustandes), weis jeder Validator automatisch in welcher anderen Gruppe sich die in der Transaktion involvierten Zustände befinden. Um zu wissen ob eine bestimme Transaktion ausgeführt werden kann, können jetzt die einzelnen Validator gruppen miteinander kommunizieren, ihre Zustände austauschen und gemeinsam darüber abstimmen, ob die Transaktion ausgeführt werden kann. Wird positiv abgestimmt stellt jeder beteiligte Validator bzw Shard ein Zertifikat aus, das bestätigt dass die Transaktion ausgeführt werden kann und alle nötigen Zustandsänderungen in den verschiedenen Shards legit sind. Wenn alle an der Transaktion beteiligten Validatoren gültige Zertifikate ausgetauscht haben, wird die betreffende Transaktion ausgeführt und alle beteiligten Zustände lokal, in den jeweiligen Shards, dementsprechend geändert. Pro Runde, oder "Block" werden alle Transaktionen und die dazugehörigen Zertifikate abgespeichert, und es geht zur nächsten Runde, lokal, in einem Shard, jede Gruppe an Validatoren für sich. Was jetzt hier passiert, ist das das ganze hochgradig parallel ablaufen kann. Es gibt keine synchrone, vom ganzen Netz geteilte Blockzeit. Es gibt keinen Punkt im Netzwerk, wo alle Information durchfliessen/vorbefliessen muss. Für jede Transaktion stimmen nur die beteiligten Validatorgruppen ab, jeder Validator weis welche anderen Gruppen beteiligte Zustände "besitzen" und kann mit ihnen kommunizieren. Jede Validatorgruppe einigt sich ständig für sich, unabhängig vom restlichen Netzwerk, darauf was sie die nächste Runde machen werden. Und für alle pro Runde "abgehandelten" Transaktionen muss das "Cerberus"-Zertifikat vorliegen, das bestätigt dass alle anderen, an der Tx beteiligten Zustände, verteilt auf irgendwelche anderen Shards, ebenso gültig die Tx ausführen können. Nur dann wird die Transaktion ausgeführt, also die beteiligten Zustände in den betreffenden Shards geändert. Also es ist immer ein alles oder nichts, jede Interaktion mit einem Smartcontract, egal wie komplex er ist und wieviele Zustände involviert sind, wird nur ausgeführt wenn alle Komponenten ausgeführt werden können (bzw. alle beteiligten Zustände im Sinne der Tx geändert werden können), und VORHER ist bereits der durch diue Tx erzeugte Endzustand aller beteiligten Zustände bekannt, also kann das Netzwerk dem Benutzer, BEVOR er die Transaktion signiert, genau mitteilen was für Folgen die Transaktion hat, zB wieviele Coins welcher Art er genau bekommt, wie alle Zustände NACH dem Ausführen der Transaktion sein werden, und das ganze auf ganz tiefem Protokoll-Level. Dadurch sind die ganzen Betrügereien die auf der EVM mit den Smartcontracts passieren nicht mehr möglich, ein Smartcontract kann nicht vorgeben was anderes zu machen, als er tatsächlich macht. (Wie zB ein ERC 20 Token, der einem eigentlich nach Unterschrift die Wallet leerräumt oder ähnliches. Durch die echte Parallelität gibt es kein Bottleneck, sondern das Protokoll skaliert tatsächlich linear. Es gibt ein Durchsatzlimit natürlich lokal, für jeden Validator, aber das gesamte Netz wird "schneller", je mehr Validatoren sich beteiligen. Dabei ist der Trick im Endeffekt, dass nicht alle Transaktionen bzw. Netzwerkvorgänge in EINER Timeline geordnet werden (genau da entsteht grundsätzlich ein Bottleneck), sondern jeweils nur immer lokal, die an einer Transaktion beteiligten Zustände. Dadurch wird echte Parallelität möglich. Theoretisch wird das Radix Netzwerk, nach dem Xi'an Update, in der Lage sein, alle Transaktionen der Welt abzuwickeln, alle Finanztransaktionen, jede gewünschte Information, sei es Filesharing, social Media, was auch immer, voll dezentral und mit den beteiligten Daten auf unterster Ebene im Protokoll "gespeichert". Also, wenn das Xi'an Netzwerk sich wirklich so verhalten wird, dann ist das eine disruptive Technologie deren Auswirkungen noch gar nicht abschätzbar sind. Dan Hughes hat schon paar echt spektakuläre Geschichten mit dem Kassandra Netzwerk gezeigt, echt spannende Geschichten, DYOR! Nachtrag: Unter twitter, telegram usw ist Hughes unter dem Alias fuserleer unterwegs. Ich glaub bin zum Radix Fanboy geworden und habe meinen persönlichen Ethereum Killer gefunden. Hab auf jeden Fall die Umschichtung ETH -> XRD durchgeführt. Fürs Protokoll: ETH 4000$, XRD 5 cent
  9. Ich glaub da macht sich keiner Gedanken man akzeptiert halt das etwas sperrige Verhalten, auch wegen Mangel an Alternativen. So einfach ändern lässt sich das jedenfalls nicht, das ist, so wie ich das verstehe, in der grundeigenen Architektur der EVM verankert. Deswegen wollte Dan Hughes ja auch ganz von Scratch ein neues System mit nem ganz eigenen Konsensmechanismus entwickeln. Und hat damit angefangen, bevor es ETH überhaupt gab. Hat von 2013 bis 2017 nur in seinem Kämmerlein gehockt und programmiert, bis er ne Lösung hatte. Dabei war sein Hauptziel, das der Mechanismus skaliert. Und anscheinend tut er das und wird schneller je mehr Nodes sich beteiligen. Wer mal 3 Stunden nichts zu tun hat: https://www.youtube.com/watch?v=MaPkxM9MS_0 Da erklärt Hughes ausführlich den benutzen Konsensmechanismus und überhaupt alles so um Radix. Seiner Aussage nach haben sie das Trilemma gelöst, und der Mechanismus ist echt dezentral und skaliert. Dabei wurde von Anfang an der Schwerpunkt drauf gelegt, ne Plattform für DeFi zu sein, die sich des ganzen sperrigen, unlogischen und gefährlichen Verhaltens der EVM und Solidity entledigt. Ne einfach zu benutzende, sichere DeFi Plattform welche dezentral ist und auch noch skaliert, das wäre jedenfalls was neues, und wenn es denn wirklich so wäre, dann versteh ich dass die von Radix keine Werbung machen und nix Hypen, das verkauft sich dann irgendwann von selbst...
  10. ich glaub da gibts ein Missverständnis. Metamask ist einfach nur ne Schnittstelle, um zB mit dem Ethereum Netzwerk zu kommunizieren. Die Gebühren sind die Netzgebühren des Ethereum Netzwerkes. Sie errechnen sich aus dem Gas Limit und dem GasPrice. (GasLimit x GasPrice) Der Gas Price ist variabel und hängt von der momentanen Auslastung des Netzwerkes, sowie der persönlichen Eile ab, das Gas Limit von der Komplexität des aufgerufenen Smart Contracts. Während das Gas Limit für ne normale ETH Transaktion 21000 ist, kann es für nen komplexen Vorgang (wie nen Swap bei Uniswap) auch mal paar 100.000 sein. So wie bei Bitcoin auch gilt: Die Transaktionsgebühren haben nichts mit der "Höhe" der Transaktion zu tun, sondern damit wie Komplex der aufgerufene Vorgang ist. Also wirds relativ gesehen billiger bei grossen Summen...
  11. so, ich erweck mal den Radix Thread wieder zum leben. Wie im Prognose Thread von mir bereits angemerkt, mittlerweile halte ich das für ein spannendes, aussichtsreiches Projekt, ist jedenfalls (imho) kein Blödsinn. Radix ist jedenfalls meine Wette für den sich anbahnenden Bullenmarkt. Zum Beispiel dass man bei Ethereum im eigentlichen Sinne nur ETH "besitzt", und nur die ETH-Balance tatsächlich im Ledger, in der ETH-Adresse "hinterlegt" ist. Die anderen Token haben keinen Bezug zur eigenen Adresse, sondern die Kontostände sind in den jeweiligen Smart-Contracts hinterlegt. Also ist man dem Inhalt des Smart Contracts ausgeliefert, weshalb es komplexes Auditing usw. gibt um zu prüfen ob ein Smart Contract "böse" ist oder nicht. Bei Radix sind die verschiedenen Token und deren Eigenschaften direkt im zugrundeliegenden Ledger verankert, es gibt keine Smart Contracts, das passiert alles direkt im Ledger. Die verschiedenen Eigenschaften von zB Token oder Transaktionen sind transparent für den Benutzer erkennbar, ohne dass man sich durch nen Smart Contract wühlen muss. Piers Ridyard erklärt das in folgendem Video find ich gut (ab dem timestamp): https://youtu.be/iWeXtrnTIpA?list=PLnVONhlD76ZuEL2egas4CFACNlJRZrsm8&t=1927 morgen beginnt project ignition, ein 10mio$ liquidity Programm: https://dailycoin.com/radixs-10m-plan-to-boost-defi-liquidity-explained/
  12. Radix, XRD. Tatsächlich ein spannendes Projekt, wie ich finde. Je länger ich mich damit befasse umso besser gefällt es mir... #Breakout2024 Entwickelt von Dan Hughes, der wohl auch mal bei Y Combinator war... hier ein forbes Artikel über ihn und die Anfänge von Radix: https://www.forbes.com/sites/parmyolson/2019/01/09/this-hermitic-engineer-is-plotting-the-death-of-blockchain/?sh=622962b5378e Ich hab jedenfalls mittlerweile einiges an ETH in Radix umgeschichtet. Mal schaun. Hier noch ein informatives Interview mit Piers Ridyard, CEO von Radix DLT. Er erklärt sehr schön inwiefern Radix speziell für DeFi gebaut wurde und wo die Vorteile gegenüber zB Ethereum liegen... https://www.youtube.com/watch?v=iWeXtrnTIpA&list=PLnVONhlD76ZuEL2egas4CFACNlJRZrsm8&t=377s Gag am Rande, Piers Ridyard hat schon beim Ethereum Genesis Block mitgemined...
  13. wasn text.... an phantasie fehlts manchen ja nicht... und immer wieder mal:: https://learnmeabitcoin.com/technical/mining/ ?? zu geil... das stimmt, war auch nie anders. falsch. Jeder der sich am minen beteiligt, versucht das "Rätsel" für den nächsten Block zu lösen (nen Hash mit ner genügend grossen Anzahl Nullen am Anfang), jeder Miner macht das für sich, und unabhängig von den anderen Minern. Die Chance dass er als erster das Rätsel löst ist gleich "Hashleistung"/"Gesamte Hashleistung". Derjenige welchige der das Rätsel löst bekommt die gesamte Blockbelohnung, keinen Anteil, mini part, o.ä. Deswegen hat ein einzelner Miner praktisch keine Chance mehr, nen gültigen Hash zu finden. Und deswegen gibts Mining-Pools. Da trägt jeder etwas Rechenleistung bei und der Erlös bei eventuell gefundenen Blöcken wird unter den Mitgliedern aufgeteilt.
  14. so sollte es funktionieren. @Manny: probier google: "how-to-sweep-a-segwit-bech32-private-key"
  15. Da würd ich von ausgehen. Ob das jetzt in Panik passiert ist ne andere Sache, aber ich gehe davon aus dass sie verkaufen. Und irgendwann gehts wieder runter, und zwar dann wenn alle glauben diesesmal wärs anders und es würde nur noch nach oben gehen...
  16. So werd ich das auch halten. Wenn alles durchdreht, Bitcoin in aller Munde ist, nur noch vom Superzyklus und der Million pro BTC die Rede ist und jeden Tag ne andere Sau durchs Dorf getrieben wird, DANN wird verkauft. Dabei wird besonderes Augenmerk auf die Zeit ab zweite Jahreshälfte 2024 gelegt.
  17. Auf BSCScan sagt er zu deiner Transaktion: "Although one or more Error Occurred [execution reverted] Contract Execution Completed" Wurde also ausgeführt, und demensprechend sieht man auch die 4602 WSM die auf deine Adresse 0x0cC2...4076F gewandert sind. Neben den WSM hast du noch 20,375,934.868939719520827612 Pepe-Token und 36.01032522 Dogecoin-Token da liegen. Wenn du dir deine Adresse auf bsc-scan ansiehst, kannst du auf deine verschiedenen Token clicken. Wenn du draufklickst, wird dir in bsc-scan der Token angezeigt. Rechts siehst du "Token Contract", im Fall von WSM wäre das die 0x62694D43Ccb9B64e76e38385d15e325c7712A735, im Falle von DOGE die 0xbA2aE424d960c26247Dd6c32edC70B295c744C43. Vergleich das mit der Contract-Adresse die dir in coingecko angezeigt wird, dann weisst du ob es der gleiche token ist. siehe zu 2. Auf coingecko siehste zu jedem Token seine contract-Adresse, das musst du halt vergleichen. Auf bsc-scan zeigt es dir sowohl in deiner Adresse, als auch in den Transaktionen immer die betreffende contract adresse an. Nein. Jeder Tausch/Swap in eine andere Cryptowährung ist eine Veräusserung. Dabei musst du gedanklich immer den Umweg über EUR gehen, du verkaufst Token 1 für Euro (steuerpflichtiger Vorgang) und kaufst für Euro den Token 2.
  18. Es geht doch dabei nie um die Frage ob ETH steigt, sondern ob ETH in einem gewissen Zeitraum besser performed als BTC. Oder anders formuliert, ob man mit einem Investment (zum gleichen Zeitpunkt wo man die ETH kauft ) in BTC besser gefahren wäre. Und das Mass dafür ist nun mal der ETH/BTC Kurs, wenn ETH gegen FIAT steigt, aber BTC stärker steigt, dann wäre in dem betrachteten Zeitraum ein Kauf von BTC lukrativer gewesen.
  19. Das ist sicher richtig und ne reale Gefahr, oft die viel grössere als das Einbrecher das Haus nach Seeds durchwühlen ... Aber was kann man schon machen, gegen das Kind im Manne... Ansonsten halte ich für ne sinnvolle Alternative: Alle wichtigen Informationen in nen VeraCrypt Container packen, den mit nem starken Passwort versehen (zB ne 32 byte Hex Zahl, so wie ein Seed), und dieses Passwort zB notariell hinterlegen. Die Datei kann den Erben zu Lebzeiten ausgehändigt werden und ist vielfältig vorhanden, und bei der Testamentseröffnung gibts das dazugehörende Passwort.
  20. Also, der Seed stellt ja keine Information in verschlüsselter Form dar, sondern ist im Prinzip einfach ne Zahl. Stell dir vor anstatt 24 Wörter hast du ne 78 stellige Zahl. Das Sicherheitskonzept beruht darauf, dass diese 78 stellige Dezimnal-Zahl echt zufällig gewählt ist, dann ist es praktisch unmöglich und ausgeschlossen, dass ein zweiter zufällig die gleiche Zahl wählt. Er kann jetzt anfangen den Zahlenraum abzugrasen, wenn man sich mal bewusst macht wie gross tatsächlich ne Zahl mit 80 nullen ist, wird einem klar dass man NIE auf ne Kollision kommt, auch wenn man das Alter des Universums zur Verfügung hat, und alle Supercomputer der Welt. Wenn du die 78 stellige Zahl in 3 Teile teilst, muss ein Angreifer bei Kenntnis von einem Teil nur noch den Zahlenraum einer Zahl mit 52 Stellen abgrasen, hätte er Kenntnis von zwei Teilen nur noch nen Zahlenraum bis 10^26. Es macht keinen Sinn ein Sicherheitskonzept zu verwenden, welches stückweit das Geheimnis preisgibt, bzw, anders formuliert, was die Stärke der Sicherheit verringert. Eine Dezimalzahl ist ne Zahl mit der Basis 10, als mit 10 verschiedenen Ziffern je Stelle. Der Seed ist ne Zahl mit der Basis 2048 mit 24 Stellen, wobei es für jede Stelle 2048 Ziffern gibt (die Wörter). (Ich weis, das stimmt genaugenommen so nicht, kann man aber als vereinfachte Erklärung so stehen lassen) Ne, wenn sich zum Beispiel deine zwei Familienmitglieder "gegen dich" zusammentun, dann haben sie schon 16 Worte. Dann fehlen nur noch die acht vom Notar. Das ist mit dem richtigen Aufwand ne Sache von wenigen Stunden oder Tagen, und dann hat man den Seed ge-brute-forced, einfach alle Möglichkeiten der Reihe nach ausprobieren und schaun ob auf den Adressen was drauf ist. Nur das wir uns richtig verstehen (Du, oder wen auch immer das interessiert), man hört das leider immer wieder, mit dem Seed-in-paar-Teile-splitten: Den Seed splitten kann ne coole und elegante Methode sein, für alles mögliche. Aber dann nie einfach im Klartext die Wörter aufteilen, dann enthält jeder Teil nen "unverschlüsselten" Anteil des Geheimnisses und das Geheimnis wird weniger sicher. So einfach ist das. Ob weniger sicher noch sicher genug ist, ist ne andere Frage. Mein Standpunkt wäre da, je nachdem welche Vermögenswerte ich aufbewahre kann mir das gar nicht sicher genug sein. Wenn man splittet sollte man sich mit folgenden Dingen mal vertraut machen. Alles kein Hexenwerk, und gehört find ich zum BTC 1x1 dazu. Wenn schon selbstverantwortlich sein Geld verwalten, kann man sich auch die Mühe machen bischen was von der dahinterstehenden "Technik" zu verstehen. - Den Seed in seiner ursprünglichen 256-bit Form darstellen, sowie als HEX Zahl (64 Ziffern, entspricht 32 Byte) - Man kann das wunderbar mit iancolman.io üben, auf "show entropy details" gehen, und dann zwischen verschiedenen Darstellungsformen wechseln. Man wird sehen, dass die interne, "echte" Darstellungsform, die 32 Byte Hex Zahl ist. Und ne HEX Zahl kann man wunderschön, Ziffer für Ziffer XOR Multiplizieren. Man erstelle sich zum Beispiel ne zufällige 32 Byte HEX Zahl (zB Würfeln, oder mit KeePass, oder oder) und Multipliziere die Ziffer für Ziffer mit dem Seed. S x Z1 = Z2. Dann gilt, das ist eine Eigenschaft der XOR Multiplikation, dass Z1 x Z2 = S. Somit habe ich zwei Zahlen, Z1 und Z2, die ich BEIDE brauche um mir meinen Seed wieder herrechnen zu können, aber deren EINZELNE Kenntnis einem potentiellen Angreifer keinerlei Informationsgewinn beschert. Das ist schon ganz hübsch, man kann damit vermeiden dass irgendwas im Klartext irgendwo rumliegt. Ich könnte zum Beispiel meine universelle Zahl Z1 haben, die kann ich auch als Seed darstellen und irgendwo in ne CD Hülle schieben. Alle meine anderen Seeds werden damit multipliziert, und das Ergebnis so versteckt und abgelegt, wie man das halt tut. Um an nen brauchbaren, echten Seed zu kommen, muss ich jetzt erstmal meinen hinterlegten Seed mit meiner Zahl Z1 multiplizieren, um meinen echten Seed zu erhalten.
  21. Dieses Vorgehen ist grundsätzlich nicht zu empfehlen!!! Der Seed entspricht einer 256-bit Zahl. Das Sicherheitskonzept von Bitcoin beruht darauf, das diese Zahl zufällig aus diesem riesigen Zahlenraum gewählt wird. Ein Splitten des Seeds verringert den zur Verfügung stehenden Zahlenraum massiv, wären zum Beispiel 2 von den 3 Teilen bekannt müsste nur noch aus dem Zahlenraum 2048^8=3*10^26 gewählt werden, und nicht aus 2048^24=3*10^79. Das ginge um nen Faktor 10^53 schneller und ist damit auf einmal durchaus im Bereich des technisch möglichen. Dies ist ne ganz fundamentale Sache, es macht keinen Sinn sich ne Aufbewahrungsmethode auszudenken, die die Sicherheit des 24 Worte Seeds untergräbt!!! Wenn man den Seed splitten will, was durchaus sinnvoll sein kann, dann sollte man ne Methode wählen, bei der keiner der 3 Teile ne Information preisgibt. Man kann dies zB über XOR Multiplikation machen, wurde wenn ich mich richtig erinnere von Axiom im Fluchtrucksackthread mal angeschnitten.
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.