Zum Inhalt springen

GhostTyper

Mitglied
  • Gesamte Inhalte

    149
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von GhostTyper

  1. Kleiner Zwischenstand: Um 22:35 CET am 23.11.2019 wurde die Blockchain 1100 GB groß. Wir sind bei Block 5673858, was anscheinend 1 1/2 Jahre von Heute entfernt ist.
  2. Ich habe 40 TB SSD am Start. Die STORJ-Node ist auch 8 TB SSD.
  3. Allrighty, then. Ich kenne mich mit Ethereum nicht so aus und hoffe, dass ich alles richtig gemacht habe, nachdem ich mich jetzt kurz eingelesen habe. Die Node läuft unter den Standard-Ports auf eth-archive.intb.io mit nur der eth-API aktiviert. (HTTP-RPC und WebSocket-API.) Wenn hier andere APIs nötig sind muss man mir das sagen. Synchronisation hat begonnen um 16:39 CET am 21.11.2019. Ich gebe Bescheid, wenn diese fertig ist. Ich nehme auch gerne Wetten an. Im Internet steht, dass die Synchronisation Wochen benötigt.
  4. Also gut. Mal gucken, wie ich ohne Downtime diese Node verkleinert kriege, so dass ich keinen Key verschwende.
  5. Doch, doch, das geht schon. Nur halt eben ohne Verschlüsselung. Eben wie bei S3. Aber ich sehe schon ein, dass das ein Problem sein könnte, da sich Leute mit so einer Node registrieren nur um dann Daten abzugreifen. 😢 Ich habe noch andere Fragen ergänzt.
  6. Komm schon. Ein bisschen mehr Vertrauen in Euer Produkt. Ich möchte noch ein paar Dinge zu STORJ sagen: Vertrieb Es ist ein leidiges Thema. Vor allem ich als Softwareentwickler musste das erst lernen: Aber Vertrieb ist eine sehr wichtige Abteilung einer Firma oder eines Projekts. Und Vertrieb ist das, was STORJ auf jeden Fall benötigt. Ich glaube ohne "professionelle" Kunden wird wahrscheinlich überwiegend das passieren, was ich oben geschrieben habe: Leute benutzen das als Datengrab für Daten, die sie hoffentlich nie wieder laden müssen. Zumindest solange die Preispolitik so bleibt. Unterschiede zwischen S3 Gateway und S3 von Amazon Das S3 von Amazon hat ein paar Vorteile gegenüber dem S3 Gateway. Erstmal muss man bei Amazon kein eigenes S3 Gateway aufbauen. Es ist einfach da. Dann ist das S3 von Amazon in der Amazon Cloud selbst natürlich schneller als Tardigrade. Es ist nur langsamer von außerhalb. Da bei Amazon die Traffic-Kosten nach außerhalb auch sehr teuer sind könnte Tardigrade aus AWS heraus sogar teurer sein. Was ich mir technologisch wünschen würde Ich finde die Plattform sollte so erweitert werden, dass Leute auch Interfaces wie das S3 Gateway anbieten können. Und zwar über die normale "Abrechnung", die es schon gibt. Dann gäbe es zu den Storage-Nodes halt auch noch Interface-Nodes. Dort wären halt die Preise etwas höher, dafür spart sich der Endkunde das Aufsetzen eines S3-Gateways. Oder eines IPFS-Gateways. Oder vielleicht in der Zukunft eines FTP- oder HTTP-Gateways. Fragen Hältst Du es für eine bessere Strategie jetzt mehr Nodes aufzusetzen, so dass diese bis zum Januar "mehr Trustworthy" sind? Wenn ich den DNS-Namen der Node ändern möchte, reicht es dazu auch einfach den Docker-Container neu zu starten? Gibt es eine Möglichkeit eine Node komplett platt zu machen und den Key zu reusen?
  7. Uff. Da mir die Ressourcen egal sind muss ich kurz darüber nachdenken. An der Stelle würde mich sowieso Mal interessieren, was Du eigentlich genau für STORJ machst. Zuerst folgendes Vorwort: Ich finde die meisten Coins oder Token, die nicht ausschließlich als Währung dienen sollen haben ein großes Problem: Keine echte Anwendung oder gesponnene Zukunftsvisionen, die später sowieso von einer Regierungs- oder Firmen-Blockchain oder Blockchain-Fremden Technologie übernommen werden. Und wenn man genau hinschaut bräuchte man für die meisten Systeme keine Blockchain-Technologie. Bei STORJ bräuchte man natürlich auch kein extra Token, denn es ist theoretisch Blockchain-Agnostisch. Aber STORJ hat eine echte Anwendung und vermutlich wollte man auch irgendwie Geld sammeln. :D Eine echte Anwendung zu haben finde ich schon mal eine gute Voraussetzung! Kommen wir zum Revenue. Tardigrade muss Konkurrenzfähig sein. Konkurrenzfähig dazu, dass sich jemand ein eigenes Storage kauft. Oder ein Storage in einem Rechenzentrum mietet. Da hat man ja ermittelt, dass man dem Endkunden 45 $ pro TB "download" und 10 $ pro TB "Speicherung" berechnen möchte. Der Node-Betreiber bekommt davon 20 $ pro TB upload zum Client (also download von der Node) und 1,5 $ pro TB Speicherung. Was muss eine Storagenode dafür "leisten"? Neben der regulären Speicherung und dem Ausliefern von Daten? Ganz klar: Die Reparatur. Erasure Codes haben den Nachteil, dass sie mehr Blöcke für eine Reparatur pro Block benötigen (laden müssen) als einfache Replikation. Und wenn mehr als eine Node, die Blöcke hält kaputt geht steigt die benötigte CPU-Last deutlich. Allerdings werden die meisten Consumer-Internet-Anschlüsse sowieso eher an der Bandbreite scheitern. Speicherung: 1,5 $ pro TB sind nicht so viel. Eine 16 TB HD macht hier also 24 $ pro Monat und das auch nur, wenn die Disk tatsächlich voll ist. Allerdings wird sich Consumer-Hardware im Optimalfall vermutlich rechnen, bevor sie ausfällt. Traffic: Ja, hier wird man wohl am meisten verdienen. Aber für Consumer-Internetzugänge, deren Upload meistens sowieso langsam ist? Rechnen wir das. Um 20 $ zu verdienen muss man 1 TB hochladen. 1 TB sind 3 MBit/s. Für diesen Uplink benötigt man mindestens VDSL, was leider immer noch nicht überall Standard ist. Mit 10 MBit Uplink kann man also ungefähr 60 $ pro Monat verdienen. Und das alles auch nur, wenn eine konstante Anforderung herrscht. So, jetzt haben wir die Opimalfälle berechnet. Werden diese Eintreten? Das hängt natürlich davon ab, wie sehr das Netzwerk benutzt wird und wie viele Kunden und welches Anforderungsprofil es an den Speicher gibt. Ich bin mir sicherer als die Zuverlässigkeit von Tardigrade, dass dieser Optimalfall für mich nicht eintritt. :D Bei privaten Internetanschlüssen, die halt den minimum Upstream von 5 Mbit/s haben und eine große Disk verwenden kann es schon sein, dass es sich "lohnt". Wobei "sich lohnen" dann halt "nur" um 50 $ pro Monat handelt, nachdem die Node (vermutlich) schon ein Jahr online ist. Zusammen mit den folgenden Nachteilen: Stromverbrauch, der eigene Upstream wird in dem Fall dann "lahm" werden. Im Vergleich zu regulärem Mining von irgend einer Crypto-Währung mit Consumer-Hardware klingt 50 $ pro Monat gar nicht so schlecht. Ich schätze das alles hättest Du auch selbst ausrechnen können. Ich kenne kaum Anwendungen, die z.B. S3 als BackEnd verwenden. Aber ich vermute Mal, dass aufgrund der Preispolitik primär Offsite-Backups gespeichert werden. Ich habe ehrlich gesagt keine Ahnung, wie das ausgehen wird. Ich hoffe jedenfalls, dass das System so schlau werden wird, dass es automatisch oft frequentierte Blöcke auf die Nodes verschiebt, die diese auch schnell ausliefern können. Ohne eine solche Funktionalität vermute ich, dass meine (und somit auch jede andere) Node bei unter 20 $ Traffic den Monat hängen bleibt.
  8. Für die, die diese Information noch suchen: Die angegebenen Mindestanforderungen sind 5 Mbps upstream und 25 Mbps downstream. Nach knappen 60 Stunden Laufzeit hat meine Node 24,2 GB ausgehenden und 16,1 GB eingehenden Traffic gehabt. Das ist umgerechnet ein knappes Mbit upstream und 2/3 Mbit downstream. Wirkt für mich hauptsächlich wie generierter Traffic. Allerdings bezweifle ich, dass dies so bleiben wird, wenn das System im Januar 2020 live geht. Noch etwas zu schwachen Leitungen: Den meisten Verdienst bekommt man durch den Traffic und nicht durch das halten von Daten.
  9. Reicht es den Docker-Container mit anderen Parametern neu zu starten, wenn ich etwas (z.B. Größe) ändern möchte? Denn ich habe das Gefühl, dass es sich jetzt eher lohnen könnte 3 oder mehr Server-IDs warm laufen zu lassen.
  10. Also, nur damit wir uns nicht verrennen: Meine Haupt-Motivation ist es dem Netzwerk zu helfen. Ich weiß nicht, ob ich wirklich noch einen Miner neben xmrig ausprobieren möchte. Ich weiß ja noch nicht einmal, ob ich wirklich xmrig verwenden möchte. Wenn die Performance gegenüber dem Wallet nur minimal besser ist werde ich vermutlich einfach mit der regulären monero-Software minen. XD Wie schnell ist xmrig bei Euch so? [2019-11-19 14:30:56.765] speed 10s/60s/15m 21301.7 21345.6 21364.8 H/s max 21419.0 H/s Und wie gut ist der Algorithmus von Deiner Kommando-Zeile vergleichbar mit RandomX später? Und was bedeutet die 2. Zahl in der Klammer nach dem 101/? [2019-11-19 15:05:56.892] cpu accepted (101/0) diff 810524 (4 ms)
  11. Also gut, wenn Du darauf bestehst... Ich weiß nicht, wo es Linux Binaries gibt, daher habe ich xmrig selbst compiliert. Ich habe largepages schon korrekt konfiguriert. Für 4 NUMA-Nodes ist das leider Faktor 4. Die Hardware schafft mit Deiner Kommandozeile 21359.0 H/s.
  12. Die Hardware steht in einem klimatisierten Serverraum und war zuvor schon unter volllast. Dort wird es keine Probleme geben. Ich habe jetzt auch schon eine Monero-Node aufgesetzt die mit 10 GBit/s angebunden ist. Ich möchte leider keine neue Hardware kaufen, sondern nur ungenutzte "herumstehende" Hardware nutzen. Ich versuche noch herauszufinden, ob - wenn ich die Node minen lasse - dies tatsächlich in einen Pool geht oder nicht doch reguläres solo-mining ist. Für mich macht es irgendwie keinen Sinn, dass die Monero-Entwickler sich in eine Abhängigkeit eines Pools begeben.
  13. Für diese CPU gibt es keine Benchmarks oder ich habe sie nicht gefunden. Ich vermute, dass ich so bei 18000H/s heraus komme. Und ja, mir ist klar, dass minen 24/7/365,24 gemacht wird. (Interessant aber, dass die Info für Stromverbrauch und Mining Zeit von dem kommt, der gerne Teilzeit bei bereits bezahltem Strom minen möchte.) Du musst mir schon vertrauen, dass ich weiß, ob mich der Strom etwas kostet oder nicht. Ich hätte jetzt erwartet, dass die Monero-Wallet "richtig" mined. Das heißt, dass ich nur dann einen Reward bekomme, wenn nachher auch mein Block verwendet wird. Aber XMRig mit --daemon:true ist dann schon "echtes solo-mining"? Ich verstehe nicht so ganz, wieso solo-mining dem Projekt eher weniger hilft. Meine Hashrate bleibt ja gleich. Ich glaube es hilft eher nur mir nicht, weil ich statistisch wahrscheinlich weniger verdiene.
  14. Es handelt sich um 4x Intel Xeon Gold 6146. Der Strom ist mir egal. Ich werde lieber Solo-Mining versuchen. Es geht mir dabei gar nicht so arg um den Profit als irgend einem Projekt irgendwie zu helfen. Trotzdem ist mir eine höhere Hash-Rate lieber als eine niedrigere. Gibt es irgendwo Benchmarks, wie schnell die cli-wallet (bei der Threads übrigens schon einstellbar sind) "so ungefähr" im Vergleich zu XMRig ist? So wie ich das bisher verstanden habe ist die aktuelle Monero-Version (v0.15.0.0) schon bereit für den Wechsel ende des Monats und somit vermute ich, dass diese cli-wallet auch bereits RandomX minen kann?
  15. Hallo, ich habe Hardware mit 4 NUMA-Nodes (4 CPUs) und darauf Linux installiert. Der Kernel ist mit NUMA-Support compiliert. Ist die cli-wallet mit NUMA-Support compiliert, so dass die einzelnen Threads Speicher bei der entsprechenden NUMA-Node verwenden? Wenn Nein, gibt es Mining-Software die das beachtet und bei der ich nicht an einem Mining-Pool teilnehmen muss?
  16. Hallo battlecore, ich habe leider keine AMD-Hardware. Allerdings habe ich noch ungefähr 85 Cores Intel Xeon Gold 6146 und 700 GB RAM frei die sowieso bezahlt sind. Hast Du mir einen Link zu einem guten Tutorial (eines, welches mir auch sagt, wie ich die einzelnen Mining-Prozesse gut dimensioniere, bzw. Erfahrungswerte angibt)? Leider müsste ich dafür auch ein Wallet aufsetzen, etc. und habe davon noch keine Ahnung. Fragen, die sich mir direkt nach kurzem anlesen stellen: Ist die Software idr. so, dass sie dann am 30.11. automatisch auf RandomX umstellt oder muss ich dort dann noch etwas manuell machen? Ich würde gerne solo-mining mit dem cli-wallet probieren. Betreffend Frage 1: Müsste das Offizielle Wallet hierfür schon alles bieten? (Ich habe gelesen, dass diesen Monat die Update-Phase ist, daher nehme ich an, die Wallet ist hier schon passend? Oder muss ich dann am 30.11. die Software nochmals updaten?)
  17. Hallo Kein Mensch, diese Link-Sammlung hilft mir leider nicht besonders. Mit den Basics kenne ich mich wie oben bereits geschrieben aus. Ich hab' mir jetzt mal angeguckt, wie man eine Permanode mit Chronicle aufsetzt. Meiner Erfahrung nach wollen Leute für Daten leider nichts bezahlen, die sie auch einfach so downloaden können. (Meine Spenden-Adresse hat damals nur knappe 3 Mi "eingenommen" für über 2500 Downloads der Datenbank durch Spenden auf freiwilliger Basis.) Würde ich so eine Node also anbieten, dann unentgeltlich und somit das zukünftige Geschäft anderer Leute kaputt machen. Ich habe jetzt Mal eine Storj-Storagenode aufgesetzt. Ich bitte trotzdem noch um weitere Vorschläge, was ich tun könnte. Vielleicht gibt es noch den einen oder anderen Vorschlag.
  18. Hallo Skunk, ich habe mich schon per HTTP auf Port 14002 zum Dashboard verbunden gehabt. Dort habe ich auch gesehen, dass es den Traffic-Typ "AUDIT" gibt. Zu dieser Traffic-Ansicht habe ich auch glich noch eine Frage - neben ein paar weiteren Fragen: Es gibt die Traffic-Typen USAGE, REPAIR und AUDIT. USAGE und REPAIR werden dabei in eingehend und ausgehend unterschieden. Nun habe ich während regulärem USAGE-Traffic auch REPAIR INGRESS Traffic. Bedeutet dies, dass bei mir etwas repariert werden musste oder aber bedeutet dies, dass eine andere Node irgendwo ausgefallen ist und daher Blöcke zu mir transferiert wurden? Ich habe jetzt herausgefunden, wie ich die Zuverlässigkeitsbewertung abfragen kann. Die von Dir verlinkte API liefert die Werte alpha, beta und score für jeden Satellite. Es sieht so aus, wie wenn bisher nur 2 von 4 Satellites mit mir kommuniziert hätten. Überall habe ich zwar einen Score von 1 (100%?) der Alpha-Wert ist aber nicht so hoch wie bei anderen Nodes im Internet, wenn man den Posts der Besitzer glauben kann. Hast Du mir weitere Informationen, was für eine Metrik alpha und beta besitzen? Gibt es Maximal- und/oder Minimal-Werte? In einer .md-Datei auf Github habe ich irgendwo gelesen: "The existing reputation-like system uses uptime and audit responses. It does not currently consider geographic location, throughput, or latency." Gibt es schon einen Plan, wann sich das ändert? Kann jemand aus seiner Erfahrung heraus sagen, wie sich der Traffic einer Node verhält, wenn es virtuell keine Geschwindigkeitseinschränkungen gibt? Ich habe der Node jetzt eine dedizierte synchrone 10G-Anbindung zugewiesen. Bei jeder Rechnung und bei jedem Nutzungsprofil, dass mir einfällt ist diese Anbindung für "nur" 8 TB Netto-Speicherplatz zu viel und wird vermutlich nie ausgenutzt werden? Alleine aus dieser Perspektive wäre es natürlich interessant für mich, wenn Storagenodes danach bewertet werden welchen Traffic sie stabil liefern können. Siehe (3) und (4): Ist, wenn irgendwann evtl. implementiert wird, dass Latenz direkt und auch Durchsatz mit in die Bewertung einfließt auch geplant, dass die Blöcke von Nodes defragmentiert werden, so dass häufiger angefragte Blöcke auf "schnellere" Nodes verschoben werden?
  19. Hallo Kein Mensch, kannst Du mir eine Seite verlinken, wo das Aufsetzen und vielleicht ein paar weitere Facts erklärt werden? Welches Projekt wäre das dann auf GitHub?
  20. Also. Hab' jetzt Mal eine Node Testweise aufgesetzt. Scheint auf Anhieb funktioniert zu haben: Storage Node Dashboard ( Node Version: v0.25.1 ) ====================== ID <id> Last Contact ONLINE Uptime 4h58m58s Available Used Egress Ingress Bandwidth 3.2 PB 3.5 GB 2.2 GB 1.2 GB (since Nov 1) Disk 8.0 TB 1.2 GB Internal 127.0.0.1:7778 External storj.intb.io:28967 Ich habe aber noch ein paar Fragen und Dinge, die mir nicht klar sind: Sind Traffic und Größen-Angaben exakt so, wie sie sein sollten? Also 1 MB = 1000000 Bytes? Oder wird das irgendwo vermischt mit z.B. MiB? Am Anfang nach 4 Minuten (oder so) hat das Dashboard 32.0 MB angezeigt, in echt benutzte die Disk knappe 33 MiB. Klar, da sind ja auch noch andere Dateien als das reine Storage. Ich habe dem System 9 TiB Storage zugewiesen. 9 TiB sind 9586434468 KiB. Mit ext4 und einer Blockgröße von 4096 formatiert sind noch netto 9103100444 KiB übrig, was aber nur 8,5 TiB sind. Die Node wurde mit 8TB als Parameter gestartet. Frage: Ist das ausreichend oder muss ich die Disk noch vergrößern? Die Anleitung ist da nicht sehr deutlich. Nach der Anleitung würde ich sagen: Nein. Denn wenn jemand eine 8 TB Disk hat geht er davon aus, dass er gute 7 TB nutzen kann. (Da 7 TB dann 7000000000000 Bytes wären.) Die Node hat 4 Kerne und 8 GB RAM zugeteilt bekommen. Reicht das aus? Irgendwo habe ich gelesen, dass es technisch eine Zuverlässigkeitsbewertung oder irgend ein Profiling für die einzelnen Nodes gibt. Kann man diese irgendwie einsehen? Das Dashboard zeigt diese leider nicht an. Gibt es hierfür den Traffic-Typ "Audit"? Wenn so eine Zuverlässigkeitsbewertung oder ein Profiling existiert, wird diese(s) auch zum Verteilen von Blöcken auf Storagenodes herangezogen? Z.B. könnten Nodes mit mehr Traffic Blöcke bekommen, die eher abgefragt werden. Gibt es noch einen anderen Exchange als bhex zum Tauschen von STORJ? Das Dashboard kommuniziert wohl auf dem eingestellten Dashboard-Port mit der Node? Gibt es zu dem Protokoll eine Doku, bzw. kann ich dort selbst einfach Abfragen durchführen? Könnte man das Projekt noch wie (also abseits dem Stellen einer Storagenode) unterstützen? Vielen Dank.
  21. Hallo battlecore, Minen lohnt sich für mich in den meisten Fällen nicht, da ich nur viel CPU, RAM und Bandbreite habe, nicht aber Grafikkarten oder andere spezielle Hardware. Ich kenne mich mit Ethereum nicht so gut aus. Was würde das laufen lassen von Wallets denn bringen?
  22. Hallo Skunk, ich habe wirklich viele freie Ressourcen (CPU, RAM und Bandbreite) und könnte so eine Ethereum Full Archival Node ohne weiteres betreiben. Ich werde dir betreffend Storj eine Nachricht schreiben. Dann kannst Du mir ja vielleicht ein paar Dinge dazu erzählen.
  23. Hallo Kein Mensch, ich habe 2017 bis Mitte 2018 eine sehr große IRI Node betrieben und auch eine Webseite mit Live-Statistiken (woher kommen die Nutzer, wie viel Traffic benötigt die Node-zu-Node Kommunikation oder die API, etc.) dazu entwickelt. Später (als IRI extrem instabil wurde, weil der letzte Snap-Shot schon so lange her war und die meisten Leute VPS mit zu wenig Leistung verwendet haben) habe ich dann auch Offline-Snapshots der Datenbank zur Verfügung gestellt. Ich habe die Node schließlich aufgegeben, als ich erkannt habe, dass das damalige Konzept wahrscheinlich nicht wie prognostiziert funktioniert und es unwahrscheinlich wird, dass der Coo jemals abgeschafft werden kann ohne signifikante Änderungen an IOTA. Ich habe den IOTA Discord verlassen als "Q" so gehyped wurde und noch keiner wusste, was das eigentlich ist. Seither habe ich nicht mehr wirklich verfolgt wie es mit IOTA weiter gegangen ist. Ist der Coordinator mittlerweile abgeschaltet? (Rhetorische Frage.) Da es mir im Prinzip egal ist, in welches Projekt ich meine Zeit investiere - es nur Leuten nutzen sollte oder sonstwie relevant sein sollte - kann ich mir trotzdem vorstellen so eine Node aufzusetzen. Wenn Dich mein Denken über IOTA nicht abgeschreckt hat würde ich mich sehr gerne mit Dir darüber unterhalten. Weiterer Input andere Projekte betreffend ist immer noch gerne gesehen.
  24. Hallo Forum, vor langer Zeit hat mir Christoph Bergmann auf die Frage, was man der Crypto-Welt gutes tun könnte geantwortet, dass ich ja eine Ethereum Full Archival Node hosten könnte. Leider habe ich jetzt erst Zeit für ein neues "Hobby-Projekt". Da einige Zeit vergangen ist nun meine Frage: Würde sich so etwas (Ethereum Full Archival Node) heute noch "lohnen" (hilft das wem, etc.)? Gibt es vielleicht "lohnenderes"? Wenn ich so eine Node aufsetzen würde, würde ich mich auch daran versuchen einen Blockchain-Explorer oder irgend eine andere Applikation zu entwickeln. Bei anderen Vorschlägen würde ich entsprechend etwas anderes, dass dazu passt "zum Lernen" finden. Vielen Dank für Euren Input.
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.