Zum Inhalt springen

skunk

Mitglied
  • Gesamte Inhalte

    6.626
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von skunk

  1. Das sieht mir nach einem Fake aus. Die offiziellen Partnerschaften müssten eigentlich hier stehen: https://blog.polygon.technology/ Dort sehe ich von der angebliche StrongBlock Partnerschaft aber nichts. Der einzige Hinweis auf eine vermeintliche Partnerschaft wäre damit eine eventuell gefälschtes Bild auf einer eigentlich falschen Webseite. Edit: Ich bin mir ziemlich sicher das ist Fake. Ich habe gerade mal den den Telegram Channel von Polygon durchsucht und ebenfalls 0 Treffer. Im Community Chat von Polygon gibt es dafür ganz viele Treffer und ratet mal was dort besprochen wird. Richtig die Fanboy erzählen alle paar Minuten mal, dass sie die Partnerschaft richtig klasse finden und die Polygon Truppe hat ein paar mal versucht sich zu distanzieren. -> (Ironie) Ja das ist eine völlig normale Partnerschaft. Kein Grund irgendwas davon anzuzweifeln. Jetzt oder nie All In
  2. Ach scheiße jetzt sehe ich es. Ich habe vor dem Speichern der JSON Datei bei customer uploads und downloads eine Node ausgewählt und damit alle anderen Nodes ausgeblendet. Genau das ist was bei dir auch gerade passiert. Einfach mal in der Legende auf eine der Nodes klicken dann siehst du sie auch. Ich werde die Tage dann nochmal eine neue JSON Datei erstellen ohne diese Falle.
  3. Super auf dem einen Screenshot ist jetzt deine Success Rate zu sehen. Bei customer uploads und download habe ich meine Testnodes mit hinterlegt. Editier die beide mal und lösche die testnode dort raus.
  4. Keine Daten bei GC zu haben ist ein Stück weit normal. Du würdest im Grunde immer die letzte Ausführung von GC seit Neustart sehen und GC läuft nur alle paar Tage. Sollte also passen. Interessant ist, dass Repair Downloads bei dir funktioniert. Kann es sein, dass die email Alerts bei dir Probleme machen und er deshalb nichts anzeigt?
  5. Den Port könntest du in jedem Fall öffnen. Es antwortet dann nur der Updater mit seinen Statistiken anstellen der Storage Node. Das war der Grund warum ich nach upload_success gefragt hatte. In deinem Fall wird das wohl die Storage Node sein mit immerhin 15K Uploads.
  6. Sonst mal in dem Metrics Endpoint direkt suchen. Da solltest du eigentlich das hier irgendwo finden: # TYPE upload_success_count gauge upload_success_count{scope="storj_io_storj_storagenode_piecestore",field="high"} 240599 upload_success_count{scope="storj_io_storj_storagenode_piecestore",field="low"} 1 upload_success_count{scope="storj_io_storj_storagenode_piecestore",field="value"} 240599 Die Werte werden initial nicht auf 0 gesetzt. Nach einem Neustart der Storage Node würden diese Einträge erstmal fehlen und erst mit dem ersten erfolgreichen Upload angezeigt werden. Ein Problem was ich bei mir hatte ist, dass der Storage Node Updater den Debug Port belegt hat. Dann hatte ich zwar einen Metrics Endpoint aber die Daten vom Updater sind ja irgendwie witzlos. Ich habe in all meinen Updater Service Dateien hinten ein --debug.addr 127.0.0.1:13018 angehängt um den Port Konflikt zu lösen.
  7. Vermutlich weil du eine alte Storage Node Version laufen lässt. Die Storage Nodes müssen mindestens v1.44.1 haben.
  8. Ich nutze 8.3.2. Ich wüßte aber nicht warum das einen Unterschied machen sollte. Soweit sieht deine Config alles richtig aus. Einzige Abweichung zu meinem Setup ist der Name der Datenquelle. Was passiert wenn du eines der Diagramme editierst und die dort hinterlegte Datenquelle auf deine änderst? Du hast ein Screenshot wo du das mit dem anderen Dashboard machst. Dort scheint das sogar parametrisiert zu sein. Wie ich das in meinem Dashboard anbieten kann, weiß ich leider nicht.
  9. Das klingt falsch. Wenn ich mich einlogge bekomme ich die übliche Aufforderung meinen Yubikey anzuschließen und da ist weit und breit keine PIN Eingabe. Was für ein Yubikey hast du? Eventuell ist das ein neueres Modell was per PIN erst unlocked werden muss?
  10. Ja aber mit einigen Verbesserungen, die bei dir fehlen
  11. Den LDAP Server brauchst du jetzt aber nur für einen spezifischen Exploit. Ohne LDAP Server ist es einfach ein anderer Schadecode, die der Angreifer ausprobieren würde.
  12. Das ist der Hostname auf dem meine Storage Nodes laufen. Das sieht doch schon nicht schlecht aus. Demnach sieht Prometheus deine Storage Nodes bereits. Jetzt fehlt nur noch die Verbindung hin zu Grafana. Hast du in Grafana bereits deine Prometheus Instanz als Datenquelle hinterlegt? Configuration->Add Datasources. Bei mir steht dort dann http://prometheus:9090 wobei prometheus der Name des Docker Containers ist bzw eigentlich der Name des Service auf meiner Docker Compose Datei.
  13. Also erstmal stimme ich allem zu was Jokin bereits gesagt hat. Der größte Feind für alle Entwicklungsländer ist der USD. Stell dir vor du bist ein kleiner Bauer, der seit 10 Jahren Kaffeebohnen anbaut. Der USD ist darauf ausgelegt dich finanziell abhängig zu machen sodass du deine Kaffeebohnen dauerhaft zu einem günstigen Preis anbieten musst und niemals eigenständig wirst. Dieses Spiel funktioniert im kleinen Maßstab genauso wie auf Länder Ebene. Die gleichen Gründe, die dich dazu bewegen dich vom Euro zu entkoppeln treiben auch ganze Länder dazu sich vom USD zu entkoppeln. Wenn du also einen Teufel suchst, den du für diesen Prozess an den Pranger stellen kannst dann nimm den USD. Der Euro ist kein Stück besser von daher kannst du den gleich daneben stellen. Im übertragenen Sinn bist du es selbst, der diesen Druck aufbaut. Wenn du im Supermarkt zu den kostengünstigen Kaffeebohnen greifst dann sagst du dem Bauern damit, dass du nicht willst, dass seine Lage sich verbessert. Wir Konsumenten sind es, die diesen Welthandel mit seinen negativen Auswüchsen aufrecht erhalten.
  14. Vom Angreifer. So wie ein Angreifer sich einen tollen Befehl für die SQL Injektion ausdenkt und einfach auf gut Glück absetzt. Im Moment sind alle fleißig dabei an jeden denkbaren Prozess die Log4j Befehle zu senden und auf einen Treffer zu warten. Mein Arbeitskollege bekommt bereits unzählige Log4j Befehle an seine Server gesendet. Das ist wirklich ganz stumpf Try und Error was die Angreifer da machen. Einfach an alles und jeden die neuen Log4j Befehle senden dann gibt es irgendwann auch einen Treffer. Wget darf ich auch als normaler User ausführen. Um einen Zugangspunkt in das dahinterliegende lokale Netzwerk zu bekommen braucht man keine Root Rechte. Die fehlenden Root Rechte kann man sich später in aller Ruhe besorgen. Selbst ohne Root Rechte kann man mehr als genug Schaden anrichten.
  15. Sind die Vorsichtsmaßnahmen nicht die gleichen wie immer? -> Kapital vom Exchange runter und auf dem eigenen Hardware Wallet lagern. Mal ganz im ernst. Wenn du nicht verstehst wie der Angriff funktioniert wie kommst du dann auf die Idee einen Glaubenskrieg starten zu wollen? Wie kommst du darauf, dass eine Firewall oder ein Virenscanner universell gegen alles hilft? Auch hier die Frage. COBOL ist in der Lage jeden Angriff abzuwehren? Bitte einfach mal die ganzen Vorurteile beiseite legen. Java ist nicht sicherer oder unsicherer als andere Programmiersprachen. Das größte Sicherheitsrisiko sitzt immer noch vor dem PC und bedient diesen. Das größte Sicherheitsrisiko sind vor allem Mitarbeiter, die glauben sie würden auf gewisse Tricks nicht reinfallen weil ihr Setup (COBOL, Firewall, Virenscanner) sowieso über jeden Zweifel erhaben ist. Besser immer davon ausgehen, dass das eigene Arbeitsgerät bereits infiziert wurde und man es nur noch nicht mitbekommen hat. Mit dieser gesunden Skepsis ist man deutlich sicherer unterwegs. Edit: Zum Angriff selbst. Die Java Anwendung benötigt keine Oberfläche. Alles was der Angreifer machen muss ist einen speziellen String vergleichbar mit SQL Injektion an die Java Anwendung zu senden. Die Java Anwendung sieht das als Befehl an jetzt meinen Trojaner aus dem Internet runter zu laden und diesen auszuführen. Herzlich willkommen in meinem Botnet. Mehr passiert erstmal nicht. Für den gängigen alles verschlüsseln und Lösegeld fordern Angriff bedarf es erstmal nur einen Zugangspunkt, der idealerweise mehrere Monate unentdeckt läuft. Damit hat der Angreifer genug Zeit seinen Code im Internen Netzwerk so weit wie möglich weiter zu verbreiten bis auch der letzte Backup Server ebenfalls infiziert wurde.
  16. Ein wichtiges Detail. Es werden nur Trades gerechnet. Interne Transfers werden nicht mitgezählt. Gefühlt oder tatsächlich? Ich glaube in allen genannten Tools kannst du deine Daten erstmal kostenlos erfassen und wie teuer es wird sagen dir die Tools am Ende kurz bevor du deinen Steuerreport haben möchtest. Ich kann aus meiner Erfahrung berichten, dass bereits 5000 Trades sich anfühlen wie die 100er Fache Menge. Man verschätzt sich da leicht. Außerdem nicht ganz uninteressant ist die Frage welcher Zeitraum gewertet wird. Bei Accointing ist es leider die Gesamtmenge. Mein Plan ist es irgendwann alte Trades zu summieren und so aus meiner Historie zu löschen. Dann wird das Tool kostengünstiger für mich. Für das aktuelle Steuerjahr ändert sich nichts. Egal worauf ich eigentlich hinaus wollte ist, dass einige der anderen Tools die Anzahl der Trades im Steuerjahr nehmen. Wenn dein Datenbestand sagen wir mal auf 3 Jahre verteilt ist, brauchst du auch nur noch eine Lizenz für 1/3 der Datenmenge. Ich vermute aber der Nachteil wird sein, dass du für 3 Steuerjahre auch 3 Lizenzen kaufen musst. In Summe wird es also genauso teuer wie jetzt. Einziger Vorteil ist, dass du dir weniger Sorgen um die Obergrenzen machen musst.
  17. Wenn ich das richtig sehe fehlt dir folgendes: - job_name: 'storagenode1' metrics_path: /metrics static_configs: - targets: ['datengrab:13019']
  18. Wenn du einen Glaubenskrieg für notwendig hältst dann lass dich von deiner Mission nicht abhalten. Stell dir doch einfach vor jemand hier im Thread findet Java gut und hat nur auf dich gewartet um bekehrt zu werden.
  19. Wollen wir jetzt den guten alten Glaubenskrieg eröffnen? Ich kenne kein Antivirus Programm, dass eine Trefferquote von 100% hätte. Das wäre mir dann schon etwas zu riskant mich darauf zu verlassen.
  20. Das Problem ist log4j. Das ist eigentlich fürs logging zuständig. Anwendung läuft fröhlich vor sich hin und die ganze Zeit wird etwas in eine Logdatei geschrieben. Nun ist log4j schon etwas komplexer. Es kommt mit einigen Konfigurationsmöglichkeiten daher. Unter anderem kann man log4j wohl auch eine URL geben. Es lädt dann artig runter was auch immer sich hinter der URL verbirgt und was viel schlimmer ist, es führt den Spaß sogar aus. So kann einfach den eigenen Trojaner in eine fremden Anwendung zu Laufzeit einschleusen.
  21. Das Problem ist auch weniger die Börse an sich. Die Entwickler werden die Kritischen Prozesse als erstes auf dem Schirm haben und diese Patchen. Problematisch werden dann die Prozesse an die keiner denkt. Nehmen wir einfach mal den nächtlichen Backup Job. Der wird in solchen Situationen schnell mal vergessen und schon hat der Angreifer einen Zugang zum Server über den er dann weiteren Schaden anrichten kann. Es ist teilweise überraschend über welchen Prozess der Angreifer Zugriff bekommt.
  22. Vorsicht. Nicht alles was als Staking verkauft wird ist auch eine PoS Blockchain. Vieles ist auch einfach nur Scam. Es ist einfach verlockend etwas Geld zu investieren und dann Zinsen zu bekommen. Das Problem dabei ist aber, dass man mit regelmäßigen Reinvestments fast schon einen garantierten Totalverlust einfährt. Vor der Automatisierung daher ganz genau hinschauen ob das jetzt echtes PoS ist oder doch nur ein Fake. Ich würde sogar noch einen Prüfung oben drauf legen. Ist die PoS Implementierung vergleichbar sicher wie ETH2? Zwischen richtigem PoS und Scam gibt es noch einen Bereich mit unsicheren PoS Implementierungen. Damit kann man zwar auch erstmal besser Geld verdienen als mit den Scams aber bei unsicheren PoS Implementierungen hätte ich Sorgen bezüglich eines 51% Angriffs. Auf meiner Checklist steht daher die Frage ob die PoS Implementierung Collaterals kennt und bei welchen Verstößen diese aufgebraucht werden. Jein. Du kannst es per Skript machen aber wie einfach es ist hängt davon ab wie viel Erfahrung du bereits hast. Viele Wege führen nach Rom. In der Regel gibt es passende Dienste, bei denen du per API deine Erträge auslesen kannst. Es kann passieren, dass diese Dienste irgendwann kostenpflichtig werden. Ich würde daher empfehlen zu versuchen die Erträge direkt von deiner PoS Node auszulesen. Idealerweise bietet die Node selber ebenfalls eine API an. Alternativ kannst du dir auch was tolles mit Grafana basteln. In dem du alles erstmal im Testnet aufprobierst und dabei auch gern mal ein paar Fehlersituationen provozierst. Ich baue in meine Skripte auch ganz gern ein Debug Flag ein. So kann ich auch später im Mainnet erstmal eine Simulation laufen lassen bei der mir das Skript artig ausgibt was es jetzt machen würde und erst dann schalte ich das ganze scharf. Was für eine Abfolge auf der Blockchain?
  23. Vielleicht mal noch ergänzend. Es ist recht einfach eine PoS Node laufen zu lassen. Wie Jokin schon sagt, gibt es mehr als genug Anleitungen. Die spannende Frage ist also am Ende was kannst du besser machen als die anderen Nodes im Netzwerk. Man darf die Risiken nicht vergessen. Stell dir einfach vor wir beide treten in einen Wettstreit. Ich würde behaupten wenn es Probleme im Netzwerk gibt, bin ich mit meinem Setup schneller in der Lage zu reagieren. Im übertragenen Sinne würde ich in dieser Situation deine Rewards kassieren weil ich dem Netzwerk besser dienlich bin als du. Die Frage ist daher welche Talente du mitbringst um besser zu sein als andere Nodes. In meinem Fall ist die Antwort, dass ich mich gut mit Hardware und gut mit Linux auskenne. Meine Schwächen lagen anfänglich noch beim zeitaufwändigen Setup und bei der Sicherheit. Diese Schwächen habe ich inzwischen kompensiert. Mein Setup ist jetzt eine einzige Docker Compose Datei. Ich kann im Ernstfall innerhalb weniger Minuten ein Backup System Online bringen. Dieser Wettbewerbsvorteil erlaubt es mir eine PoS Node besser zu betreiben als andere. Natürlich muss ich diesen Vorteil stetig weiter ausbauen.
  24. Geht nicht. BTC ist PoW und aktuell habe ich auch noch nirgends gelesen, dass sie vor hätten auf PoS zu wechseln. Ich denke mit ETH2 kann man nicht viel falsch machen. Einziges Risiko ist, dass sie das geplante Sharding am Ende irgendwie in den Sand setzen. Wenn wir davon ausgehen, dass ETH2 so erfolgreich wird wie versprochen, würde ich eher nicht auf eine der anderen Alternativen setzen. Daher wäre meine Empfehlung erstmal mit ETH2 zu starten. Was erhoffst du dir davon 2 oder mehr Nodes laufen zu lassen? Was bringt dir die zweite Node für Vorteile, die du mit nur einer Node nicht hättest? Bei ETH2 wäre das möglich. Es gibt einen extra Thread hier im Forum wie man einen ETH2 Validator auf einem Pi4 laufen lassen kann. Das ist erneut unnötig. Installier dir einfach mal einen ETH2 Validator im Testnet. Damit kannst du kostenlos Erfahrungen sammeln. Mein Grafana Dashboard meldet in Summe maximal 15 GB RAM und das eher weil ich ungeduldig bin und daher deutlich mehr RAM zuweise als wirklich notwendig wäre. Die Kollegen mit den Pi4 schaffen das ja auch mit deutlich weniger RAM. 8 GB dürfte also reichen. Du kannst natürlich beliebig viel RAM zuweisen. Es macht am Monatsende aber keinen finanziellen Unterschied. Wie Teuer ein ETH2 Validator inzwischen ist, hast du auf dem Schirm?
  25. https://www.storj.io/blog/nft-storage-for-opensea-sdk-with-storj-dcs
×
×
  • Neu erstellen...

Wichtige Information

Wir haben Cookies auf Deinem Gerät platziert. Das hilft uns diese Webseite zu verbessern. Du kannst die Cookie-Einstellungen anpassen, andernfalls gehen wir davon aus, dass Du damit einverstanden bist, weiterzumachen.