RE: 2018 Woche 18 - Ohne Zusammenhang / Without Any Context / Deutsch / English

You are viewing a single comment's thread from:

2018 Woche 18 - Ohne Zusammenhang / Without Any Context / Deutsch / English

in deutsch •  6 years ago 

Nicht wirklich... Wie kommst du zu dieser Fehlaussage?
Ich habe eine eigene DB ;)

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!
Sort Order:  

HI darauf habe ich gewartet @steemchiller grins, vorhin stand da noch "nur" dann "nun" ka?!?!
Den einige Funktionen wenn nicht gar die meisten sind auf jeden Fall via API-Nodes??

Und für die Follower und Usererwähnungen
hattest du dir ja selber was auf SQLite Basis geschrieben
wenn ich recht liege.

Grüsse und schön das du vorbei schaust!!

Genau so ist es! Es waren die meisten und werden immer weniger, da ich nicht mehr so von den Nodes abhängig sein will. Aber alles geht noch nicht über meine Server. Ich habe jetzt alle Votes gespeichert und die DB allein ist ~ 23 GB groß (mit Indices)... ^^ Ist bisher die größte, aber macht auch Sinn, weil ja für jeden Vote eine Referenz zum Comment/Post gespeichert werden muss. Habe dafür eine id (int) in meiner Permlinks-Tabelle.

Lieber Chiller,

es freut mich sehr, dass du mal wieder in unsere Kneipe, die ich ohne deine SteemWorld gar nicht so managen könnte, wie ich das tue, eingekehrt bist!

Wir hatten doch vor ein paar Tagen mal über die Mentions gesprochen.

Kann es sein, dass du dieses Problem inzwischen schon gelöst hast, und nun auch die Mentions angezeigt werden, die in busy.org - verfassten Kommentaren geschrieben wurden?

Es kommt mir nämlich so vor.

Lieben Gruß, @double-u

Oh ja @double-u, das hatte ich vor einer Woche direkt behoben und auch für alle alten Erwähnungen nochmal durchlaufen lassen ;) Ich weiß nicht, ob du es schon gesehen hast, aber die Vote-Anzahl (oben unter 'Post Count') und das neue Tool 'Transfer Search' sind seit heute auch drin. Habe nicht wirklich die Zeit, um einen neuen Post zu erstellen, aber werde das vielleicht in den nächsten Tagen noch machen.

Ich hoffe auch, dass ich mal wieder mehr Zeit finden werde, um gemütlich in deiner gutbesuchten Kneipe abzuhängen. Das hat mir ja seit Anfang an immer sehr viel Spaß gemacht.

Ich weiß nicht, wie es bei dir mit der Zeit aussieht, aber vielleicht solltest du ab und zu mal einen Post mit 'Geschichten aus meinem Leben' erstellen. Dann würdest du mit Sicherheit doppelt so viel pro Woche verdienen!

LG, Chiller

Super, dass du das Problem so schnell beheben könntest!
Das hatte sich für mich nämlich recht kompliziert angehört.

Jetzt, wo du es sagst, habe ich den "Vote Count" gesehen.
Interessante Zahl!
Ich wundere mich, dass meine Maus noch funktioniert ;-)

Ja, mit den Geschichten aus meinem Leben.
Mir fallen andauernd welche ein. Ich schreib' mir auch ab und zu Stichpunkte auf. Aber ich komme nicht richtig dazu, mir die Muse zum Schreiben zu nehmen.

Bei deinem Arbeitspensum, das du wohl leistest, kannst du dir wahrscheinlich nicht vorstellen, dass mich die Voterei, die ich hier mit dieser Seite betreibe, schon ganz schön beschäftigt ;-)

Jetzt ist der Mittwoch schon fast um, und ich habe meine (für mich obligatorischen) "Rückvotes" noch nicht vollständig erledigt.

Ich bin so ein Typ, den alle oft wiederkehrenden Arbeiten schnell nerven. Ich baue lieber was auf, dabei kann ich durchaus sehr fleißig und ausdauernd sein, und dann muss/sollte es aber mehr oder weniger von selbst laufen.

Aber diese Rückvotes (meine Votes an diejenigen, die meinen Post gevotet hatten) zu automatisieren, dürfte wohl schwierig sein, da sie ja fast alle in unterschiedlicher Höhe ausfallen.

Aber ich bin jetzt still, da ich mir bei diesem Unbehagen immer gleich selbst sage, dass das Jammern auf hohem Niveau ist.

Lieben Gruß, @double-u

Da muss ich nochmal kurz nachharken "23 GB" SQLite?
Macht die keine Probs bei der Größe?

Läuft super schnell, solange alles auf SSD liegt und sinnvolle Indizes erstellt wurden. Die Maximalgröße einer SQLite-Datenbank liegt soweit ich weiß bei ~ 140 TB. Die Entwickler hatten die Hardware nicht da, um das zu testen, aber sie haben riesige Datenbanken im TB-Bereich getestet und alles lief perfekt ;)

Das ist ja mal cool!!!
Ich mach mir hier Gedanken nicht über 4 oder 5 GB zu kommen LOL

  ·  6 years ago (edited)

Cool, das mit den IDs mache ich auch,
habe dazu noch Artikel und Kommentare getrennt, aber die Kommentare mit den Eltern-Kommentar + dem Artikel Verbunden via IDs
(Plus für alles ne eigen DB um es im Notfall auszulagern),
denn via API alle Kommentare eines Artikels abrufen kannste Knicken,
ab 100 Kommentaren und was weis ich 5 oder mehr Ebenen, da läuft sich selbst im Multitraidung via C# der Rechner Wund.

Den Wochenpost damals mit 950 Kommentaren hier von Werner "mit meiner Leitung", alle Kommentare via API Laden, habe ich nach 5 min abgebrochen, das kann man niemanden zumuten.

Die Idee mit der extra Permlinkstabelle gefällt mir, da hatte ich noch nicht dran gedacht!!!!!!!!!!!!

via API alle Kommentare eines Artikels abrufen kannste Knicken, ab 100 Kommentaren und was weis ich 5 oder mehr Ebenen, da läuft sich selbst im Multitraidung via C# der Rechner Wund

Das dachte ich auch mal, bis ich auf folgende Möglichkeit gestoßen bin:

steem.api.getState(tag + "/@" + author + "/" + permlink)

Die Funktion liefert dir alle Kommentare zu einem Artikel mit nur einem Aufruf und sehr schnell zurück ;)

Ich mache das dann so:

let comments = [];
for (var key in result.content) {
    if (result.content[key].parent_author)
        comments.push(result.content[key]);
}
  ·  6 years ago (edited)

WOW ist das cool, ich hab mir an der getState die Finger wund versucht und nie ne Antwort bekommen.

Das TAG hat mir gefehlt LOL

WOW eine Super, Super Danke dir!!!!!!

LOL Selbst die Accounts und ActivVotes sind dabei, cool