Facebook
Twitter
Google+
Kommentare
17

Projektwerkstatt: WordPress Google Backup

Gestern hatte ich mal wieder das Vergnügen etwas kulturelles zu erleben. Ich war mit meiner Freundin im Tarzan Musical und ich muss sagen, dass es echt viel besser ist, also wir erhofft hatten. Warum wir trotzdem Karten hatten ist eine lange Geschichte. Auf jeden Fall bin ich frisch von der Muse geküsst und bin mal wieder ein wenig kreativ geworden und habe mir eine neue Projektwerkstatt ausgedacht. Nicht während des Musicals, aber direkt danach.

Vor kurzem hatten wir in den Kommentaren eine kleine Diskussion, wie wir unser Backup gestalten. Die meisten bevorzugen ein CronJob getriebenes Backup der Datenbank. Was macht man aber, wenn dies aus Gründen eines fehlenden Rootzugriffs oder ähnlichem nicht möglich ist. Bei dem Versuch eine Lösung zu finden kam mir folgende Idee.

Warum führt man in seinem Blog nicht diverse Tags ein. Ein <content></content> könnte zum Beispiel in jedem Blogeintrag den eigentlich Eintrag umschließen. Genau so würde es mit dem Titel, dem Autor und dem Erscheinungdatum passieren. Tags und Kategorien könnte man auch noch umschließen. Ich würde mal schätzen, dass dies bei einem geübten WordPresser nicht länger als 20min dauern würde.

Ich denke mal aus dem Titel und aus Erfahrungswerten wisst ihr schon, auf was ich hinaus will. Wenn wir unsere Inhalte richtig marktiert haben, so können wir uns das Backup sparen, denn google hat ja bereits alle Inhalte unserer Webseite in einem Format hinterlegt, in dem wir unsere Datenbank wieder herstellen können. Das funktioniert natürlich nur, wenn google alle unsere Seiten in den Index packt, was bei uns der Fall wäre.

Jetzt würde nur noch ein Tool fehlen, das die Daten wieder aus google rausbekommt, aber das zu schreiben sollte nicht so schwierig sein. Zum Schluss noch dei wichtigste Frage: Macht das ganze überhaupt Sinn? Keine Ahnung, ich denke eine tolle Spielerei wäre es auf jeden Fall. Und wer meint, dass man so Content-Dieben Tür und Tor öffnet, der sei auf meinem eh schon offenen RSS Feed hingewiesen.

Jetzt wo ich gerade über den RSS Feed rede. Ein Service, der alle RSS Einträge archiviert wäre vielleicht auch eine Projektwerkstatt wert. Natürlich auch mit Backup und Rollback Funktion.

Über den Autor

Nils Langner

Nils Langner ist der Gründer von "the web hates me" und auch der Hauptautor. Im wahren Leben leitet er das Qualitätsmanagementteam im Gruner+Jahr-Digitalbereich und ist somit für Seiten wie stern.de, eltern.de und gala.de aus Qualitätssicht verantwortlich. Nils schreibt seit den Anfängen von phphatesme, welches er ebenfalls gegründet hat, nicht nur für diverse Blogs, sondern auch für Fachmagazine, wie das PHP Magazin, die t3n, die c't oder die iX. Nebenbei ist er noch ein gern gesehener Sprecher auf Konferenzen. Herr Langner schreibt die Texte über sich gerne in der dritten Form.
Kommentare

17 Comments

  1. Als Gedankenspielerei nicht schlecht, produktiv halte ich das aber für eher nicht lohnend. Man muss die von google erfassten Daten relativ flott „holen“, im Falle eines ausfalles könnte man schon Pech haben: ist die Quellseite weg, verschwindet sie auch schnell aus dem Index – man müsste also doch regelmässig ein Programm ausführen und das kann dann ja auch direkt die Datenbank bzw den Server ansprechen.

    Achja: für cron Jobs braucht man keinen root Zugriff 😉 ein Shell-Zugang und entsprechende Rechte reichen aus. Viele hoster bieten das einrichten auch über ein webinterface an. Hilft das alles nix, kann man auch pseudo Jobs bei diversen Anbietern einrichten 😉

    Reply
  2. Moin,

    irgendwie hatte ich beim lesen des Artikels ein deja-vu.
    Das Thema „Inhalte markieren, damit der Rechner weiß was es bedeutet“ gibts doch noch als kürzeres Wort: semantic-web.
    Ich habe mich also nicht verdacht.

    Bei der praktischen Umsetzung würde ich wohl eher Attribute wie [div id=“author“] oder [p class=“content“] benutzen. Bei eigenen Tags müsste die Seite korrekterweise als XML deklariert werden.

    mfg straffi

    Reply
  3. Nachtrag,

    beim lesen meines eigenen Kommentars hats mich erleuchtet.
    Da es ja um die Inhalte geht, und nicht um das Layout bräuchte man nur eine Möglichkeit, die aktuellen Inhalte als XML zu bekommen.
    Schon mal über ein Backup-via-RSS nachgedacht?

    Reply
  4. @nils

    ich glaube der Satz „Macht das ganze überhaupt Sinn?“ hat meine gesamten Gehirnresourcen verbraucht. Alles folgende ist wohl irgenwie nach /dev/null gewandert…

    Reply
  5. Ach,

    relativistisch gesehen fehlt dir eine Stunde.
    Das passiert bei mir auch mal (hauptsächlich an Wochenenden) aber meistens weiß wenigstens mein Server welche Stunde geschlagen hat…

    denic-ergebnis diese posts:
    – Die Domain „ach-uebrigens.de“ ist nicht registriert.

    Reply
  6. @Sergej: Die Voraussetzung würde ich sogar erfüllen. Im Notfall würde man einfach einen zweiten RSS Feed einrichten, dessen Adresse unbekannt ist. Ich denke nicht, dass jemand sich die Mühe macht diese zu finden.

    Reply
  7. Nils, die Voraussetzungen würden vielleicht du und ich erfüllen, aber nicht die meisten Blogger da draußen. Auch nicht jeder schafft einen separaten Feed im Blog einzurichten.

    Reply
  8. @sergey: Da hast du vielleicht recht. Aber vielleicht baut man einfach ein wp Plugin drum rum, dann muss man gar nichts mehr machen. Ich habe gehört, dass du eh ein wenig Ahnung mit solchen Plugins hast 😉

    Reply
  9. Da liegst du auch nicht falsch 😉 Das Plugin müsste dann wirklich effizient sein und alle Aufgaben wie das Anlegen und Verstecken des Extra-Feeds übernehmen. (WP-)Nutzer wollen sich heutzutage keine Finger schmutzig machen – soll alles automatisch geschehen, per Knopfdruck.

    Reply
  10. oder xml-rpc? geht auch von extern und warscheinlich dezidierter. geht ebenfalls als wordpress plugin. könnte auch revisionen von posts mit rausgeben etc. pp.

    Reply

Leave a Comment.

Link erfolgreich vorgeschlagen.

Vielen Dank, dass du einen Link vorgeschlagen hast. Wir werden ihn sobald wie möglich prüfen. Schließen