Facebook
Twitter
Google+
Kommentare
15
Willkommen bei "the web hates me". Mittlerweile hat unser Team ein tolles neues Monitoringtool für Agenturen gelauncht. Unter dem Namen koality.io haben wir einen Service geschaffen, der er Agenturen ermöglicht mit sehr geringen Kosten alle Ihre Webseiten zu überwachen.

Projektwerkstatt: MySearch

Heute hatte ich mal wieder eine, wie ich finde tolle Idee. Und zwar eine Suchmaschine. „Och nöööö … nicht schon wieder eine“, werdet ihr euch jetzt denken. Aber ich will eine ganz besondere; eine personalisierte.

Was genau will ich also? Ich hätte gerne eine leere Suchmaschine, die absolut keine Einträge hat (ja das ist die Definition von leer). Dort will ich aber Webseiten (bzw. Domains) hinzufügen können, so wie ich will. Über diese und nur über diese wird dann gesucht. Wenn man das so hört, dann denkt man bestimmt, dass man somit ein schlechtes Google bekommt, denn der kennt ja alle Ergebnisse und kann somit viel besser die Treffer suchen.

Die Idee ist aber, dass man sich Experten sucht, die thematisch befüllte Suchmaschinen erstellen. So würde ich zum Beispiel eine spezielle Maschine bauen, die nur für PHP zuständig ist und alle guten Webseiten eintragen, die ich zu diesem Thema kenne. Dann gibt es sicherlich Experten zum Thema MySQL und wummms haben wir eine MySQL-Suchmaschine. So könnte man zu vielen kleine Themen eigene Suchen aufbauen. Das ist ja nicht auf Technik beschränkt. Wäre doch toll, wenn jemand die besten Webseiten zum Thema Fukuschima zusammenstellt, oder Justing Bieber, oder oder oder.

Und wenn niemand Lust hat meine Suchmaschine zu nutzen, dann ist mir das auch egal, denn ich gehe mal davon aus, der der Nutzen, den die Suche für mich alleine hätte wäre schon groß genug sie pflegen. Für google wäre es bestimmt eine Kleinigkeit das umzusetzen, ich muss da also einfach nur mal ne E-Mail hinschicken ….

Über den Autor

Nils Langner

Nils Langner ist der Gründer von "the web hates me" und auch der Hauptautor. Im wahren Leben leitet er das Qualitätsmanagementteam im Gruner+Jahr-Digitalbereich und ist somit für Seiten wie stern.de, eltern.de und gala.de aus Qualitätssicht verantwortlich. Nils schreibt seit den Anfängen von phphatesme, welches er ebenfalls gegründet hat, nicht nur für diverse Blogs, sondern auch für Fachmagazine, wie das PHP Magazin, die t3n, die c't oder die iX. Nebenbei ist er noch ein gern gesehener Sprecher auf Konferenzen. Herr Langner schreibt die Texte über sich gerne in der dritten Form.
Kommentare

15 Comments

  1. Klingt ganz nach der Custom Search von Google. Allerdings dies selbst umzusetzen klingt äußerst interessant!
    Gruß Stefan

    Reply
  2. Richtig, genau die meinte ich. Durfte mich zufällig die letzten Tage damit befassen. Für die im Text beschriebene Idee ist es aus meiner Sicht bestens geeignet. Zumal es da auch eine Option „Zusammenarbeit“ gibt, in der wohl mehrere Teilnehmer diese Suche mit Webseiten füllen können.

    Reply
  3. Hmm so eine Suchmaschine würde einen hohen Wert erhalten, wenn man dann natürlich einerseits die Möglichkeit haben könnte immer etwas einzutragen. Gleichzeitig müsste es aber für jedes Gebiet einen Moderator haben so etwas sauber hält.
    Dann wäre es natürlich auch sinnvolle ne Form von Bewertung mit einzubringen, das die besseren oben stehen.
    Was auch sinnvolle wäre eigentlich auch noch das ganze nach bestimmten keywords zu priorisieren, das müsste man aber dann auch wiederum händisch machen.
    Alles andere macht an sich nicht viel Sinn, da man sonst wirklich auf irgendwelche google Lösungen ausweichen könnte.

    Reply
  4. also soweit ich das gesehen habe, hast du dort einiges an Einstellungsmöglichkeiten für das Aussehen. Wenn man zuviel Geld hat, kann man das ganze auch über die CustomSearch API machen und dann Ergebnisse in JSON zurückgeben lassen, dann kannst du deine Ergebnisse selbst gestalten. Allerdings sind hier nur 100 Request/Tag frei, je 1000 weitere kosten dann wohl 5 US-Dollar. Vermutlich nicht wirklich sinnvoll für private Zwecke.

    Reply
  5. oder für den Fall, dass du auch selbst entscheiden willst, was du crawlen willst, wäre eventuell auch http://yacy.net/ für dich interessant. Yacy erlaubt es dir eine eigene Abgeschottete Suchmaschine aufzubauen.
    Ein möglicher Vorteil wäre, dass du von der Liste an Seiten, die indiziert werden sollen yacy erlaubst, noch eine Stufe weiter zu indizieren. Also alle Links, die von diesen Seiten ausgehen. Wieso man das wollen könnte? Seiten die PHP thematisieren verweisen in vielen fällen auf Seiten und Projekte die ebenfalls ins Themengebiet PHP passen.

    Reply
  6. Ich denke das Problem bei Google ist, dass es schwierig wird, hier das Verzeichnis mit den Expertensuchmaschinen zu erstellen, wobei ich das für ein sehr gutes und interessantes Konzept halte. Da wäre ein Ansatz mit einer eigenen Suchmaschine doch um einiges anpassbarer und einfacher, oder?

    Ich stelle mir so ein System vor, wo ich im ersten Schritt einen Fachbegriff, wie PHP o.ä. angebe, und das System dann z.B. automatisch ein Verzeichnis mit Domains auswählt, das von Experten zusammen gestellt wurde, und im Prinzip nur diese Domains durchsucht. Das ist zwar für den normalen Gebrauch meistens nicht notwendig aber gerade bei technischen oder sehr speziellen (wie ökonomischen oder juristischen) Suchen wäre eine solche Einschränkung der Domains, da man hier ja auch wirklich sehr qualifizierte und gut gefilterte Antworten sucht, ein wirklicher Mehrwert.

    Reply
  7. ich habe so etwas ähnlich für einen Kunden aus der Nahrungsmittelbranche realisiert.

    Er hatte in seinem Forum eine „Linkliste“ wo Seiten rund um das Thema „Nahrung, Nahrungsmittelergänzung, etc..“ eingetragen werden konnten.
    Diese Linkliste war an Sume-er angebunden, was uns eine eigene Suchmaschine ermöglichte, die nur die Seiten von der Linkliste durchsuchte.

    Reply
  8. Das könnte man doch – zumindest im privaten/kleinen Rahmen lösen, in dem man per curl o. ä. mit dem Suchparameter „site“ die entsprechende Suche mehrmals auf die verschiedenen Seiten durchführt. Also etwa so:

    „Suchbegriff site:http://domain.tld
    „Suchbegriff site:http://domain1.tld
    „Suchbegriff site:http://domain2.tld

    Allerdings habe ich keine Erfahrungswerte, ob Google das zulässt..

    Reply
  9. Vielleicht ist ja egoArchive einen Blick wert. Wir speichern via Plugin die Seiten, die man täglich so ansurft und bilden einen Index draus, der nur für den jeweiligen User verfügbar ist. Derzeit sind wir in der closed Beta, aber eine kurze email an mich gb@egoarchive und schick einen invite.

    Reply

Leave a Comment.

Link erfolgreich vorgeschlagen.

Vielen Dank, dass du einen Link vorgeschlagen hast. Wir werden ihn sobald wie möglich prüfen. Schließen