„Link Juice“ ist ein Begriff aus der Suchmaschinenoptimierung (SEO) und bezeichnet den Wert oder die Kraft, die ein Hyperlink von einer Webseite auf eine andere überträgt. Diese „Kraft“ beeinflusst, wie gut eine Seite in den Suchmaschinenergebnissen (vor allem bei Google) rankt.
Wenn eine Webseite A auf Webseite B verlinkt, gibt sie etwas von ihrem „Ruf“ oder ihrer Autorität weiter – das ist der „Link Juice“. Je vertrauenswürdiger und themenrelevanter Seite A ist, desto mehr Link Juice wird übertragen.
Autorität der verlinkenden Seite (z. B. eine große Nachrichtenseite vs. ein kleines Blog)
Anzahl der ausgehenden Links: Je mehr Links auf einer Seite sind, desto weniger „Juice“ bekommt jeder einzelne.
Follow vs. Nofollow: Nur „dofollow“-Links übertragen Link Juice; „nofollow“-Links (z. B. mit rel="nofollow"
) tun das in der Regel nicht.
Platzierung des Links: Ein Link im Haupttext ist stärker als einer in der Fußzeile oder Seitenleiste.
Relevanz: Ein Link von einer thematisch passenden Seite zählt mehr.
Ein Backlink von Wikipedia auf deine Website gibt dir enorm viel Link Juice – Google wertet das als Zeichen von Vertrauenswürdigkeit. Ein Link von einer unbekannten oder spammy Seite dagegen bringt wenig bis gar nichts oder kann sogar schaden.
Die Levenshtein-Distanz ist ein Maß für den Unterschied zwischen zwei Zeichenketten (Strings). Sie gibt an, wie viele einzelne Bearbeitungsschritte (Operationen) notwendig sind, um eine Zeichenkette in eine andere zu überführen. Dabei sind die folgenden Operationen erlaubt:
Einfügen eines Zeichens
Löschen eines Zeichens
Ersetzen eines Zeichens durch ein anderes
Die Levenshtein-Distanz zwischen den Wörtern "Haus"
und "Maus"
ist 1, weil nur ein Buchstabe (H → M) geändert werden muss.
Die Levenshtein-Distanz wird in vielen Bereichen verwendet, z. B.:
Rechtschreibprüfung (Vorschlag ähnlicher Wörter)
DNA-Sequenzvergleiche
Plagiaterkennung
Fuzzy-Suche in Datenbanken oder Suchmaschinen
Für zwei Strings a
und b
, mit Längen i
und j
:
lev(a, b) = min(
lev(a-1, b) + 1, // löschen
lev(a, b-1) + 1, // einfügen
lev(a-1, b-1) + cost // ersetzen (cost = 0, wenn Zeichen gleich; sonst 1)
)
Es gibt auch effizientere dynamische Programmieralgorithmen, um diese Distanz zu berechnen.
Der "Happy Path" (auch "Happy Flow" genannt) bezeichnet in der Softwareentwicklung oder im Testing den idealen Ablauf eines Prozesses oder Programms, bei dem alles wie geplant funktioniert, keine Fehler auftreten und alle Eingaben gültig sind.
Wenn du z. B. ein Online-Formular zur Registrierung entwickelst, sieht der Happy Path so aus:
Der Benutzer gibt alle Daten korrekt ein (z. B. gültige E-Mail, sicheres Passwort).
Er klickt auf „Registrieren“.
Das System erstellt erfolgreich einen Account.
Der Benutzer wird zur Willkommensseite weitergeleitet.
➡️ Keine Validierungsfehler, keine Serverprobleme, kein unerwartetes Verhalten.
Erstes Testziel: Beim Entwickeln oder Testen schaut man sich oft zuerst den Happy Path an, um sicherzugehen, dass das Grundgerüst funktioniert.
Basis für Use Cases: In der Dokumentation von Anforderungen oder Prozessen ist der Happy Path oft der zentrale Anwendungsfall, bevor man Sonderfälle beschreibt.
Abgrenzung zu Edge Cases / Error Paths: Alles, was vom Happy Path abweicht (z. B. leeres Passwortfeld, Serverfehler), gehört zu den „unhappy paths“ oder „alternate flows“.
Der Fully Qualified Domain Name (FQDN) ist der vollständige und eindeutige Name eines Computers oder Hosts im Internet oder in einem lokalen Netzwerk. Er besteht aus mehreren Teilen, die eine hierarchische Struktur widerspiegeln.
Ein FQDN setzt sich aus drei Hauptbestandteilen zusammen:
Hostname – Der spezifische Name eines Computers oder Dienstes (z. B. www
).
Domainname – Der Name der übergeordneten Domain (z. B. example
).
Top-Level-Domain (TLD) – Die oberste Ebene der Domainstruktur (z. B. .com
).
Beispiel eines FQDN:
👉 www.example.com.
www
→ Hostname
example
→ Domainname
.com
→ Top-Level-Domain
Der abschließende Punkt (.
) ist optional und steht für die Root-Domain des DNS-Systems.
✅ Eindeutigkeit: Jeder FQDN ist weltweit einzigartig und verweist auf eine bestimmte Ressource im Internet.
✅ DNS-Auflösung: Er wird von DNS-Servern genutzt, um IP-Adressen für Webseiten und Server zu finden.
✅ SSL-Zertifikate: Ein FQDN wird oft in SSL/TLS-Zertifikaten verwendet, um sichere Verbindungen zu gewährleisten.
✅ E-Mail-Zustellung: Mailserver verwenden FQDNs, um Mails an die richtigen Hosts zu senden.
FQDN: mail.google.com
(vollständig spezifiziert)
Einfache Domain: google.com
(kann mehrere Hosts enthalten, z. B. www
, mail
, ftp
)
Zusammengefasst ist der FQDN die vollständige Adresse eines Geräts oder Dienstes im Internet, während eine einfache Domain eine allgemeine Adresse ist.
Ein Rate-Limit ist eine Einschränkung der Anzahl von Anfragen, die ein Benutzer oder ein System innerhalb eines bestimmten Zeitraums an einen Server oder eine API senden darf. Es dient dazu, Überlastungen zu verhindern, Ressourcen fair zu verteilen und Missbrauch (z. B. DDoS-Angriffe oder Spam) zu vermeiden.
Fixed Window – Eine feste Anzahl von Anfragen innerhalb eines Zeitfensters (z. B. max. 100 Anfragen pro Minute).
Sliding Window – Eine gleitende Begrenzung basierend auf den letzten Anfragen.
Token Bucket – Nutzer erhalten eine bestimmte Anzahl von „Tokens“ für Anfragen, die sich mit der Zeit regenerieren.
Leaky Bucket – Anfragen werden in einer Warteschlange verarbeitet, die nur begrenzt abfließen kann.
Eine API erlaubt maximal 60 Anfragen pro Minute pro Benutzer.
Eine Webseite blockiert eine IP nach 10 fehlgeschlagenen Logins in 5 Minuten.
Falls du Rate-Limits in deiner Webentwicklung umsetzen willst, gibt es dafür verschiedene Techniken und Tools wie Redis, NGINX rate limiting oder Middleware in Frameworks wie Laravel oder Express.js.
Ein Spider (auch Webcrawler oder Bot genannt) ist ein automatisiertes Programm, das das Internet durchsucht, um Webseiten zu indexieren. Diese Programme werden oft von Suchmaschinen wie Google, Bing oder Yahoo eingesetzt, um neue oder aktualisierte Inhalte zu entdecken und in den Suchindex aufzunehmen.
Startpunkt: Der Spider beginnt mit einer Liste von URLs, die gecrawlt werden sollen.
Analyse: Er ruft den HTML-Code der Webseite ab und analysiert die Inhalte, Links und Metadaten.
Folgen von Links: Er folgt den auf der Seite gefundenen Links, um neue Seiten zu entdecken.
Speicherung: Die gesammelten Daten werden an die Datenbank der Suchmaschine weitergeleitet, wo sie für die Indexierung verarbeitet werden.
Wiederholung: Der Vorgang wird regelmäßig wiederholt, um aktuelle Inhalte zu erfassen.
Suchmaschinenoptimierung (SEO)
Preisvergleichsportale
Webarchivierung (z. B. durch die Wayback Machine)
Automatische Inhaltsanalyse für KI-Modelle
Manche Webseiten setzen eine robots.txt-Datei ein, um festzulegen, welche Bereiche von einem Spider gecrawlt werden dürfen und welche nicht.
Ein Crawler (auch Webcrawler, Spider oder Bot genannt) ist ein automatisiertes Programm, das das Internet durchsucht und Webseiten analysiert. Es folgt Links von Seite zu Seite und sammelt dabei Informationen.
Suchmaschinen (z. B. Googlebot von Google) – Indizieren Webseiten, damit sie in Suchmaschinen-Ergebnissen erscheinen.
Preisvergleichsportale – Durchsuchen Onlineshops nach aktuellen Preisen und Produkten.
SEO-Tools – Analysieren Webseiten auf technische Fehler oder Verbesserungspotenzial.
Datenanalyse & Monitoring – Beobachten Webseiteninhalte, z. B. für Marktforschung oder Konkurrenzanalysen.
Archivierung – Speichern Webseiten für spätere Referenzen (z. B. Internet Archive).
Startet mit einer Liste von URLs.
Ruft Webseiten auf und speichert Inhalte (Text, Metadaten, Links).
Folgt den Links auf den Seiten und wiederholt den Vorgang.
Speichert oder verarbeitet die gesammelten Daten je nach Zweck.
Viele Webseiten setzen die robots.txt-Datei ein, um zu steuern, welche Inhalte von Crawlern besucht oder ignoriert werden sollen.
Ein Internationalized Resource Identifier (IRI) ist eine erweiterte Version eines Uniform Resource Identifier (URI), die Unicode-Zeichen außerhalb des ASCII-Zeichensatzes unterstützt. Dadurch können auch nicht-lateinische Schriftzeichen (z. B. chinesische, arabische oder kyrillische Zeichen) sowie Sonderzeichen in Webadressen und anderen Identifikatoren verwendet werden.
A-Z
, 0-9
, -
, .
und _
) beschränkt sind, erlauben IRIs Zeichen aus dem gesamten Unicode-Zeichensatz.https://de.wikipedia.org/wiki/Überblick
https://de.wikipedia.org/wiki/%C3%9Cberblick
Ü
als %C3%9C
kodiert)IRIs sind in RFC 3987 definiert und werden in modernen Webtechnologien wie HTML5, XML und RDF unterstützt.
IRIs machen das Internet sprachlich inklusiver, indem sie Webseiten und Ressourcen mit nicht-lateinischen Zeichen leichter zugänglich machen.
Ein Backlink ist ein Link, der von einer externen Website auf deine eigene Website verweist. Man kann sich das wie eine Empfehlung oder einen Verweis vorstellen: Wenn eine andere Website auf deine Seite verlinkt, signalisiert das den Suchmaschinen, dass deine Inhalte relevant und vertrauenswürdig sein könnten.
SEO-Ranking-Faktor:
Suchmaschinen wie Google bewerten Backlinks als eines der wichtigsten Kriterien für die Relevanz und Autorität einer Website. Je mehr hochwertige Backlinks eine Seite hat, desto besser kann sie in den Suchergebnissen ranken.
Traffic-Quelle:
Backlinks bringen direkten Traffic auf deine Seite, wenn Nutzer auf den Link klicken.
Reputation und Vertrauen:
Links von bekannten und vertrauenswürdigen Seiten (z. B. Nachrichtenportalen oder Branchenführern) stärken die Glaubwürdigkeit deiner Website.
DoFollow-Backlinks:
Diese übertragen Linkjuice (Linkkraft), der das SEO-Ranking positiv beeinflusst.
NoFollow-Backlinks:
Diese signalisieren den Suchmaschinen, dass sie dem Link nicht folgen sollen. Sie beeinflussen das Ranking weniger, können aber trotzdem Traffic bringen.
In der Softwareentwicklung bezeichnet Semantik die Bedeutung oder den Zweck von Code oder Daten. Es geht darum, was ein Programm tun soll, im Gegensatz zur Syntax, die beschreibt, wie der Code geschrieben wird.
1. Programmiersprachen:
a = 5
b = 0
print(a / b)
2. HTML-Semantik:
<header> statt <div> für die Kopfzeile einer Webseite.
3. Semantische Modelle: