SVG steht für Scalable Vector Graphics und ist ein XML-basiertes Dateiformat, das verwendet wird, um 2D-Grafiken zu beschreiben. Es ermöglicht die Darstellung von Vektorgrafiken, die sich ohne Qualitätsverlust skalieren lassen. SVG wird häufig in Webdesigns verwendet, da es eine hohe Auflösung bei jeder Größe bietet und leicht in Webseiten integriert werden kann.
Ein paar wichtige Merkmale von SVG:
Vektorbasiert: SVG-Grafiken bestehen aus Linien, Kurven und Formen, die mathematisch definiert sind, im Gegensatz zu Rastergrafiken (wie JPEG oder PNG), die aus Pixeln bestehen.
Skalierbarkeit: Da SVG-Grafiken auf Vektoren basieren, können sie ohne Verlust der Bildqualität auf jede Größe skaliert werden, was sie besonders für responsive Designs geeignet macht.
Interaktivität und Animation: SVG unterstützt Interaktivität (z. B. durch JavaScript) und Animationen (z. B. durch CSS oder SMIL).
Suchmaschinenfreundlich: Der Inhalt einer SVG-Datei ist textbasiert und kann von Suchmaschinen indexiert werden, was SEO-Vorteile bieten kann.
Kompatibilität: SVG-Dateien können in den meisten modernen Webbrowsern angezeigt werden und eignen sich hervorragend für Logos, Icons und Diagramme.
SLD (Styled Layer Descriptor) ist ein XML-basiertes Standardformat, das von der Open Geospatial Consortium (OGC) entwickelt wurde. Es dient dazu, die Darstellung (also das Styling) von georäumlichen Daten in Web-Kartendiensten wie WMS (Web Map Service) zu beschreiben.
SLD beschreibt wie bestimmte Geodaten auf einer Karte visualisiert werden sollen – also Farben, Linien, Symbole, Beschriftungen usw. Du kannst damit zum Beispiel festlegen:
Straßen sollen rot dargestellt werden.
Gewässer in Blau, mit einer bestimmten Transparenz.
Punkte mit Symbolen anzeigen, die je nach Attributwert (z. B. Bevölkerung) unterschiedlich aussehen.
Texte (Labels) über Features schreiben.
SLD ist eine XML-Datei mit einer bestimmten Struktur.
Sie kann von WMS-Servern wie GeoServer oder MapServer gelesen werden.
Die Datei enthält Rules, Filters und Symbolizer, z. B. LineSymbolizer
, PolygonSymbolizer
oder TextSymbolizer
.
<Rule>
<Name>Wasserflächen</Name>
<PolygonSymbolizer>
<Fill>
<CssParameter name="fill">#0000FF</CssParameter>
</Fill>
</PolygonSymbolizer>
</Rule>
Um Karten individuell zu gestalten (z. B. thematische Karten).
Um Styling unabhängig vom Client zu definieren – der Server liefert die Karten gleich richtig gestylt.
Für interaktive Web-GIS-Anwendungen, die flexibel auf Attributwerte reagieren.
Wenn du mit Geodaten arbeitest – z. B. in QGIS oder GeoServer – wirst du früher oder später auf SLD stoßen, vor allem wenn du das Kartenbild präzise kontrollieren willst.
Die SLD (Second Level Domain) ist der Teil eines Domainnamens, der direkt links von der Top-Level-Domain (TLD) steht.
In der Domain
👉 example.com
.com
ist die TLD (Top-Level-Domain).
example
ist die SLD (Second-Level-Domain).
Ebene | Beispiel |
---|---|
Top-Level-Domain | .com |
Second-Level-Domain | example |
Subdomain (optional) | www. oder z. B. blog. |
Domain | SLD | TLD |
---|---|---|
google.de |
google |
.de |
wikipedia.org |
wikipedia |
.org |
meinshop.example.com |
example |
.com |
Die SLD ist meist der individuell gewählte Teil, z. B. der Name eines Unternehmens, einer Marke oder eines Projekts – also der wichtigste Teil für die Wiedererkennung.
Ein Hyperscaler ist ein Unternehmen, das Cloud-Dienste in extrem großem Maßstab anbietet – also IT-Infrastruktur wie Rechenleistung, Speicher und Netzwerke, die flexibel, hochverfügbar und global skalierbar sind. Typische Beispiele für Hyperscaler sind:
Microsoft Azure
Google Cloud Platform (GCP)
Alibaba Cloud
IBM Cloud (in etwas kleinerem Maßstab)
Massive Skalierbarkeit
Sie können ihre Dienste quasi unbegrenzt nach oben oder unten skalieren – je nach Bedarf des Kunden.
Globale Infrastruktur
Rechenzentren sind weltweit verteilt, was eine hohe Verfügbarkeit, niedrige Latenzen und Redundanz ermöglicht.
Automatisierung & Standardisierung
Vieles ist automatisiert (z. B. Bereitstellung, Überwachung, Abrechnung), wodurch Services effizienter und günstiger angeboten werden können.
Self-Service & Pay-as-you-go
Kunden buchen Services meist über Webportale oder APIs und zahlen nur für die tatsächlich genutzten Ressourcen.
Innovationsplattform
Hyperscaler bieten nicht nur Infrastruktur (IaaS), sondern auch Plattformdienste (PaaS) und KI-, Big-Data- oder IoT-Services.
Hosting von Websites oder Webanwendungen
Datenspeicherung (z. B. Backups, Archive)
Big-Data-Analysen
Machine Learning / AI
Streamingdienste
Unternehmens-IT-Infrastruktur
Vite ist ein modernes Build-Tool und Entwicklungsserver für Webanwendungen, das von Evan You, dem Schöpfer von Vue.js, entwickelt wurde. Es ist darauf ausgelegt, die Entwicklungs- und Build-Prozesse schneller und effizienter zu gestalten. Der Name "Vite" stammt vom französischen Wort für "schnell" und spiegelt das Hauptziel der Software wider: eine blitzschnelle Entwicklungsumgebung.
Die Hauptmerkmale von Vite sind:
Schneller Entwicklungsserver: Vite nutzt die modernen ES-Module (ESM) und bietet durch diese Technik einen ultraschnellen Entwicklungsserver. Es wird nur das neueste Modul geladen, was die Initialisierung deutlich schneller macht als traditionelle Bundler.
Hot Module Replacement (HMR): Der HMR funktioniert extrem schnell, indem er nur die geänderten Module aktualisiert, ohne die gesamte Anwendung neu zu laden.
Modernes Build-System: Vite verwendet Rollup unter der Haube, um die endgültige Produktion zu bundeln, was optimierte und effizientere Builds ermöglicht.
Zero-Konfiguration: Vite ist sehr benutzerfreundlich und erfordert keine umfangreiche Konfiguration. Es funktioniert sofort mit der Standard-Konfiguration, wobei es viele gängige Web-Technologien out-of-the-box unterstützt (z. B. Vue.js, React, TypeScript, CSS-Preprozessoren usw.).
Optimierte Produktion: Für die Produktion wird Rollup verwendet, das für seine effizienten und optimierten Bundles bekannt ist.
Vite richtet sich hauptsächlich an moderne Web-Anwendungen und ist besonders beliebt bei Entwicklern, die mit Frameworks wie Vue, React oder Svelte arbeiten.
Memcached ist ein verteiltes In-Memory-Caching-System, das häufig zur Beschleunigung von Webanwendungen eingesetzt wird. Es speichert häufig abgefragte Daten temporär im Arbeitsspeicher, um teure Datenbankabfragen oder API-Aufrufe zu vermeiden.
Schlüssel-Wert-Speicher: Daten werden als Key-Value-Paare gespeichert.
In-Memory: Läuft vollständig im RAM, daher extrem schnell.
Verteilt: Unterstützt mehrere Server (Cluster), um die Last zu verteilen.
Einfach: Bietet eine minimalistische API mit grundlegenden Operationen wie set
, get
, delete
.
Eviction (Ablaufstrategie): Verwendet LRU (Least Recently Used), um alte Daten bei Speicherüberlastung zu löschen.
Caching von Datenbankabfragen: Reduziert die Last auf Datenbanken wie MySQL oder PostgreSQL.
Session-Management: Speichert Benutzersitzungen bei skalierbaren Web-Apps.
Temporäre Datenspeicherung: Z.B. für API-Rate-Limiting oder kurze Zwischenspeicher.
Memcached: Schneller bei einfachen Key-Value-Speichern, skaliert gut horizontal.
Redis: Bietet mehr Features wie persistente Speicherung, Listen, Hashes, Sets und Pub/Sub.
sudo apt update && sudo apt install memcached
sudo systemctl start memcached
Mit PHP oder Python kann Memcached über entsprechende Libraries verwendet werden.
Ein Spider (auch Webcrawler oder Bot genannt) ist ein automatisiertes Programm, das das Internet durchsucht, um Webseiten zu indexieren. Diese Programme werden oft von Suchmaschinen wie Google, Bing oder Yahoo eingesetzt, um neue oder aktualisierte Inhalte zu entdecken und in den Suchindex aufzunehmen.
Startpunkt: Der Spider beginnt mit einer Liste von URLs, die gecrawlt werden sollen.
Analyse: Er ruft den HTML-Code der Webseite ab und analysiert die Inhalte, Links und Metadaten.
Folgen von Links: Er folgt den auf der Seite gefundenen Links, um neue Seiten zu entdecken.
Speicherung: Die gesammelten Daten werden an die Datenbank der Suchmaschine weitergeleitet, wo sie für die Indexierung verarbeitet werden.
Wiederholung: Der Vorgang wird regelmäßig wiederholt, um aktuelle Inhalte zu erfassen.
Suchmaschinenoptimierung (SEO)
Preisvergleichsportale
Webarchivierung (z. B. durch die Wayback Machine)
Automatische Inhaltsanalyse für KI-Modelle
Manche Webseiten setzen eine robots.txt-Datei ein, um festzulegen, welche Bereiche von einem Spider gecrawlt werden dürfen und welche nicht.
Ein Crawler (auch Webcrawler, Spider oder Bot genannt) ist ein automatisiertes Programm, das das Internet durchsucht und Webseiten analysiert. Es folgt Links von Seite zu Seite und sammelt dabei Informationen.
Suchmaschinen (z. B. Googlebot von Google) – Indizieren Webseiten, damit sie in Suchmaschinen-Ergebnissen erscheinen.
Preisvergleichsportale – Durchsuchen Onlineshops nach aktuellen Preisen und Produkten.
SEO-Tools – Analysieren Webseiten auf technische Fehler oder Verbesserungspotenzial.
Datenanalyse & Monitoring – Beobachten Webseiteninhalte, z. B. für Marktforschung oder Konkurrenzanalysen.
Archivierung – Speichern Webseiten für spätere Referenzen (z. B. Internet Archive).
Startet mit einer Liste von URLs.
Ruft Webseiten auf und speichert Inhalte (Text, Metadaten, Links).
Folgt den Links auf den Seiten und wiederholt den Vorgang.
Speichert oder verarbeitet die gesammelten Daten je nach Zweck.
Viele Webseiten setzen die robots.txt-Datei ein, um zu steuern, welche Inhalte von Crawlern besucht oder ignoriert werden sollen.
Die Fetch API ist eine moderne JavaScript-Schnittstelle für das Abrufen von Ressourcen über das Netzwerk, z. B. für HTTP-Requests an eine API oder das Laden von Daten von einem Server. Sie ersetzt weitgehend die ältere XMLHttpRequest
-Methode und bietet eine einfachere, flexiblere und leistungsfähigere Möglichkeit, Netzwerkabfragen zu verwalten.
fetch('https://jsonplaceholder.typicode.com/posts/1')
.then(response => response.json()) // Antwort als JSON umwandeln
.then(data => console.log(data)) // Daten ausgeben
.catch(error => console.error('Fehler:', error)); // Fehlerbehandlung
Ein Request mit POST-Methode
fetch('https://jsonplaceholder.typicode.com/posts', {
method: 'POST',
headers: {
'Content-Type': 'application/json'
},
body: JSON.stringify({ title: 'Neuer Beitrag', body: 'Inhalt des Beitrags', userId: 1 })
})
.then(response => response.json())
.then(data => console.log(data))
.catch(error => console.error('Fehler:', error));
✅ Einfachere Syntax als XMLHttpRequest
✅ Unterstützt async/await
für bessere Lesbarkeit
✅ Flexibles Handling von Requests und Responses
✅ Bessere Fehlerbehandlung durch Promises
Die Fetch API ist mittlerweile in allen modernen Browsern verfügbar und eine essentielle Technik für die Webentwicklung.
Eine Single Page Application (SPA) ist eine Webanwendung, die vollständig innerhalb einer einzigen HTML-Seite läuft. Statt bei jeder Benutzerinteraktion eine neue Seite vom Server zu laden, werden Inhalte dynamisch über JavaScript aktualisiert. Dies führt zu einer schnellen, flüssigen Benutzererfahrung, ähnlich wie bei nativen Apps.
✅ Schnelle Ladezeiten nach dem ersten Aufruf
✅ Bessere Benutzererfahrung (keine Seiten-Neuladungen)
✅ Offline-Funktionalität durch Service Worker möglich
❌ Erster Ladevorgang kann langsam sein (größerer JavaScript-Bundle)
❌ SEO-Probleme (da Inhalte oft erst per JavaScript geladen werden)
❌ Komplexere Implementierung, insbesondere bei Sicherheit und Routing
Typische Frameworks für SPAs sind React, Angular und Vue.js.