bg_image
header

Directory Traversal

Directory Traversal (auch Path Traversal genannt) ist eine Sicherheitslücke in Webanwendungen, bei der ein Angreifer Zugriff auf Dateien oder Verzeichnisse außerhalb des beabsichtigten Verzeichnisses erhält. Dabei nutzt der Angreifer manipulierte Pfadangaben, um sich durch das Dateisystem des Servers zu bewegen.

Wie funktioniert ein Directory Traversal Angriff?

Eine unsichere Webanwendung verarbeitet Dateipfade oft direkt aus Benutzereingaben, z. B. in einer URL wie:

https://example.com/getFile?file=report.pdf

Wenn der Server die Eingabe nicht ausreichend überprüft, könnte ein Angreifer sie manipulieren:

https://example.com/getFile?file=../../../../etc/passwd

Hierbei nutzt der Angreifer ../ (die Parent-Directory-Notation), um sich aus dem vorgesehenen Verzeichnis herauszubewegen und eine Systemdatei wie /etc/passwd (unter Linux) auszulesen.

Gefahren eines erfolgreichen Angriffs

  • Auslesen sensibler Daten (Konfigurationsdateien, Quellcode, Benutzerlisten)
  • Kompromittierung des Servers (wenn z. B. SSH-Keys oder Passwort-Hashes gestohlen werden)
  • Ausführung von Schadcode, falls die Datei modifiziert oder ausgeführt werden kann

Schutzmaßnahmen

  • Eingabevalidierung: Nutzerinput filtern und nur erlaubte Zeichen zulassen
  • Verwendung sicherer Pfade: Keine direkte Verwendung von Benutzereingaben für Dateioperationen
  • Least Privilege Prinzip: Webserver sollten nur minimale Rechte für den Zugriff auf Dateien haben
  • Whitelisting von Dateipfaden: Nur bekannte und erlaubte Dateien abrufen lassen

Bearer Token

Ein Bearer Token ist eine Art von Zugriffstoken, das zur Authentifizierung und Autorisierung in Webanwendungen und APIs verwendet wird. Der Begriff "Bearer" bedeutet „Inhaber“, was bedeutet, dass jeder, der dieses Token besitzt, Zugriff auf die geschützten Ressourcen hat – ohne zusätzliche Überprüfung.

Merkmale eines Bearer Tokens:

  • Selbsttragend: Enthält alle nötigen Informationen zur Authentifizierung.
  • Keine zusätzliche Identitätsprüfung: Wer das Token hat, kann es nutzen.
  • Wird in HTTP-Headern übertragen: Normalerweise als Authorization: Bearer <token>.
  • Oft zeitlich begrenzt: Hat eine Ablaufzeit, um Missbrauch zu reduzieren.
  • Wird häufig mit OAuth 2.0 verwendet: Zum Beispiel bei der Authentifizierung mit Drittanbieterdiensten.

Beispiel einer HTTP-Anfrage mit Bearer Token:

GET /geschuetzte-daten HTTP/1.1
Host: api.example.com
Authorization: Bearer abcdef123456

Risiken:

  • Kein Schutz bei Diebstahl: Wenn jemand das Token abfängt, kann er sich ausgeben.
  • Muss sicher gespeichert werden: Sollte nicht im Client-Code oder in URLs stehen.

💡 Tipp: Um die Sicherheit zu erhöhen, kann man Token mit kurzen Laufzeiten verwenden und sie nur über HTTPS übertragen.

 

 


Open Authorization - OAuth

OAuth (Open Authorization) ist ein offenes Standardprotokoll für Autorisierungen, das es Anwendungen ermöglicht, auf Ressourcen eines Nutzers zuzugreifen, ohne dessen Zugangsdaten (z. B. Passwort) direkt zu kennen. Es wird häufig für Single Sign-On (SSO) und API-Zugriffe verwendet.

Wie funktioniert OAuth?

OAuth arbeitet mit Tokens, die einer Anwendung erlauben, im Namen eines Nutzers auf eine Ressource zuzugreifen. Der typische Ablauf sieht so aus:

  1. Anfrage auf Autorisierung: Eine Anwendung (Client) möchte auf geschützte Daten eines Nutzers zugreifen (z. B. Facebook-Kontakte).
  2. Nutzer-Authentifizierung: Der Nutzer wird zur Anmeldeseite des Anbieters (z. B. Google, Facebook) weitergeleitet und gibt seine Login-Daten ein.
  3. Erteilung einer Erlaubnis: Der Nutzer bestätigt, dass die Anwendung auf bestimmte Daten zugreifen darf.
  4. Token-Erhalt: Die Anwendung erhält ein Access Token, mit dem sie auf die freigegebenen Daten zugreifen kann.
  5. Zugriff auf Ressourcen: Die Anwendung verwendet das Token, um Anfragen an den API-Server zu stellen, ohne das Nutzerpasswort zu kennen.

OAuth 1.0 vs. OAuth 2.0

  • OAuth 1.0: Komplexer mit kryptografischer Signatur, aber sicher.
  • OAuth 2.0: Einfacher, nutzt HTTPS zur Absicherung, wird heute meist verwendet.

Beispiel-Anwendungen von OAuth

  • "Mit Google/Facebook/Apple anmelden"-Buttons
  • Drittanbieter-Apps, die auf APIs von Google Drive, Dropbox oder Twitter zugreifen
  • Zahlungsdienste wie PayPal, die sich in andere Apps integrieren

 


CORS - Cross Origin Resource Sharing

CORS (Cross-Origin Resource Sharing) ist ein Sicherheitsmechanismus, der von Webbrowsern implementiert wird, um zu kontrollieren, welche Webseiten auf Ressourcen von anderen Domains zugreifen dürfen. Standardmäßig blockieren Browser aus Sicherheitsgründen sogenannte Cross-Origin-Anfragen, also Anfragen von einer Webseite an eine andere Domain, ein anderes Protokoll oder einen anderen Port.

Warum gibt es CORS?

Ohne CORS könnten bösartige Webseiten im Hintergrund Anfragen an andere Server senden (z. B. API-Server oder Banking-Seiten), wodurch sensible Daten gestohlen oder missbraucht werden könnten (Cross-Site Request Forgery, CSRF). CORS sorgt dafür, dass nur explizit erlaubte Webseiten auf Ressourcen zugreifen dürfen.

Wie funktioniert CORS?

Wenn eine Webanwendung eine Cross-Origin-Anfrage stellt (z. B. von http://example.com an https://api.example.com), sendet der Browser automatisch eine CORS-Anfrage. Der Server kann dann in den HTTP-Headern antworten, ob die Anfrage erlaubt ist:

  1. Ohne CORS-Header:
    Der Browser blockiert die Anfrage.

  2. Mit CORS-Headern:
    Der Server kann mit Access-Control-Allow-Origin: * (alle Domains) oder einer bestimmten Domain (Access-Control-Allow-Origin: https://example.com) antworten. Damit wird der Zugriff erlaubt.

Preflight-Requests

Für einige Anfragen (z. B. mit PUT, DELETE, speziellen Headern) führt der Browser einen Preflight-Request mit der OPTIONS-Methode aus. Der Server muss dann mit den richtigen CORS-Headern antworten, um die Hauptanfrage zu ermöglichen.

Fazit

CORS ist eine wichtige Sicherheitsmaßnahme, die verhindert, dass unerlaubte Webseiten auf fremde Ressourcen zugreifen. Entwickler müssen serverseitig die richtigen Header setzen, um den Zugriff für legitime Clients zu erlauben.


Dynamic HTML - DHTML

Dynamic HTML (DHTML) ist eine Kombination von Technologien, die verwendet wird, um interaktive und dynamische Webinhalte zu erstellen. Es ist kein eigenständiger Standard oder eine Programmiersprache, sondern eine Sammlung von Techniken und Tools, die zusammenarbeiten. Mit DHTML können Websites dynamisch und interaktiv gestaltet werden, ohne dass die gesamte Seite neu geladen werden muss.

Die Bestandteile von DHTML

  1. HTML (Hypertext Markup Language)
    Die Grundstruktur der Website.

  2. CSS (Cascading Style Sheets)
    Steuert das Aussehen und das Layout der Webseite. Mit CSS können Stile dynamisch verändert werden, z. B. durch Hover-Effekte oder das Ändern von Farben und Positionen.

  3. JavaScript
    Ermöglicht das Hinzufügen von Interaktivität und dynamischem Verhalten, wie das Aktualisieren von Inhalten, ohne die Seite neu zu laden.

  4. DOM (Document Object Model)
    Eine Programmierschnittstelle, die den Zugriff auf und die Manipulation der Struktur der Webseite ermöglicht. JavaScript interagiert mit dem DOM, um Inhalte zu ändern oder neue Elemente hinzuzufügen.

Was macht DHTML besonders?

  • Interaktivität: Inhalte und Stile können auf Benutzereingaben reagieren.
  • Animationen: Elemente wie Text oder Bilder können sich bewegen oder animiert werden.
  • Veränderte Inhalte: Teile der Webseite können dynamisch aktualisiert werden, ohne die Seite neu zu laden.
  • Benutzerfreundlichkeit: Verbessert die Nutzererfahrung durch Echtzeit-Aktionen.

Beispiel für DHTML:

Ein einfaches Beispiel wäre ein Button, der beim Anklicken den Text auf der Seite ändert.

<!DOCTYPE html>
<html>
<head>
    <style>
        #text {
            color: blue;
            font-size: 20px;
        }
    </style>
    <script>
        function changeText() {
            document.getElementById("text").innerHTML = "Text geändert!";
            document.getElementById("text").style.color = "red";
        }
    </script>
</head>
<body>
    <p id="text">Originaler Text</p>
    <button onclick="changeText()">Klicke mich</button>
</body>
</html>

Vorteile von DHTML:

  • Erhöht die Interaktivität und Dynamik einer Website.
  • Reduziert die Serverbelastung, da weniger Seiten-Neuladen erforderlich ist.
  • Ermöglicht individuelle Anpassungen für Benutzer.

Nachteile:

  • Kann bei älteren Browsern oder Geräten zu Inkompatibilitäten führen.
  • Erfordert mehr Entwicklungsaufwand und komplexeres Debugging.
  • Abhängig von JavaScript, das von Benutzern deaktiviert sein könnte.

Heutzutage hat DHTML durch modernere Techniken wie AJAX und Frameworks (z. B. React, Vue.js) an Bedeutung verloren, war jedoch ein wichtiger Schritt in der Entwicklung interaktiver Webanwendungen.

 

 


SonarQube

SonarQube ist ein Open-Source-Tool zur kontinuierlichen Analyse und Qualitätssicherung von Quellcode. Es hilft Entwicklern und Teams, die Codequalität zu bewerten, Schwachstellen zu identifizieren und Best Practices in der Softwareentwicklung zu fördern.

Hauptfunktionen:

  1. Codequalität prüfen:

    • SonarQube analysiert Quellcode und bewertet Aspekte wie Lesbarkeit, Wartbarkeit und Architekturqualität.
    • Es erkennt potenzielle Probleme wie Code-Duplikate, nicht genutzte Variablen oder komplexe Methoden.
  2. Sicherheitslücken aufdecken:

  3. Technische Schulden bewerten:

    • Technische Schulden sind die Aufwände, die nötig wären, um den Code auf einen optimalen Zustand zu bringen.
    • SonarQube visualisiert diese Schulden, um Priorisierungen zu erleichtern.
  4. Unterstützung für viele Programmiersprachen:

    • Es unterstützt mehr als 20 Sprachen, darunter Java, Python, JavaScript, C#, C++, PHP und viele mehr.
  5. Integration in CI/CD-Pipelines:

    • SonarQube lässt sich leicht in Tools wie Jenkins, GitLab CI/CD oder Azure DevOps integrieren.
    • Dadurch kann Code bei jedem Commit oder vor einem Release geprüft werden.
  6. Berichte und Dashboards:

    • Es bietet übersichtliche Dashboards mit Metriken, Trends und Detailanalysen.
    • Entwickler können leicht erkennen, wo Verbesserungen nötig sind.

Einsatzbereiche:

  • Unternehmen: Zur Sicherstellung der Codequalität und Einhaltung von Sicherheitsstandards in großen Softwareprojekten.
  • Teams: Für eine kontinuierliche Verbesserung des Codes und zur Förderung guter Entwicklungspraktiken.
  • Einzelentwickler: Als Lernwerkzeug, um besseren Code zu schreiben.

SonarQube ist in einer kostenlosen Community-Edition und in kommerziellen Versionen mit erweiterten Funktionen verfügbar (z. B. für größere Teams oder spezielle Sicherheitsanalysen).

 


Renovate

Renovate ist ein Open-Source-Tool, das den Prozess der Abhängigkeitsverwaltung automatisiert. Es überwacht kontinuierlich die Abhängigkeiten eines Softwareprojekts (wie npm, Maven, Docker) und erstellt Pull Requests, um veraltete Pakete zu aktualisieren. So bleibt das Projekt auf dem neuesten Stand und sicher.

Hauptfunktionen umfassen:

  1. Automatische Abhängigkeits-Updates: Renovate erkennt veraltete oder unsichere Abhängigkeiten und erstellt Pull Requests mit den Updates.
  2. Anpassbare Konfiguration: Man kann konfigurieren, wann und wie Updates durchgeführt werden sollen, z.B. nach Zeitplänen oder mit automatischem Zusammenführen.
  3. Unterstützung für Monorepos: Ideal für große Projekte oder Teams mit mehreren Paketen.
  4. Sicherheitswarnungen: Renovate integriert Datenbanken zu Sicherheitslücken und informiert über Probleme bei Abhängigkeiten.

Es hilft, technische Schulden zu reduzieren und Sicherheitslücken durch Drittabhängigkeiten zu minimieren, was es besonders bei GitHub, GitLab und Bitbucket beliebt macht.

 


GitHub Copilot

GitHub Copilot ist ein KI-gestützter Code-Assistent, der von GitHub in Zusammenarbeit mit OpenAI entwickelt wurde. Es verwendet maschinelles Lernen, um Entwicklern bei der Programmierung zu helfen, indem es Code-Vorschläge in Echtzeit direkt in die Entwicklungsumgebung (IDE) einfügt. Copilot wurde entwickelt, um die Produktivität zu steigern, indem es automatisch Code-Blöcke, Funktionen und sogar vollständige Algorithmen basierend auf dem Kontext und den Eingaben des Entwicklers vorschlägt.

Funktionen von GitHub Copilot:

  1. Code-Vervollständigung: Copilot schlägt nicht nur einzelne Codezeilen vor, sondern kann auch ganze Blöcke, Methoden oder Funktionen basierend auf der aktuellen Codebasis und den Kommentaren vervollständigen.
  2. Unterstützung mehrerer Programmiersprachen: Copilot funktioniert mit einer Vielzahl von Sprachen wie JavaScript, Python, TypeScript, Ruby, Go, C#, und vielen weiteren.
  3. Integration in IDEs: Es lässt sich nahtlos in beliebte IDEs wie Visual Studio Code und JetBrains IDEs integrieren.
  4. Kontextbezogene Vorschläge: Es analysiert den umgebenden Code und kann auf diese Weise Vorschläge machen, die den Entwicklungsfluss unterstützen, anstatt zufällige Snippets anzubieten.

Wie funktioniert GitHub Copilot?

GitHub Copilot basiert auf einem maschinellen Lernmodell namens Codex, das von OpenAI entwickelt wurde. Codex ist auf Milliarden von Zeilen öffentlichem Code trainiert und in der Lage, verschiedene Programmierkonzepte zu verstehen und anzuwenden. Die Vorschläge von Copilot basieren auf den Kommentaren, den Funktionsnamen und dem aktuellen Kontext in der Datei, die der Entwickler bearbeitet.

Vorteile:

  • Erhöhte Produktivität: Entwickler sparen Zeit bei repetitiven Aufgaben und Standardcode.
  • Lernhilfe: Copilot kann Vorschläge zu Code machen, den der Entwickler möglicherweise nicht kennt, und hilft so beim Lernen neuer Sprachfeatures oder Bibliotheken.
  • Schnelles Prototyping: Durch die automatische Code-Vervollständigung wird es einfacher, Ideen schnell in Code umzusetzen.

Nachteile und Herausforderungen:

  • Qualität der Vorschläge: Da Copilot auf vorhandenen Daten trainiert wurde, können die Vorschläge variieren und nicht immer optimal sein.
  • Sicherheitsrisiken: Es besteht die Gefahr, dass Copilot Code vorschlägt, der Schwachstellen enthält, da es auf Open-Source-Code basiert.
  • Copyright-Fragen: Es gibt Diskussionen darüber, ob der auf Copilot trainierte Code die Lizenzbedingungen des zugrunde liegenden Open-Source-Codes verletzt.

Verfügbarkeit:

GitHub Copilot ist als kostenpflichtiger Dienst erhältlich, bietet aber auch eine kostenlose Testphase und vergünstigte Optionen für Studenten und Open-Source-Entwickler an.

Best Practices für die Nutzung:

  • Review der Vorschläge: Entwickler sollten jeden Vorschlag überprüfen, bevor er in das Projekt integriert wird.
  • Verständnis des vorgeschlagenen Codes: Da Copilot Code generiert, den der Benutzer möglicherweise nicht sofort versteht, ist es wichtig, den generierten Code zu hinterfragen und zu analysieren.

GitHub Copilot hat das Potenzial, die Art und Weise, wie Entwickler arbeiten, grundlegend zu verändern. Allerdings sollte es als Assistent und nicht als Ersatz für das eigene Verständnis und die Sorgfalt im Entwicklungsprozess gesehen werden.

 


Exakat

Exakat ist ein statisches Analyse-Tool für PHP, das speziell entwickelt wurde, um die Codequalität zu verbessern und Best Practices in PHP-Projekten sicherzustellen. Ähnlich wie Psalm konzentriert es sich auf die Analyse von PHP-Code, bietet jedoch einige einzigartige Funktionen und Analysen, um Entwicklern zu helfen, Fehler zu erkennen und ihre Anwendungen effizienter und sicherer zu machen.

Hier sind einige der Hauptfunktionen von Exakat:

  1. Code-Qualität und Best Practices: Exakat analysiert den Code basierend auf empfohlenen PHP-Best-Practices und stellt sicher, dass er den aktuellen Standards entspricht.
  2. Sicherheitsanalyse: Das Tool identifiziert potenzielle Sicherheitslücken im Code, wie SQL-Injections, Cross-Site-Scripting (XSS) oder andere Schwachstellen.
  3. Kompatibilitätsprüfungen: Exakat überprüft, ob der PHP-Code mit verschiedenen PHP-Versionen kompatibel ist. Das ist besonders nützlich, wenn eine Anwendung auf eine neue PHP-Version aktualisiert wird.
  4. Erkennung von totem Code: Es identifiziert ungenutzte Variablen, Methoden oder Klassen, die entfernt werden können, um den Code sauberer und leichter wartbar zu machen.
  5. Dokumentationsanalyse: Es überprüft, ob der Code gut dokumentiert ist und ob die vorhandene Dokumentation mit dem tatsächlichen Code übereinstimmt.
  6. Berichterstattung: Exakat erstellt detaillierte Berichte über den Zustand des Codes, einschließlich Metriken zur Codequalität, Sicherheitslücken und potenziellen Verbesserungen.

Exakat kann als eigenständiges Tool oder in eine Continuous Integration (CI)-Pipeline integriert werden, um sicherzustellen, dass Code kontinuierlich auf Qualität und Sicherheit überprüft wird. Es ist ein vielseitiges Werkzeug für PHP-Entwickler, die ihren Code verbessern und auf einem hohen Standard halten möchten.

 


Painless

Painless ist eine in Elasticsearch eingebaute Skriptsprache, die für effiziente und sichere Ausführung von Skripten entwickelt wurde. Sie bietet die Möglichkeit, benutzerdefinierte Berechnungen und Transformationen in Elasticsearch durchzuführen. Hier sind einige wichtige Merkmale und Anwendungen von Painless:

Merkmale von Painless:

  1. Performance: Painless ist auf Geschwindigkeit optimiert und führt Skripte sehr effizient aus.

  2. Sicherheit: Painless ist so konzipiert, dass es sicher ist. Es schränkt den Zugriff auf gefährliche Operationen ein und verhindert potenziell schädliche Skripte.

  3. Syntax: Painless verwendet eine Java-ähnliche Syntax, was es Entwicklern, die mit Java vertraut sind, leicht macht, es zu erlernen und zu verwenden.

  4. Eingebaute Typen und Funktionen: Painless bietet eine Vielzahl von eingebauten Typen und Funktionen, die für die Arbeit mit Daten in Elasticsearch nützlich sind.

  5. Integration mit Elasticsearch: Painless ist tief in Elasticsearch integriert und kann in verschiedenen Bereichen wie Suchen, Aggregationen, Aktualisierungen und Ingest Pipelines verwendet werden.

Anwendungen von Painless:

  1. Skripting in Suchanfragen: Painless kann verwendet werden, um benutzerdefinierte Berechnungen in Suchanfragen durchzuführen. Zum Beispiel können Sie Scores anpassen oder benutzerdefinierte Filter erstellen.

  2. Skripting in Aggregationen: Sie können Painless verwenden, um benutzerdefinierte Metriken und Berechnungen in Aggregationen durchzuführen, was Ihnen hilft, tiefergehende Analysen durchzuführen.

  3. Aktualisierungen: Painless kann in Update-Skripten verwendet werden, um Dokumente in Elasticsearch zu aktualisieren. Dies ermöglicht es, komplexe Update-Operationen durchzuführen, die über einfache Feldzuweisungen hinausgehen.

  4. Ingest Pipelines: Painless kann in Ingest Pipelines verwendet werden, um Dokumente während der Indexierung zu transformieren. Dies ermöglicht die Durchführung von Berechnungen oder Datenanreicherungen, bevor die Daten im Index gespeichert werden.

Beispiel eines einfachen Painless-Skripts:

Hier ist ein einfaches Beispiel für ein Painless-Skript, das in einer Elasticsearch-Suchanfrage verwendet wird, um ein benutzerdefiniertes Feld zu berechnen:

{
  "query": {
    "match_all": {}
  },
  "script_fields": {
    "custom_score": {
      "script": {
        "lang": "painless",
        "source": "doc['field1'].value + doc['field2'].value"
      }
    }
  }
}

In diesem Beispiel erstellt das Skript ein neues Feld custom_score, das die Summe von field1 und field2 für jedes Dokument berechnet.

Painless ist eine mächtige Skriptsprache in Elasticsearch, die es ermöglicht, benutzerdefinierte Logik effizient und sicher zu implementieren.

 

 


Zufalls-Technologie

Simple Storage Service - S3


0 ZJY5ek7vRUSO1Q13.png