Etappen der Entwicklung

Problem für Lösung aus Logdateien definieren

Bei einem Logfile, auch als Logdatei oder Protokolldatei bezeichnet, handelt es sich um eine Datei, in der Computerprozesse verschiedene Ereignisse protokollieren. Logfiles sind wichtige Informationsquellen, um die Vorgänge auf einem System nachvollziehbar zu machen. Sie lassen sich für die Problemanalyse oder die Rekonstruktion von verloren gegangenen Daten verwenden

Quellen und Daten für Analyse vorbereiten

Die Logdateien oder Protokolle können in verschiedenen Formaten sein. Als Text, JSON, XML Format sein. Sie können auch trukturiert oder nicht strukturiert sein. Um eine bessere Performance mit Splunk zu erreichen ist nmanchmal notwendig diese Dateien anzupassen. So ein Fall ist wenn man XML Dateien als Protokolle hat

Reports, Dashboards und Alerts mit Splunk entwickeln

Durch Visualisierungen in der Datenanalyse kann das Verständnis der Benutzer für maschinengenerierte Daten beeinträchtigt oder beeinträchtigt werden.

Modelle für ML und KI mit Splunk anwenden

KI und maschinelles Lernen spielen inmitten einer Datenexplosion ihre eigene Rolle. Maschinelles Lernen setzt große Datenmengen voraus, um die Algorithmen so zu trainieren, dass sie sich anpassen und verbessern können. Unternehmen verfügen heute über eine Fülle von Daten - und werden weiterhin immer mehr generieren. Mit AI und ML ist es möglich, diese Daten zu verwenden, um einen Wert zu erzielen, der mit der Analyse durch den Menschen allein nicht möglich ist. Dies führt zu einer verbesserten Effektivität und Produktivität mit neuen Erkenntnissen und einer verbesserten Automatisierung.

Splunk's weltweit Anwendungsfälle

Digitale Täuschungserkennung bei Sandia National Laboratories

Sandia National Laboratories, Teil der US-amerikanischen National Nuclear Security Administration, hat das HADES-System (High Fidelity Adaptive Deception and Emulation System) entwickelt, um zu transformieren, wie sie die heutigen gegnerischen Taktiken angehen, ohne den Gegner zu überraschen - in Echtzeit.

Fortbewegungsdiagnostik bei DB Cargo

DB Cargo, Europas größter Schienengüterverkehrsbetreiber, hat durch die Analyse von Sensordaten von fast 60 verschiedenen Ausgängen Einblick in den Zustand seiner Lokomotivenflotte erhalten und über 7.000 verschiedene Diagnosemeldungen generiert, um auf bestimmte Maßnahmen aufmerksam zu machen.

Was-wäre-wenn-Analyse des Webverkehrs bei ROKT

ROKTs Splunk-Reise begann als zentrales Protokoll-Repository für die E-Commerce-Plattformen der Kunden und hat sich seitdem zum Einsatz von Predictive Analytics für Verbraucheraktivitäten und zur Durchführung von Was-wäre-wenn-Szenario-Analysen für Partner-Websites entwickelt.

Anpassung der Vermögensberatung bei Intelliflo

Intelliflo wandelt mit Splunk Enterprise seinen Ansatz für den Finanzberatungsmarkt um und ermöglicht es den Mitarbeitern, die Bereitstellung von Vermögensverwaltungsdiensten für Kunden zu optimieren, um maßgeschneiderte Anlageempfehlungen zu erhalten.

Hochvolumige Bedrohungsblockierung bei Aflac

Der Versicherungsleiter Aflac hat ein ernstzunehmendes Sicherheitsprogramm entwickelt, das sich an die sich schnell verändernde Bedrohungslandschaft anpasst. Innerhalb eines Zeitraums von sechs Monaten haben sie mehr als zwei Millionen Bedrohungen geblockt (mit weniger als 12 Fehlalarmen!).

Satellitenstrahlkapazitätsüberwachung bei Viasat

Viasat war der Schöpfer des fortschrittlichsten Kommunikationssatelliten im Orbit und setzte ursprünglich Splunk Enterprise ein, um die Auswirkungen der bestehenden Netzwerkbedingungen auf die Kunden zu analysieren. Jetzt nutzt es Splunk für Predictive Analytics, maschinelles Lernen und, ja, die Überwachung der Satellitenstrahlkapazität