Data Science Glossar

Dieser Data Science Glossar gibt einen kurzen Streifzug über die Welt der Datenwissenschaft. Sinn und Zweck ist die persönliche Einarbeitung in das Thema Data Science. Das Glossar ist alphabetisch geordnet und hat Sprungmarker. Gewisse Fachbegriffe werden nochmals genauer auf einer separaten Seite erläutert.

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

A

Algorithmus

Ein Algorithmus ist eine Anweisungsfolge, die spezifische Schritte beschreibt, die ausgeführt werden müssen, um eine bestimmte Aufgabe zu erledigen. Algorithmen werden in vielen Bereichen eingesetzt, zum Beispiel in der Mathematik, Informatik und Logistik, um Probleme zu lösen oder Aufgaben durchzuführen. Ein Algorithmus besteht aus klar definierten Schritten, die in einer bestimmten Reihenfolge ausgeführt werden müssen, um das gewünschte Ergebnis zu erzielen. Ein Algorithmus kann von einem Menschen oder einer Maschine ausgeführt werden.

Artificial Intelligence

Artificial Intelligence (KI) ist die Fähigkeit von Computern, menschenähnliche Aufgaben zu erledigen, die bisher nur Menschen erledigen konnten. Dies beinhaltet die Verarbeitung von Informationen, das Lernen von Muster und das Treffen von Entscheidungen. KI ist in der Lage, Daten zu analysieren und Muster zu erkennen, um Probleme zu lösen und Entscheidungen zu treffen. Es wird häufig in Bereichen wie der Robotik, der Sprachverarbeitung und der Bilderkennung eingesetzt.

AI Literacy
AI Literacy bedeutet, dass man über das Verständnis und die Fähigkeiten verfügt, um künstliche Intelligenz (KI) zu verstehen und zu nutzen. Es umfasst die Kenntnis von verschiedenen KI-Technologien und Anwendungen sowie die Fähigkeit, sie zu entwickeln und zu implementieren. Die AI Literacy ist wichtig, um die Potenziale und Risiken von KI zu verstehen und sie verantwortungsvoll nutzen zu können.

B

Backend

Ein Backend ist der Teil einer Anwendung oder eines Systems, der für die Verarbeitung von Daten, die Verwaltung von Prozessen und die Kommunikation mit anderen Anwendungen oder Systemen zuständig ist. Es ist im Allgemeinen für Benutzer nicht sichtbar und wird normalerweise von Entwicklern genutzt.

Big Data

Big Data ist ein Begriff, der sich auf sehr grosse Mengen an strukturierten und unstrukturierten Daten bezieht, die von Unternehmen und Organisationen auf der ganzen Welt gesammelt werden. Diese Daten werden verwendet, um Muster und Trends zu erkennen, die für das Unternehmen von Interesse sein könnten, und um Entscheidungen auf der Grundlage dieser Informationen zu treffen. Big Data ist ein wichtiger Teil der digitalen Transformation vieler Unternehmen und spielt eine wichtige Rolle bei der Verbesserung von Geschäftsprozessen, der Entwicklung von Produkten und der Erhöhung der Effizienz.

Business Analytics 

Business Analytics ist die Nutzung von Daten, Statistiken und Analysemethoden, um Unternehmen bei der Entscheidungsfindung und der Verbesserung von Geschäftsprozessen zu unterstützen. Es beinhaltet die Überwachung und Analyse von Unternehmensdaten, um Trends und Muster zu erkennen und die Leistung des Unternehmens zu verbessern. Es hilft Unternehmen, ihre Strategien und Entscheidungen auf solide Datenbasis zu stützen und so ihre Geschäftsergebnisse zu verbessern.

Business Intelligence (BI) 

Business Intelligence (BI) ist eine Sammlung von Tools, Methoden und Technologien, die Unternehmen dabei helfen, ihre Daten und Informationen zu sammeln, zu analysieren und zu visualisieren, um bessere Entscheidungen treffen zu können. Es dient dazu, die Geschäftsleistung zu verbessern und die Zukunft des Unternehmens zu planen. BI hilft Unternehmen, ihre Daten in verständliche und nutzbare Informationen umzuwandeln, umso bessere Entscheidungen treffen zu können.

Business Intelligence Analyst (BI Analyst) 

Ein Business Intelligence Analyst, auch als BI Analyst bezeichnet, ist eine Person, die sich mit der Analyse von Unternehmensdaten befasst, um die Leistung und Effizienz eines Unternehmens zu verbessern. Dieser Analytiker sammelt und analysiert grosse Mengen von Daten aus verschiedenen Quellen, um Trends und Muster zu identifizieren, die dem Management von Unternehmen wichtige Einblicke und Entscheidungsgrundlagen liefern.

C

Clustering

Clustering ist ein Verfahren in der Datenanalyse, bei dem ähnliche oder zusammengehörige Datenpunkte in Gruppen („Cluster“) zusammengefasst werden. Diese Gruppen werden dann möglichst homogen und möglichst heterogen zu den anderen Gruppen sein. Das Ziel von Clustering ist es, Muster und Strukturen in den Daten zu entdecken und diese für weitere Analyse und Interpretation nutzen zu können.

Convolutional Neural Networks (CNNs)

CNNs sind spezielle Arten von neuronale Netzwerke, die für das Erkennen von Muster und Bilder verwendet werden. Sie nutzen Filter, um wichtige Informationen aus den Bildern zu extrahieren und zu verarbeiten, um zu entscheiden, was in dem Bild dargestellt wird. Sie werden häufig in der Bilderkennung und in der automatischen Sprachübersetzung verwendet.

Customer Analytics

Customer Analytics ist ein Bereich der Datenanalyse, der sich mit der Sammlung, Analyse und Nutzung von Kundendaten befasst, um Kundenverhalten und -trends zu verstehen und zu prognostizieren. Ziel ist es, Kundenerfahrungen zu verbessern und Unternehmensergebnisse zu optimieren.

D

Daten

Daten sind Informationen, die in einer strukturierten Form gespeichert werden. Sie können in verschiedenen Formaten vorliegen, wie Text, Zahlen, Bilder oder Videos. Daten werden oft verwendet, um Muster oder Trends zu erkennen, Entscheidungen zu treffen oder Prozesse zu optimieren.

Datenanalyse 

Eine Datenanalyse ist ein Prozess, bei dem man grosse Mengen von Daten sammelt, strukturiert und auswertet, um Erkenntnisse und Einsichten zu gewinnen. Diese Erkenntnisse und Einsichten können dann verwendet werden, um Probleme zu lösen, Entscheidungen zu treffen oder um Muster und Trends in den Daten zu entdecken. Die Datenanalyse kann manuell oder mithilfe von speziellen Software-Tools durchgeführt werden.

Data Analyst 

Ein Data Analyst ist jemand, der Daten sammelt, analysiert und interpretiert, um daraus Erkenntnisse und Empfehlungen für ein Unternehmen oder eine Organisation zu gewinnen. Sie nutzen häufig spezielle Software und Statistikwerkzeuge, um Muster und Trends in den Daten zu erkennen und zu verstehen, um diese Informationen für die Entscheidungsfindung und Verbesserung von Geschäftsprozessen zu nutzen.

Data Awareness 

Data Awareness ist die Kenntnis und Verständnis von Daten und deren Bedeutung und Verwendung. Es beinhaltet das Wissen über die Herkunft, Qualität und Sicherheit von Daten, sowie die Fähigkeit, diese effektiv zu nutzen und zu verwalten. 

Datenbank 

Eine Datenbank ist eine Sammlung von Daten, die in einer strukturierten Art und Weise organisiert sind. Sie wird verwendet, um Informationen schnell und einfach zu speichern, abzurufen und zu verarbeiten. Datenbanken können in verschiedenen Formaten und Grössen vorliegen und werden in der Regel für den professionellen Einsatz in Unternehmen oder Organisationen verwendet. Sie können beispielsweise verwendet werden, um Kundeninformationen zu speichern, Bestellungen zu verfolgen oder Finanzdaten zu verwalten.

Data Driven Management  

Data Driven Management ist eine Managementmethode, bei der Entscheidungen auf der Grundlage von Daten und Analysemethoden getroffen werden. Dabei werden relevante Daten gesammelt, ausgewertet und genutzt, um Unternehmensprozesse zu optimieren und bessere Entscheidungen zu treffen. Data Driven Management zielt darauf ab, die Effektivität und Effizienz von Unternehmen durch die Verwendung von Daten und Analysemethoden zu verbessern.

Data Engineer 

Ein Data Engineer ist eine Person, die sich mit der Entwicklung und dem Betrieb von Systemen für die Verarbeitung, Speicherung und Analyse von grossen Datenmengen (Big Data) befasst. Sie arbeiten an der technischen Seite von Data Science-Projekten und sind für die Integration von Datenquellen und -systemen verantwortlich. Data Engineers erstellen auch Tools und Pipelines, die es Analysten und Data Scientists ermöglichen, auf diese Daten zuzugreifen und sie zu analysieren. Sie haben oft eine technische Ausbildung und Kenntnisse in Programmiersprachen wie Python und Java sowie in Datenbanken und Cloud-Technologien.

Datafizierung 

Datafizierung ist der Prozess, bei dem Daten aus verschiedenen Quellen erfasst und in einem elektronischen Format gespeichert werden. Dies ermöglicht es, die Daten zu analysieren und zu verarbeiten, um Informationen und Erkenntnisse zu gewinnen. Datafizierung ist ein wichtiger Teil der Digitalisierung und wird in vielen Bereichen eingesetzt, wie in der Wirtschaft, der Wissenschaft oder im Gesundheitswesen.

Data Lake 

Ein Data Lake ist eine Art Datenspeicher, in dem grosse Mengen an unstrukturierten und strukturierten Daten in ihrer ursprünglichen Form aufbewahrt werden. Sie können von verschiedenen Quellen stammen und sind nicht in einer bestimmten Struktur organisiert. Data Lakes werden häufig von Unternehmen genutzt, um grosse Mengen an Daten zu analysieren und zu nutzen, um bessere Entscheidungen zu treffen und neue Einsichten zu gewinnen. Sie sind besonders nützlich, wenn es darum geht, Daten aus verschiedenen Quellen zu integrieren und zu analysieren, um tiefere Einsichten zu gewinnen.

Data Literacy  

Data Literacy ist die Fähigkeit, Daten zu verstehen, zu analysieren und zu nutzen, um informierte Entscheidungen treffen zu können. Es umfasst die Kenntnisse über die richtigen Tools und Techniken, um Daten zu sammeln, zu organisieren und zu visualisieren, sowie die Fähigkeit, die Ergebnisse zu interpretieren und zu kommunizieren. Es ist eine wichtige Kompetenz in der modernen Welt, in der Daten eine zentrale Rolle in vielen Bereichen spielen, von der Wirtschaft bis zur Wissenschaft.

Datenmanagement 

Datenmanagement ist der Prozess der Verwaltung, Speicherung und Verarbeitung von Daten in einer Organisation. Es umfasst die Planung, Implementierung und Überwachung von Systemen und Prozessen, die dazu beitragen, dass die Daten sicher, organisiert und zugänglich sind, um die Geschäftsprozesse und Entscheidungen zu unterstützen.

Data Science 

Data Science ist der Prozess der Extraktion von Wissen und Erkenntnissen aus grossen Datenmengen durch die Verwendung von Algorithmen, Statistik und anderen Analysemethoden. Es umfasst das Sammeln, Bearbeiten, Analysieren und Visualisieren von Daten sowie das Erstellen von Modellen und Vorhersagen auf der Grundlage dieser Daten. Data Science wird oft verwendet, um Probleme in verschiedenen Bereichen wie der Wirtschaft, der Technologie, der Medizin und vielen anderen zu lösen.

Data Scientist 

Ein Data Scientist ist eine Person, die sich mit der Analyse von grossen Datenmengen (grossen Daten) befasst, um Muster und Trends zu entdecken und Vorhersagen zu treffen. Diese Vorhersagen können dazu beitragen, dass Unternehmen bessere Entscheidungen treffen und Probleme lösen. Ein Data Scientist nutzt häufig mathematische und statistische Methoden sowie technische Fähigkeiten wie das Programmieren, um diese Analyse durchzuführen.

Strukturierte und unstrukturierte Daten 

Strukturierte Daten sind Daten, die in einer geordneten, systematischen Form vorliegen und eindeutig kategorisiert und organisiert sind. Ein Beispiel für strukturierte Daten ist eine Datenbank, in der alle Informationen in Tabellenform gespeichert sind und nach verschiedenen Kriterien sortiert werden können.

Unstrukturierte Daten hingegen sind Daten, die keiner bestimmten Struktur folgen und somit schwer zu analysieren sind. Ein Beispiel für unstrukturierte Daten ist ein frei formulierter Text, der keine klar definierten Kategorien oder Regeln aufweist.

Data Thinking 

Data Thinking ist die Fähigkeit, Informationen aus Daten zu analysieren und zu nutzen, um kluge Entscheidungen zu treffen und Probleme zu lösen. Es geht darum, die richtigen Fragen zu stellen, die relevanten Daten zu sammeln und diese auf sinnvolle Weise zu interpretieren, um die bestmöglichen Ergebnisse zu erzielen. Dabei ist es wichtig, die Perspektive des Anwenders zu berücksichtigen, um sicherzustellen, dass die Analyse relevant und nützlich ist.

Data Warehouse 

Ein Data Warehouse ist eine spezielle Art von Datenbank, die für die Analyse von grossen Mengen an Daten verwendet wird. Es ist ein zentraler Ort, an dem alle relevanten Daten aus verschiedenen Quellen gespeichert werden, um sie für die Analyse und Berichterstellung zu nutzen. Das Data Warehouse wird in der Regel von Unternehmen genutzt, um wichtige Entscheidungen zu treffen, indem sie Daten aus verschiedenen Abteilungen und Geschäftsbereichen zusammenführen und analysieren. Als Anwender können Sie das Data Warehouse nutzen, um Antworten auf wichtige Fragen zu finden, indem Sie die in ihm gespeicherten Daten abfragen und auswerten.

Datenvisualisierung 

Datenvisualisierung ist die Darstellung von Daten in visuellen Formen wie Diagrammen, Karten oder Grafiken, um sie leichter verstehen und interpretieren zu können. Sie dient dazu, komplexe Datenmengen in einer anschaulichen Weise darzustellen, um Trends, Muster und Veränderungen schneller erkennen zu können.

DAX-Sprache


DAX (Data Analysis Expressions) ist eine Sprache, die in Microsoft Power BI, Power Pivot und Analysis Services verwendet wird, um Berechnungen und Analysen in Tabellen und Matrizen auszuführen. DAX wird hauptsächlich zum Definieren von Berechnungen für Tabellenkalkulationen, die auf relationalen Datenquellen basieren, verwendet. Es ähnelt der Formel-Syntax von Tabellenkalkulationen wie Excel, aber es ist leistungsfähiger und bietet spezielle Funktionen und Operatoren für die Verarbeitung von Daten in grossen Tabellen und Datenmodellen. Die Verwendung von DAX ermöglicht es Benutzern, komplexe Berechnungen und Analysen durchzuführen, ohne die Daten selbst zu verändern.

Deep Learning 

Deep Learning ist eine Form von maschinellem Lernen, bei der künstliche neuronale Netze verwendet werden, um grosse Mengen von Daten zu analysieren und Muster zu erkennen. Die Netze bestehen aus mehreren Schichten von Neuronen, die miteinander verbunden sind und Informationen aufnehmen und verarbeiten. Deep Learning wird hauptsächlich für die Bild- und Spracherkennung, aber auch für viele andere Anwendungen eingesetzt.

Design Thinking 

Design Thinking ist ein Prozess, der darauf abzielt, kreative Lösungen für Probleme zu entwickeln. Es ist eine strukturierte Methode, die darauf abzielt, die Perspektive und die Bedürfnisse der Menschen, für die eine Lösung entwickelt wird, in den Vordergrund zu stellen und auf dieser Grundlage innovative Ideen zu entwickeln. Design Thinking wird in vielen Bereichen eingesetzt, z.B. in der Produktentwicklung, im Marketing und in der Unternehmensführung. Es ist eine iterative Methode, bei der man verschiedene Ideen entwickelt, sie testet und dann verbessert, um schliesslich eine optimale Lösung zu finden.

Digitalisierung 

Digitalisierung bedeutet, dass Informationen und Prozesse in einer digitalen Form gespeichert und verarbeitet werden. Das bedeutet, dass statt Papierdokumente oder manuelle Prozesse, Computer und elektronische Systeme verwendet werden, um Daten zu speichern und zu verarbeiten. Digitalisierung ermöglicht es uns, schneller und effizienter zu arbeiten und hat auch Auswirkungen auf die Art und Weise, wie wir miteinander kommunizieren und zusammenarbeiten.

F

Full Stack Developer

Ein Full Stack Developer ist ein Entwickler, der sowohl die Front-End-Technologien (also das, was der Benutzer sieht und interagiert) als auch die Back-End-Technologien (also das, was auf dem Server läuft und die Daten verarbeitet) einer Anwendung beherrscht. Sie können somit eine komplette Anwendung von der Gestaltung bis zur Funktionalität entwickeln. Es ist eine allumfassende Position, die sowohl tiefes Wissen in den Bereichen Design, Client- und Server-Programmierung erfordert.

Framework

Ein Framework ist eine vorgefertigte Struktur oder Sammlung von Ressourcen, die Entwicklern dabei helfen, Anwendungen schneller und einfacher zu erstellen. Sie bieten eine Reihe von Funktionen und Werkzeugen, die Entwickler nutzen können, um ihre Arbeit zu vereinfachen und ihre Produktivität zu steigern. Sie können unter anderem Vorlagen für Benutzeroberflächen, Datenbank-Zugriffsfunktionen und andere häufig verwendete Funktionen bereitstellen. Entwickler müssen sich also nicht um die Implementierung von grundlegenden Funktionen kümmern, sondern können sich auf die Entwicklung von Anwendungen konzentrieren, die spezifisch für ihre Bedürfnisse sind.

Frontend

Das Frontend ist der Teil einer Website oder einer Anwendung, der für den Nutzer sichtbar und interaktiv ist. Es umfasst also die Benutzeroberfläche und die Gestaltung der Seite, sowie die Funktionen und Möglichkeiten, die der Nutzer hat. Im Gegensatz dazu ist das Backend der Teil, der die technische Funktionalität und Verwaltung der Seite steuert, aber für den Nutzer nicht sichtbar ist.

K

Keras

Keras ist eine Open-Source-Softwarebibliothek für maschinelles Lernen, die es Benutzern ermöglicht, neuronale Netzwerke einfach und schnell zu erstellen. Sie wurde ursprünglich für Python entwickelt, ist aber mittlerweile auch für andere Programmiersprachen verfügbar. Keras hat eine hohe Benutzerfreundlichkeit und ermöglicht es auch Anfängern, neuronale Netzwerke zu erstellen und zu trainieren. Es ist vorrangig bei Data Scientists und Deep Learning-Entwicklern sehr beliebt.

Key Performance Indicator (KPI) 

Key Performance Indicators (KPIs) sind Messgrössen, die verwendet werden, um die Leistung eines Unternehmens, einer Organisation oder einer Einheit zu überwachen und zu vergleichen. Sie helfen, Fortschritte zu verfolgen, Ziele zu erreichen und die Effektivität von Aktivitäten zu beurteilen. KPIs können für verschiedene Bereiche eines Unternehmens festgelegt werden, wie Finanzen, Kundenbeziehungen, Produktivität und Mitarbeiterleistung. Es ist wichtig, dass die KPIs, die verwendet werden, relevant und wichtig für das Unternehmen sind und dass sie regelmässig überwacht und aktualisiert werden, um sicherzustellen, dass sie die Leistung wirksam messen.

M

Machine Learning

Machine Learning ist ein Teilgebiet der künstlichen Intelligenz, das es Computern ermöglicht, aus Daten zu lernen und Probleme ohne explizite Programmierung zu lösen. Dabei werden Algorithmen verwendet, die automatisch aus Daten lernen und sich verbessern, indem sie auf neue Daten angewendet werden. Die Idee dahinter ist, dass der Computer selbstständig aus Erfahrung lernen kann, anstatt von Menschen explizit programmiert zu werden. Machine Learning wird in vielen Bereichen eingesetzt, zum Beispiel in der Sprach- und Bilderkennung, in der Vorhersage von Ergebnissen oder in der Erkennung von Betrug.

Matplotlib 

Matplotlib ist eine Open-Source-Bibliothek für die Programmierung in Python, die es ermöglicht, 2D-Diagramme und Plots zu erstellen. Mit Matplotlib können Daten visuell dargestellt werden, um Trends, Verteilungen und andere Muster zu erkennen. Die Bibliothek ist vielseitig und kann in verschiedenen Bereichen wie der wissenschaftlichen Datenvisualisierung, der Finanzdatenanalyse und der Datenjournalismus verwendet werden.

Microcredentials

Microcredentials sind kleine, spezialisierte Zertifikate, die bestimmte Fähigkeiten oder Kenntnisse in einem bestimmten Bereich zeigen. Sie werden häufig von Universitäten, Schulen oder anderen Bildungseinrichtungen angeboten und können als zusätzliche Qualifikation oder als Ergänzung zu einem traditionellen akademischen Abschluss dienen. Microcredentials sind meist kürzer als traditionelle Abschlüsse und können online oder in kurzen Präsenzveranstaltungen abgeschlossen werden. Sie sind in der Regel auf spezifische Fachgebiete ausgerichtet und ermöglichen, sich in bestimmten Bereichen weiterzubilden und sich auf bestimmte Fähigkeiten zu spezialisieren.

O

OOP – Objektorientierte Programmierung

OOP (Objektorientierte Programmierung) ist ein Programmierparadigma, bei dem der Fokus auf der Erstellung von Objekten liegt, die bestimmte Funktionen und Eigenschaften haben. Diese Objekte können untereinander interagieren und miteinander kommunizieren. OOP hilft dabei, komplexe Systeme zu strukturieren und zu organisieren, indem es klar definierte Grenzen zwischen den verschiedenen Objekten setzt und sie in einem bestimmten Beziehungsgefüge zueinander stellt. Durch die Verwendung von OOP können Programmierer effektiver und strukturierter arbeiten, indem sie sich auf die Eigenschaften und Funktionen der Objekte konzentrieren, anstatt sich um niedriger Ebene Details kümmern zu müssen.

P

Pandas

Pandas ist eine Bibliothek für Datenanalyse in Python. Sie ermöglicht das Verarbeiten und Analyse von grossen Mengen an strukturierten und unstrukturierten Daten. Pandas bietet Funktionen zum Lesen, Schreiben und Verarbeiten von Daten, wie das Hinzufügen oder Löschen von Spalten, das Filtern von Zeilen oder das Zusammenführen von mehreren Datensätzen.

Power BI

Power BI ist eine Business Intelligence-Software, die es Benutzern ermöglicht, Daten zu sammeln, zu visualisieren und zu analysieren. Power BI bietet auch integrierte Tools zur Zusammenarbeit und Veröffentlichung von Berichten und Dashboards. Die Software ist in der Lage, Daten aus verschiedenen Quellen wie Excel-Tabellen, Datenbanken und der Cloud zu integrieren und die gewonnenen Erkenntnisse in Form von Grafiken, Diagrammen und Tabellen anzuzeigen. Power BI wird hauptsächlich von Unternehmen verwendet, um betriebswirtschaftliche Entscheidungen zu treffen und die Leistung von Geschäftsbereichen zu überwachen.

Predictive Maintenance 

Predictive Maintenance ist eine Methode zur Vorhersage von Maschinenfehlern oder -ausfällen, bevor sie tatsächlich auftreten. Durch regelmäßige Überwachung von Maschinenparametern und Analyse von Daten können Veränderungen erkannt werden, die auf zukünftige Fehler hinweisen. Auf diese Weise können Instandhaltungsarbeiten geplant werden, bevor es zu Ausfällen kommt, wodurch die Betriebszeit der Maschinen verlängert und Ausfallzeiten vermieden werden.

Python 

Python ist eine Programmiersprache, die verwendet wird, um Computerprogramme zu schreiben und zu automatisieren. Es ist eine einfache und leicht zu lernende Sprache, die für viele Anwendungen verwendet wird, wie Datenanalyse, künstliche Intelligenz und Webentwicklung.

PySpark 

PySpark ist die Python-API für Apache Spark, ein Open-Source-Framework für die verwaltete Ausführung von Big Data-Anwendungen auf Cluster-Computing-Systemen. Es ermöglicht die Verarbeitung von grossen Datenmengen mit paralleler Verarbeitung und hoher Skalierbarkeit. Mit PySpark können Entwickler ihre Anwendungen in Python schreiben und auf den Funktionsumfang von Spark zugreifen, um schnell grosse Datenmengen zu analysieren.

R

Regressionsanalyse

Regressionsanalyse ist ein statistisches Verfahren, das verwendet wird, um die Beziehung zwischen einer abhängigen (zielgerichteten oder erklärenden) Variable und einer oder mehreren unabhängigen (predictor oder erklärenden) Variablen zu bestimmen. Es wird verwendet, um Vorhersagen für die abhängige Variable auf der Grundlage der unabhängigen Variablen zu treffen.

Programmiersprache R

R ist eine kostenlose und offene Programmiersprache, die hauptsächlich für statistische Analysen und grafische Darstellungen verwendet wird. Sie wird häufig in der Datenanalyse, Wissenschaft, Wirtschaft und in der statistischen Modellierung verwendet. R bietet eine grosse Anzahl von Funktionen und Bibliotheken, die es Benutzern ermöglichen, komplexe statistische Analysen durchzuführen und die Ergebnisse in interaktiven Grafiken darzustellen.

S

Self-Service BI

Self-Service BI (Business Intelligence) ist ein Konzept, bei dem Benutzer selbstständig und ohne Unterstützung durch IT-Abteilungen auf die für sie relevanten Daten und Analysen zugreifen und diese auf einfache Weise visualisieren und interpretieren können. Hierfür werden benutzerfreundliche Tools und Plattformen zur Verfügung gestellt, die es ermöglichen, Daten zu sammeln, zu bereinigen und zu analysieren. Dadurch können Entscheidungsträger schneller auf sich ändernde Geschäftsbedingungen reagieren und datengetriebene Entscheidungen treffen.

Structured Query Language (SQL)  

Structured Query Language (SQL) ist eine standardisierte Programmiersprache, die zur Verwaltung und Abfrage von relationalen Datenbanken verwendet wird. Mit SQL können Daten in Tabellen eingefügt, geändert oder abgefragt werden, sowie Tabellen und Datenbanken erstellt und verwaltet werden.

T

TensorFlow 

TensorFlow ist ein offenes Framework für maschinelles Lernen, das von Google entwickelt wurde. Es ermöglicht die Erstellung von komplexen Modellen für neuronale Netze und andere Arten von maschinellem Lernen und ermöglicht es, diese Modelle auf verschiedenen Geräten, einschließlich des Edge Devices, auszuführen. Mit TensorFlow können Entwickler Modell- und Algorithmenentwicklung, Datenbereitstellung und Training sowie die Ausführung von Modellen in Produktion vereinfachen.

Trendanalyse 

Mittels einer Trendanalyse können Trends beobachtet und ihre Ursachen ergründet werden. Durch eine Trendanalyse kann man den Einfluss eines Trends auf ein Unternehmen und relevante Märkte vorhersagen. 

Cookie-Einwilligung mit Real Cookie Banner