Sie können das Glossar über das Suchfeld oder das Stichwortalphabet durchsuchen.

@ | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Alle

Seite:  1  2  3  4  5  6  7  8  9  10  ...  17  (Weiter)
  Alle

A

Action-Value-Funktion

Eine Action-Value-Funktion ist eine Funktion in der Verstärkungslernmethode der künstlichen Intelligenz, die angibt, wie viel zukünftiger Nutzen zu erwarten ist, wenn eine bestimmte Aktion in einem bestimmten Zustand ausgeführt wird. Mit anderen Worten, sie ist eine Funktion, die eine Aktion in einem bestimmten Zustand bewertet, indem sie die erwartete zukünftige Belohnung berücksichtigt. Ein Beispiel hierfür ist die Q-Funktion in der Q-Lernmethode.



Active Learning

Active Learning ist ein Ansatz des maschinellen Lernens, bei dem das Modell iterativ ausgewählte Beispiele zur Klassifizierung oder Vorhersage erhält. Das Modell kann durch den Prozess des "aktiven Lernens" präziser und effizienter werden, indem es gezielt diejenigen Datenpunkte auswählt, die die größte Unsicherheit oder Diskrepanz in den bisherigen Vorhersagen aufweisen.



Adam-Optimizer

Der ADAM-Optimizer ist ein Optimierungsalgorithmus, der in der Deep-Learning-Methode der künstlichen Intelligenz verwendet wird, um die Gewichte eines neuronalen Netzes anzupassen. Der Name steht für "Adaptive Moment Estimation". ADAM ist eine Erweiterung des Stochastic-Gradient-Descent-Verfahrens (SGD) und nutzt adaptive Schrittweiten und Momente, um die Lernrate automatisch zu justieren. Es ist ein effektiver Optimierungsalgorithmus, der in vielen Anwendungen verwendet wird.



Adaptabilität

Adaptabilität bezieht sich auf die Fähigkeit eines KI-Systems, sich an sich ändernde Umgebungsbedingungen anzupassen und flexibel zu reagieren. Es ist eine wichtige Eigenschaft von KI-Systemen, da sie in einer Vielzahl von Umgebungen eingesetzt werden können und sich schnell an neue Situationen anpassen müssen. Ein Beispiel hierfür ist eine selbstfahrende Autosoftware, die in der Lage ist, sich an verschiedene Wetterbedingungen und Verkehrssituationen anzupassen.



Aktivierungsfunktion

Eine Aktivierungsfunktion ist eine mathematische Funktion, die in einem künstlichen neuronalen Netzwerk verwendet wird, um die Ausgabe jedes Neurons zu bestimmen. Es transformiert die gewichteten Eingaben eines Neurons in eine Ausgabe, die als Eingabe für das nächste Neuron dient. Ein Beispiel für eine Aktivierungsfunktion ist die Sigmoid-Funktion, die eine S-förmige Kurve erzeugt und häufig in neuronalen Netzen verwendet wird.



Anomalie

Eine Anomalie ist eine Abweichung von einer Norm.



Anomalieerkennungsalgorithmus

Ein Anomalieerkennungsalgorithmus ist ein Algorithmus, der verwendet wird, um ungewöhnliche oder abnormale Muster in Daten zu erkennen. Er kann beispielsweise in der Cybersicherheit eingesetzt werden, um ungewöhnliche Aktivitäten in Netzwerken zu erkennen, oder in der Medizin, um abnormale Zellmuster zu identifizieren. Ein Beispiel für einen Anomalieerkennungsalgorithmus ist der Isolation-Forest-Algorithmus.



Artificial intelligence

Artificial intelligence (abgekürzt mit AI oder A.I.) ist der englische Begriff für künstliche Intelligenz.



Assess

Assess ist eine Kategorie im Periodensystem der KI, das von Kristian Hammond entwickelt wurde. Es bezieht sich auf Technologien, die zur Bewertung oder Einschätzung von Daten und Informationen verwendet werden. Beispiele hierfür sind Klassifikations- und Clustering-Algorithmen, die dazu verwendet werden, Muster in Daten zu erkennen und Vorhersagen zu treffen.



Ausgabeschicht

Die Ausgabeschicht (output-layer) ist die letzte Schicht von Neuronen in einem neuronalen Netzwerk, die bestimmte Ausgaben für das Programm erzeugt. Die Größe einer solchen Ausgabeschicht ist abhängig von der Anzahl der möglichen Klassifikationen. Die Neuronen dieser Schicht werden auch als Ausgabeneuronen (output-nodes) bezeichnet.



Autoencoder

Ein Autoencoder ist ein neuronales Netzwerk, das verwendet wird, um die Eingabe zu rekonstruieren. Es besteht aus zwei Teilen: einem Encoder, der die Eingabe in einen niedrigerdimensionalen Vektor komprimiert, und einem Decoder, der den Vektor wieder in die ursprüngliche Eingabe transformiert. Autoencoder können für die Reduktion von Datenraum oder zur Generierung von ähnlichen Daten verwendet werden.



Automated Quality Control

Automated Quality Control bezieht sich auf den Einsatz von Maschinen und Algorithmen zur Überwachung und Verbesserung der Qualität von Produkten. Hierbei können beispielsweise Bildverarbeitungsalgorithmen eingesetzt werden, um Fehler in der Produktion zu erkennen und zu korrigieren.

Autonomität

Autonomität bezeichnet die Fähigkeit zur Selbstbestimmung, Selbstständigkeit oder auch Unabhängigkeit.



B

Backpropagation

Backpropagation ist ein Algorithmus für das Training von neuronalen Netzen, der verwendet wird, um die Fehler zwischen den tatsächlichen und den vorhergesagten Ergebnissen zu minimieren. Der Algorithmus berechnet den Gradienten der Verlustfunktion und passt die Gewichte des Netzes entsprechend an. Backpropagation ist ein wichtiger Schritt bei der Entwicklung von Deep-Learning-Modellen.



Bagging

Bagging (Bootstrap Aggregating) ist eine Methode des Ensemble-Lernens, die verwendet wird, um die Vorhersagegenauigkeit von Modellen zu verbessern. Sie besteht darin, mehrere Modelle auf unterschiedlichen Teilmengen von Trainingsdaten zu trainieren und ihre Vorhersagen zu aggregieren. Bagging wird häufig in Entscheidungsbäumen und Random Forests eingesetzt.



Batch Processing

Batch Processing ist ein Ansatz zur Verarbeitung von Daten, bei dem mehrere Aufgaben in einem Stapel (Batch) zusammengefasst und sequentiell abgearbeitet werden. Dies kann die Effizienz der Verarbeitung erhöhen, insbesondere wenn die Aufgaben ähnliche Anforderungen haben


Batch-Size

Der Batch-Size bezieht sich auf die Anzahl der Trainingsbeispiele, die in einer Iteration einer Lernmethode wie Gradient Descent oder Stochastic Gradient Descent verwendet werden. Ein höherer Batch-Size führt normalerweise zu einer schnelleren Konvergenz des Modells, da die Gewichte des Modells weniger häufig aktualisiert werden. Ein niedrigerer Batch-Size kann jedoch dazu beitragen, das Modell vor Überanpassung zu schützen, da es mehr Variationen in den Trainingsdaten gibt.



Bayes'sche Statistik

Bayes'sche Statistik ist eine Methode der statistischen Inferenz, die auf der Bayes'schen Regel beruht. Sie verwendet Wahrscheinlichkeiten, um Hypothesen zu bewerten und Vorhersagen zu machen. Bayes'sche Statistik wird in der künstlichen Intelligenz und der Datenanalyse eingesetzt, um Entscheidungen auf der Grundlage von Unsicherheit und Unvollständigkeit zu treffen.



Bedeutung von Merkmalen

Die Bedeutung von Merkmalen ist eine Technik, bei der die Bedeutung verschiedener Merkmale oder Variablen im Entscheidungsprozess eines KI-Modells analysiert wird. Auf diese Weise lässt sich feststellen, welche Faktoren bei den Entscheidungen des Modells den größten Einfluss haben, und es kann erklärt werden, wie das Modell zu einem bestimmten Ergebnis gekommen ist.



Bellman-Gleichung

Die Bellmann-Gleichung ist eine Gleichung, die in der Verstärkungslernmethode der künstlichen Intelligenz verwendet wird, um den erwarteten Nutzen einer Aktion in einem bestimmten Zustand zu berechnen. Sie berücksichtigt die zukünftigen Belohnungen, die durch die Aktionen in dem Zustand erzielt werden können. Die Bellmann-Gleichung ist ein wichtiger Bestandteil der Q-Lernmethode und anderer Verstärkungslernmethoden.



Bestärkendes Lernen

Bestärkendes Lernen bezieht sich auf eine Lernmethode der künstlichen Intelligenz, bei der ein Agent in einer Umgebung agiert und Belohnungen für seine Aktionen erhält. Das Ziel des Agenten ist es, eine Strategie zu entwickeln, die es ihm ermöglicht, langfristig mehr Belohnungen zu erhalten. Das bestärkende Lernen ist eine wichtige Technik für die Entwicklung von KI-Systemen, die in Umgebungen wie Videospielen oder Robotik eingesetzt werden.



Bias

Bias bezieht sich auf eine systematische Abweichung in den Vorhersagen eines künstlichen Intelligenz-Modells. Es tritt auf, wenn das Modell nicht in der Lage ist, alle relevanten Informationen in den Trainingsdaten zu erfassen und daher bestimmte Arten von Mustern oder Merkmalen bevorzugt. Ein Beispiel hierfür ist ein Gesichtserkennungsmodell, das bestimmte Ethnien oder Geschlechter aufgrund von Vorurteilen bevorzugt.



Big Data

Big Data ist kein Teilgebiet der KI oder gar ein Synonym von ihr. Bei Big Data  handelt es sich um größere und komplexere Datensätze, vor allem aus neuen Datenquellen. Diese Datensätze sind so umfangreich, dass sie nicht mit klassischer Datenverarbeitungssoftware verwaltet werden können. Die im Rahmen von Big Data zusammengefassten Daten eignen sich zur Analyse durch maschinelle Lernalgorithmen. KI benötigt eine große Menge an Daten, um zu lernen und Entscheidungsprozesse zu verbessern, und Big-Data-Analytik nutzt KI für eine verbesserte Datenanalyse.



Bilderkennungsalgorithmus

Ein Bilderkennungsalgorithmus ist ein Algorithmus, der verwendet wird, um Bilder automatisch zu identifizieren und zu kategorisieren. Er nutzt Deep-Learning-Methoden wie Convolutional Neural Networks (CNNs), um Merkmale in Bildern zu extrahieren und sie dann mit einem Trainingsdatensatz von annotierten Bildern abzugleichen. Ein Beispiel für einen Bilderkennungsalgorithmus ist das Google Cloud Vision API, das in der Lage ist, Objekte, Gesichter und Text in Bildern zu erkennen und zu beschreiben.



Blackbox-Modelle

Einige KI-Modelle, wie z. B. Deep-Learning-Modelle, können als "Blackbox" bezeichnet werden, da sie schwer zu interpretieren und zu erklären sind. Diese Modelle können komplexe Algorithmen und Prozesse verwenden, um Entscheidungen zu treffen und der Entscheidungsfindungsprozess lässt sich möglicherweise nicht ohne Weiteres auf die Eingabedaten oder die verwendeten Parameter zurückführen.



C

Chatbots

Chatbots sind Computerprogramme, die in der Lage sind, automatisierte Gespräche mit Menschen zu führen. Sie werden häufig eingesetzt, um Kundensupport zu leisten oder Informationen bereitzustellen.



Clustering

Clustering ist eine Methode der künstlichen Intelligenz, bei der ähnliche Datenpunkte automatisch in Gruppen (Clusters) zusammengefasst werden. Dabei werden die Datenpunkte basierend auf ihrer Ähnlichkeit oder Distanz zueinander gruppiert. Clustering wird oft in der Datenanalyse und in der Bildverarbeitung eingesetzt.



Condition Monitoring

Condition Monitoring ist ein Prozess zur Überwachung der Zustände von Maschinen oder Anlagen, um potenzielle Probleme frühzeitig zu erkennen. Dies wird durch die kontinuierliche Erfassung und Analyse von Daten wie Vibrationen, Temperaturen und Drücken erreicht.



Convolutional Neural Network (CNN)

Ein Convolutional Neural Network (CNN) ist eine Art von neuronalen Netzwerken, die speziell für die Verarbeitung von Bildern und Videos entwickelt wurden. CNNs verwenden Convolutional Layers, um lokale Muster in den Eingabedaten zu erkennen, und Pooling Layers, um die Daten zu reduzieren und das Rauschen zu minimieren. CNNs werden häufig in der Bilderkennung und -klassifizierung eingesetzt.



D

Data-Drift

Data-Drift entsteht durch eine Änderung der Verteilung der Eingabedaten. Das Modell kann dann möglicherweise nicht mehr in der Lage sein, beispielsweise (Qualitäts-)probleme genau zu identifizieren, da es auf veralteten oder nicht repräsentativen Daten basiert. Meist ist dann eine Aktualisierung der Datengrundlage oder Anpassen des gesamten Modells von Nöten.



Datenschutz

Bei Datenschutz geht es konkret um den Schutz der Privatsphäre und der Persönlichkeitsrechte natürlicher Personen. Datenschutz bezieht sich auf personenbezogene Daten.



Datensicherheit

Datensicherheit ist eine notwendige Voraussetzung, um den Datenschutz zu gewährleisten. Dabei geht es darum, dass die Daten (personen- und nicht-personenbezogene Daten), insbesondere wenn sie in KI-Algorithmen zum Einsatz kommen, ein besonderer Schutz zuteilwird.

"Allgemein versteht man unter Datensicherheit

- die Vertraulichkeit (nur autorisierte Benutzer*innen haben Zugang zu übertragenen und gespeicherten Daten),

- die Integrität (Schutz vor beabsichtigten oder unbeabsichtigten Veränderungen),

- die Verfügbarkeit (Gewährleistung des ständigen Zugriffs auf Daten)

- und die Kontrollierbarkeit (Prüfung der Maßnahmen durch Protokollierung).

Datensicherheit hat also zum Ziel, beliebige Daten vor Schäden wie Manipulation und Nicht-Verfügbarkeit zu schützen." (Hochschule Augsburg)



Deep Learning

Deep Learning ist eine spezielle Methode der Informationsverarbeitung und stellt einen Teilbereich des Maschinellen Lernens (engl. Machine Learning) dar. Anhand von Deep Learning können unter Verwendung künstlicher neuronaler Netze beispielsweise große Datensätze analysiert werden.



Dense-Layer

Dense-Layer sind die einfachste Form einer Schicht eines künstlichen neuronalen Netzes. Bei dieser Form der Schicht sind alle Neuronen der Schicht mit allen Ausgabeneuronen der vorherigen Schicht verbunden, also vollständig vernetzt.



Digitaler Zwilling

Ein Digitaler Zwilling ist eine virtuelle Repräsentation eines physischen Objekts, Prozesses oder Systems, die kontinuierlich mit Daten gefüttert wird und es ermöglicht, Vorhersagen über das Verhalten des realen Objekts zu treffen. Der Digitale Zwilling wird oft verwendet, um die Leistung zu optimieren, die Wartung zu verbessern oder die Produktionseffizienz zu steigern.



Dimensionalitätsreduktion

Die Dimensionalitätsreduktion stellt eine Methode dar, die dabei hilft möglichst aussagekräftige Variablen zur Weiterverwendung des Datensatzes zu finden und somit die Runtime von Machine Learning-Algorithmen möglichst effizient zu gestalten. Verschiedene Methoden hierzu sind beispielsweise die Korrelationsanalyse, der Wrapper-Ansatz oder die Hauptkomponentenanalyse (PCA).



Dimensionen

Dimensionen, auch Features genannt, benennen die Eigenschaften von Daten innerhalb eines Datensatzes.



Diskontierte Belohnung

Die Diskontierte Belohnung ist Bestandteil des bestärkenden Lernens und findet Anwendung bei Aufgaben, die keine endliche Zahl an Zeitschritten haben, sondern durch andere Umstände beendet werden. Dabei muss der Agent die Belohnung für zeitlich näher liegende Handlungen stärker gewichten als für spätere. Dazu wird ein Faktor zwischen 0 und 1 eingeführt, mit dem zeitlich weiter entfernte Belohnungen multipliziert werden. So entsteht ein „Wichtigkeitsgefälle“ der Belohnungen und die unmittelbareren Belohnungen erhalten einen größeren Einfluss auf den Agenten.



Droput

Dropout ist eine Regularisierungstechnik für neuronale Netzwerke, die zufällig einige der Knoten während des Trainings deaktiviert. Dies hilft, das Overfitting zu reduzieren und das Modell robuster zu machen.



E

Edge Computing

Edge Computing ist ein Ansatz, bei dem Datenverarbeitung und -speicherung dezentralisiert auf Geräten in der Nähe der Datenquelle erfolgen, anstatt sie an entfernte Server zu senden. Dies kann die Latenz reduzieren und die Effizienz von IoT-Systemen verbessern.



Eingabeschichten

Die Eingabeschicht (engl. input-layer) ist die erste Schicht eines neuronalen Netzes. Sie besteht aus einer bestimmten Anzahl an Eingabeneuronen (engl. input-nodes). Die Größe der Eingabeschicht hängt von den Eingabedaten ab.



End-to-End-Lösung

Eine End-to-End-Lösung ist eine vollständige Lösung für ein bestimmtes Problem, die alle Schritte von Anfang bis Ende umfasst. Im Kontext von KI in der Produktion könnte eine End-to-End-Lösung beispielsweise aus Datenverarbeitung, Modellbildung, Implementierung und Überwachung bestehen.



Ensemble Learning

Ensemble Learning ist eine Methode des maschinellen Lernens, bei der mehrere Modelle zusammenarbeiten, um eine Vorhersage zu treffen. Indem man die Vorhersagen der verschiedenen Modelle aggregiert, kann man die Vorhersagegenauigkeit erhöhen und das Risiko von Fehlern verringern.



Entscheidungsbaum

Ein Entscheidungsbaum ist ein Diagramm, das Entscheidungen auf der Grundlage von Bedingungen darstellt. Er besteht aus einem Wurzelknoten, der die Eingangsvariablen darstellt, und verschiedenen Zweigen, die die Bedingungen und Entscheidungen repräsentieren. Entscheidungsbäume werden häufig in der künstlichen Intelligenz und der Datenanalyse eingesetzt, um Vorhersagemodelle zu erstellen.



Epochen

Epochs beschreiben die Anzahl vollständiger Datendurchläufe durch ein neuronales Netz.



F

Feature

Bei Features, auch Dimensionen genannt, handelt es sich um die Eigenschaften von Daten.



Feature-Engineering

Feature-Engineering ist der Prozess der Auswahl und Vorbereitung von Datenmerkmalen für die Verwendung in einem maschinellen Lernmodell. Es beinhaltet die Identifikation relevanter Merkmale und die Anwendung von Transformations- und Skalierungstechniken, um die Merkmale für das Modell vorzubereiten.



Fuzzy Logic

Fuzzy Logic ist eine Methode der Logik, die unscharfe oder unsichere Informationen verarbeiten kann. Im Gegensatz zur klassischen Logik, die nur "wahr" oder "falsch" zulässt, können in der Fuzzy Logic Zwischenwerte und Unsicherheiten berücksichtigt werden.



G

Gaussian Mixture Model (GMM)

Ein Gaussian Mixture Model ist ein statistisches Modell, das zur Analyse von Datenverteilungen verwendet wird. Es modelliert die Daten als Mischung von Gauss-Verteilungen und kann zur Clusteranalyse und zur Vorhersage von Wahrscheinlichkeiten eingesetzt werden.



Generatives adversarisches Netzwerk (GAN)

Ein generatives adversarisches Netzwerk (GAN) ist ein neuronales Netzwerk, das aus einem Generator und einem Diskriminator besteht. Der Generator erzeugt neue Daten, während der Diskriminator entscheidet, ob die erzeugten Daten echt oder gefälscht sind. Das Ziel eines GANs ist es, den Generator so zu trainieren, dass er immer bessere gefälschte Daten erzeugen kann, die vom Diskriminator nicht von echten Daten unterschieden werden können. GANs werden häufig für die Erstellung von Bildern und Musik verwendet.



Genetischer Algorithmus

Ein genetischer Algorithmus ist eine Methode des maschinellen Lernens, die auf der Evolutionstheorie basiert. Er nutzt evolutionäre Prinzipien wie Selektion, Rekombination und Mutation, um eine optimale Lösung für ein Problem zu finden. Genetische Algorithmen werden häufig in der Optimierung und im maschinellen Lernen eingesetzt.



Gewichte

Die Gewichtung eines Inputs bestimmt, wie stark der Einfluss des jeweiligen Features auf das neuronale Netz ist. Aus den Features und ihren Gewichtungen wird die gewichtete Summe gebildet, die dann an eine Aktivierungsfunktion weitergegeben wird.



Gradient Descent

Gradient Descent ist ein Optimierungsalgorithmus, der verwendet wird, um die Gewichte in einem neuronalen Netzwerk oder einem anderen maschinellen Lernmodell anzupassen. Der Algorithmus nutzt den Gradienten der Verlustfunktion, um die Richtung zu bestimmen, in der die Gewichte angepasst werden sollen. Durch die wiederholte Anwendung von Gradient Descent können die Gewichte so angepasst werden, dass die Verlustfunktion minimiert wird und das Modell bessere Vorhersagen macht.



H

Hauptkomponentenanalyse (PCA)

Die Hauptkomponentenanalyse (PCA) ist eine Methode der linearen Algebra, die verwendet wird, um die Dimensionalität von Daten zu reduzieren. Dabei wird eine große Anzahl von Variablen in eine kleinere Anzahl von Variablen umgewandelt, wobei die meisten Informationen beibehalten werden. PCA ist eine häufig verwendete Technik in der Datenanalyse und der Bildverarbeitung.



Human-Robot Collaboration

Human-Robot Collaboration bezieht sich auf die Zusammenarbeit von Menschen und Robotern bei Produktionsaufgaben. Hierbei kann es beispielsweise um die gemeinsame Bearbeitung von Werkstücken oder die Übernahme gefährlicher oder schwerer Aufgaben durch Roboter gehen.



Hyperparameter

Hyperparameter sind Parameter in einem künstlichen Intelligenz-Modell, die vom Entwickler oder Forscher festgelegt werden müssen, bevor das Modell trainiert werden kann. Diese Parameter beeinflussen die Leistung des Modells und können z.B. die Anzahl der Schichten und Neuronen in einem neuronalen Netzwerk, die Lernrate oder den Batch-Size umfassen. Die Optimierung der Hyperparameter ist ein wichtiger Schritt in der Entwicklung von KI-Modellen.



I

Industrie 4.0

Industrie 4.0 ist ein Konzept für die Automatisierung und Digitalisierung von Produktionssystemen. Es bezieht sich auf die Integration von intelligenten Maschinen, Cloud Computing, Big Data und künstlicher Intelligenz in Produktionsprozesse, um die Effizienz, Flexibilität und Qualität der Produktion zu verbessern.



Infer

Infer ist eine Kategorie im Periodensystem der KI, das von Kristian Hammond entwickelt wurde. Es bezieht sich auf Technologien, die zur Schlussfolgerung oder Vorhersage von Daten und Informationen verwendet werden. Ein Beispiel hierfür ist die Bayes'sche Inferenz, die verwendet wird, um Wahrscheinlichkeiten für Hypothesen zu berechnen.



Inferenz

Die Inferenz bezieht sich auf die Anwendung von Wissen oder Erfahrung, um Vorhersagen oder Entscheidungen zu treffen. In der künstlichen Intelligenz bezieht sich die Inferenz auf die Verwendung eines trainierten Modells, um Vorhersagen über neue Daten zu treffen. Ein Beispiel hierfür ist die Verwendung eines Bilderkennungsmodells, um neue Bilder zu analysieren und zu kategorisieren.



Instanzen

Instanzen beziehen sich auf die konkreten Beispiele von Daten, die in einem künstlichen Intelligenz-Modell verwendet werden, um das Modell zu trainieren oder zu testen. Beispiele für Instanzen können Bilder, Texte oder Sensordaten sein.



Intelligent Maintenance

Intelligent Maintenance ist ein Ansatz, bei dem Wartungsprozesse durch die Analyse von Daten optimiert werden. Hierbei können beispielsweise Sensoren und Algorithmen eingesetzt werden, um den Zustand von Maschinen oder Anlagen zu überwachen und Wartungsbedarf frühzeitig zu erkennen.



Intelligente Systeme

Als intelligente Systeme werden Systeme bezeichnet, die in der Lage sind, Situationen zu bewerten, Handlungsoptionen abzuwägen und rationale Entscheidungen zu treffen. Außerdem zeichnet sie die Fähigkeit aus, sich an neue Situationen anzupassen.



Internet of Things (IoT)

Das Internet of Things ist ein Konzept, bei dem Gegenstände und Geräte miteinander und mit dem Internet vernetzt werden. Hierbei können beispielsweise Sensoren Daten sammeln, die dann für die Überwachung und Steuerung von Prozessen eingesetzt werden.



J

Jupyter Notebook

Ein Jupyter-Notebook ist eine interaktive Umgebung für die Programmierung in verschiedenen Sprachen, wie Python, R oder Julia. Es bietet eine Möglichkeit, Code, Text und visuelle Darstellungen in einer einzelnen Datei zu kombinieren und zu teilen. Jupyter-Notebooks sind weit verbreitet in der Datenanalyse und der wissenschaftlichen Programmierung.



Just-in-Time (JIT)

Just-in-Time ist eine Produktionstechnik, bei der Produkte erst dann hergestellt werden, wenn sie benötigt werden. Das Ziel ist es, die Lagerbestände zu minimieren und die Produktionseffizienz zu erhöhen.



K

K-Means

K-Means-Clustering ist ein Algorithmus des nicht-überwachten Lernens, der zur Erstellung distinkter Datencluster verwendet wird, die dann beispielsweise für diverse überwachte Lernalgorithmen genutzt werden können. Da es sich um ein Problem des nicht-überwachten Lernens handelt, gibt es keine Zielvariable.



K-Nächster Nachbar (KNN)

Die K-Neighbors-Klassifizierung gehört zu den einfachsten und dennoch robustesten Machine-Learning-Algorithmen. Er wird häufig als Vergleichsmaßstab für komplexere Algorithmen, wie z. B. neuronale Netze herangezogen. Der KNN kann die Bezeichnung eines neuen Punktes auf der Grundlage der Bezeichnung seiner Nachbarn voraussagen. Dies beruht auf der Annahme, dass ähnliche Datenpunkte näher beieinander liegen. Das K stellt hierbei die Variable dar, die die Anzahl der hierfür betrachteten Nachbarn enthält.



Keylogger

Keylogger sind Programme, die dazu genutzt werden, Tastenanschläge auf der Tastatur zu überwachen. So können beispielsweise sensible Eingaben, wie Passwörter, geleaked werden.



Konfusionsmatrix

Eine Konfusionsmatrix ist eine Tabelle, die verwendet wird, um die Leistung eines Klassifikators zu bewerten. Sie zeigt, wie oft jede Klasse korrekt und inkorrekt klassifiziert wurde. Die Konfusionsmatrix wird häufig in der künstlichen Intelligenz und der Statistik verwendet, um die Genauigkeit von Klassifikatoren zu messen.



Korrelationsanalyse

Die Korrelationsanalyse ist eine Methode der statistischen Analyse, die verwendet wird, um die Beziehung zwischen zwei oder mehr Variablen zu untersuchen. Sie misst den Grad der linearen Beziehung zwischen den Variablen und gibt an, ob sie positiv oder negativ korrelieren. Die Korrelationsanalyse ist nützlich in der Datenanalyse und der Forschung, um Beziehungen zwischen verschiedenen Merkmalen zu untersuchen.



Korrelationskoeffizient

Der Korrelationskoeffizient gibt an, wie stark der Zusammenhang zwischen zwei Merkmalen, wie beispielsweise Features ist. Die gängigste Methode ist der Pearsons-Koeffizient, bei der er Werte zwischen -1 und 1 annimmt, wobei 0 keine Korrelation bedeutet. Je weiter sich den Extrempunkten genähert wird, desto stärker ist die Korrelation.



Künstliche Intelligenz

Künstliche Intelligenz (abgekürzt mit KI oder K.I.) „ist ein Teilgebiet der Informatik und gilt als die nächste wichtige Entwicklungsstufe der Digitalisierung. Dabei geht es darum, technische Systeme so zu konzipieren, dass sie Probleme eigenständig bearbeiten und sich dabei selbst auf veränderte Bedingungen einstellen können. Diese Systeme haben also die Eigenschaft zu lernen und mit Unsicherheiten (Wahrscheinlichkeiten) umzugehen, statt klassisch programmiert zu werden.“ (BMBF 2019)



L

Lineare Regressionsanalysen

Die lineare Regression wird verwendet, um kontinuierliche Werte vorherzusagen. Sie basiert auf der linearen Funktion f(x) = mx + b. Sie nimmt als Input einen (univariable) oder mehrere (multivariable) unabhängige Variablen (x-Werte) und gibt als Output die abhängige Variable y als Vorhersage zurück.



Linguistik

Die Linguistik ist die wissenschaftliche Studie von Sprache und ihrer Struktur. Sie umfasst die Analyse von Sprachregeln, Grammatik, Semantik und Pragmatik. In der künstlichen Intelligenz wird die Linguistik häufig verwendet, um Spracherkennungs- und Sprachgenerierungssysteme zu entwickeln.



M

Malware

Mit Malware oder auch Schadsoftware ist sämtliche Software gemeint, die dazu genutzt wird, einem Computersystem Schaden zuzufügen oder Informationen zu stehlen.



Markovscher Entscheidungsprozess

Ein Markovscher Entscheidungsprozess ist ein mathematisches Modell der Entscheidungsfindung in einer Umgebung, in der der Zustand der Umgebung stochastisch ist. Ein Agent trifft Entscheidungen basierend auf einer Wahrscheinlichkeitsverteilung über mögliche Aktionen und deren Auswirkungen auf den Zustand der Umgebung. Der Markovsche Entscheidungsprozess wird in der künstlichen Intelligenz häufig in der Verstärkungslernmethode verwendet, um Entscheidungen in dynamischen Umgebungen zu treffen.



Maschinelles Hören

Als maschinelles Hören (engl. computer audition) wird das Subfeld der KI-Forschung bezeichnet, welches sich mit der Aufnahme und Verarbeitung akustischer Signale beschäftigt. Mithilfe akustischer Sensoren werden Informationen aus der Umgebung oder aus Prozessketten gesammelt und automatisiert verarbeitet. Dabei sollen auf Grundlage dieser Analyse schnell und automatisch Entscheidungen getroffen werden.



Maschinelles Lernen

Maschinelles Lernen ist das automatisierte Suchen und Finden von Mustern in Daten, um darauf aufbauend Vorhersagen zu den Daten zu treffen.



Maschinelles Sehen

Als maschinelles Sehen (engl.: Computer Vision) wird das Feld der KI-Forschung bezeichnet, welches sich mit der Datenverarbeitung aus Bildern oder Videos beschäftigt. Mithilfe optischer Sensoren (z. B. Kameras) werden Bild- oder Videodaten gesammelt und vom Computer verarbeitet. Dabei wird sich die grundlegende Struktur eines digitalen Bildes bzw. Videos zu Nutze gemacht.



Metrik

Die Metrik ist ein Maß, um zu bestimmen, wie gut oder schlecht ein Modell ist. Oft handelt es sich dabei um die Genauigkeit der Vorhersage.



N

NOIR

NOIR ist ein Akronym für die vier verschiedenen Arten von Skalen, die in der Statistik und Datenanalyse verwendet werden: nominal, ordinal, interval und ratio. Nominalskalen werden verwendet, um Objekte oder Ereignisse zu kategorisieren, z.B. Farben oder Geschlechter. Ordinalskalen ordnen Objekte oder Ereignisse nach einer Rangfolge, z.B. Schulnoten oder Platzierungen in einem Rennen. Intervallskalen messen die Unterschiede zwischen Werten, haben jedoch keine wahre Null, z.B. Temperaturen auf der Celsius-Skala. Ratioskalen haben eine wahre Null und messen Verhältnisse zwischen Werten, z.B. Größen und Gewichte. Die Kenntnis der Skalentypen ist wichtig für die Auswahl geeigneter statistischer Methoden und Visualisierungen in der Datenanalyse.



Naiver Bayes

Der Naive Bayes ist ein Klassifizierungsalgorithmus, der einzelne Features innerhalb einer Klasse völlig unabhängig voneinander betrachtet und davon ausgeht, dass alle Features zur Wahrscheinlichkeit, dass das Objekt dieser Klasse angehört, gleichermaßen beitragen. Er basiert auf dem Bayes-Theorem (bedingte Wahrscheinlichkeit).



Natural Language Processing (NLP)

Sprachverarbeitung ist eine der am stärksten im Alltag vertretenen Anwendungen von künstlicher Intelligenz. Grundsätzlich beschäftigt sich das Feld der natürlichen Sprachverarbeitung (NLP, engl. natural language processing) mit der Verbindung zwischen menschlicher Sprache und Computern.



Natürliche Person

Als natürliche Person ist der Mensch als Träger*in von Rechten und Pflichten gemeint. Davon abzugrenzen ist die juristische Person, die z. B. in Form von Vereinen, Gesellschaften und Körperschaften auftreten kann.



Neuronale Netze

Neuronale Netze sind ein Forschungszweig der künstlichen Intelligenz und darin eine Art des maschinellen Lernens. Sie sind in der Lage, sehr effektiv auch große Mengen an (unstrukturierten) Daten zu verarbeiten und eignen sich daher besonders für die Bewältigung von Big Data. Der Begriff hat seine Ursprünge zwar in der Biologie unseres Gehirns, jedoch haben heutige künstliche neuronale Netze nur wenig mit ihren biologischen Vorbildern zu tun. Die künstlichen Neuronen sind mathematische Formeln, die einen Input annehmen und einen Output weitergeben. Heutige neuronale Netze bestehen aus Tausenden bis Millionen dieser künstlichen Neuronen.



Neurowissenschaften

Die Neurowissenschaften sind ein multidisziplinäres Feld, das die Struktur, Funktion und Entwicklung des Nervensystems untersucht. Es umfasst Bereiche wie Neuroanatomie, Neurophysiologie, Neurochemie und Kognitive Neurowissenschaften. In der künstlichen Intelligenz werden Erkenntnisse aus der Neurowissenschaft oft genutzt, um neuronale Netze und andere KI-Modelle zu entwickeln und zu optimieren.



Nicht-überwachtes Lernen

Beim unsupervised learning handelt es sich um eine Methode des maschinellen Lernens, die ohne vorgegebene Zielvariable, also ohne Label, auskommt. Algorithmen des nicht-überwachten Lernens sind in der Lage, selbstständig Muster und Zusammenhänge in Daten zu erkennen. In vielen Fällen zeigen diese Algorithmen Zusammenhänge auf, die dem Menschen vorher nicht bewusst waren. Das macht sie zu einem wertvollen Werkzeug in einer ganzen Reihe von Anwendungsbereichen.  



NumPy

NumPy ist eine Python-Bibliothek, die sich auf numerische Berechnungen und Datenanalyse spezialisiert hat. Sie bietet leistungsstarke Tools für die Manipulation von mehrdimensionalen Arrays und Matrizen, die für viele Anwendungen in der künstlichen Intelligenz und der Datenanalyse nützlich sind.



O

Optimalität

Die Optimalität beschreibt beim bestärkenden Lernen das Ziel des Agenten, die optimale Policy zu finden, d. h. die Policy, die ihm die höchstmögliche (diskontierte) Belohnung gibt. Die optimale Policy hat eine optimale state-value function und eine optimale action-value function.



Optimierungsalgorithmus

Ein Optimierungsalgorithmus ist ein Algorithmus, der verwendet wird, um den Wert einer Zielfunktion zu maximieren oder zu minimieren. In der künstlichen Intelligenz werden Optimierungsalgorithmen häufig in der Trainingsphase von neuronalen Netzen und anderen KI-Modellen verwendet, um die Gewichte des Modells anzupassen und die Leistung zu verbessern. Beispiele für Optimierungsalgorithmen sind Gradient Descent, Stochastic Gradient Descent und Adam.



Outlier

Outlier, auch Ausreißer genannt, sind Messwerte, die sich stark von den restlichen Werten der Datenreihe unterscheiden und nicht in die Messreihe passen.



Overfitting

Overfitting bezeichnet eine Überanpassung des Algorithmus an die Trainingsdaten. Der Algorithmus lernt die Trainingsdaten sehr gut, ist aber nicht in der Lage, auf unbekannte Daten zu generalisieren.



P

Pandas

Pandas ist eine Python-Bibliothek, die sich auf die Datenanalyse und die Manipulation von tabellarischen Daten spezialisiert hat. Sie bietet eine breite Palette von Funktionen zur Datenmanipulation und -analyse, einschließlich Datenbereinigung, Zusammenfassung, Filterung und Transformation. Pandas ist ein nützliches Tool in der künstlichen Intelligenz und der Datenanalyse, da es große Datensätze schnell und effizient verarbeiten kann.



Pearsons Koeffizient

Der Pearsons Koeffizient ist ein Korrelationskoeffizient. Er bewegt sich zwischen -1 und 1, wobei ein Koeffizient >0 eine positive Korrelation, <0 eine negative Korrelation und =0 keine Korrelation bedeuten.



Persönlichkeitsrechte

Die allgemeinen Persönlichkeitsrechte einer Person sind ein auf Artikel 1 und 2 des deutschen Grundgesetzes basierendes Rechtsinstitut, welches Personen die freie Entfaltung ihrer Persönlichkeit zusagt. Hier geht es vor allem darum, den Staat oder andere Institutionen daran zu hindern, in die Privatsphäre von Personen einzugreifen.



Pixel

Bild- und auch Videodaten bestehen aus einem Raster von kleinen Bildpunkten, den sogenannten Pixeln. Jedes Pixel kann einen bestimmten Wert zwischen 0 und 255 annehmen. Anhand dieses Wertes wird dem Pixel ein exakter Farbwert zugewiesen.



Policy

Die Policy ist ein Algorithmus, der beim bestärkenden Lernen die Wahrscheinlichkeit, dass der Agent eine bestimmte Handlung vornimmt, beschreibt.



Polynome

Polynome kommen zum Einsatz, wenn in einem Datensatz kein linearer Zusammenhang zwischen Daten zu finden ist. Diese Polynomial Features können aus der Preprocessing-Bibliothek von Scikit-Learn importiert und dann dazu verwendet werden, um in den Trainingsdaten polynome Features einzuführen.



Polynomiale Regression

Polynomiale Regression ist eine Methode der Regression, die verwendet wird, um den Zusammenhang zwischen einer unabhängigen Variable und einer abhängigen Variablen zu modellieren. Im Gegensatz zur linearen Regression können polynomiale Regressionen jedoch Kurven darstellen, indem sie höhergradige Polynome verwenden. Die Methode wird häufig in der Datenanalyse und der statistischen Modellierung eingesetzt.



Posterior

Der Posterior ist eine Wahrscheinlichkeitsverteilung, die in der Bayes'schen Statistik verwendet wird. Er beschreibt die Wahrscheinlichkeit einer Hypothese oder eines Modells basierend auf Beobachtungen und einem anfänglichen Satz von Wahrscheinlichkeiten. Der Posterior ist nützlich in der künstlichen Intelligenz und der Datenanalyse, um Inferenzprobleme zu lösen und Entscheidungen auf der Grundlage von Unsicherheit zu treffen.



Privatsphäre

Privatsphäre ist der Bereich einer Person, der nicht öffentlich ist. Artikel 2, Abs. 1 und Artikel 1, Abs. 1 des deutschen Grundgesetzes regeln, dass jede Person das Recht besitzt, in seinen oder ihren privaten Angelegenheiten in Ruhe gelassen zu werden.



Prozessoptimierung

Prozessoptimierung bezieht sich auf die kontinuierliche Verbesserung von Prozessen durch die Analyse und Anpassung von Prozessparametern. Hierbei können beispielsweise Algorithmen eingesetzt werden, um Engpässe oder Flaschenhälse (bottlenecks) in der Produktion zu identifizieren und zu beseitigen.



Prädiktive Analytik

Prädiktive Analytik bezieht sich auf den Prozess der Verwendung von Daten, statistischen Algorithmen und maschinellen Lernmethoden, um Vorhersagen über zukünftige Ereignisse oder Verhaltensweisen zu treffen. Prädiktive Analytik wird häufig in der Wirtschaft, der Finanzanalyse und anderen Bereichen eingesetzt, um Entscheidungen zu treffen und bessere Einblicke in zukünftige Entwicklungen zu gewinnen.



Prädiktive Wartung

Prädiktive Wartung ist ein Ansatz, bei dem Daten und maschinelle Lernmethoden verwendet werden, um den Zustand von Maschinen oder Anlagen zu überwachen und Wartungsbedarf vorherzusagen. Ziel ist es, Wartungskosten zu reduzieren und Ausfallzeiten zu minimieren.



Präzision

Präzision beschreibt die Anzahl der richtigen positiven Vorhersagen, geteilt durch die Anzahl der richtigen positiven plus falsch positiven Vorhersagen. Sie ist eine wichtige Kenngröße in der Beurteilung der Genauigkeit eines Modells.



PyTorch

PyTorch ist ein Framework für maschinelles Lernen, das auf der Programmiersprache Python basiert. Es bietet Tools für die Entwicklung und das Training von neuronalen Netzen und anderen künstlichen Intelligenz-Modellen. PyTorch ist für seine Flexibilität und Benutzerfreundlichkeit bekannt und wird von vielen Unternehmen und Forschern verwendet.



Pyplot

Pyplot ist ein Modul aus der Programmbibliothek Matplotlib und wird in der Programmiersprache Python zum Plotten (=grafischen Darstellen) von Daten verwendet.



Q

Q-Learning

Q-Learning ist eine Unterart des bestärkenden Lernens, bei der die optimale action-value function, auch Q-Funktion genannt, gelernt werden soll. Dies gelingt über die Bellman-Gleichung.



Qualitative Daten

Qualitative Daten sind Daten, die nicht in numerischer Form vorliegen, sondern in Form von Beschreibungen oder Kategorien. Beispiele für qualitative Daten sind Geschlecht, Beruf oder Meinungen. Qualitative Daten werden oft in der Sozialforschung und der Anthropologie eingesetzt, um menschliches Verhalten und soziale Phänomene zu untersuchen.



Quality Inspection

Quality Inspection ist ein Prozess zur Überprüfung der Qualität von Produkten oder Komponenten. Dies kann durch visuelle Inspektion, Messungen, Tests oder andere Methoden erfolgen.



Quantitative Daten

Quantitative Daten sind Daten, die in numerischer Form vorliegen, z.B. Größen, Mengen oder Messungen. Quantitative Daten können diskret oder kontinuierlich sein und werden in der Datenanalyse und der statistischen Modellierung häufig eingesetzt.



R

R2-Score

Der R2-Score ist ein statistisches Maß für die Genauigkeit eines Regressionsmodells. Er gibt an, wie gut die Vorhersage des Modells im Vergleich zu den tatsächlichen Daten ist, und variiert von 0 bis 1, wobei 1 eine perfekte Vorhersage darstellt. Der R2-Score wird häufig in der Datenanalyse und der Modellierung eingesetzt, um die Leistung von Regressionsmodellen zu bewerten.



Random Forest

Random Forest ist ein häufig verwendeter Regressions- und Klassifikationsalgorithmus für Maschinelles Lernen. Er besteht aus mehreren nicht zusammenhängenden Entscheidungsbäumen.



Ransomware

Ransomware sperrt Teile des befallenen Systems (oder sogar das gesamte System). Diese Teile sollen dann gegen ein Lösegeld wieder freigegeben werden.



ReLU-Funktion

Die ReLU-Funktion ist eine Aktivierungsfunktion, die häufig in neuronalen Netzen verwendet wird. Sie ist definiert als max(0,x) und gibt den Wert von x zurück, wenn er positiv ist, und 0, wenn er negativ ist. Die ReLU-Funktion ist nützlich, um die Effizienz von neuronalen Netzen zu erhöhen und das Problem des Verschwindens des Gradienten zu vermeiden.



Recall

Auch bekannt als Sensitivität (engl. recall) ist die Anzahl der richtigen positiven Vorhersagen, geteilt durch die Anzahl der richtigen positiven plus falsch positiven Vorhersagen.



Regressionsalgorithmen

Regressionsalgorithmen gehören zu den alltäglichsten Werkzeugen des maschinellen Lernens. Allen Regressionsalgorithmen ist gemein, dass sie versuchen, einen Zusammengang zwischen abhängigen (y / Label) und unabhängigen Variablen (x / Features) zu finden. Je nach Algorithmus und Linearität des Datensatzes wird hier eine sogenannte „Line of best fit“ (lineare Regression) oder eine Kurve (Polynomiale Regression) gefunden.



Regressionsanalyse

Die Regressionsanalyse ist ein statistisches Verfahren, das verwendet wird, um die Beziehung zwischen einer abhängigen Variablen und einer oder mehreren unabhängigen Variablen zu untersuchen. Sie wird häufig in der Datenanalyse und dem maschinellen Lernen eingesetzt, um Vorhersagen zu treffen und Trends in den Daten zu identifizieren.



Regressionsproblem

Ein Regressionsproblem liegt vor, wenn die Ausgabeergebnisse eine kontinuierliche Verteilung aufweisen und beliebige quantitative Werte innerhalb eines vorgegebenen Wertebereichs annehmen können.


Respond

Respond ist eine Kategorie im Periodensystem der KI, das von Kristian Hammond entwickelt wurde. Es bezieht sich auf Technologien, die entwickelt wurden, um menschenähnliche Reaktionen und Verhaltensweisen zu erzeugen, wie z.B. Chatbots, die auf Fragen antworten können.



Robotics Process Automation (RPA)

Robotics Process Automation ist eine Technologie, die es ermöglicht, wiederkehrende Aufgaben und Prozesse zu automatisieren. Hierbei werden Software-Roboter eingesetzt, um manuelle Aufgaben in Geschäftsprozessen zu übernehmen.



Robotik

Die Robotik bezieht sich auf das Feld der Technologie und Wissenschaft, das sich mit der Entwicklung von Robotern und ihrer Anwendung in der Industrie, Wissenschaft und im täglichen Leben beschäftigt. In der künstlichen Intelligenz wird die Robotik häufig in der Entwicklung von autonomen Systemen, Robotern und Drohnen eingesetzt.



Root Cause Analysis (RCA)

Root Cause Analysis ist eine Methode zur Identifizierung der zugrundeliegenden Ursachen von Problemen oder Fehlern. Es handelt sich um einen strukturierten Ansatz, der darauf abzielt, die tatsächlichen Ursachen von Problemen zu identifizieren, um dauerhafte Lösungen zu finden und zukünftige Probleme zu vermeiden.



Root Mean Square Error (RMSE)

Der RMSE ist ein Maß für den Unterschied zwischen den von einem Regressionsmodell vorhergesagten Werten und den tatsächlichen Werten. Der RSME gibt eine Vorstellung davon, wie groß der Fehler in den Vorhersagen des Modells ist. Je niedriger der RMSE-Wert ist, umso präzisere Vorhersagen macht das Modell.


S

Schichten

Schichten sind ein „Baustein“ neuronaler Netze. Sie bestehen aus der Anordnung mehrerer Neuronen. Mehrere dieser Schichten bilden ein neuronales Netz. Dabei wird zwischen Eingabeschichten (engl. input-layer), versteckten Schichten (engl. hidden -layer) und Ausgabeschichten(engl. output-layer) unterschieden.



Schwache künstliche Intelligenz

Algorithmen mit schwacher künstlicher Intelligenz sind  Meister auf einem eng umgrenzten Gebiet, wissen aber darüber hinaus meist nichts und können auch ihr Domänenwissen nicht auf neue Kontexte übertragen. Sämtliche KI-Anwendungen, die heute existieren, sind diesem Bereich zuzuordnen.



Seaborn

Seaborn ist eine Python-Bibliothek, die speziell für die Visualisierung von statistischen Daten entwickelt wurde. Sie bietet eine Vielzahl von Diagrammtypen und Farbschemata, die die Datenanalyse und die Datenvisualisierung erleichtern. Seaborn ist nützlich in der Datenanalyse und der künstlichen Intelligenz, um Datenmuster und Trends zu identifizieren.



Semi-supervised Learning

Semi-supervised Learning ist ein Ansatz des maschinellen Lernens, bei dem das Modell teilweise gelabelte und teilweise ungelabelte Daten verwendet. Das Modell nutzt die gelabelten Daten, um zu lernen, wie es die ungelabelten Daten klassifizieren oder vorhersagen kann.



Sentimentanalyse

Mithilfe von Sentimentanalysen kann man Maschinen in die Lage versetzen, Meinungen und Bedeutungen aus Texten (gesprochen oder geschrieben) herauszuarbeiten und beispielsweise zu beurteilen, ob eine Aussage positiv, negativ oder gar sarkastisch gemeint ist.



Shuffle

Shuffle meint eine Veränderung der Reihenfolge der Daten.



Smart Factory

Eine Smart Factory ist eine Fabrik, die mit intelligenten Maschinen und Systemen ausgestattet ist und in der die Produktion weitgehend automatisiert ist. Hierbei können beispielsweise Sensoren und Algorithmen eingesetzt werden, um den Produktionsprozess zu überwachen und zu optimieren.



Spyware

Als Spyware wird sämtliche Soft- und Hardware bezeichnet, die dazu verwendet wird, sensible Daten auszuspionieren.



Stable Diffusion

Stable Diffusion ist eine Methode der Bayesianischen Inferenz, die verwendet wird, um den Posterior einer unbekannten Verteilung zu berechnen. Sie wird häufig in der künstlichen Intelligenz und der Datenanalyse eingesetzt, um Inferenzprobleme mit großer Unsicherheit zu lösen und das Risiko von Ausreißern und falschen Vorhersagen zu minimieren.



StandardScaler

StandardScaler ist eine Anwendung von Scikit-Learn, mit dem Daten so transformiert, beziehungsweise standardisiert werden können, dass sie einen Mittelwert von 0 und eine Standardabweichung von 1 haben. Dies kann beim maschinellen Lernen nützlich sein, da viele Algorithmen empfindlich auf die Skalierung der Eingabedaten reagieren und die Standardisierung dabei helfen kann, diese Empfindlichkeit zu beseitigen.



Starke künstliche Intelligenz

„Artificial general intelligence“ bezeichnet Algorithmen, die in der Lage sind, sich selbst Wissen anzueignen und in vielen Bereichen - ganz ähnlich dem Menschen - anzuwenden. Hier wäre zu erwarten, dass diese Algorithmen dem Menschen nicht nur ebenbürtig, sondern in vielerlei Hinsicht deutlich überlegen wären. 



State-value function

Die state-value function beschreibt, wie gut (oder schlecht) ein Zustand nach einer erfolgten Handlung zu bewerten ist und findet im Kontext des Q-Learnings Verwendung.



Stratified Sampling

Das Stratified Sampling ist eine Methode zur Reduktion von Instanzen innerhalb eines Datensatzes. Dabei werden die Anteile der Instanzen des originalen Datensets im reduzierten Datensatz beibehalten.



Strukturierte Daten

Strukturierte Daten sind Daten, die in einer bestimmten Form oder einem bestimmten Format vorliegen und in einer Datenbank oder einem Tabellenkalkulationsprogramm organisiert werden können. Beispiele für strukturierte Daten sind Kundendaten, Bestellhistorien oder Finanzdaten. Strukturierte Daten sind einfach zu verarbeiten und werden in der künstlichen Intelligenz häufig in der Datenanalyse und der Modellierung eingesetzt.



Superintelligenz

Superintelligenz bezieht sich auf die Hypothese, dass künstliche Intelligenz eines Tages menschliche Intelligenz übertreffen wird. Eine Superintelligenz wäre in der Lage, komplexe Probleme schnell und effektiv zu lösen und möglicherweise neue Technologien und Entdeckungen zu entwickeln. Die Superintelligenz ist ein wichtiges Thema in der Diskussion über die zukünftige Entwicklung der künstlichen Intelligenz und die möglichen Auswirkungen auf die Gesellschaft.



Supervisory Control and Data Acquisition (SCADA)

Supervisory Control and Data Acquisition ist ein System zur Überwachung und Steuerung von Produktionsprozessen. Hierbei werden Daten von Sensoren und Geräten erfasst und an ein zentrales System übertragen, das dann die Steuerung der Prozesse übernimmt.



Support Vector Machine (SVM)

Eine Support Vector Machine ist ein Algorithmus des maschinellen Lernens, der verwendet wird, um binäre Klassifikationsprobleme zu lösen. Sie nutzt eine Trennebene, um die Daten in zwei Klassen zu unterteilen, und maximiert den Abstand zwischen der Trennebene und den nächsten Datenpunkten. SVMs sind bekannt für ihre hohe Vorhersagegenauigkeit und werden häufig in der Datenanalyse und der Bilderkennung eingesetzt.



T

Teachable Machine

Teachable Machine ist eine Plattform von Google, die es Benutzern ermöglicht, maschinelles Lernen ohne Programmierkenntnisse zu erlernen. Benutzer können eigene Modelle erstellen, indem sie eigene Daten in die Plattform hochladen und das Modell trainieren. Teachable Machine ist ein nützliches Tool für diejenigen, die maschinelles Lernen in verschiedenen Anwendungen einsetzen möchten.



TensorFlow

TensorFlow ist ein Framework für maschinelles Lernen, das von Google entwickelt wurde. Es bietet Tools für die Entwicklung und das Training von neuronalen Netzen und anderen künstlichen Intelligenz-Modellen. TensorFlow ist für seine Leistung und Flexibilität bekannt und wird von vielen Unternehmen und Forschern verwendet.



Testdaten

Testdaten sind Daten, die verwendet werden, um die Leistung eines maschinellen Lernmodells zu bewerten, nachdem es auf den Trainingsdaten trainiert wurde. Die Testdaten sollten unabhängig von den Trainingsdaten sein und eine repräsentative Stichprobe der Gesamtpopulation darstellen.



Trainingsdaten

Trainingsdaten sind Daten, die zum Training eines maschinellen Lernmodells verwendet werden. Das Modell lernt aus diesen Daten, um Vorhersagen auf neuen Daten treffen zu können. Die Qualität der Trainingsdaten hat einen erheblichen Einfluss auf die Leistung des Modells.



Transfer Learning

Transfer Learning ist ein Ansatz des maschinellen Lernens, bei dem ein Modell, das auf einer bestimmten Aufgabe trainiert wurde, auf eine ähnliche, aber nicht identische Aufgabe angewendet wird. Durch die Verwendung von Transfer Learning kann man die Trainingszeit reduzieren und die Leistung des Modells verbessern.



Trojaner

Ein Trojaner ist eine vermeintlich nützliche Datei, die genutzt wird, um andere Malware auf einen Rechner einzuschleusen.



U

Underfitting

Underfitting ist ein Problem, das bei der Modellierung auftritt, wenn das Modell nicht in der Lage ist, die zugrunde liegenden Muster in den Daten zu erfassen. Dies kann dazu führen, dass das Modell schlechte Vorhersagen macht und seine Leistung bei der Generalisierung auf neue Daten beeinträchtigt wird. Underfitting tritt häufig auf, wenn das Modell zu einfach oder unzureichend trainiert ist.



Unstrukturierte Daten

Unstrukturierte Daten sind Daten, die nicht in einer bestimmten Form oder einem bestimmten Format vorliegen und nicht in einer Datenbank oder einem Tabellenkalkulationsprogramm organisiert werden können. Beispiele für unstrukturierte Daten sind Texte, Bilder oder Audiodateien. Unstrukturierte Daten sind schwieriger zu verarbeiten als strukturierte Daten und erfordern oft spezielle Methoden der Verarbeitung



Unsupervised Feature Learning

Unsupervised Feature Learning ist eine Methode des maschinellen Lernens, bei der das Modell aus den Daten selbst lernt, welche Merkmale (Features) relevant sind. Im Gegensatz zur überwachten Lernmethode werden die Daten nicht gelabelt, und das Modell wird aufgefordert, Muster und Strukturen in den Daten zu identifizieren.



V

Validation split

Als validation split wird der Anteil der Trainingsdaten bezeichnet, der zur Validierung des Modells genutzt wird und dient dazu, die Modell-Performance zu verbessern. Er hilft, die Genauigkeit zu bestimmen, mit der das Modell nach Abschluss der Trainingsphase arbeitet.



Validationsdaten

Validationsdaten sind eine Art von Daten, die verwendet werden, um die Leistung eines maschinellen Lernmodells zu bewerten und zu optimieren. Sie werden verwendet, um das Modell während des Trainings zu überwachen und zu vermeiden, dass es überangepasst wird. Validationsdaten sollten unabhängig von den Trainings- und Testdaten sein und eine repräsentative Stichprobe der Gesamtpopulation darstellen.



Value functions

Anhand der value-function wird untersucht, wie gut eine Handlung in der gegebenen Situation ist. Die state-value function beschreibt, wie gut (oder schlecht) ein Zustand nach einer Handlung zu bewerten ist. Die action-value function beschreibt, wie gut (oder schlecht) eine Handlung in besagtem Zustand ist. Beide Funktionen bestimmen die Qualität der Handlung und sind Bestandteil des Q-Learnings.



Verbosität

Anhand der Verbose-Einstellung kann bestimmt werden, wie viele Informationen beim Training angezeigt werden. Dies kann beispielsweise in der Fehlersuche oder zum Verständnis des Modellfortschritts nützlich sein, ohne die Modell-Performance zu beeinflussen.



Verlustfunktion

Eine Verlustfunktion (engl. loss function) ist eine Funktion, die in der künstlichen Intelligenz (KI) und dem maschinellen Lernen verwendet wird, um die Abweichung zwischen den tatsächlichen Daten und den vorhergesagten Ergebnissen zu quantifizieren. Die Verlustfunktion gibt ein Maß dafür, wie gut ein Modell abschneidet, indem sie die Differenz zwischen den tatsächlichen und den vorhergesagten Werten misst. Das Ziel besteht darin, eine Verlustfunktion zu minimieren, um eine optimale Vorhersage zu erreichen. Es gibt verschiedene Arten von Verlustfunktionen, die je nach der Art des zu lösenden Problems und des Modells verwendet werden können. Ein Beispiel für eine Verlustfunktion ist die Mittlere quadratische Abweichung (Mean Squared Error), die verwendet wird, um die Differenz zwischen den tatsächlichen und den vorhergesagten Werten zu messen.



Versteckte Schichten

Als versteckte Schichten (engl. hidden layer) werden alle Schichten zwischen Eingabe (engl. Input-Layer)- und Ausgabeschicht (engl. Output-Layer) bezeichnet.



Virtuelle Inbetriebnahme

Virtuelle Inbetriebnahme ist ein Prozess, bei dem ein Produktionsprozess in einer virtuellen Umgebung simuliert wird, bevor er in der realen Welt implementiert wird. Dies kann helfen, mögliche Fehler und Probleme zu identifizieren und zu beheben, bevor sie in der Produktion auftreten.



Virus

Ein Virus bezeichnet eine Datei mit schädlichem Code, die versucht, sich weiter zu verbreiten.



W

Wrapper-Ansatz

Der Wrapper-Ansatz ist eine Form der Dimensionalitätsreduktion, bei dem einzelne Features selektiv entfernt bzw. hinzugefügt und die Auswirkungen auf die Performance des Lernalgorithmus gemessen werden. Je nach Einfluss auf die Performance kann entschieden werden, ob das jeweilige Feature analyserelevant ist.



Z

Zeitreihenanalyse

Zeitreihenanalyse ist ein Verfahren zur Untersuchung von Daten, die sich über die Zeit ändern. Es wird verwendet, um Muster in den Daten zu identifizieren, Trends zu erkennen und Vorhersagen über zukünftige Entwicklungen zu treffen.



F

f1-Score

Der f1-Score ist eine Messgröße für die Genauigkeit eines Modells, die Präzision und Recall ausgleicht. Er ist definiert als der harmonische Mittelwert von Präzision und Recall. Dabei reicht der Score von 0 bis 1. Ein hoher f1-Score bedeutet, dass das Modell ein gutes Gleichgewicht zwischen Präzision und Recall aufweist.



Ü

Überwachtes Lernen

Unter supervised learning (dt. überwachtes Lernen) wird eine Unterart des maschinellen Lernens verstanden. Bei dieser Lernform liegt dem Algorithmus ein Datensatz vor, bei dem die Zielvariable bekannt ist. Man spricht auch davon, dass die Daten gelabelt sind.  Der Algorithmus versucht nun, anhand einer großen Menge von Trainingsdaten solche Muster zu erkennen, die zur erfolgreichen Vorhersage der Zielvariable führen



Seite:  1  2  3  4  5  6  7  8  9  10  ...  17  (Weiter)
  Alle