Glossar
Special | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | ALL
A |
---|
Active LearningActive Learning ist ein Ansatz des maschinellen Lernens, bei dem das Modell iterativ ausgewählte Beispiele zur Klassifizierung oder Vorhersage erhält. Das Modell kann durch den Prozess des "aktiven Lernens" präziser und effizienter werden, indem es gezielt diejenigen Datenpunkte auswählt, die die größte Unsicherheit oder Diskrepanz in den bisherigen Vorhersagen aufweisen. | |
Adam-OptimizerDer ADAM-Optimizer ist ein Optimierungsalgorithmus, der in der Deep-Learning-Methode der künstlichen Intelligenz verwendet wird, um die Gewichte eines neuronalen Netzes anzupassen. Der Name steht für "Adaptive Moment Estimation". ADAM ist eine Erweiterung des Stochastic-Gradient-Descent-Verfahrens (SGD) und nutzt adaptive Schrittweiten und Momente, um die Lernrate automatisch zu justieren. Es ist ein effektiver Optimierungsalgorithmus, der in vielen Anwendungen verwendet wird. | ||
AdaptabilitätAdaptabilität bezieht sich auf die Fähigkeit eines KI-Systems, sich an sich ändernde Umgebungsbedingungen anzupassen und flexibel zu reagieren. Es ist eine wichtige Eigenschaft von KI-Systemen, da sie in einer Vielzahl von Umgebungen eingesetzt werden können und sich schnell an neue Situationen anpassen müssen. Ein Beispiel hierfür ist eine selbstfahrende Autosoftware, die in der Lage ist, sich an verschiedene Wetterbedingungen und Verkehrssituationen anzupassen. | ||
AktivierungsfunktionEine Aktivierungsfunktion ist eine mathematische Funktion, die in einem künstlichen neuronalen Netzwerk verwendet wird, um die Ausgabe jedes Neurons zu bestimmen. Es transformiert die gewichteten Eingaben eines Neurons in eine Ausgabe, die als Eingabe für das nächste Neuron dient. Ein Beispiel für eine Aktivierungsfunktion ist die Sigmoid-Funktion, die eine S-förmige Kurve erzeugt und häufig in neuronalen Netzen verwendet wird. | |
AnomalieEine Anomalie ist eine Abweichung von einer Norm. | |
AnomalieerkennungsalgorithmusEin Anomalieerkennungsalgorithmus ist ein Algorithmus, der verwendet wird, um ungewöhnliche oder abnormale Muster in Daten zu erkennen. Er kann beispielsweise in der Cybersicherheit eingesetzt werden, um ungewöhnliche Aktivitäten in Netzwerken zu erkennen, oder in der Medizin, um abnormale Zellmuster zu identifizieren. Ein Beispiel für einen Anomalieerkennungsalgorithmus ist der Isolation-Forest-Algorithmus. | |
Artificial intelligenceArtificial intelligence (abgekürzt mit AI oder A.I.) ist der englische Begriff für künstliche Intelligenz. | |
AssessAssess ist eine Kategorie im Periodensystem der KI, das von Kristian Hammond entwickelt wurde. Es bezieht sich auf Technologien, die zur Bewertung oder Einschätzung von Daten und Informationen verwendet werden. Beispiele hierfür sind Klassifikations- und Clustering-Algorithmen, die dazu verwendet werden, Muster in Daten zu erkennen und Vorhersagen zu treffen. | |
AusgabeschichtDie Ausgabeschicht (output-layer) ist die letzte Schicht von Neuronen in einem neuronalen Netzwerk, die bestimmte Ausgaben für das Programm erzeugt. Die Größe einer solchen Ausgabeschicht ist abhängig von der Anzahl der möglichen Klassifikationen. Die Neuronen dieser Schicht werden auch als Ausgabeneuronen (output-nodes) bezeichnet. | ||
AutoencoderEin Autoencoder ist ein
neuronales Netzwerk, das verwendet wird, um die Eingabe zu rekonstruieren. Es
besteht aus zwei Teilen: einem Encoder, der die Eingabe in einen
niedrigerdimensionalen Vektor komprimiert, und einem Decoder, der den Vektor
wieder in die ursprüngliche Eingabe transformiert. Autoencoder können für die
Reduktion von Datenraum oder zur Generierung von ähnlichen Daten verwendet
werden. | |
Automated Quality ControlAutomated Quality Control bezieht sich auf den Einsatz von Maschinen und Algorithmen zur Überwachung und Verbesserung der Qualität von Produkten. Hierbei können beispielsweise Bildverarbeitungsalgorithmen eingesetzt werden, um Fehler in der Produktion zu erkennen und zu korrigieren. | ||
AutonomitätAutonomität bezeichnet die Fähigkeit zur Selbstbestimmung, Selbstständigkeit oder auch Unabhängigkeit. | |
B |
---|
BackpropagationBackpropagation ist ein Algorithmus für das Training von neuronalen Netzen, der verwendet wird, um die Fehler zwischen den tatsächlichen und den vorhergesagten Ergebnissen zu minimieren. Der Algorithmus berechnet den Gradienten der Verlustfunktion und passt die Gewichte des Netzes entsprechend an. Backpropagation ist ein wichtiger Schritt bei der Entwicklung von Deep-Learning-Modellen. | |
BaggingBagging (Bootstrap Aggregating) ist eine Methode des Ensemble-Lernens, die verwendet wird, um die Vorhersagegenauigkeit von Modellen zu verbessern. Sie besteht darin, mehrere Modelle auf unterschiedlichen Teilmengen von Trainingsdaten zu trainieren und ihre Vorhersagen zu aggregieren. Bagging wird häufig in Entscheidungsbäumen und Random Forests eingesetzt. | ||
Batch ProcessingBatch
Processing ist ein Ansatz zur Verarbeitung von Daten, bei dem mehrere Aufgaben
in einem Stapel (Batch) zusammengefasst und sequentiell abgearbeitet werden.
Dies kann die Effizienz der Verarbeitung erhöhen, insbesondere wenn die Aufgaben
ähnliche Anforderungen haben | |
Batch-SizeDer Batch-Size bezieht sich auf die Anzahl der Trainingsbeispiele, die in einer Iteration einer Lernmethode wie Gradient Descent oder Stochastic Gradient Descent verwendet werden. Ein höherer Batch-Size führt normalerweise zu einer schnelleren Konvergenz des Modells, da die Gewichte des Modells weniger häufig aktualisiert werden. Ein niedrigerer Batch-Size kann jedoch dazu beitragen, das Modell vor Überanpassung zu schützen, da es mehr Variationen in den Trainingsdaten gibt. | |
Bayes'sche StatistikBayes'sche Statistik ist eine Methode der statistischen Inferenz, die auf der Bayes'schen Regel beruht. Sie verwendet Wahrscheinlichkeiten, um Hypothesen zu bewerten und Vorhersagen zu machen. Bayes'sche Statistik wird in der künstlichen Intelligenz und der Datenanalyse eingesetzt, um Entscheidungen auf der Grundlage von Unsicherheit und Unvollständigkeit zu treffen. | |
Bedeutung von MerkmalenDie Bedeutung von Merkmalen ist eine Technik, bei der die Bedeutung verschiedener Merkmale oder Variablen im Entscheidungsprozess eines KI-Modells analysiert wird. Auf diese Weise lässt sich feststellen, welche Faktoren bei den Entscheidungen des Modells den größten Einfluss haben, und es kann erklärt werden, wie das Modell zu einem bestimmten Ergebnis gekommen ist. | |
Bellman-GleichungDie Bellmann-Gleichung ist eine Gleichung, die in der Verstärkungslernmethode der künstlichen Intelligenz verwendet wird, um den erwarteten Nutzen einer Aktion in einem bestimmten Zustand zu berechnen. Sie berücksichtigt die zukünftigen Belohnungen, die durch die Aktionen in dem Zustand erzielt werden können. Die Bellmann-Gleichung ist ein wichtiger Bestandteil der Q-Lernmethode und anderer Verstärkungslernmethoden. | |
Bestärkendes LernenBestärkendes Lernen bezieht sich auf eine Lernmethode der künstlichen Intelligenz, bei der ein Agent in einer Umgebung agiert und Belohnungen für seine Aktionen erhält. Das Ziel des Agenten ist es, eine Strategie zu entwickeln, die es ihm ermöglicht, langfristig mehr Belohnungen zu erhalten. Das bestärkende Lernen ist eine wichtige Technik für die Entwicklung von KI-Systemen, die in Umgebungen wie Videospielen oder Robotik eingesetzt werden. | ||
BiasBias bezieht sich auf eine systematische Abweichung in den Vorhersagen eines künstlichen Intelligenz-Modells. Es tritt auf, wenn das Modell nicht in der Lage ist, alle relevanten Informationen in den Trainingsdaten zu erfassen und daher bestimmte Arten von Mustern oder Merkmalen bevorzugt. Ein Beispiel hierfür ist ein Gesichtserkennungsmodell, das bestimmte Ethnien oder Geschlechter aufgrund von Vorurteilen bevorzugt. | |
Big DataBig Data ist kein Teilgebiet der KI oder gar ein Synonym von ihr. Bei Big Data handelt es sich um größere und komplexere Datensätze, vor allem aus neuen Datenquellen. Diese Datensätze sind so umfangreich, dass sie nicht mit klassischer Datenverarbeitungssoftware verwaltet werden können. Die im Rahmen von Big Data zusammengefassten Daten eignen sich zur Analyse durch maschinelle Lernalgorithmen. KI benötigt eine große Menge an Daten, um zu lernen und Entscheidungsprozesse zu verbessern, und Big-Data-Analytik nutzt KI für eine verbesserte Datenanalyse. | |
BilderkennungsalgorithmusEin Bilderkennungsalgorithmus ist ein Algorithmus, der verwendet wird, um Bilder automatisch zu identifizieren und zu kategorisieren. Er nutzt Deep-Learning-Methoden wie Convolutional Neural Networks (CNNs), um Merkmale in Bildern zu extrahieren und sie dann mit einem Trainingsdatensatz von annotierten Bildern abzugleichen. Ein Beispiel für einen Bilderkennungsalgorithmus ist das Google Cloud Vision API, das in der Lage ist, Objekte, Gesichter und Text in Bildern zu erkennen und zu beschreiben. | |
Blackbox-ModelleEinige KI-Modelle, wie z. B. Deep-Learning-Modelle, können als "Blackbox" bezeichnet werden, da sie schwer zu interpretieren und zu erklären sind. Diese Modelle können komplexe Algorithmen und Prozesse verwenden, um Entscheidungen zu treffen und der Entscheidungsfindungsprozess lässt sich möglicherweise nicht ohne Weiteres auf die Eingabedaten oder die verwendeten Parameter zurückführen. | |
C |
---|
ChatbotsChatbots sind Computerprogramme, die in der Lage sind, automatisierte Gespräche mit Menschen zu führen. Sie werden häufig eingesetzt, um Kundensupport zu leisten oder Informationen bereitzustellen. | |
ClusteringClustering ist eine Methode der künstlichen Intelligenz, bei der ähnliche Datenpunkte automatisch in Gruppen (Clusters) zusammengefasst werden. Dabei werden die Datenpunkte basierend auf ihrer Ähnlichkeit oder Distanz zueinander gruppiert. Clustering wird oft in der Datenanalyse und in der Bildverarbeitung eingesetzt. | |
Condition MonitoringCondition Monitoring ist ein Prozess zur Überwachung der Zustände von Maschinen oder Anlagen, um potenzielle Probleme frühzeitig zu erkennen. Dies wird durch die kontinuierliche Erfassung und Analyse von Daten wie Vibrationen, Temperaturen und Drücken erreicht. | ||
Convolutional Neural Network (CNN)Ein Convolutional Neural Network (CNN) ist eine Art von neuronalen Netzwerken, die speziell für die Verarbeitung von Bildern und Videos entwickelt wurden. CNNs verwenden Convolutional Layers, um lokale Muster in den Eingabedaten zu erkennen, und Pooling Layers, um die Daten zu reduzieren und das Rauschen zu minimieren. CNNs werden häufig in der Bilderkennung und -klassifizierung eingesetzt. | |
D |
---|
Data-DriftData-Drift entsteht durch eine Änderung der Verteilung der Eingabedaten. Das Modell kann dann möglicherweise nicht mehr in der Lage sein, beispielsweise (Qualitäts-)probleme genau zu identifizieren, da es auf veralteten oder nicht repräsentativen Daten basiert. Meist ist dann eine Aktualisierung der Datengrundlage oder Anpassen des gesamten Modells von Nöten. | |
DatenschutzBei Datenschutz geht es konkret um den Schutz der Privatsphäre und der Persönlichkeitsrechte natürlicher Personen. Datenschutz bezieht sich auf personenbezogene Daten. | |
DatensicherheitDatensicherheit ist eine notwendige Voraussetzung, um den Datenschutz zu gewährleisten. Dabei geht es darum, dass die Daten (personen- und nicht-personenbezogene Daten), insbesondere wenn sie in KI-Algorithmen zum Einsatz kommen, ein besonderer Schutz zuteilwird. "Allgemein versteht man unter Datensicherheit - die Vertraulichkeit (nur autorisierte Benutzer*innen haben Zugang zu übertragenen und gespeicherten Daten), - die Integrität (Schutz vor beabsichtigten oder unbeabsichtigten Veränderungen), - die Verfügbarkeit (Gewährleistung des ständigen Zugriffs auf Daten) - und die Kontrollierbarkeit (Prüfung der Maßnahmen durch Protokollierung). Datensicherheit hat also zum Ziel, beliebige Daten vor Schäden wie Manipulation und Nicht-Verfügbarkeit zu schützen." (Hochschule Augsburg) | |
Deep LearningDeep Learning ist eine spezielle Methode der Informationsverarbeitung und stellt einen Teilbereich des Maschinellen Lernens (engl. Machine Learning) dar. Anhand von Deep Learning können unter Verwendung künstlicher neuronaler Netze beispielsweise große Datensätze analysiert werden. | ||
Dense-LayerDense-Layer sind die einfachste Form einer Schicht eines künstlichen neuronalen Netzes. Bei dieser Form der Schicht sind alle Neuronen der Schicht mit allen Ausgabeneuronen der vorherigen Schicht verbunden, also vollständig vernetzt. | |
Digitaler ZwillingEin Digitaler Zwilling ist eine virtuelle Repräsentation eines physischen Objekts, Prozesses oder Systems, die kontinuierlich mit Daten gefüttert wird und es ermöglicht, Vorhersagen über das Verhalten des realen Objekts zu treffen. Der Digitale Zwilling wird oft verwendet, um die Leistung zu optimieren, die Wartung zu verbessern oder die Produktionseffizienz zu steigern. | |
DimensionalitätsreduktionDie Dimensionalitätsreduktion stellt eine Methode dar, die dabei hilft möglichst aussagekräftige Variablen zur Weiterverwendung des Datensatzes zu finden und somit die Runtime von Machine Learning-Algorithmen möglichst effizient zu gestalten. Verschiedene Methoden hierzu sind beispielsweise die Korrelationsanalyse, der Wrapper-Ansatz oder die Hauptkomponentenanalyse (PCA). | |
DimensionenDimensionen, auch Features genannt, benennen die Eigenschaften von Daten innerhalb eines Datensatzes. | |
Diskontierte BelohnungDie Diskontierte Belohnung ist Bestandteil des bestärkenden Lernens und findet Anwendung bei Aufgaben, die keine endliche Zahl an Zeitschritten haben, sondern durch andere Umstände beendet werden. Dabei muss der Agent die Belohnung für zeitlich näher liegende Handlungen stärker gewichten als für spätere. Dazu wird ein Faktor zwischen 0 und 1 eingeführt, mit dem zeitlich weiter entfernte Belohnungen multipliziert werden. So entsteht ein „Wichtigkeitsgefälle“ der Belohnungen und die unmittelbareren Belohnungen erhalten einen größeren Einfluss auf den Agenten. | ||
DroputDropout ist eine Regularisierungstechnik für neuronale Netzwerke, die zufällig einige der Knoten während des Trainings deaktiviert. Dies hilft, das Overfitting zu reduzieren und das Modell robuster zu machen. | |
E |
---|
Edge ComputingEdge Computing ist ein Ansatz, bei dem Datenverarbeitung und -speicherung dezentralisiert auf Geräten in der Nähe der Datenquelle erfolgen, anstatt sie an entfernte Server zu senden. Dies kann die Latenz reduzieren und die Effizienz von IoT-Systemen verbessern. | |
EingabeschichtenDie Eingabeschicht (engl. input-layer) ist die erste Schicht eines neuronalen Netzes. Sie besteht aus einer bestimmten Anzahl an Eingabeneuronen (engl. input-nodes). Die Größe der Eingabeschicht hängt von den Eingabedaten ab. | ||
End-to-End-LösungEine End-to-End-Lösung ist eine vollständige Lösung für ein bestimmtes Problem, die alle Schritte von Anfang bis Ende umfasst. Im Kontext von KI in der Produktion könnte eine End-to-End-Lösung beispielsweise aus Datenverarbeitung, Modellbildung, Implementierung und Überwachung bestehen. | |
Ensemble LearningEnsemble Learning ist eine Methode des maschinellen Lernens, bei der mehrere Modelle zusammenarbeiten, um eine Vorhersage zu treffen. Indem man die Vorhersagen der verschiedenen Modelle aggregiert, kann man die Vorhersagegenauigkeit erhöhen und das Risiko von Fehlern verringern. | |
EntscheidungsbaumEin Entscheidungsbaum ist ein Diagramm, das Entscheidungen auf der Grundlage von Bedingungen darstellt. Er besteht aus einem Wurzelknoten, der die Eingangsvariablen darstellt, und verschiedenen Zweigen, die die Bedingungen und Entscheidungen repräsentieren. Entscheidungsbäume werden häufig in der künstlichen Intelligenz und der Datenanalyse eingesetzt, um Vorhersagemodelle zu erstellen. | |
EpochenEpochs beschreiben die Anzahl vollständiger Datendurchläufe durch ein neuronales Netz. | ||
F |
---|
FeatureBei Features, auch Dimensionen genannt, handelt es sich um die Eigenschaften von Daten. | ||
Feature-EngineeringFeature-Engineering ist der Prozess der Auswahl und Vorbereitung von Datenmerkmalen für die Verwendung in einem maschinellen Lernmodell. Es beinhaltet die Identifikation relevanter Merkmale und die Anwendung von Transformations- und Skalierungstechniken, um die Merkmale für das Modell vorzubereiten. | |
Fuzzy LogicFuzzy Logic ist eine Methode der Logik, die unscharfe oder unsichere Informationen verarbeiten kann. Im Gegensatz zur klassischen Logik, die nur "wahr" oder "falsch" zulässt, können in der Fuzzy Logic Zwischenwerte und Unsicherheiten berücksichtigt werden. | |
G |
---|
Gaussian Mixture Model (GMM)Ein Gaussian Mixture Model ist ein statistisches Modell, das zur Analyse von Datenverteilungen verwendet wird. Es modelliert die Daten als Mischung von Gauss-Verteilungen und kann zur Clusteranalyse und zur Vorhersage von Wahrscheinlichkeiten eingesetzt werden. | |
Generatives adversarisches Netzwerk (GAN)Ein generatives adversarisches Netzwerk (GAN) ist ein neuronales Netzwerk, das aus einem Generator und einem Diskriminator besteht. Der Generator erzeugt neue Daten, während der Diskriminator entscheidet, ob die erzeugten Daten echt oder gefälscht sind. Das Ziel eines GANs ist es, den Generator so zu trainieren, dass er immer bessere gefälschte Daten erzeugen kann, die vom Diskriminator nicht von echten Daten unterschieden werden können. GANs werden häufig für die Erstellung von Bildern und Musik verwendet. | ||
Genetischer AlgorithmusEin genetischer Algorithmus ist eine Methode des maschinellen Lernens, die auf der Evolutionstheorie basiert. Er nutzt evolutionäre Prinzipien wie Selektion, Rekombination und Mutation, um eine optimale Lösung für ein Problem zu finden. Genetische Algorithmen werden häufig in der Optimierung und im maschinellen Lernen eingesetzt. | |
GewichteDie Gewichtung eines Inputs bestimmt, wie stark der Einfluss des jeweiligen Features auf das neuronale Netz ist. Aus den Features und ihren Gewichtungen wird die gewichtete Summe gebildet, die dann an eine Aktivierungsfunktion weitergegeben wird. | |
Gradient DescentGradient Descent ist ein Optimierungsalgorithmus, der verwendet wird, um die Gewichte in einem neuronalen Netzwerk oder einem anderen maschinellen Lernmodell anzupassen. Der Algorithmus nutzt den Gradienten der Verlustfunktion, um die Richtung zu bestimmen, in der die Gewichte angepasst werden sollen. Durch die wiederholte Anwendung von Gradient Descent können die Gewichte so angepasst werden, dass die Verlustfunktion minimiert wird und das Modell bessere Vorhersagen macht. | |
H |
---|
Hauptkomponentenanalyse (PCA)Die Hauptkomponentenanalyse (PCA) ist eine Methode der linearen Algebra, die verwendet wird, um die Dimensionalität von Daten zu reduzieren. Dabei wird eine große Anzahl von Variablen in eine kleinere Anzahl von Variablen umgewandelt, wobei die meisten Informationen beibehalten werden. PCA ist eine häufig verwendete Technik in der Datenanalyse und der Bildverarbeitung. | |
Human-Robot CollaborationHuman-Robot Collaboration bezieht sich auf die Zusammenarbeit von Menschen und Robotern bei Produktionsaufgaben. Hierbei kann es beispielsweise um die gemeinsame Bearbeitung von Werkstücken oder die Übernahme gefährlicher oder schwerer Aufgaben durch Roboter gehen. | ||
HyperparameterHyperparameter sind Parameter in einem künstlichen Intelligenz-Modell, die vom Entwickler oder Forscher festgelegt werden müssen, bevor das Modell trainiert werden kann. Diese Parameter beeinflussen die Leistung des Modells und können z.B. die Anzahl der Schichten und Neuronen in einem neuronalen Netzwerk, die Lernrate oder den Batch-Size umfassen. Die Optimierung der Hyperparameter ist ein wichtiger Schritt in der Entwicklung von KI-Modellen. | |
I |
---|
Industrie 4.0Industrie 4.0 ist ein Konzept für die Automatisierung und Digitalisierung von Produktionssystemen. Es bezieht sich auf die Integration von intelligenten Maschinen, Cloud Computing, Big Data und künstlicher Intelligenz in Produktionsprozesse, um die Effizienz, Flexibilität und Qualität der Produktion zu verbessern. | |
InferInfer ist eine Kategorie im Periodensystem der KI, das von Kristian Hammond entwickelt wurde. Es bezieht sich auf Technologien, die zur Schlussfolgerung oder Vorhersage von Daten und Informationen verwendet werden. Ein Beispiel hierfür ist die Bayes'sche Inferenz, die verwendet wird, um Wahrscheinlichkeiten für Hypothesen zu berechnen. | |
InferenzDie Inferenz bezieht sich auf die Anwendung von Wissen oder Erfahrung, um Vorhersagen oder Entscheidungen zu treffen. In der künstlichen Intelligenz bezieht sich die Inferenz auf die Verwendung eines trainierten Modells, um Vorhersagen über neue Daten zu treffen. Ein Beispiel hierfür ist die Verwendung eines Bilderkennungsmodells, um neue Bilder zu analysieren und zu kategorisieren. | |
InstanzenInstanzen beziehen sich auf die konkreten Beispiele von Daten, die in einem künstlichen Intelligenz-Modell verwendet werden, um das Modell zu trainieren oder zu testen. Beispiele für Instanzen können Bilder, Texte oder Sensordaten sein. | |
Intelligent MaintenanceIntelligent Maintenance ist ein Ansatz, bei dem Wartungsprozesse durch die Analyse von Daten optimiert werden. Hierbei können beispielsweise Sensoren und Algorithmen eingesetzt werden, um den Zustand von Maschinen oder Anlagen zu überwachen und Wartungsbedarf frühzeitig zu erkennen. | ||
Intelligente SystemeAls intelligente Systeme werden Systeme bezeichnet, die in der Lage sind, Situationen zu bewerten, Handlungsoptionen abzuwägen und rationale Entscheidungen zu treffen. Außerdem zeichnet sie die Fähigkeit aus, sich an neue Situationen anzupassen. | |
Internet of Things (IoT)Das Internet of Things ist ein Konzept, bei dem Gegenstände und Geräte miteinander und mit dem Internet vernetzt werden. Hierbei können beispielsweise Sensoren Daten sammeln, die dann für die Überwachung und Steuerung von Prozessen eingesetzt werden. | |
J |
---|
Jupyter NotebookEin Jupyter-Notebook ist eine interaktive Umgebung für die Programmierung in verschiedenen Sprachen, wie Python, R oder Julia. Es bietet eine Möglichkeit, Code, Text und visuelle Darstellungen in einer einzelnen Datei zu kombinieren und zu teilen. Jupyter-Notebooks sind weit verbreitet in der Datenanalyse und der wissenschaftlichen Programmierung. | |
Just-in-Time (JIT)Just-in-Time ist eine Produktionstechnik, bei der Produkte erst dann hergestellt werden, wenn sie benötigt werden. Das Ziel ist es, die Lagerbestände zu minimieren und die Produktionseffizienz zu erhöhen. | |
K |
---|
K-MeansK-Means-Clustering ist ein Algorithmus des
nicht-überwachten Lernens, der zur Erstellung distinkter Datencluster verwendet
wird, die dann beispielsweise für diverse überwachte Lernalgorithmen genutzt
werden können. Da es sich um ein Problem des nicht-überwachten Lernens handelt,
gibt es keine Zielvariable. | |
K-Nächster Nachbar (KNN)Die K-Neighbors-Klassifizierung gehört zu den einfachsten und dennoch robustesten Machine-Learning-Algorithmen. Er wird häufig als Vergleichsmaßstab für komplexere Algorithmen, wie z. B. neuronale Netze herangezogen. Der KNN kann die Bezeichnung eines neuen Punktes auf der Grundlage der Bezeichnung seiner Nachbarn voraussagen. Dies beruht auf der Annahme, dass ähnliche Datenpunkte näher beieinander liegen. Das K stellt hierbei die Variable dar, die die Anzahl der hierfür betrachteten Nachbarn enthält. | ||
KeyloggerKeylogger sind Programme, die dazu genutzt werden, Tastenanschläge auf der Tastatur zu überwachen. So können beispielsweise sensible Eingaben, wie Passwörter, geleaked werden. | |
KonfusionsmatrixEine Konfusionsmatrix ist eine Tabelle, die verwendet wird, um die Leistung eines Klassifikators zu bewerten. Sie zeigt, wie oft jede Klasse korrekt und inkorrekt klassifiziert wurde. Die Konfusionsmatrix wird häufig in der künstlichen Intelligenz und der Statistik verwendet, um die Genauigkeit von Klassifikatoren zu messen. | |
KorrelationsanalyseDie Korrelationsanalyse ist eine Methode der statistischen Analyse, die verwendet wird, um die Beziehung zwischen zwei oder mehr Variablen zu untersuchen. Sie misst den Grad der linearen Beziehung zwischen den Variablen und gibt an, ob sie positiv oder negativ korrelieren. Die Korrelationsanalyse ist nützlich in der Datenanalyse und der Forschung, um Beziehungen zwischen verschiedenen Merkmalen zu untersuchen. | |
KorrelationskoeffizientDer Korrelationskoeffizient gibt an, wie stark der Zusammenhang zwischen zwei Merkmalen, wie beispielsweise Features ist. Die gängigste Methode ist der Pearsons-Koeffizient, bei der er Werte zwischen -1 und 1 annimmt, wobei 0 keine Korrelation bedeutet. Je weiter sich den Extrempunkten genähert wird, desto stärker ist die Korrelation. | |
Künstliche IntelligenzKünstliche Intelligenz (abgekürzt mit KI oder K.I.) „ist ein Teilgebiet der Informatik und gilt als die nächste wichtige Entwicklungsstufe der Digitalisierung. Dabei geht es darum, technische Systeme so zu konzipieren, dass sie Probleme eigenständig bearbeiten und sich dabei selbst auf veränderte Bedingungen einstellen können. Diese Systeme haben also die Eigenschaft zu lernen und mit Unsicherheiten (Wahrscheinlichkeiten) umzugehen, statt klassisch programmiert zu werden.“ (BMBF 2019) | ||
L |
---|
Lineare RegressionsanalysenDie lineare Regression wird verwendet, um kontinuierliche Werte vorherzusagen. Sie basiert auf der linearen Funktion f(x) = mx + b. Sie nimmt als Input einen (univariable) oder mehrere (multivariable) unabhängige Variablen (x-Werte) und gibt als Output die abhängige Variable y als Vorhersage zurück. | |
LinguistikDie Linguistik ist die wissenschaftliche Studie von Sprache und ihrer Struktur. Sie umfasst die Analyse von Sprachregeln, Grammatik, Semantik und Pragmatik. In der künstlichen Intelligenz wird die Linguistik häufig verwendet, um Spracherkennungs- und Sprachgenerierungssysteme zu entwickeln. | |
M |
---|
MalwareMit Malware oder auch Schadsoftware ist sämtliche Software gemeint, die dazu genutzt wird, einem Computersystem Schaden zuzufügen oder Informationen zu stehlen. | ||
Markovscher EntscheidungsprozessEin Markovscher Entscheidungsprozess ist ein mathematisches Modell der Entscheidungsfindung in einer Umgebung, in der der Zustand der Umgebung stochastisch ist. Ein Agent trifft Entscheidungen basierend auf einer Wahrscheinlichkeitsverteilung über mögliche Aktionen und deren Auswirkungen auf den Zustand der Umgebung. Der Markovsche Entscheidungsprozess wird in der künstlichen Intelligenz häufig in der Verstärkungslernmethode verwendet, um Entscheidungen in dynamischen Umgebungen zu treffen. | |
Maschinelles HörenAls maschinelles Hören (engl. computer audition) wird das Subfeld der KI-Forschung bezeichnet, welches sich mit der Aufnahme und Verarbeitung akustischer Signale beschäftigt. Mithilfe akustischer Sensoren werden Informationen aus der Umgebung oder aus Prozessketten gesammelt und automatisiert verarbeitet. Dabei sollen auf Grundlage dieser Analyse schnell und automatisch Entscheidungen getroffen werden. | ||
Maschinelles LernenMaschinelles Lernen ist das automatisierte Suchen und Finden von Mustern in Daten, um darauf aufbauend Vorhersagen zu den Daten zu treffen. | ||
Maschinelles SehenAls maschinelles Sehen (engl.: Computer Vision) wird das Feld der KI-Forschung bezeichnet, welches sich mit der Datenverarbeitung aus Bildern oder Videos beschäftigt. Mithilfe optischer Sensoren (z. B. Kameras) werden Bild- oder Videodaten gesammelt und vom Computer verarbeitet. Dabei wird sich die grundlegende Struktur eines digitalen Bildes bzw. Videos zu Nutze gemacht. | ||
MetrikDie Metrik ist ein Maß, um zu bestimmen, wie gut oder schlecht ein Modell ist. Oft handelt es sich dabei um die Genauigkeit der Vorhersage. | |
N |
---|
NOIRNOIR ist ein Akronym für die vier verschiedenen Arten von Skalen, die in der Statistik und Datenanalyse verwendet werden: nominal, ordinal, interval und ratio. Nominalskalen werden verwendet, um Objekte oder Ereignisse zu kategorisieren, z.B. Farben oder Geschlechter. Ordinalskalen ordnen Objekte oder Ereignisse nach einer Rangfolge, z.B. Schulnoten oder Platzierungen in einem Rennen. Intervallskalen messen die Unterschiede zwischen Werten, haben jedoch keine wahre Null, z.B. Temperaturen auf der Celsius-Skala. Ratioskalen haben eine wahre Null und messen Verhältnisse zwischen Werten, z.B. Größen und Gewichte. Die Kenntnis der Skalentypen ist wichtig für die Auswahl geeigneter statistischer Methoden und Visualisierungen in der Datenanalyse. | |
Naiver BayesDer Naive Bayes ist ein Klassifizierungsalgorithmus, der einzelne Features innerhalb einer Klasse völlig unabhängig voneinander betrachtet und davon ausgeht, dass alle Features zur Wahrscheinlichkeit, dass das Objekt dieser Klasse angehört, gleichermaßen beitragen. Er basiert auf dem Bayes-Theorem (bedingte Wahrscheinlichkeit). | |
Natural Language Processing (NLP)Sprachverarbeitung ist eine der am stärksten im Alltag vertretenen Anwendungen von künstlicher Intelligenz. Grundsätzlich beschäftigt sich das Feld der natürlichen Sprachverarbeitung (NLP, engl. natural language processing) mit der Verbindung zwischen menschlicher Sprache und Computern. | ||
Natürliche PersonAls natürliche Person ist der Mensch als Träger*in von Rechten und Pflichten gemeint. Davon abzugrenzen ist die juristische Person, die z. B. in Form von Vereinen, Gesellschaften und Körperschaften auftreten kann. | |
Neuronale NetzeNeuronale Netze sind ein Forschungszweig der künstlichen Intelligenz und darin eine Art des maschinellen Lernens. Sie sind in der Lage, sehr effektiv auch große Mengen an (unstrukturierten) Daten zu verarbeiten und eignen sich daher besonders für die Bewältigung von Big Data. Der Begriff hat seine Ursprünge zwar in der Biologie unseres Gehirns, jedoch haben heutige künstliche neuronale Netze nur wenig mit ihren biologischen Vorbildern zu tun. Die künstlichen Neuronen sind mathematische Formeln, die einen Input annehmen und einen Output weitergeben. Heutige neuronale Netze bestehen aus Tausenden bis Millionen dieser künstlichen Neuronen. | |
NeurowissenschaftenDie Neurowissenschaften sind ein multidisziplinäres Feld, das die Struktur, Funktion und Entwicklung des Nervensystems untersucht. Es umfasst Bereiche wie Neuroanatomie, Neurophysiologie, Neurochemie und Kognitive Neurowissenschaften. In der künstlichen Intelligenz werden Erkenntnisse aus der Neurowissenschaft oft genutzt, um neuronale Netze und andere KI-Modelle zu entwickeln und zu optimieren. | |
Nicht-überwachtes LernenBeim unsupervised learning handelt es sich um eine Methode des maschinellen Lernens, die ohne vorgegebene Zielvariable, also ohne Label, auskommt. Algorithmen des nicht-überwachten Lernens sind in der Lage, selbstständig Muster und Zusammenhänge in Daten zu erkennen. In vielen Fällen zeigen diese Algorithmen Zusammenhänge auf, die dem Menschen vorher nicht bewusst waren. Das macht sie zu einem wertvollen Werkzeug in einer ganzen Reihe von Anwendungsbereichen. | ||
NumPyNumPy ist eine Python-Bibliothek, die sich auf numerische Berechnungen und Datenanalyse spezialisiert hat. Sie bietet leistungsstarke Tools für die Manipulation von mehrdimensionalen Arrays und Matrizen, die für viele Anwendungen in der künstlichen Intelligenz und der Datenanalyse nützlich sind. | |
O |
---|
OptimalitätDie Optimalität beschreibt beim bestärkenden Lernen das Ziel des Agenten, die optimale Policy zu finden, d. h. die Policy, die ihm die höchstmögliche (diskontierte) Belohnung gibt. Die optimale Policy hat eine optimale state-value function und eine optimale action-value function. | |
OptimierungsalgorithmusEin Optimierungsalgorithmus ist ein Algorithmus, der verwendet wird, um den Wert einer Zielfunktion zu maximieren oder zu minimieren. In der künstlichen Intelligenz werden Optimierungsalgorithmen häufig in der Trainingsphase von neuronalen Netzen und anderen KI-Modellen verwendet, um die Gewichte des Modells anzupassen und die Leistung zu verbessern. Beispiele für Optimierungsalgorithmen sind Gradient Descent, Stochastic Gradient Descent und Adam. | |
OutlierOutlier, auch Ausreißer genannt, sind Messwerte, die sich stark von den restlichen Werten der Datenreihe unterscheiden und nicht in die Messreihe passen. | ||
OverfittingOverfitting bezeichnet eine Überanpassung des Algorithmus an die Trainingsdaten. Der Algorithmus lernt die Trainingsdaten sehr gut, ist aber nicht in der Lage, auf unbekannte Daten zu generalisieren. | |
P |
---|
PandasPandas ist eine Python-Bibliothek, die sich auf die Datenanalyse und die Manipulation von tabellarischen Daten spezialisiert hat. Sie bietet eine breite Palette von Funktionen zur Datenmanipulation und -analyse, einschließlich Datenbereinigung, Zusammenfassung, Filterung und Transformation. Pandas ist ein nützliches Tool in der künstlichen Intelligenz und der Datenanalyse, da es große Datensätze schnell und effizient verarbeiten kann. | |
Pearsons KoeffizientDer Pearsons Koeffizient ist ein Korrelationskoeffizient. Er bewegt sich zwischen -1 und 1, wobei ein Koeffizient >0 eine positive Korrelation, <0 eine negative Korrelation und =0 keine Korrelation bedeuten. | |
PersönlichkeitsrechteDie allgemeinen Persönlichkeitsrechte einer Person sind ein auf Artikel 1 und 2 des deutschen Grundgesetzes basierendes Rechtsinstitut, welches Personen die freie Entfaltung ihrer Persönlichkeit zusagt. Hier geht es vor allem darum, den Staat oder andere Institutionen daran zu hindern, in die Privatsphäre von Personen einzugreifen. | |
PixelBild- und auch Videodaten bestehen aus einem Raster von kleinen Bildpunkten, den sogenannten Pixeln. Jedes Pixel kann einen bestimmten Wert zwischen 0 und 255 annehmen. Anhand dieses Wertes wird dem Pixel ein exakter Farbwert zugewiesen. | |
PolicyDie Policy ist ein Algorithmus, der beim bestärkenden Lernen die Wahrscheinlichkeit, dass der Agent eine bestimmte Handlung vornimmt, beschreibt. | |
PolynomePolynome kommen zum Einsatz, wenn in einem Datensatz kein linearer Zusammenhang zwischen Daten zu finden ist. Diese Polynomial Features können aus der Preprocessing-Bibliothek von Scikit-Learn importiert und dann dazu verwendet werden, um in den Trainingsdaten polynome Features einzuführen. | |
Polynomiale RegressionPolynomiale Regression ist eine Methode der Regression, die verwendet wird, um den Zusammenhang zwischen einer unabhängigen Variable und einer abhängigen Variablen zu modellieren. Im Gegensatz zur linearen Regression können polynomiale Regressionen jedoch Kurven darstellen, indem sie höhergradige Polynome verwenden. Die Methode wird häufig in der Datenanalyse und der statistischen Modellierung eingesetzt. | |
PosteriorDer Posterior ist eine Wahrscheinlichkeitsverteilung, die in der Bayes'schen Statistik verwendet wird. Er beschreibt die Wahrscheinlichkeit einer Hypothese oder eines Modells basierend auf Beobachtungen und einem anfänglichen Satz von Wahrscheinlichkeiten. Der Posterior ist nützlich in der künstlichen Intelligenz und der Datenanalyse, um Inferenzprobleme zu lösen und Entscheidungen auf der Grundlage von Unsicherheit zu treffen. | |
PrivatsphärePrivatsphäre ist der Bereich einer Person, der nicht öffentlich ist. Artikel 2, Abs. 1 und Artikel 1, Abs. 1 des deutschen Grundgesetzes regeln, dass jede Person das Recht besitzt, in seinen oder ihren privaten Angelegenheiten in Ruhe gelassen zu werden. | |
ProzessoptimierungProzessoptimierung bezieht sich auf die kontinuierliche Verbesserung von Prozessen durch die Analyse und Anpassung von Prozessparametern. Hierbei können beispielsweise Algorithmen eingesetzt werden, um Engpässe oder Flaschenhälse (bottlenecks) in der Produktion zu identifizieren und zu beseitigen. | |
Prädiktive AnalytikPrädiktive Analytik bezieht sich auf den Prozess der Verwendung von Daten, statistischen Algorithmen und maschinellen Lernmethoden, um Vorhersagen über zukünftige Ereignisse oder Verhaltensweisen zu treffen. Prädiktive Analytik wird häufig in der Wirtschaft, der Finanzanalyse und anderen Bereichen eingesetzt, um Entscheidungen zu treffen und bessere Einblicke in zukünftige Entwicklungen zu gewinnen. | ||
Prädiktive WartungPrädiktive Wartung ist ein Ansatz, bei dem Daten und maschinelle Lernmethoden verwendet werden, um den Zustand von Maschinen oder Anlagen zu überwachen und Wartungsbedarf vorherzusagen. Ziel ist es, Wartungskosten zu reduzieren und Ausfallzeiten zu minimieren. | ||
PräzisionPräzision beschreibt die Anzahl der richtigen positiven Vorhersagen, geteilt durch die Anzahl der richtigen positiven plus falsch positiven Vorhersagen. Sie ist eine wichtige Kenngröße in der Beurteilung der Genauigkeit eines Modells. | |
PyTorchPyTorch ist ein Framework für maschinelles Lernen, das auf der Programmiersprache Python basiert. Es bietet Tools für die Entwicklung und das Training von neuronalen Netzen und anderen künstlichen Intelligenz-Modellen. PyTorch ist für seine Flexibilität und Benutzerfreundlichkeit bekannt und wird von vielen Unternehmen und Forschern verwendet. | |
PyplotPyplot ist ein Modul aus der Programmbibliothek Matplotlib und wird in der Programmiersprache Python zum Plotten (=grafischen Darstellen) von Daten verwendet. | |
Q |
---|
Q-LearningQ-Learning ist eine Unterart des bestärkenden Lernens, bei der die optimale action-value function, auch Q-Funktion genannt, gelernt werden soll. Dies gelingt über die Bellman-Gleichung. | |
Qualitative DatenQualitative Daten sind Daten, die nicht in numerischer Form vorliegen, sondern in Form von Beschreibungen oder Kategorien. Beispiele für qualitative Daten sind Geschlecht, Beruf oder Meinungen. Qualitative Daten werden oft in der Sozialforschung und der Anthropologie eingesetzt, um menschliches Verhalten und soziale Phänomene zu untersuchen. | |
Quality InspectionQuality Inspection ist ein Prozess zur Überprüfung der Qualität von Produkten oder Komponenten. Dies kann durch visuelle Inspektion, Messungen, Tests oder andere Methoden erfolgen. | |
Quantitative DatenQuantitative Daten sind Daten, die in numerischer Form vorliegen, z.B. Größen, Mengen oder Messungen. Quantitative Daten können diskret oder kontinuierlich sein und werden in der Datenanalyse und der statistischen Modellierung häufig eingesetzt. | |
R |
---|
R2-ScoreDer R2-Score ist ein statistisches Maß für die Genauigkeit eines Regressionsmodells. Er gibt an, wie gut die Vorhersage des Modells im Vergleich zu den tatsächlichen Daten ist, und variiert von 0 bis 1, wobei 1 eine perfekte Vorhersage darstellt. Der R2-Score wird häufig in der Datenanalyse und der Modellierung eingesetzt, um die Leistung von Regressionsmodellen zu bewerten. | |
Random ForestRandom Forest ist ein häufig verwendeter Regressions- und Klassifikationsalgorithmus für Maschinelles Lernen. Er besteht aus mehreren nicht zusammenhängenden Entscheidungsbäumen. | |
RansomwareRansomware sperrt Teile des befallenen Systems (oder sogar das gesamte System). Diese Teile sollen dann gegen ein Lösegeld wieder freigegeben werden. | |
ReLU-FunktionDie ReLU-Funktion ist eine Aktivierungsfunktion, die häufig in neuronalen Netzen verwendet wird. Sie ist definiert als max(0,x) und gibt den Wert von x zurück, wenn er positiv ist, und 0, wenn er negativ ist. Die ReLU-Funktion ist nützlich, um die Effizienz von neuronalen Netzen zu erhöhen und das Problem des Verschwindens des Gradienten zu vermeiden. | ||
RecallAuch bekannt
als Sensitivität (engl. recall) ist die Anzahl der richtigen positiven
Vorhersagen, geteilt durch die Anzahl der richtigen positiven plus falsch
positiven Vorhersagen. | ||
RegressionsalgorithmenRegressionsalgorithmen gehören zu den alltäglichsten Werkzeugen des maschinellen Lernens. Allen Regressionsalgorithmen ist gemein, dass sie versuchen, einen Zusammengang zwischen abhängigen (y / Label) und unabhängigen Variablen (x / Features) zu finden. Je nach Algorithmus und Linearität des Datensatzes wird hier eine sogenannte „Line of best fit“ (lineare Regression) oder eine Kurve (Polynomiale Regression) gefunden. | |
RegressionsanalyseDie Regressionsanalyse ist ein statistisches Verfahren, das verwendet wird, um die Beziehung zwischen einer abhängigen Variablen und einer oder mehreren unabhängigen Variablen zu untersuchen. Sie wird häufig in der Datenanalyse und dem maschinellen Lernen eingesetzt, um Vorhersagen zu treffen und Trends in den Daten zu identifizieren. | |
RegressionsproblemEin Regressionsproblem liegt vor, wenn die Ausgabeergebnisse eine
kontinuierliche Verteilung aufweisen und beliebige quantitative Werte innerhalb
eines vorgegebenen Wertebereichs annehmen können. | |
RespondRespond ist eine Kategorie im Periodensystem der KI, das von Kristian Hammond entwickelt wurde. Es bezieht sich auf Technologien, die entwickelt wurden, um menschenähnliche Reaktionen und Verhaltensweisen zu erzeugen, wie z.B. Chatbots, die auf Fragen antworten können. | |
Robotics Process Automation (RPA)Robotics Process Automation ist eine Technologie, die es ermöglicht, wiederkehrende Aufgaben und Prozesse zu automatisieren. Hierbei werden Software-Roboter eingesetzt, um manuelle Aufgaben in Geschäftsprozessen zu übernehmen. | |
RobotikDie Robotik bezieht sich auf das Feld der Technologie und Wissenschaft, das sich mit der Entwicklung von Robotern und ihrer Anwendung in der Industrie, Wissenschaft und im täglichen Leben beschäftigt. In der künstlichen Intelligenz wird die Robotik häufig in der Entwicklung von autonomen Systemen, Robotern und Drohnen eingesetzt. | |
Root Cause Analysis (RCA)Root Cause Analysis ist eine Methode zur Identifizierung der zugrundeliegenden Ursachen von Problemen oder Fehlern. Es handelt sich um einen strukturierten Ansatz, der darauf abzielt, die tatsächlichen Ursachen von Problemen zu identifizieren, um dauerhafte Lösungen zu finden und zukünftige Probleme zu vermeiden. | |
Root Mean Square Error (RMSE)Der RMSE ist ein Maß für den Unterschied zwischen den von einem
Regressionsmodell vorhergesagten Werten und den tatsächlichen Werten. Der RSME
gibt eine Vorstellung davon, wie groß der Fehler in den Vorhersagen des Modells
ist. Je niedriger der RMSE-Wert ist, umso präzisere Vorhersagen macht das
Modell. | |
S |
---|
SchichtenSchichten sind ein „Baustein“ neuronaler Netze. Sie bestehen aus der Anordnung mehrerer Neuronen. Mehrere dieser Schichten bilden ein neuronales Netz. Dabei wird zwischen Eingabeschichten (engl. input-layer), versteckten Schichten (engl. hidden -layer) und Ausgabeschichten(engl. output-layer) unterschieden. | ||
Schwache künstliche IntelligenzAlgorithmen mit schwacher künstlicher Intelligenz sind Meister auf einem eng umgrenzten Gebiet, wissen aber darüber hinaus meist nichts und können auch ihr Domänenwissen nicht auf neue Kontexte übertragen. Sämtliche KI-Anwendungen, die heute existieren, sind diesem Bereich zuzuordnen. | ||
SeabornSeaborn ist eine Python-Bibliothek, die speziell für die Visualisierung von statistischen Daten entwickelt wurde. Sie bietet eine Vielzahl von Diagrammtypen und Farbschemata, die die Datenanalyse und die Datenvisualisierung erleichtern. Seaborn ist nützlich in der Datenanalyse und der künstlichen Intelligenz, um Datenmuster und Trends zu identifizieren. | |
Semi-supervised LearningSemi-supervised Learning ist ein Ansatz des maschinellen Lernens, bei dem das Modell teilweise gelabelte und teilweise ungelabelte Daten verwendet. Das Modell nutzt die gelabelten Daten, um zu lernen, wie es die ungelabelten Daten klassifizieren oder vorhersagen kann. | |
SentimentanalyseMithilfe von Sentimentanalysen kann man Maschinen in die Lage versetzen, Meinungen und Bedeutungen aus Texten (gesprochen oder geschrieben) herauszuarbeiten und beispielsweise zu beurteilen, ob eine Aussage positiv, negativ oder gar sarkastisch gemeint ist. | |
ShuffleShuffle meint eine Veränderung der Reihenfolge der Daten. | |
Smart FactoryEine Smart Factory ist eine Fabrik, die mit intelligenten Maschinen und Systemen ausgestattet ist und in der die Produktion weitgehend automatisiert ist. Hierbei können beispielsweise Sensoren und Algorithmen eingesetzt werden, um den Produktionsprozess zu überwachen und zu optimieren. | ||
SpywareAls Spyware wird sämtliche Soft- und Hardware bezeichnet, die dazu verwendet wird, sensible Daten auszuspionieren. | |
Stable DiffusionStable Diffusion ist eine Methode der Bayesianischen Inferenz, die verwendet wird, um den Posterior einer unbekannten Verteilung zu berechnen. Sie wird häufig in der künstlichen Intelligenz und der Datenanalyse eingesetzt, um Inferenzprobleme mit großer Unsicherheit zu lösen und das Risiko von Ausreißern und falschen Vorhersagen zu minimieren. | |
StandardScalerStandardScaler ist eine Anwendung von Scikit-Learn, mit dem Daten so transformiert, beziehungsweise standardisiert werden können, dass sie einen Mittelwert von 0 und eine Standardabweichung von 1 haben. Dies kann beim maschinellen Lernen nützlich sein, da viele Algorithmen empfindlich auf die Skalierung der Eingabedaten reagieren und die Standardisierung dabei helfen kann, diese Empfindlichkeit zu beseitigen. | |
Starke künstliche Intelligenz„Artificial general intelligence“ bezeichnet Algorithmen, die in der Lage sind, sich selbst Wissen anzueignen und in vielen Bereichen - ganz ähnlich dem Menschen - anzuwenden. Hier wäre zu erwarten, dass diese Algorithmen dem Menschen nicht nur ebenbürtig, sondern in vielerlei Hinsicht deutlich überlegen wären. | ||
State-value functionDie state-value function beschreibt, wie gut (oder schlecht) ein Zustand nach einer erfolgten Handlung zu bewerten ist und findet im Kontext des Q-Learnings Verwendung. | |
Stratified Sampling | |
Strukturierte DatenStrukturierte Daten sind Daten, die in einer bestimmten Form oder einem bestimmten Format vorliegen und in einer Datenbank oder einem Tabellenkalkulationsprogramm organisiert werden können. Beispiele für strukturierte Daten sind Kundendaten, Bestellhistorien oder Finanzdaten. Strukturierte Daten sind einfach zu verarbeiten und werden in der künstlichen Intelligenz häufig in der Datenanalyse und der Modellierung eingesetzt. | |
SuperintelligenzSuperintelligenz bezieht sich auf die Hypothese, dass künstliche Intelligenz eines Tages menschliche Intelligenz übertreffen wird. Eine Superintelligenz wäre in der Lage, komplexe Probleme schnell und effektiv zu lösen und möglicherweise neue Technologien und Entdeckungen zu entwickeln. Die Superintelligenz ist ein wichtiges Thema in der Diskussion über die zukünftige Entwicklung der künstlichen Intelligenz und die möglichen Auswirkungen auf die Gesellschaft. | |
Supervisory Control and Data Acquisition (SCADA)Supervisory Control and Data Acquisition ist ein System zur Überwachung und Steuerung von Produktionsprozessen. Hierbei werden Daten von Sensoren und Geräten erfasst und an ein zentrales System übertragen, das dann die Steuerung der Prozesse übernimmt. | |
Support Vector Machine (SVM)Eine Support Vector Machine ist ein Algorithmus des maschinellen Lernens, der verwendet wird, um binäre Klassifikationsprobleme zu lösen. Sie nutzt eine Trennebene, um die Daten in zwei Klassen zu unterteilen, und maximiert den Abstand zwischen der Trennebene und den nächsten Datenpunkten. SVMs sind bekannt für ihre hohe Vorhersagegenauigkeit und werden häufig in der Datenanalyse und der Bilderkennung eingesetzt. | |
T |
---|
Teachable MachineTeachable Machine ist eine Plattform von Google, die es Benutzern ermöglicht, maschinelles Lernen ohne Programmierkenntnisse zu erlernen. Benutzer können eigene Modelle erstellen, indem sie eigene Daten in die Plattform hochladen und das Modell trainieren. Teachable Machine ist ein nützliches Tool für diejenigen, die maschinelles Lernen in verschiedenen Anwendungen einsetzen möchten. | |
TensorFlowTensorFlow ist ein Framework für maschinelles Lernen, das von Google entwickelt wurde. Es bietet Tools für die Entwicklung und das Training von neuronalen Netzen und anderen künstlichen Intelligenz-Modellen. TensorFlow ist für seine Leistung und Flexibilität bekannt und wird von vielen Unternehmen und Forschern verwendet. | |
TestdatenTestdaten sind Daten, die verwendet werden, um die Leistung eines maschinellen Lernmodells zu bewerten, nachdem es auf den Trainingsdaten trainiert wurde. Die Testdaten sollten unabhängig von den Trainingsdaten sein und eine repräsentative Stichprobe der Gesamtpopulation darstellen. | |
TrainingsdatenTrainingsdaten sind Daten, die zum Training eines
maschinellen Lernmodells verwendet werden. Das Modell lernt aus diesen Daten,
um Vorhersagen auf neuen Daten treffen zu können. Die Qualität der
Trainingsdaten hat einen erheblichen Einfluss auf die Leistung des Modells. | ||
Transfer LearningTransfer Learning ist ein Ansatz des maschinellen Lernens, bei dem ein Modell, das auf einer bestimmten Aufgabe trainiert wurde, auf eine ähnliche, aber nicht identische Aufgabe angewendet wird. Durch die Verwendung von Transfer Learning kann man die Trainingszeit reduzieren und die Leistung des Modells verbessern. | |
TrojanerEin Trojaner ist eine vermeintlich nützliche Datei, die genutzt wird, um andere Malware auf einen Rechner einzuschleusen. | |
U |
---|
UnderfittingUnderfitting ist ein Problem, das bei der Modellierung auftritt, wenn das Modell nicht in der Lage ist, die zugrunde liegenden Muster in den Daten zu erfassen. Dies kann dazu führen, dass das Modell schlechte Vorhersagen macht und seine Leistung bei der Generalisierung auf neue Daten beeinträchtigt wird. Underfitting tritt häufig auf, wenn das Modell zu einfach oder unzureichend trainiert ist. | |
Unstrukturierte DatenUnstrukturierte Daten sind Daten, die nicht in einer bestimmten Form oder einem bestimmten Format vorliegen und nicht in einer Datenbank oder einem Tabellenkalkulationsprogramm organisiert werden können. Beispiele für unstrukturierte Daten sind Texte, Bilder oder Audiodateien. Unstrukturierte Daten sind schwieriger zu verarbeiten als strukturierte Daten und erfordern oft spezielle Methoden der Verarbeitung | |
Unsupervised Feature LearningUnsupervised Feature Learning ist eine Methode des maschinellen Lernens, bei der das Modell aus den Daten selbst lernt, welche Merkmale (Features) relevant sind. Im Gegensatz zur überwachten Lernmethode werden die Daten nicht gelabelt, und das Modell wird aufgefordert, Muster und Strukturen in den Daten zu identifizieren. | |
V |
---|
Validation splitAls validation split wird der Anteil der Trainingsdaten bezeichnet, der zur Validierung des Modells genutzt wird und dient dazu, die Modell-Performance zu verbessern. Er hilft, die Genauigkeit zu bestimmen, mit der das Modell nach Abschluss der Trainingsphase arbeitet. | |
ValidationsdatenValidationsdaten sind eine Art von Daten, die verwendet werden, um die Leistung eines maschinellen Lernmodells zu bewerten und zu optimieren. Sie werden verwendet, um das Modell während des Trainings zu überwachen und zu vermeiden, dass es überangepasst wird. Validationsdaten sollten unabhängig von den Trainings- und Testdaten sein und eine repräsentative Stichprobe der Gesamtpopulation darstellen. | |
Value functionsAnhand der value-function wird untersucht, wie gut eine Handlung in der gegebenen Situation ist. Die state-value function beschreibt, wie gut (oder schlecht) ein Zustand nach einer Handlung zu bewerten ist. Die action-value function beschreibt, wie gut (oder schlecht) eine Handlung in besagtem Zustand ist. Beide Funktionen bestimmen die Qualität der Handlung und sind Bestandteil des Q-Learnings. | |
VerbositätAnhand der Verbose-Einstellung kann bestimmt werden, wie viele Informationen beim Training angezeigt werden. Dies kann beispielsweise in der Fehlersuche oder zum Verständnis des Modellfortschritts nützlich sein, ohne die Modell-Performance zu beeinflussen. | ||
VerlustfunktionEine Verlustfunktion (engl. loss function) ist eine Funktion, die in der künstlichen Intelligenz (KI) und dem maschinellen Lernen verwendet wird, um die Abweichung zwischen den tatsächlichen Daten und den vorhergesagten Ergebnissen zu quantifizieren. Die Verlustfunktion gibt ein Maß dafür, wie gut ein Modell abschneidet, indem sie die Differenz zwischen den tatsächlichen und den vorhergesagten Werten misst. Das Ziel besteht darin, eine Verlustfunktion zu minimieren, um eine optimale Vorhersage zu erreichen. Es gibt verschiedene Arten von Verlustfunktionen, die je nach der Art des zu lösenden Problems und des Modells verwendet werden können. Ein Beispiel für eine Verlustfunktion ist die Mittlere quadratische Abweichung (Mean Squared Error), die verwendet wird, um die Differenz zwischen den tatsächlichen und den vorhergesagten Werten zu messen. | ||
Versteckte SchichtenAls versteckte Schichten (engl. hidden layer) werden alle Schichten zwischen Eingabe (engl. Input-Layer)- und Ausgabeschicht (engl. Output-Layer) bezeichnet. | ||
Virtuelle InbetriebnahmeVirtuelle Inbetriebnahme ist ein Prozess, bei dem ein Produktionsprozess in einer virtuellen Umgebung simuliert wird, bevor er in der realen Welt implementiert wird. Dies kann helfen, mögliche Fehler und Probleme zu identifizieren und zu beheben, bevor sie in der Produktion auftreten. | |
VirusEin Virus bezeichnet eine Datei mit schädlichem Code, die versucht, sich weiter zu verbreiten. | |
W |
---|
Wrapper-AnsatzDer Wrapper-Ansatz ist eine Form der Dimensionalitätsreduktion, bei dem einzelne Features selektiv entfernt bzw. hinzugefügt und die Auswirkungen auf die Performance des Lernalgorithmus gemessen werden. Je nach Einfluss auf die Performance kann entschieden werden, ob das jeweilige Feature analyserelevant ist. | |
Z |
---|
ZeitreihenanalyseZeitreihenanalyse ist ein Verfahren zur Untersuchung von Daten, die sich über die Zeit ändern. Es wird verwendet, um Muster in den Daten zu identifizieren, Trends zu erkennen und Vorhersagen über zukünftige Entwicklungen zu treffen. | |
F |
---|
f1-ScoreDer f1-Score ist eine Messgröße für die Genauigkeit eines Modells, die Präzision und Recall ausgleicht. Er ist definiert als der harmonische Mittelwert von Präzision und Recall. Dabei reicht der Score von 0 bis 1. Ein hoher f1-Score bedeutet, dass das Modell ein gutes Gleichgewicht zwischen Präzision und Recall aufweist. | |
Ü |
---|
Überwachtes LernenUnter supervised learning (dt. überwachtes Lernen) wird eine Unterart
des maschinellen Lernens verstanden. Bei dieser Lernform liegt dem Algorithmus
ein Datensatz vor, bei dem die Zielvariable bekannt ist. Man spricht auch
davon, dass die Daten gelabelt sind. Der
Algorithmus versucht nun, anhand einer großen Menge von Trainingsdaten solche
Muster zu erkennen, die zur erfolgreichen Vorhersage der Zielvariable führen | ||