Browse the glossary using this index

Special | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | ALL

Page: (Previous)   1  ...  8  9  10  11  12  13  14  15  16  17  ...  19  (Next)
  ALL

Q

Q-Learning

Q-Learning ist eine Unterart des bestärkenden Lernens, bei der die optimale action-value function, auch Q-Funktion genannt, gelernt werden soll. Dies gelingt über die Bellman-Gleichung.



Qualitative Daten

Qualitative Daten sind Daten, die nicht in numerischer Form vorliegen, sondern in Form von Beschreibungen oder Kategorien. Beispiele für qualitative Daten sind Geschlecht, Beruf oder Meinungen. Qualitative Daten werden oft in der Sozialforschung und der Anthropologie eingesetzt, um menschliches Verhalten und soziale Phänomene zu untersuchen.



Quality Inspection

Quality Inspection ist ein Prozess zur Überprüfung der Qualität von Produkten oder Komponenten. Dies kann durch visuelle Inspektion, Messungen, Tests oder andere Methoden erfolgen.



Quantitative Daten

Quantitative Daten sind Daten, die in numerischer Form vorliegen, z.B. Größen, Mengen oder Messungen. Quantitative Daten können diskret oder kontinuierlich sein und werden in der Datenanalyse und der statistischen Modellierung häufig eingesetzt.



R

R2-Score

Der R2-Score ist ein statistisches Maß für die Genauigkeit eines Regressionsmodells. Er gibt an, wie gut die Vorhersage des Modells im Vergleich zu den tatsächlichen Daten ist, und variiert von 0 bis 1, wobei 1 eine perfekte Vorhersage darstellt. Der R2-Score wird häufig in der Datenanalyse und der Modellierung eingesetzt, um die Leistung von Regressionsmodellen zu bewerten.



Random Forest

Random Forest ist ein häufig verwendeter Regressions- und Klassifikationsalgorithmus für Maschinelles Lernen. Er besteht aus mehreren nicht zusammenhängenden Entscheidungsbäumen.



Ransomware

Ransomware sperrt Teile des befallenen Systems (oder sogar das gesamte System). Diese Teile sollen dann gegen ein Lösegeld wieder freigegeben werden.



ReLU-Funktion

Die ReLU-Funktion ist eine Aktivierungsfunktion, die häufig in neuronalen Netzen verwendet wird. Sie ist definiert als max(0,x) und gibt den Wert von x zurück, wenn er positiv ist, und 0, wenn er negativ ist. Die ReLU-Funktion ist nützlich, um die Effizienz von neuronalen Netzen zu erhöhen und das Problem des Verschwindens des Gradienten zu vermeiden.



Recall

Auch bekannt als Sensitivität (engl. recall) ist die Anzahl der richtigen positiven Vorhersagen, geteilt durch die Anzahl der richtigen positiven plus falsch positiven Vorhersagen.



Reciprocity

= Gegenseitigkeit

Wenn wir etwas bekommen (z. B. Gutschein), möchten wir etwas zurückgeben.



Page: (Previous)   1  ...  8  9  10  11  12  13  14  15  16  17  ...  19  (Next)
  ALL