Update README.md
Browse files
README.md
CHANGED
|
@@ -28,11 +28,11 @@ tags:
|
|
| 28 |
pipeline_tag: text-generation
|
| 29 |
---
|
| 30 |
|
| 31 |
-
# AtomicThink
|
| 32 |
|
| 33 |
-
## Warum AtomicThink
|
| 34 |
|
| 35 |
-
AtomicThink
|
| 36 |
Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung von bis zu **1024 Tokens** pro Eingabe liefert dieses Modell herausragende Ergebnisse in verschiedensten Anwendungsbereichen – von Chatbots über Wissensabfragen bis hin zu kreativen Textgenerierungen.
|
| 37 |
|
| 38 |
**Vorteile auf einen Blick:**
|
|
@@ -42,11 +42,11 @@ Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung
|
|
| 42 |
- **Einfach zu integrieren:** Kompatibel mit HuggingFace Transformers.
|
| 43 |
- **Made in Germany:** Fokus auf deutsche Sprache und Anforderungen.
|
| 44 |
|
| 45 |
-
Steigere die Qualität deiner KI-Anwendungen – lade AtomicThink
|
| 46 |
|
| 47 |
## Beschreibung
|
| 48 |
|
| 49 |
-
**AtomicThink
|
| 50 |
Dieses Update bringt deutliche Verbesserungen bei der Antwortqualität, dem Verständnis und der Kontextverarbeitung. Das Modell denkt noch reflektierter und liefert dadurch fundiertere und relevantere Antworten.
|
| 51 |
|
| 52 |
### Was ist neu?
|
|
@@ -65,18 +65,13 @@ Das **"Think"** im Namen steht für **Denken** – weil dieses Modell nicht nur
|
|
| 65 |
Für das Training wurde das Vorgängermodell **AtomicGPT-T1 (18042025)** als Basis verwendet.
|
| 66 |
So kann das Modell auf einem soliden Fundament aufbauen und noch bessere Ergebnisse liefern!
|
| 67 |
|
| 68 |
-
**AtomicThink
|
| 69 |
Es ist nicht perfekt, wird aber kontinuierlich mit verbessertem Wissen und neuen Fähigkeiten ausgestattet.
|
| 70 |
**Das Modell unterstützt bis zu 1024 Tokens pro Eingabe.**
|
| 71 |
|
| 72 |
## Vergleiche
|
| 73 |
|
| 74 |
-
|
| 75 |
-
|------------------|-----------|---------------|----------------------|--------------------|----------------------|
|
| 76 |
-
| Q&A | 73,33% | 90% | 100% | 64,17% | **100%** |
|
| 77 |
-
| Hard Q&A | – | 62,50% | 93,33% | – | **100,00%** |
|
| 78 |
-
| **High Context** | – | 20,75% | 46,25% | – | **57,50%** |
|
| 79 |
-
| **Allgemeinwissen** | - | 66,00% | 24,00% | - | **100,00%** |
|
| 80 |
|
| 81 |
---
|
| 82 |
|
|
@@ -95,7 +90,7 @@ from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
|
|
| 95 |
import torch
|
| 96 |
|
| 97 |
# Modell und Tokenizer laden
|
| 98 |
-
MODEL_PATH = "Atomic-Ai/AtomicThink-
|
| 99 |
|
| 100 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
|
| 101 |
model = AutoModelForCausalLM.from_pretrained(MODEL_PATH)
|
|
|
|
| 28 |
pipeline_tag: text-generation
|
| 29 |
---
|
| 30 |
|
| 31 |
+
# AtomicThink 1.0 mini – Das smarte deutsche KI-Modell für höchste Ansprüche
|
| 32 |
|
| 33 |
+
## Warum AtomicThink 1.0 mini?
|
| 34 |
|
| 35 |
+
AtomicThink 1.0 mini ist die ideale Wahl für alle, die ein leistungsstarkes, kompaktes und deutschsprachiges KI-Modell suchen.
|
| 36 |
Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung von bis zu **1024 Tokens** pro Eingabe liefert dieses Modell herausragende Ergebnisse in verschiedensten Anwendungsbereichen – von Chatbots über Wissensabfragen bis hin zu kreativen Textgenerierungen.
|
| 37 |
|
| 38 |
**Vorteile auf einen Blick:**
|
|
|
|
| 42 |
- **Einfach zu integrieren:** Kompatibel mit HuggingFace Transformers.
|
| 43 |
- **Made in Germany:** Fokus auf deutsche Sprache und Anforderungen.
|
| 44 |
|
| 45 |
+
Steigere die Qualität deiner KI-Anwendungen – lade AtomicThink 1.0 mini jetzt herunter und überzeuge dich selbst!
|
| 46 |
|
| 47 |
## Beschreibung
|
| 48 |
|
| 49 |
+
**AtomicThink 1.0 mini** ist die nächste Evolutionsstufe nach AtomicGPT T1.5 mini.
|
| 50 |
Dieses Update bringt deutliche Verbesserungen bei der Antwortqualität, dem Verständnis und der Kontextverarbeitung. Das Modell denkt noch reflektierter und liefert dadurch fundiertere und relevantere Antworten.
|
| 51 |
|
| 52 |
### Was ist neu?
|
|
|
|
| 65 |
Für das Training wurde das Vorgängermodell **AtomicGPT-T1 (18042025)** als Basis verwendet.
|
| 66 |
So kann das Modell auf einem soliden Fundament aufbauen und noch bessere Ergebnisse liefern!
|
| 67 |
|
| 68 |
+
**AtomicThink 1.0 mini** ist ein kompaktes deutsches KI-Modell, das hochwertige Antworten in **deutscher Sprache** liefert.
|
| 69 |
Es ist nicht perfekt, wird aber kontinuierlich mit verbessertem Wissen und neuen Fähigkeiten ausgestattet.
|
| 70 |
**Das Modell unterstützt bis zu 1024 Tokens pro Eingabe.**
|
| 71 |
|
| 72 |
## Vergleiche
|
| 73 |
|
| 74 |
+
**Nicht Verfügbar**
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 75 |
|
| 76 |
---
|
| 77 |
|
|
|
|
| 90 |
import torch
|
| 91 |
|
| 92 |
# Modell und Tokenizer laden
|
| 93 |
+
MODEL_PATH = "Atomic-Ai/AtomicThink-1.0-mini"
|
| 94 |
|
| 95 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
|
| 96 |
model = AutoModelForCausalLM.from_pretrained(MODEL_PATH)
|