Loewolf commited on
Commit
d6fbb1f
·
verified ·
1 Parent(s): 44a4323

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +8 -13
README.md CHANGED
@@ -28,11 +28,11 @@ tags:
28
  pipeline_tag: text-generation
29
  ---
30
 
31
- # AtomicThink 2.0 mini – Das smarte deutsche KI-Modell für höchste Ansprüche
32
 
33
- ## Warum AtomicThink 2.0 mini?
34
 
35
- AtomicThink 2.0 mini ist die ideale Wahl für alle, die ein leistungsstarkes, kompaktes und deutschsprachiges KI-Modell suchen.
36
  Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung von bis zu **1024 Tokens** pro Eingabe liefert dieses Modell herausragende Ergebnisse in verschiedensten Anwendungsbereichen – von Chatbots über Wissensabfragen bis hin zu kreativen Textgenerierungen.
37
 
38
  **Vorteile auf einen Blick:**
@@ -42,11 +42,11 @@ Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung
42
  - **Einfach zu integrieren:** Kompatibel mit HuggingFace Transformers.
43
  - **Made in Germany:** Fokus auf deutsche Sprache und Anforderungen.
44
 
45
- Steigere die Qualität deiner KI-Anwendungen – lade AtomicThink 2.0 mini jetzt herunter und überzeuge dich selbst!
46
 
47
  ## Beschreibung
48
 
49
- **AtomicThink 2.0 mini** ist die nächste Evolutionsstufe nach AtomicGPT T1.5 mini.
50
  Dieses Update bringt deutliche Verbesserungen bei der Antwortqualität, dem Verständnis und der Kontextverarbeitung. Das Modell denkt noch reflektierter und liefert dadurch fundiertere und relevantere Antworten.
51
 
52
  ### Was ist neu?
@@ -65,18 +65,13 @@ Das **"Think"** im Namen steht für **Denken** – weil dieses Modell nicht nur
65
  Für das Training wurde das Vorgängermodell **AtomicGPT-T1 (18042025)** als Basis verwendet.
66
  So kann das Modell auf einem soliden Fundament aufbauen und noch bessere Ergebnisse liefern!
67
 
68
- **AtomicThink 2.0 mini** ist ein kompaktes deutsches KI-Modell, das hochwertige Antworten in **deutscher Sprache** liefert.
69
  Es ist nicht perfekt, wird aber kontinuierlich mit verbessertem Wissen und neuen Fähigkeiten ausgestattet.
70
  **Das Modell unterstützt bis zu 1024 Tokens pro Eingabe.**
71
 
72
  ## Vergleiche
73
 
74
- | Aufgaben | L-GPT_1.5 | AtomicGPT 3.0 | AtomicGPT T1 18042025 | AtomicGPT 1.5 mini | AtomicThink 2.0 mini |
75
- |------------------|-----------|---------------|----------------------|--------------------|----------------------|
76
- | Q&A | 73,33% | 90% | 100% | 64,17% | **100%** |
77
- | Hard Q&A | – | 62,50% | 93,33% | – | **100,00%** |
78
- | **High Context** | – | 20,75% | 46,25% | – | **57,50%** |
79
- | **Allgemeinwissen** | - | 66,00% | 24,00% | - | **100,00%** |
80
 
81
  ---
82
 
@@ -95,7 +90,7 @@ from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
95
  import torch
96
 
97
  # Modell und Tokenizer laden
98
- MODEL_PATH = "Atomic-Ai/AtomicThink-2.0-mini"
99
 
100
  tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
101
  model = AutoModelForCausalLM.from_pretrained(MODEL_PATH)
 
28
  pipeline_tag: text-generation
29
  ---
30
 
31
+ # AtomicThink 1.0 mini – Das smarte deutsche KI-Modell für höchste Ansprüche
32
 
33
+ ## Warum AtomicThink 1.0 mini?
34
 
35
+ AtomicThink 1.0 mini ist die ideale Wahl für alle, die ein leistungsstarkes, kompaktes und deutschsprachiges KI-Modell suchen.
36
  Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung von bis zu **1024 Tokens** pro Eingabe liefert dieses Modell herausragende Ergebnisse in verschiedensten Anwendungsbereichen – von Chatbots über Wissensabfragen bis hin zu kreativen Textgenerierungen.
37
 
38
  **Vorteile auf einen Blick:**
 
42
  - **Einfach zu integrieren:** Kompatibel mit HuggingFace Transformers.
43
  - **Made in Germany:** Fokus auf deutsche Sprache und Anforderungen.
44
 
45
+ Steigere die Qualität deiner KI-Anwendungen – lade AtomicThink 1.0 mini jetzt herunter und überzeuge dich selbst!
46
 
47
  ## Beschreibung
48
 
49
+ **AtomicThink 1.0 mini** ist die nächste Evolutionsstufe nach AtomicGPT T1.5 mini.
50
  Dieses Update bringt deutliche Verbesserungen bei der Antwortqualität, dem Verständnis und der Kontextverarbeitung. Das Modell denkt noch reflektierter und liefert dadurch fundiertere und relevantere Antworten.
51
 
52
  ### Was ist neu?
 
65
  Für das Training wurde das Vorgängermodell **AtomicGPT-T1 (18042025)** als Basis verwendet.
66
  So kann das Modell auf einem soliden Fundament aufbauen und noch bessere Ergebnisse liefern!
67
 
68
+ **AtomicThink 1.0 mini** ist ein kompaktes deutsches KI-Modell, das hochwertige Antworten in **deutscher Sprache** liefert.
69
  Es ist nicht perfekt, wird aber kontinuierlich mit verbessertem Wissen und neuen Fähigkeiten ausgestattet.
70
  **Das Modell unterstützt bis zu 1024 Tokens pro Eingabe.**
71
 
72
  ## Vergleiche
73
 
74
+ **Nicht Verfügbar**
 
 
 
 
 
75
 
76
  ---
77
 
 
90
  import torch
91
 
92
  # Modell und Tokenizer laden
93
+ MODEL_PATH = "Atomic-Ai/AtomicThink-1.0-mini"
94
 
95
  tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
96
  model = AutoModelForCausalLM.from_pretrained(MODEL_PATH)