Loewolf commited on
Commit
44a4323
·
verified ·
1 Parent(s): bc70aac

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +177 -3
README.md CHANGED
@@ -1,3 +1,177 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - de
5
+ base_model:
6
+ - Atomic-Ai/AtomicGPT-T1-18042025
7
+ library_name: transformers
8
+ metrics:
9
+ - f1
10
+ - perplexity
11
+ - exact_match
12
+ tags:
13
+ - conversational
14
+ - ai
15
+ - artificialintelligence
16
+ - ki
17
+ - machinelearning
18
+ - deeplearning
19
+ - neuralnetworks
20
+ - nlp
21
+ - computervision
22
+ - generativeai
23
+ - gpt2
24
+ - r1
25
+ - o3
26
+ - GPT
27
+ - Transformers
28
+ pipeline_tag: text-generation
29
+ ---
30
+
31
+ # AtomicThink 2.0 mini – Das smarte deutsche KI-Modell für höchste Ansprüche
32
+
33
+ ## Warum AtomicThink 2.0 mini?
34
+
35
+ AtomicThink 2.0 mini ist die ideale Wahl für alle, die ein leistungsstarkes, kompaktes und deutschsprachiges KI-Modell suchen.
36
+ Mit über 10 MB Trainingsdaten, modernster Architektur und einer Unterstützung von bis zu **1024 Tokens** pro Eingabe liefert dieses Modell herausragende Ergebnisse in verschiedensten Anwendungsbereichen – von Chatbots über Wissensabfragen bis hin zu kreativen Textgenerierungen.
37
+
38
+ **Vorteile auf einen Blick:**
39
+ - **Hervorragende Antwortqualität:** Präzise, durchdachte und kontextstarke Antworten.
40
+ - **Großer Wissensumfang:** Dank erweitertem Datensatz vielseitig einsetzbar.
41
+ - **Schnell & effizient:** Optimiert für schnelle Inferenz auf CPU und GPU.
42
+ - **Einfach zu integrieren:** Kompatibel mit HuggingFace Transformers.
43
+ - **Made in Germany:** Fokus auf deutsche Sprache und Anforderungen.
44
+
45
+ Steigere die Qualität deiner KI-Anwendungen – lade AtomicThink 2.0 mini jetzt herunter und überzeuge dich selbst!
46
+
47
+ ## Beschreibung
48
+
49
+ **AtomicThink 2.0 mini** ist die nächste Evolutionsstufe nach AtomicGPT T1.5 mini.
50
+ Dieses Update bringt deutliche Verbesserungen bei der Antwortqualität, dem Verständnis und der Kontextverarbeitung. Das Modell denkt noch reflektierter und liefert dadurch fundiertere und relevantere Antworten.
51
+
52
+ ### Was ist neu?
53
+
54
+ - **Größerer Datensatz**:
55
+ Das Training erfolgte mit einem Datensatz von **über 10 MB** – ein deutlicher Sprung im Vergleich zu vorherigen Versionen.
56
+ Dadurch verfügt das Modell über ein deutlich erweitertes Wissen und kann vielseitigere Anfragen beantworten.
57
+
58
+ - **Verbessertes Training**:
59
+ Das Training dauerte etwa eine Stunde mit insgesamt **10 Epochen**.
60
+
61
+ ### Fun Fact
62
+
63
+ Das **"Think"** im Namen steht für **Denken** – weil dieses Modell nicht nur antwortet, sondern mitdenkt.
64
+
65
+ Für das Training wurde das Vorgängermodell **AtomicGPT-T1 (18042025)** als Basis verwendet.
66
+ So kann das Modell auf einem soliden Fundament aufbauen und noch bessere Ergebnisse liefern!
67
+
68
+ **AtomicThink 2.0 mini** ist ein kompaktes deutsches KI-Modell, das hochwertige Antworten in **deutscher Sprache** liefert.
69
+ Es ist nicht perfekt, wird aber kontinuierlich mit verbessertem Wissen und neuen Fähigkeiten ausgestattet.
70
+ **Das Modell unterstützt bis zu 1024 Tokens pro Eingabe.**
71
+
72
+ ## Vergleiche
73
+
74
+ | Aufgaben | L-GPT_1.5 | AtomicGPT 3.0 | AtomicGPT T1 18042025 | AtomicGPT 1.5 mini | AtomicThink 2.0 mini |
75
+ |------------------|-----------|---------------|----------------------|--------------------|----------------------|
76
+ | Q&A | 73,33% | 90% | 100% | 64,17% | **100%** |
77
+ | Hard Q&A | – | 62,50% | 93,33% | – | **100,00%** |
78
+ | **High Context** | – | 20,75% | 46,25% | – | **57,50%** |
79
+ | **Allgemeinwissen** | - | 66,00% | 24,00% | - | **100,00%** |
80
+
81
+ ---
82
+
83
+ ## Verwendung
84
+
85
+ Um das Modell zu verwenden, stelle sicher, dass der Prompt im folgenden Format gesendet wird:
86
+
87
+ ```text
88
+ <user>prompt<End><AI Assistent>
89
+ ```
90
+
91
+ Wenn `<End>` erkannt wird, sollte die Generierung gestoppt werden.
92
+
93
+ ```python
94
+ from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM
95
+ import torch
96
+
97
+ # Modell und Tokenizer laden
98
+ MODEL_PATH = "Atomic-Ai/AtomicThink-2.0-mini"
99
+
100
+ tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
101
+ model = AutoModelForCausalLM.from_pretrained(MODEL_PATH)
102
+
103
+ print("Spezielle Tokens:", tokenizer.additional_special_tokens)
104
+ print("Pad Token:", tokenizer.pad_token)
105
+ print("EOS Token:", tokenizer.eos_token)
106
+
107
+ device = 0 if torch.cuda.is_available() else -1
108
+ print(f"Verwende {'GPU' if device == 0 else 'CPU'} für Inferenz")
109
+
110
+ chatbot = pipeline(
111
+ "text-generation",
112
+ model=model,
113
+ tokenizer=tokenizer,
114
+ device=device
115
+ )
116
+
117
+ def generate_response(prompt):
118
+ output = chatbot(
119
+ prompt,
120
+ max_new_tokens=2048,
121
+ eos_token_id=50268,
122
+ pad_token_id=tokenizer.pad_token_id,
123
+ do_sample=True,
124
+ temperature=0.7,
125
+ top_p=0.9,
126
+ top_k=50,
127
+ repetition_penalty=1.1
128
+ )
129
+ return output[0]['generated_text']
130
+
131
+ def format_chat(user_input):
132
+ return f"<user>{user_input}<End><AI Assistent>"
133
+
134
+ def extract_assistant_response(full_text):
135
+ try:
136
+ parts = full_text.split("<AI Assistent>")
137
+ if len(parts) > 1:
138
+ response_part = parts[1]
139
+ if "<End>" in response_part:
140
+ return response_part.split("<End>")[0].strip()
141
+ else:
142
+ return response_part.strip()
143
+ return "Fehler: Antwortformat ungültig"
144
+ except Exception as e:
145
+ return f"Fehler bei der Extraktion: {str(e)}"
146
+
147
+ def main():
148
+ print("\n=== AtomicGPT Chat ===")
149
+ print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
150
+ print("----------------------------------")
151
+
152
+ while True:
153
+ user_input = input("\nDu: ")
154
+ if user_input.lower() in ['exit', 'quit', 'ende']:
155
+ print("Chat beendet. Auf Wiedersehen!")
156
+ break
157
+
158
+ try:
159
+ prompt = format_chat(user_input)
160
+ full_response = generate_response(prompt)
161
+ assistant_response = extract_assistant_response(full_response)
162
+ print(f"\nAI Assistent: {assistant_response}")
163
+ except Exception as e:
164
+ print(f"\nFehler: {str(e)}")
165
+ print("Versuche es mit einer anderen Eingabe.")
166
+
167
+ if __name__ == "__main__":
168
+ main()
169
+ ```
170
+
171
+ ---
172
+
173
+ ## Unterstütze uns
174
+ Tritt unserer Community bei:
175
+ 👉 **[Discord Server](https://discord.gg/atKjP6Jb)**
176
+
177
+ ---