Gäste lese Limitierung!

Künstliche Intelligenz (KI,AI) Neuigkeiten und Diskussion

  • Ersteller
        #132  

Member

Hol dir die Modelle lokal in einem PC mit ordentlich Speicher und einer dicken Grafikkarte wie 4090 oder 5090. z.B. das neueste Llama von Meta mit lokalem stablediffusion. Damit kannst du alles erzeugen und zwar wirklich ALLES. z.B. dann auch Bilder, deren Besitz allein dich in den Knast bringen kann. Und wenn dir das noch nicht zu krass ist lädst du dir auf huggingface angepasste Modelle runter für den richtig krassen Kram ... aktuell ist das wilder Westen. Mal sehen wie lange ...

Cool sind im übrigen die von Tim Thorer trainierten Modelle für Qualitätstouristen. Bekommt man über seinen Shop auf Youtube ;-)
 
        #133  

Member

Member hat gesagt:
Hol dir die Modelle lokal in einem PC mit ordentlich Speicher und einer dicken Grafikkarte wie 4090 oder 5090. z.B. das neueste Llama von Meta mit lokalem stablediffusion. Damit kannst du alles erzeugen und zwar wirklich ALLES. z.B. dann auch Bilder, deren Besitz allein dich in den Knast bringen kann. Und wenn dir das noch nicht zu krass ist lädst du dir auf huggingface angepasste Modelle runter für den richtig krassen Kram ... aktuell ist das wilder Westen. Mal sehen wie lange ...

Cool sind im übrigen die von Tim Thorer trainierten Modelle für Qualitätstouristen. Bekommt man über seinen Shop auf Youtube ;-)
Läuft ja grad ein Prozess wo ein Lehrer aus Dietzenbach mit Bildern einer seiner Schülerinnen und einem Foto von sich selbst pornographische Bilder oder Videos von sich und der Schülerin erstellt hat und noch so clever war diese im Kollegium rumzuzeigen...
Wobei ich nichts pornographisches generiere, mir reicht Youporn.
 
        #135  

Member

Member hat gesagt:
Für das Modell: fragst du chatgpt, gemini oder perplexity:

Ki generiert:

"
Um KI lokal auf deinem PC zu nutzen, brauchst du ein Laufzeit-Tool, mit dem du Sprachmodelle (LLMs) wie DeepSeek, Llama oder Mistral herunterladen und starten kannst.
Die drei beliebtesten Lösungen sind Ollama, LM Studio und (für erfahrene Nutzer) Docker mit Open WebUI ���.LM Studio – einfach und grafischLM Studio ist ideal, wenn du ohne Kommandozeile arbeiten möchtest.Lade LM Studio von der offiziellen Website (lmstudio.ai) herunter.
Unterstützt wird Windows 10+, macOS 12+ und Linux �.Installiere es wie ein normales Programm.
Empfohlen: mind. 8 GB RAM, besser 16 GB+ für größere Modelle.Starte LM Studio → gehe in die Modellbibliothek → lade ein Modell wie DeepSeek, Llama 3 oder Mistral 7B herunter.Klicke auf „Load“ und beginne den Chat.
Du kannst Parameter (Tokens, Temperatur) anpassen, Chats speichern und mehrere Modelle vergleichen ��.Ollama – leicht für KommandozeilenfreundeOllama bietet maximale Kontrolle über Modelle und lokale Nutzung.Lade Ollama von ollama.ai.Installiere es und öffne ein Terminal.Lade z. B. DeepSeek mit:eek:llama pull deepseek-r1:7b-instructStarte das Modell:eek:llama run deepseek-r1:7b-instructDanach kannst du direkt lokal chatten – keine Internetverbindung oder Cloud nötig ���.Docker + Open WebUI – für FortgeschritteneDiese Variante bietet eine Weboberfläche mit kompletter Isolierung.Installiere Docker Desktop (Windows/Mac) oder Docker Engine (Linux).Lade die Benutzeroberfläche:docker run -d -p 3000:8080 --name open-webui ghcr.io/open-webui/open-webui:latestÖffne im Browser http://localhost:3000, verknüpfe Ollama oder LM-Studio-Modelle und nutze sie über die GUI �.Alternative ToolsGPT4All – leicht installierbare Open-Source-KI für Windows, macOS, Linux �.Private AI App – Offline-Chatbot für Mobilgeräte �.Diffusion Bee oder Forge – für lokale Bildgenerierung ��.FazitDie einfachste Lösung für Einsteiger ist LM Studio – komplett ohne technische Kenntnisse.
Wer lieber über die Konsole arbeitet, nutzt Ollama.
Beide laden Modelle wie DeepSeek, Llama 3, Mistral 7B oder Gemma 2 direkt herunter und ermöglichen private Offline-Nutzung mit voller Datensouveränität."
 
        #136  

Member

Member hat gesagt:
Hol dir die Modelle lokal in einem PC mit ordentlich Speicher und einer dicken Grafikkarte wie 4090 oder 5090. z.B. das neueste Llama von Meta mit lokalem stablediffusion.
5-6k€ um sich Wixvorlagen zu generieren? Pornhub schon zu Ende geguckt?

Ich finde es schon faszinierend wie weit das Thema KI gekommen ist und freue mich natürlich auch über den Wertgewinn meine NVidia Aktien in den letzten 3 Jahren. Aber inzwischen ist alles KI wenn man dem Marketing Geschwafel glauben kann.
Und jeder Kunde von mir will jetzt unbedingt was mit KI machen. Ist zum Teil schon etwas nervig, wenn die Ideen wie man KI zu etwas wirklich Sinnvollem, also keine Pornobilder stellen, einsetzen kann kommen halt am Ende immer noch von Menschen.
Ich hatte mir vor einigen Monaten einen Mac Studio M3 Ultra mit 96GB shared Mem gekauft um mit KI zu experimentieren und zu lernen. Also selbst der kommt bei so machen LLM nicht aus den Puschen. Je nach Model komme ich auf 10-50 Token die Sekunde.
Ehrlich gesagt hätte ich mir in den Hintern gebissen wenn ich die Kiste nicht als mein Arbeitspferd benutzen würde und nur zum Spielen mit KI gekauft hätte.

Vor einigen Jahren war "Cloud" der große Hype, auch nur ein anderes Wort für "jemand anderes Computer". Einige meiner Kunden rudern inzwischen wieder zurück wenn sie die ständig steigenden Kosten von Azure, AWS und Google Cloud sehen.
Bei dem Thema KI sehe ich das aber im Moment nicht.
 
        #137  

Member

Member hat gesagt:
5-6k€ um sich Wixvorlagen zu generieren?

Wix ist doch relativ günstig! Wie kommst du da auf 5-6k€?

Nur mal so nebenbei: Diese Text to Image KIs können auch für andere, auch pornographische Projekte genutzt werden. Die damit generierten Bilder sind frei von Ansprüchen Dritter und du kannst dir Szenen zusammenstellen, die dazu passen.
 
        #138  

Member

Member hat gesagt:
Also selbst der kommt bei so machen LLM nicht aus den Puschen. Je nach Model komme ich auf 10-50 Token die Sekunde.

Eigentlich hatte ich keinen Nerv mehr auf Deine Posts überhaupt zu reagieren, aber diese unqualifizierte Äußerung ist doch sehr entlarvend. Das Kontextwindow wird definiert von der LLM, welche man benutzt, und nicht von der Power des Laptops. Keine Ahnung was Du da überhaupt versucht hast. Da geht es um Promptengineering, Domainwissen, und "orchastration of agents". Oder willst Du selber eine LLM generieren? Ich befürchte, da werden Deine finanziellen Möglichkeiten nicht ausreichen, ganz abgesehen vom Wissen ob der Decoder pre-trained Transformers Technologie ansich und deren zu Grunde liegenden Algorithmen, welche auf der Theorie der Neuronalen Netzwerke beruhen. Fishing in the dark.
 
        #139  

Member

Hinweis
Ich möchte euch bitten, die Diskussion wieder auf das Thema zurückzuführen. Persönliche Angriffe oder Provokationen helfen hier niemandem weiter. Bleibt bitte sachlich
 
  • Standard Pattaya Afrika Afrika Phillipinen Phillipinen Amerika Amerika Blank
    Oben Unten