{"id":10567,"date":"2023-05-29T12:57:06","date_gmt":"2023-05-29T10:57:06","guid":{"rendered":"https:\/\/u-labs.de\/portal\/?p=10567"},"modified":"2024-01-09T15:38:48","modified_gmt":"2024-01-09T13:38:48","slug":"so-generierst-du-eigene-ki-bilder-auf-lokaler-pc-hardware-stable-diffusion-web-ohne-cloud-abhaengigkeiten","status":"publish","type":"post","link":"https:\/\/u-labs.de\/portal\/so-generierst-du-eigene-ki-bilder-auf-lokaler-pc-hardware-stable-diffusion-web-ohne-cloud-abhaengigkeiten\/","title":{"rendered":"So generierst du eigene KI-Bilder auf lokaler PC-Hardware: Stable Diffusion Web ohne Cloud, Abo und andere Abh\u00e4ngigkeiten"},"content":{"rendered":"<p>K\u00fcnstliche Intelligenz (die technisch eher maschinellem Lernen entspricht) hat mit ChatGPT und DALL-E (2) die breite Masse erreicht. Letzteres ist der Bildgenerator von OpenAI, der aus Textbeschreibungen ein Bild erzeugen kann. W\u00e4hrend die Ergebnisse durchaus interessant sind, handelt es sich um propriet\u00e4re (Cloud-) Technologie. Dem steht die Open Source Gemeinde mit Projekten wie Stable Diffussion entgegen: Selbst mit einem mehrere Jahre alten Gaming-PC erm\u00f6glicht es jedem zuhause selbst k\u00fcnstliche Bilder zu generieren. Spezielle Hardware ist nicht n\u00f6tig, eine Grafikkarte mit m\u00f6glichst viel Speicher reicht aus.<\/p>\n<h2 class=\"wp-block-heading\">Was ist Stable Diffusion?<\/h2>\n<p>Ein in Python entwickelter Bildgenerator, der Bilder aus Textbeschreibungen (<em>promts)<strong> <\/strong><\/em>generieren kann. Das Reparieren von besch\u00e4digten Bildern oder (z.B. \u00e4ltere) in h\u00f6here Aufl\u00f6sungen hochrechnen. Das Projekt wurde vom Startup <em>Stability AI <\/em>in Zusammenarbeit mit verschiedenen Wissenschaftlern und gemeinn\u00fctzigen Organisationen entwickelt. Die ersten Version erschien im August 2022. Im Vergleich zu propriet\u00e4ren Modellen wie DALL-E und Midjourney ist es quelloffen und jeder kann es selbst auf normaler PC-Hardware betreiben, ohne von Cloud-Diensten sowie deren Kosten\/Einschr\u00e4nkungen abh\u00e4ngig zu sein.<\/p>\n<h2 class=\"wp-block-heading\">Worin liegt der Unterschied zu kommerziellen Produkten von z.B. OpenAI?<\/h2>\n<p><em>Stability AI<\/em> hat es damit geschafft umzusetzen, was bei OpenAI das urspr\u00fcngliche Ziel war: <em>Deep learning<\/em> (Maschinelles Lernen) Modelle frei der Allgemeinheit zur Verf\u00fcgung zu stellen.<a href=\"https:\/\/netzpolitik.org\/2023\/ki-forschung-openai-ist-jetzt-closedai\/\" data-type=\"URL\" data-id=\"https:\/\/netzpolitik.org\/2023\/ki-forschung-openai-ist-jetzt-closedai\/\" target=\"_blank\" rel=\"nofollow\"> OpenAI ist damit gescheitert<\/a>, ein Mitgr\u00fcnder bezeichnet Anfang 2023 den offenen Ansatz sogar als Fehler &#8211; eine Kehrtwende um 180 Grad. Das Unternehmen h\u00e4lt sogar Informationen \u00fcber die Funktionsweise oder Trainingsdaten von GPT-4 zur\u00fcck. Wissenschaftler kritisieren dies, da die Eignung f\u00fcr ein Projekt sowie m\u00f6gliche Risiken nicht abgesch\u00e4tzt werden k\u00f6nnen. Fragw\u00fcrdig wirkt zudem der Umstand, dass OpenAIs pl\u00f6tzlicher Sinneswandel nur wenige Wochen nach Microsofts Investitionen in Milliardenh\u00f6he entstanden ist.<\/p>\n<p>Auch der Abschluss eines Abonnements mit der damit einhergehenden Abh\u00e4ngigkeit entf\u00e4llt, wie sie die kommerziellen Projekte zunehmend verlangen &#8211; zumindest f\u00fcr Teile der Funktionalit\u00e4ten, etwa neuere Datenmodelle. Zensur findet ebenfalls nicht statt. Dieses Thema ist durchaus umstritten: Die Intention dahinter ist grunds\u00e4tzlich nachvollziehbar. Jedoch schl\u00e4gt sie in der Praxis gerne \u00fcber die Str\u00e4nge und ist nicht immer nachvollziehbar. Freie Software schr\u00e4nkt dies nicht ein.  Es sollte jedoch auf der Hand liegen, dass die Generierung von eindeutig verbotenen Inhalten problematisch ist und besser unterlassen werden sollte. <\/p>\n<h2 class=\"wp-block-heading\">Stable Diffusion (Web UI) auf dem eigenen PC: Das brauchst du<\/h2>\n<p>Zwar ben\u00f6tigt Stable Diffusion keine spezielle Hardware f\u00fcr zehntausende Euro, wie es bei den propriet\u00e4ren Plattformen der Fall ist. Da die Generierung von Bildern viel Rechenleistung kostet, wird dies auf dem wesentlich leistungsf\u00e4higeren Grafikprozessor (GPU) statt dem Prozessor (CPU) ausgef\u00fchrt. <a href=\"https:\/\/github.com\/CompVis\/stable-diffusion\" data-type=\"URL\" data-id=\"https:\/\/github.com\/CompVis\/stable-diffusion\" target=\"_blank\" rel=\"nofollow\">Im Repository<\/a> werden daher mindestens 10 GB Grafikspeicher verlangt. Es gibt Projekte, die den Speicherverbrauch optimiert haben: <a href=\"https:\/\/github.com\/AUTOMATIC1111\/stable-diffusion-webui\/wiki\/Features#4gb-videocard-support\" target=\"_blank\" rel=\"nofollow\">Stable Diffusion web UI verlangt nur 4 GB, mit entsprechenden Parametern sollen sogar 2 GB ausreichen<\/a>. Dar\u00fcber hinaus bietet es neben einer Weboberfl\u00e4che weitere n\u00fctzliche Funktionen.<\/p>\n<p>Dazu m\u00fcssen die propriet\u00e4ren Grafikkartentreiber geladen und installiert sein. Bei mir stammen diese von nVidia f\u00fcr eine \u00e4ltere GTX 970. Wie dies gepr\u00fcft und durchgef\u00fchrt werden kann, variiert je nach Distribution. Manjaro bietet etwa eine grafische Oberfl\u00e4che in den Einstellungen unter <strong>Manjaro-Einstellungen &gt; Hardwarekonfiguration<\/strong>. Oben l\u00e4sst sich der geeignetste Treiber automatisch erkennen und installieren. Die gleiche Funktion stellt <a href=\"https:\/\/wiki.manjaro.org\/index.php\/Configure_Graphics_Cards\" target=\"_blank\" rel=\"nofollow\">das Kommandozeilenwerkzeug <strong>mhwd<\/strong> bereit<\/a>.<\/p>\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><a href=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/nvidia-treiber.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"369\" src=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/nvidia-treiber-1024x369.jpg\" alt=\"\" class=\"wp-image-10568\" srcset=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/nvidia-treiber-1024x369.jpg 1024w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/nvidia-treiber-300x108.jpg 300w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/nvidia-treiber-768x277.jpg 768w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/nvidia-treiber.jpg 1060w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n<\/div>\n<p>Unter Ubuntu findet man in den Einstellungen der Software- und Updateverwaltung einen Reiter f\u00fcr zus\u00e4tzliche Treiber, in denen die verf\u00fcgbaren aufgelistet werden. Per CLI listet ubuntu-drivers devices erkannte Ger\u00e4te sowie verf\u00fcgbare Software auf.<\/p>\n<p>Dar\u00fcber hinaus ben\u00f6tigt ihr <strong>Python3<\/strong> und <strong>Git<\/strong>. Viele Distributionen enthalten es bereits, ansonsten ist es in der Regel \u00fcber die gleichnamigen Pakete erh\u00e4ltlich. Das <a href=\"https:\/\/u-labs.de\/portal\/was-ist-eine-python-virtualenv-venv-und-wozu-braucht-man-sie-virtuelle-python-umgebung-fuer-einsteiger\/\" data-type=\"post\" data-id=\"8594\">Python-Modul venv f\u00fcr virtuelle Umgebungen<\/a> muss fast \u00fcberall nachinstalliert werden.<\/p>\n<pre class=\"wp-block-prismatic-blocks\"><code class=\"language-bash\" data-line=\"\"># Ubuntu\/Debian\nsudo apt install python3-venv \n\n# Manjaro \npamac install python-virtualenv<\/code><\/pre>\n<p>Windows-Nutzer m\u00fcssen alle Pakete h\u00e4ndisch von den Webseiten der jeweiligen Anbieter herunterladen und manuell installieren. Zus\u00e4tzlich ist dort Microsoft Visual C++ Redistributable erforderlich.<\/p>\n<h2 class=\"wp-block-heading\">Installation<\/h2>\n<p>Klont das Repository in einen Ordner euerer Wahl:<\/p>\n<pre class=\"wp-block-prismatic-blocks\"><code class=\"language-bash\" data-line=\"\">git clone https:\/\/github.com\/automatic1111\/stable-diffusion-webui.git<\/code><\/pre>\n<p>Das Skript <strong>webui.sh<\/strong> nimmt uns einen Teil der Einrichtung ab, etwa zur virtuellen Python-Umgebung. Anschlie\u00dfend startet es den Webserver. Zuvor m\u00fcssen wir hier noch Einstellungen vornehmen. Daf\u00fcr gibt es die Datei <strong>webui-user.sh<\/strong>. F\u00fcgt dort eine Umgebungsvariable <strong>TORCH_COMMAND<\/strong> ein:<\/p>\n<pre class=\"wp-block-prismatic-blocks\"><code class=\"language-bash\" data-line=\"\">export TORCH_COMMAND=&quot;pip install torch torchvision torchaudio&quot;<\/code><\/pre>\n<p>Sie ist f\u00fcr PyTorch, eine Python-Bibliothek, um maschinelles Lernen auf die GPU (Grafikkarte) auszulagern. Die Pakete (und damit der Befehl) variieren je nach Umgebung. <a href=\"https:\/\/pytorch.org\/get-started\/locally\/\" data-type=\"URL\" data-id=\"https:\/\/pytorch.org\/get-started\/locally\/\" target=\"_blank\" rel=\"nofollow\">Auf der Webseite<\/a> findet ihr ein Hilfswerkzeug, womit sich der korrekte Befehl zusammen klicken l\u00e4sst:<\/p>\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full\"><a href=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/image-14.png\"><img loading=\"lazy\" decoding=\"async\" width=\"795\" height=\"300\" src=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/image-14.png\" alt=\"\" class=\"wp-image-10569\" srcset=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/image-14.png 795w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/image-14-300x113.png 300w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/image-14-768x290.png 768w\" sizes=\"auto, (max-width: 795px) 100vw, 795px\" \/><\/a><\/figure>\n<\/div>\n<p>Anpassen m\u00fcsst ihr ggf. <em>Compute Platform<\/em>. Hier wird zwischen <em>ROC<\/em> f\u00fcr AMD\/ATI-Grafikchips und <em>CUDA<\/em> von nVidia unterschieden. Die CUDA-Version des Grafikkartentreibers kann \u00fcber das im propriet\u00e4ren Paket enthaltene Kommandozeilenwerkzeug <strong>nvidia-smi<\/strong> ermittelt werden:<\/p>\n<pre class=\"wp-block-prismatic-blocks\"><code class=\"language-bash\" data-line=\"\">$ nvidia-smi | grep CUDA\n| NVIDIA-SMI 530.41.03              Driver Version: 530.41.03    CUDA Version: 12.1     |<\/code><\/pre>\n<p>Ist keine passende PyTorch-Version verf\u00fcgbar wie in diesem Fall, m\u00fcsst ihr selbst probieren. Ich habe es mit der aktuellsten CUDA 11.8 getestet und bin nach Problemen auf 11.7 gewechselt, damit l\u00e4uft es stabil.<\/p>\n<h2 class=\"wp-block-heading\">Verwendung<\/h2>\n<p>Theoretisch seid ihr damit nun bereit und k\u00f6nnt das <strong>webui.sh<\/strong> Skript ausf\u00fchren. Der erste Start dauert einige Zeit, da mehrere Gigabyte an Daten f\u00fcr u.a. die Sprachmodelle heruntergeladen werden m\u00fcssen. Torch neu zu installieren ist nur notwendig, wenn der Grafikkartentreiber eine gr\u00f6\u00dfere Aktualisierung erhalten hat, oder die Karte gewechselt wurde. Zuk\u00fcnftige Starts laufen z\u00fcgiger ab, hier pr\u00fcft es lediglich auf Aktualisierungen. Sobald der Webserver l\u00e4uft, erscheint die lokale Adresse in der Ausgabe:<\/p>\n<pre class=\"wp-block-prismatic-blocks\"><code class=\"language-bash\" data-line=\"\">[...]\nRunning on local URL:  http:\/\/127.0.0.1:7860\n[...]<\/code><\/pre>\n<p>Die Web-Oberfl\u00e4che erreichen wir somit durch Eingabe von <strong>http:\/\/127.0.0.1:7860<\/strong> im Browser. Standardm\u00e4\u00dfig ist diese Adresse nur auf dem lokalen Computer erreichbar, auf dem das Skript gestartet wurde. Wer Stable Diffusion Web auch auf anderen Ger\u00e4ten im Heimnetzwerk nutzen m\u00f6chte, f\u00fcgt den Parameter <strong>&#8211;listen <\/strong>zur Variable <strong>COMMANDLINE_ARGS<\/strong> hinzu.<\/p>\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large\"><a href=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/2023-05-18_11-34.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"574\" src=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/2023-05-18_11-34-1024x574.jpg\" alt=\"\" class=\"wp-image-10585\" srcset=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/2023-05-18_11-34-1024x574.jpg 1024w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/2023-05-18_11-34-300x168.jpg 300w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/2023-05-18_11-34-768x431.jpg 768w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/2023-05-18_11-34-1536x861.jpg 1536w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/2023-05-18_11-34.jpg 1919w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n<\/div>\n<p>Die Web-Oberfl\u00e4che besitzt im oberen Bereich mehrere Reiter f\u00fcr die verschiedenen Funktionen: Ein Bild mittels Text zu generieren erm\u00f6glicht <strong>txt2img<\/strong>, wobei Stable Diffusion Web mehr kann &#8211; etwa das Verbessern oder Bearbeiten vorhandener Bilder. Bleiben wir beim generieren von Bildern mittels Text, wird der sogenannte <strong>Promt<\/strong> in das Textfeld <strong>1<\/strong> eingegeben. Er beschreibt, was f\u00fcr ein Bild man erhalten m\u00f6chte. Optional kann er durch einen <strong>Negativen Promt<\/strong> im Feld 2 darunter erg\u00e4nzt werden: Dieser schlie\u00dft aus, was auf keinen Fall auf dem Bild zu sehen sein soll.<\/p>\n<p>Bereich <strong>3<\/strong> bietet Feineinstellungen, welche nicht f\u00fcr alle Bilder Relevanz besitzen. Au\u00dferdem kann dort die Gr\u00f6\u00dfe sowie Anzahl der zu generierenden Bilder angepasst werden. Die vergleichsweise geringe Standard-Aufl\u00f6sung von 512&#215;512 Pixeln ist jedoch nicht zuf\u00e4llig generiert: Je h\u00f6her die Aufl\u00f6sung, um so mehr Ressourcen werden zur Generierung ben\u00f6tigt. Um sich Schlussendlich ein Bild erstellen zu lassen, klickt auf den Knopf <strong>4 Generate<\/strong>.<\/p>\n<h2 class=\"wp-block-heading\">Speichermangel? Drei Tipps, um Stable Diffusion Web auch auf Grafikkarten mit weniger Speicher nutzen zu k\u00f6nnen<\/h2>\n<p>Sollte die Generierung wegen zu wenig Speicher abbrechen (unter ~10 GB Grafikspeicher), lassen sich in der Variable <strong>COMMANDLINE_ARGS<\/strong> <a href=\"https:\/\/github.com\/AUTOMATIC1111\/stable-diffusion-webui\/wiki\/Features#4gb-videocard-support\" data-type=\"URL\" data-id=\"https:\/\/github.com\/AUTOMATIC1111\/stable-diffusion-webui\/wiki\/Features#4gb-videocard-support\" target=\"_blank\" rel=\"nofollow\">zus\u00e4tzliche Parameter setzen<\/a>. Mit <code class=\"\" data-line=\"\">--lowvram<\/code> wird das Modell in mehrere Module aufgeteilt, die es nacheinander abarbeitet. Die ben\u00f6tigte Zeit zur Generierung verlangsamt sich dadurch, aber durch den geringeren Speicherbedarf funktioniert es dadurch auch mit weniger Speicher.<\/p>\n<pre class=\"wp-block-prismatic-blocks\"><code class=\"language-bash\" data-line=\"\">export COMMANDLINE_ARGS=&quot;--lowvram&quot;<\/code><\/pre>\n<p>Dar\u00fcber hinaus gibt es noch <strong>&#8211;medvram<\/strong> f\u00fcr Karten mit <em>mittlerem Speicher<\/em>, also ungef\u00e4hr mehr wie 4 GB, aber weniger als 10 GB: Damit wird die Parallelisierung weniger stark eingeschr\u00e4nkt, daf\u00fcr ist der Speicherverbrauch h\u00f6her &#8211; auf meiner 4 GB Karte brach die Generierung teilweise wegen Speichermangels ab:<\/p>\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 640.00 MiB (GPU 0; 3.93 GiB total capacity; 1.32 GiB already allocated; 605.94 MiB free; 2.02 GiB reserved in total by PyTorch) If reserved memory is &gt;&gt; allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF<\/p>\n<p><cite>Ist der Grafikspeicher nicht ausreichend, bricht Torch mit  einem OutOfMemory-Fehler ab<\/cite><\/p><\/blockquote>\n<p>Eine weitere Optimierungsm\u00f6glichkeit steht ausschlie\u00dflich f\u00fcr nVidia-Grafikkarten zur Verf\u00fcgung: <a href=\"https:\/\/github.com\/AUTOMATIC1111\/stable-diffusion-webui\/wiki\/Xformers\" data-type=\"URL\" data-id=\"https:\/\/github.com\/AUTOMATIC1111\/stable-diffusion-webui\/wiki\/Xformers\" target=\"_blank\" rel=\"nofollow\">Xformers<\/a> beschleunigt die Bilderstellung und reduziert den Speicherverbrauch, daf\u00fcr sind die Ergebnisse nicht deterministisch. In meinen Tests wurden die Bilder etwa 3-4 Sekunden schneller erstellt, sowie knapp 500 MB weniger Grafikspeicher belegt. Ohne Xformers wird die GTX 970 w\u00e4hrend der Generierung stark ausgelastet:<\/p>\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-full is-resized\"><a href=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/grafik-17.png\"><img loading=\"lazy\" decoding=\"async\" width=\"896\" height=\"240\" src=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/grafik-17.png\" alt=\"\" class=\"wp-image-10571\" style=\"width:896px;height:240px\" srcset=\"https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/grafik-17.png 896w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/grafik-17-300x80.png 300w, https:\/\/u-labs.de\/portal\/wp-content\/uploads\/2023\/05\/grafik-17-768x206.png 768w\" sizes=\"auto, (max-width: 896px) 100vw, 896px\" \/><\/a><\/figure>\n<\/div>\n<p>Aktiviert wird es \u00fcber das gleichnamige Befehlszeilenargument:<\/p>\n<pre class=\"wp-block-prismatic-blocks\"><code class=\"language-bash\" data-line=\"\">export COMMANDLINE_ARGS=&quot;--lowvram --xformers&quot;<\/code><\/pre>\n<h2 class=\"wp-block-heading\">Fazit<\/h2>\n<p>Stable Diffusion ist die erste umfangreich praktisch nutzbare quelloffene Software, um KI-Bilder auf normaler PC-Hardware generieren zu k\u00f6nnen. Selbst mit einer GeForce GTX 970 (4 GB Grafikspeicher) aus dem Jahre 2014 lassen sich beeindruckende Ergebnisse erzielen, die Wartezeit ist mit etwa 30 bis 40 Sekunden pro Bild erstaunlich moderat. Vor allem mit Blick auf OpenAI, welche die leistungsstarke (und teure) Azure-Cloud ben\u00f6tigen. Dar\u00fcber hinaus macht Stable Diffusion Web die Technologie \u00fcber eine Web-Oberfl\u00e4che im Browser bedienbar und b\u00fcndelt sie mit n\u00fctzlichen Erweiterungen.<\/p>\n<p>F\u00fcr die Gesellschaft sind beide Projekte ein wichtiger Meilenstein, da diese Technologie tats\u00e4chlich jedem zug\u00e4nglich ist. Stable Diffusion ist damit das geworden, was OpenAI sein wollte. In Anbetracht der rasanten Entwicklung wird es spannend zu sehen, wie die Projekte in ein paar Monaten oder Jahren nutzbar sein werden. Es d\u00fcrfte eine Frage der Zeit sein, bis vergleichbares in 0815 Handy-Apps m\u00f6glich ist. Schwieriger als die technischen Probleme wird der gesellschaftliche Umgang mit den neuen Chancen und Risiken sein: W\u00e4hrend viele noch mit grundlegenden Themen wie Medienkompetenz an Schulen k\u00e4mpfen, werden sie von ML\/KI \u00fcberrollt.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>K\u00fcnstliche Intelligenz (die technisch eher maschinellem Lernen entspricht) hat mit ChatGPT und DALL-E (2) die breite Masse erreicht. Letzteres ist der Bildgenerator von OpenAI, der aus Textbeschreibungen ein Bild erzeugen kann. W\u00e4hrend die Ergebnisse durchaus interessant sind, handelt es sich um propriet\u00e4re (Cloud-) Technologie. Dem steht die Open Source Gemeinde mit Projekten wie Stable Diffussion &#8230;<\/p>\n","protected":false},"author":5,"featured_media":10583,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[78],"tags":[1079],"class_list":["post-10567","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-software","tag-kuenstliche-intelligenz-2"],"_links":{"self":[{"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/posts\/10567","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/comments?post=10567"}],"version-history":[{"count":6,"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/posts\/10567\/revisions"}],"predecessor-version":[{"id":12090,"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/posts\/10567\/revisions\/12090"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/media\/10583"}],"wp:attachment":[{"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/media?parent=10567"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/categories?post=10567"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/u-labs.de\/portal\/wp-json\/wp\/v2\/tags?post=10567"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}