Jag kommer att berätta om AI Picture Webui (Stable Diffness)
Idag kommer jag att vägleda dig webbplatsen som ritar bilden gratis med AI!
Du kan rita en bild riktigt enkelt!
Webui (stabil diffness)
Stabilitet AI, som släpptes den 22 augusti 2022, är en AI -modell som omvandlar text till en bild. Denna modell distribueras som en öppen källkodslicens, vilket gör att en mängd användare kan använda den fritt. När du går in i texten skapar stabiliteten AI en bild av hög kvalitet baserad på den texten.
Webbadress :
https://stability.ai/
Karakteristik:
Stabil diffusion är en djup inlärning av artificiell intelligensmodell utvecklad baserad på "High Resolution Image Synthesis Research" av Machine Vision & Learning Group (COMPVIS) Lab i München University i München, Tyskland. Det har utvecklats med stöd av stabilitet AI och Runway ML.
Stabilitet AI är ett brittiskt företag som heter EMAD Mostaque, som tillhandahåller datorresurser för stabil diffnighet, vilket gör att du kan lära dig en LAION-5B-databas. Till skillnad från text-till-bildmodeller som Dall-E 2 eller Imagen, kan denna modell också användas på datorer med VRAM: er på 4 GB eller mindre genom att kraftigt minska datorresurserna.
Dessutom, även om det är dyrt, är det öppet för öppen källkod och kan användas av allmänheten. Detta har öppnat åldern för målning AI, och AI -bildtjänstfunktionen baserad på modellen fortsätter att öka.
Du kan använda plug -in "controlnet" för att göra en pose. Genom att använda olika kontrollnet -hjälpmodeller, såsom den kanniska modellen härrörande, justerar den grödorna i kroppsområdet för att hjälpa skissen av linjenivån.
Stabil diffness består huvudsakligen av tre konstgjorda neurala nätverk: klipp, unet och VAE (VAE). När användaren kommer in i texten konverterar textkodaren, klippet, texten till det token som Unet kan förstå. Unet skapar en bild genom att ta bort slumpmässigt genererat brus baserat på tokens. Att upprepa dinoiseringsprocessen skapar en exakt bild, och VAE spelar en roll i att konvertera dessa bilder till pixlar.
Till skillnad från den traditionella diffusionssannolikhetsbildskapsmodellen har den stabila skillnaden introducerat Otto -inkoderen före och efter för att lösa problemet som resursförbrukningen ökar när upplösningen ökar. Detta gör att du kan skapa en relativt stor upplösningsbild genom att manipulera brus i en liten nivå av potentiellt utrymme, inte hela bilden och inte kräva många datorresurser. Därför kan den stabila skillnaden användas som en resurs av grafikkort som används i allmänna antaganden.
Licens:
Stabil AI introducerade en öppen källkodslicens [4] för ny maskininlärning. Denna licens har en annan funktion än den vanliga open source -licensen. Om du tillhandahåller en tjänst som använder stabil diffness måste användaren uttryckligen följa den licensen. Dessutom, när PIN -inställning av modellen, bör den endast användas för den specifika användningen som anges i licensen och bör inte användas för andra ändamål.
Hur man använder :
Olika open source -projekt har utvecklats med stabil diffnighet. Nedan är en beskrivning av varje projekt:
1. Stabil Diffness Web UI: Ett projekt som tillhandahåller ett webbaserat användargränssnitt för att göra det enkelt att använda den stabila diffusionsmodellen. Utvecklare fortsätter att uppdatera och lägga till en mängd olika funktioner som GFPGAN -korrigering, ESRGAN -uppskalning och textuell inversion utöver frontend -funktionen för den stabila diffusionen.
2. Originalförfattare: Det ursprungliga projektet publicerat av Compvis. Användbarhet är begränsad, så den kan användas för referensändamål.
3. Diffusorer: Detta är en ram för den nya diffusionsmodellen som tillhandahålls av Herging Face, en berömd leverantör av maskininlärningsramar. Det ger ett sätt att enkelt göra finetuneng av stabil diffusion. Det inkluderar också ramar som transformatorer eller datasätt.
4. DiffnessBee: Du kan köra den stabila skillnaden direkt med appen för Mac. Det är möjligt att ange text och bilder, och även stöd i -målnings- och utposteringsfunktioner. Apple Silicon -versionen använder en neuralmotor i Apple Silicon, och HQ -versionen använder GPU för att öka kvaliteten, men hastigheten är långsam. Det stöder också Intel Mac och kommer att stödja Windows i framtiden.
5. Rita saker: Du kan köra stabil diffnighet med appar för iOS, iPados och macOS. Det stöder tre lägen: CPU + GPU, CPU + neuralmotor, CPU + GPU + neuralmotor (ALL). Du kan använda checkpoint, lora, textuell inversion, etc. och erbjuder en liknande funktion som webui. Expansionsfunktionen stöds inte, och på grund av minneskapacitetsbegränsningar kan appen ofta sluta på grund av brist på minne om den körs mer än en viss upplösning i både gamla och nya enheter.
6. Riffusion: Detta är ett exempel på att tillämpa det på komposition AI med spektrogrammet.
7. Dish Inside AI Image Gallery: Vi har öppnat ett dedikerat galleri som kan skapa AI -bilder med Civitais tjänst.
Ovanstående projekt använder den stabila diffusionen för att skapa AI -bilder i olika funktioner och miljöer.
Kommentarer
Skicka en kommentar