[ home ] [ adv / b / hum ] [ a / mu / v / vis / tech / x ] [ meta / nexo ]

/tech/ - Tecnología

No rompas las leyes de Isaac Asimov






(Para eliminar)
  • Lee las reglas antes de postear y para dudas las FAQ.


No.4784

>>

No.4787

>Herramientas y recursos
Index: https://pharmapsychotic.com/tools.html
Artist Styles: https://pastebin.com/HD7D6pnh (embed)
Prompt sharing: https://lexica.art/ | https://krea.ai/
Wildcard list: https://github.com/Lopyter/stable-soup-prompts
Dataset: https://pastebin.com/HpBPTmbF (embed)
img2img skeleton: https://app.posemy.art/

Su discord oficial: discord.gg/stablediffusion
>>

No.4789

¿Algún link que explique cómo funcionan estos programas con peras y manzanas, no a nivel abstracto?
>>

No.4790

>>4789
Yo lo he estudiado durante un año en la universidad y tampoco te creas que lo entiendo tan bien. No conozco tal guía pero si quieres algo super resumido:

Una red neuronal (IA) sirve para optimizar operaciones y buscar relaciones. A una red neuronal tu la das un montón de operaciones con sus soluciones y ella busca las relaciones matemáticas entre ellas. Entonces cuando se enfrente a un problema real, intenta darte la solución basandose en la relación que ha visto en problemas ya resueltos. Pues lo mismo con las imágenes, le enseñan un monton de imágenes con tags y cuando tu la pides una imagen con tags nuevos te hace una mezcla de todo lo que antes había visto.
>>

No.4791

>>4790
Ya pero eso sería como el argumento de la obra. Lo que me gustaría entender es la trama, es decir el paso a paso para ir de las imágenes en el dataset a una imagen original. Porque he visto que los prompts más comunes no pasan de 20 palabras pero la imagen final tiene mil cosas que el programa decide por su cuenta. Por ejemplo, si alguien pone Emma Watson o Hatsune Miku, es obvio que le va a dar prioridad a imágenes con los tags de Emma Watson y Hatsune Miku y seguro va a dibujar un retrato. Un dibujo de Hatsune Miku con vestido alternativo en el dataset seguro va a influir menos en un prompt con solo Hatsune Miku, pero si resulta que el vestido era rojo, eso puede influir para entender lo que es un vestido rojo en caso de que el prompt fuera "Emma Watson, vestido rojo". Sigue siendo el mismo vudú matemático pero explicado con ejemplos concretos, que es justo lo que la IA tiene que hacer en cada imagen que escupe.
>>

No.4792

En mi opinion, los modelos de lenguaje son más interesantes.
>>

No.4794

Llevo toda la tarde probando inputs y estoy mejorando. No termino de entender si prefiere muchos tags cortos o pocos largos, según los tutoriales los prefiere cortos pero no me dan buenos resultados.
>>

No.4795

Un intento de hacer algo épico… Creo que es obvio pero estoy usando el modelo de las waifus "Waifu Diffusion Final".
>>

No.4796

>>4789
De manera práctica y sin tanta mierda incomprensible de >>4790:

Tienes que clonar el repositorio de Github, descargar un modelo y generas tus imágenes desde una terminal de comandos con el script txt2img.py y una descripción en inglés de la imágen que quieres.

Puedes investigar cómo ejecutar scripts desde Windows/Lincucks en Youtube.
>>

No.4810

>>4784
el oso del mar
>>

No.4811

>>4784
el perro guepardo
>>

No.4812

>>

No.4813

>>4812
No está mal, pero tampoco me explota la cabeza.
>>

No.4814

¿Estás son los famosos programas que dibujan?
>>

No.4815

>>4814
Esta es la versión de código abierto que puede ejecutar en su propia computadora.
>>

No.4816

>99.999% de los de /g/ son para pajas
>>

No.4817

>>4815
Interesante
>>4816
Los pocos que he visto más arriba son por los loles. Aunque no creo que pase mucho tiempo para que se haga un hilo en >>>/h/
>>

No.4818

>>4816
>99.999% de la edad de piedra son para pajas
¿Por qué el humano es así?
>>

No.4819

>>4818
Sexy
>>

No.4902

Promt: portrait anime visual futuristic female cyber girl, on cyberpunk neon light tokyo rooftop, ssci - fi and fantasy, intricate and very beautiful, human structure, concept art, sharp focus, anime by liya nikorov and simon stalenhag and rossdraws and magali villeneuve and luxearte, frostine engine
>>

No.4903

>puede dibujar como un dios
>TODAVÍA no puede dibujar manos
>>

No.4904

>>

No.4905

>>4903
La mayoría de artistas tampoco puede
>>

No.4906

>>4784
https://beta.dreamstudio.ai/dream.
"Anya Forger (アーニャ・フォージャー) 22 old year."
Solo quería una Waifu (loli) y obtuve unas wafles.
>>

No.4907

Guía en español Stable Difussion:
>>

No.4908

Guía de un anon para sacar vTubers de hololive
https://rentry.org/3y56t

Lo he probado y varios resultados se acercan mucho. No logro entender que algoritmo ha usado ni que modelo. En el primer párrafo dice algo pero mi stable fusión no tiene ese Euler:

All basic appearance tags were tested and confirmed on Curated model at 28/11 with quality tags on and "low quality + bad anatomy" undesired content with k_euler_ancestral on seed: 847181942.
No negatives were used with any prompt unless listed otherwise.

También dice que no hay promts negativos de no indicar lo contrario pero en ese párrafo menciona que ha usado promts de calidad en positivo y de los quality + bad anatomy en negativo por lo que no sé si ponerlos o no.
>>

No.4918

No sé si otros ya lo comentaron, pero esta página es bastante simple y más que cambiar fotos a estilo "animé" es un rediseño. Aunque está bien para pasar el rato.
https://h5.tu.qq.com/web/ai-2d/cartoon/index
Esta en japones pero es solo dar al botón grande.
>>

No.4919

>>4918
La he usado bastante pero note algo que cambió, la primera vez que la use estaba usando cualquier foto, usaba varias imágenes de anime o manga para ver qué salía y si me funcionaba, pero al entrar al día siguiente ya no me deja hacerlo, cuando pongo una foto así me dice que no reconoce la cara del usuario
>>

No.4955

No entiendo nada ¿Cómo puedo yo, un simple pajero con computadora del gobierno y sin dinero para pagar una suscripción a una de estas IAs, generar hentai de mis monitas favoritas haciendo que se vea de calidad y no deforme?
>>

No.4956

>>4955
>computador del gobierno
>sin dinero para pagar IAs SaaS.
Imágen relacionada.
>>

No.4986

No recuerdo el Promt de este pero me gusto lo se genero.
>>

No.4988

Sé que este es un hilo de Stabble Diffusion y no de MidJourney pero creí que ustedes podrían ayudarme, ya que el otro hilo que hay sobre IA es más para debatir ¿Cómo puedo lograr el mismo efecto de película de los 80's que hace la gente en las imágenes de este tipo de videos? https://youtu.be/0_sNQq55nW0
¿Qué prompts puedo usar? Aparte de "As an 80's dark fantasy/sci-fi movie" he usado "realistic, vintage, retro, creatures made with stop-motion" pero solo obtengo cosas muy cartoon o muy "fotorrealistas"
>>

No.4989

>>4988
Encontré este vídeo en un hilo sobre MidJourney. No lo he visto porque no tengo acceso a esa AI, pero tal vez te sirva.
https://www.youtube.com/watch?v=Ul9uuLIS7Kk&t=234s
>>

No.4990

>>4986
¿Tienes más como esta?
>>

No.4997

>>4990
>¿Tienes más como esta?
Exactamente como esa, no, Waipendejo. Lamentablemente genere un montón de imágenes de alta calidad (según yo) sin fijarme en el prompt que use y simplemente las guarde. Algunas de ellas las voy a adjuntar en el hilo a ver qué tal les parecen.
>>

No.5927

Este video de la pagina web de modelos civitai me ha ayudado a entender todos los conceptos que rondan por las guías. Recomiendo escucharlo si como yo te perdías escuchando entre modelo, LORA, VAE…
>>

No.5929

>>

No.5944

Alguien sabe de una lora para imitar el anime de 2000-2010? No logro encontrar nada.
>>

No.5977

Tengo un montón de Loras y siempre acabo olvidando las palabras clave. Hay alguna forma mejor que apuntarlas en un txt?
Y no sé si es a propósito pero es fantástico que en este ib se quede la información de generación de las imágenes para luego poder importarlas.
>>

No.5978

Hay alguna ventaja de usar SDXL 1.0 sobre SD1.5? Por el momento lo único que he visto es que todas via VAE y mis LORAs son incompatibles y esto me jode mucho.
>>

No.6012

>>5977
He actualizado la web UI (AUTOMATIC1111) a la versión 1.9.3 y han introducido justo esto. Ahora puedes dar a las opciones de la LORA y ver en qué modelo se entrenó, con que dimensiones y te permite guardar la palabra clave y prompts negativos.
>>

No.6013

>>5978
No más allá de mayor resolución. Aunque con SD1.5 y un buen upscaler yo me apaño bien. Una LORA de SD1.5 se puede usar en SDXL pero es un quebradero de cabeza y no vale la pena. Por ahora yo me quedo en SD1.5 porque SDXL aún está empezando.

Aprovecho para recomendar https://majinai.art/ , es un buscador y lo uso para encontrar ideas. Aunque justo hoy han anunciado que van a eliminar las imágenes sexuales.
>>

No.6240

Por fin he podido hacer funcionar a un modelo Pony. Ciertamente produce muchas mejores imágenes que 1.5 SD por no mucho más procesamiento. Recuerdo que hace 1 año era muy inferior pero principalmente debido a la ausencia de Loras, ahora ya todas son para Pony diría.
>>

No.6260

Ahora que he aprendido a usar el regional prompter no hay nada que pueda pararme, NADA!
>>

No.6262

>>6260
Veo que ahora podrás darle rienda suelta a tus instintos pedofilos.



[ ]
[Post a Reply]
[ home ] [ adv / b / hum ] [ a / mu / v / vis / tech / x ] [ meta / nexo ]