找了半天怎么读取图片信息,结果最后我还是上传到了c站,直接复制更舒服
score_9, score_8_up, score_7_up,, KJOjane, medium hair, black hair, aqua eyes, blunt bangs, tail, mouse ears, mouse girl,medium breasts,solo, simple_background,very aesthetic,(athletic body:0.7),Negative prompt: score_6, score_5, score_4, censored, ,monochrome worst quality, low quality, bad anatomy, bad hands, bad body,missing fingers, extra digit, fewer digits, watermark, multiple limbs,extra limbsteps: 25, Sampler: euler_ancestral, Seed: 826590503601072, Siz ...
lora推荐
未读由于各种类型的lora实在太多,我发现自己用一个就发一篇有点污染自己的博客内容了。所以决定暂时不更新这方面的内容。可能会专门开一篇文章集中展示好用的lora。
Hexo
未读使用
仅bili和bgmv0源支持在追番页面显示追番进度。
在hexo generate或hexo deploy之前使用hexo bangumi -u命令更新追番数据,使用hexo cinema -u命令更新追剧数据!
使用bili源时,如果要在追番页面显示追番进度,需使用hexo bangumi -u 'SESSDATA', SESSDATA替换为哔哩哔哩cookie中的SESSDATA值。例hexo bangumi -u 'df***EC'
删除数据命令:hexo bangumi -d/hexo cinema -d
前段时间突然想做表情包,大概流程是通过sd生成图片然后做成表情包发布在微信平台。在发布之前需要将图片背景抠成透明,为了方便批量操作,我打算搞个脚本进行一键抠图。
抠图功能Koutu.pyfrom PIL import Image  import os  import shutil   # 图片文件夹路径  input_folder = 'xxx\\input'  # 处理后图片保存的文件夹路径  output_folder = 'xxx\\output'    # 如果输出文件夹不存在,则创建它  if not os.path.exists(output_folder):      os.makedirs(output_folder)    # 遍历文件夹中的所有图片文件  for filename in os.listdir(input_folder):      if filename.lower().endswith(('.png', '.jpg', '.jpeg', ' ...
ControlNet可以对你想要调整的元素进行微调,比如人物姿势等。
预处理器可以从图片中提取特征信息,controlNet模型读取这些信息引导sd生成图像。
安装模型花了我不少时间,真正使用起来效果还是挺直观的
openpose准备一张图片,让生成的图片跟你准备的图片里的人物姿势一样。有很多预处理器可以选择。如下图:
成图
depth深度
对于精度需求不高的场景,可以选择midas或者zoe预处理,比如生成人像。
有时候生成的图片跟样图不一样,比如下面这张图。
因为ai只知道在哪些位置要生成内容,不能分清手脚之类的。这时候可以使用depth,它生成的图片姿势会跟样图一样。相对应的生成图片更固定,创造力不如前面的openpose。
案例一
案例二
Canny(硬边缘)、Lineart(线稿)、SoftEdge(软边缘)这三个都是根据线条来控制出图效果的算法。当然选择不同的预处理器或者不同的模型,出图效果也会不同,这需要自己去一个个尝试。
Canny主要将轮廓记录,ai根据轮廓出图。会有一些细节没法完美还原。比如例图里都没有右手。
Lineart会更细致,很多细节都能还原,几 ...
之前为了在小红书上发笔记而写的md文档,今天顺便上传到博客。
分享一下这组卡夫卡可爱风的头像的制作方法。
理论上任何角色都可以做成这种原神表情包风格。
==观前提示:==c站需要科学上网进行浏览和下载模组,stable diffusion只能pc电脑端使用。
lora模型下载大模型你可以选用任意自己喜欢的二次元风格模型,我用的是coffeebreak_v20
表情包lora模型下载来c站下载这个模型:Paimon's paintings style (Genshin impact stickers)
链接:https://civitai.com/models/26291/paimons-paintings-style-genshin-impact-stickers
或者直接搜paimon's第一个就是。
我们可以看到下方作者建议的提示词。
机翻一下,大概知道意思就好。
下载后文件名:gstamp_02-000008.safetensors
触发方式:在提示词里加上这段<lora:gstamp_02-000008: ...
ai语音合成
未读使用GPT-SoVITS,通过别人训练好的模型来合成自己需要的语音。
首先需要关注up主:花儿不哭
在ta的私信中下载整合包。我下载的是GPT-SoVITS-beta0217fix,这个整合包你可以训练自己的语音,生成模型。
也可以使用别的地方下载的模型来直接合成语音。接下来我带来的是合成语音的方法。
一、打开webui打开解压文件的根目录,然后双击go-webui.bat文件打开。等待一会将会在浏览器打开ui操作界面。
二、下载模型在up主白菜工厂1145号员工提供教程视频中,你可以学到详细的语音训练过程。我在这里只带来使用模型的方法,适合想要快速玩到语音合成的玩家。
首先你需要在该up主的教程视频下找到他的语雀文档。
以下是视频简介:
文档链接:https://www.yuque.com/baicaigongchang1145haoyuangong/ib3g1e?# 《GPT-SoVITS指南》 视频讲的不是很详细,请对照着文档看 感谢花儿不哭,海鱼Harry的共同编写。感谢项目的所有贡献者 我的小交流群:941610468 字幕:自动识别(过几天我会重新上传字幕的)
打 ...
 看这课之前自己摸索着装了lora玩了挺久,所以一直没专门看up的视频讲解,今天看了一下还是有一些收获的。
lora从大语言模型中衍生来,类似hypernetwork的单独网络层参数训练,模型大小适中,可以多个不同的LORA 模型+权重叠加使用,本地训练时需要显存适中。
文件可以随意重命名,不过我习惯使用原名,或许以后文件多了我会加一些中文注释。
webui中使用方法第一种提示词中输入如下
<Lora:[名称]:[权重(-1~1)]>
例如:
<Lora:add_detail:1>
第二种直接在下方选择模型
lora界面缩略图显示webui中可以显示相对应lora的图片内容,只需要在lora文件夹中将图片命名与lora模型一样,就可以在webui中显示预览图。
如下图演示:
在webui中显示这样:
https://civitai.com/models/23167/pony-character-concept-art-xl-and-15-by-creativehotia
Pony Character Concept Art XL & 1.5 by creativehotia concept-10.safetensors
Best models:
Pony Diffusion XL V6
Pony Diffusion for Anime
AutismMix SDXL
Triggers words: conceptart,multiple views,white background,simple background
Weight: 1
lora推荐
未读龙珠背景https://civitai.com/models/329546/dragon-ball-backgrounds-xl
Dragon Ball Backgrounds XL(实测只适合生成背景,最好别生成角色的时候一起用)
文件名Dragon_Ball_Background_Pony_XL.safetensors
score_9, score_8_up, score_7_up,source_anime,kamiNegative prompt: score_6, score_5_up, score_4_up, score_3_up,conceptart, long sleeves, extrairis,(signed,signature:1.0),white background,(simple background:1.5), Error eyes, low quality, source_pony, source_furry, source_cartoon, (black and white:1.0)Steps: 38, Size: 832x1216, Seed: 1114 ...







