V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
drymonfidelia
V2EX  ›  程序员

现在 8GB 显存 4070 笔记本能训练 AI 画图 LoRA 模型吗?效果怎么样,有没人了解的?我看有的模型说 6GB 显存就能玩

  •  
  •   drymonfidelia · 50 天前 · 2335 次点击
    这是一个创建于 50 天前的主题,其中的信息可能已经有所发展或是发生改变。
    16 条回复    2024-11-07 14:33:19 +08:00
    drymonfidelia
        1
    drymonfidelia  
    OP
       50 天前
    另外还想问下爆显存是会对生成图片质量造成影响还是会直接出不了图?
    LanhuaMa
        2
    LanhuaMa  
       50 天前
    8GB 训练怎么样我不知道,但是跑图基本是不够的,分辨率基本不可能超过 720p 而且插件一多就容易爆。6GB 能玩是扯蛋,除非你喜欢 pixel art 。爆显存会直接报错不出图
    winson030
        3
    winson030  
       50 天前
    不建议笔记本干这活,同样价格要么主机要么租 GPU 。
    Chris008
        4
    Chris008  
       50 天前
    现在 1024 分辨率以上的训练没有 24GB 显存是根本折腾不起来的。512 分辨率早就淘汰也没有花时间训练的必要。
    Chris008
        5
    Chris008  
       50 天前
    出图看 UI 优化的不同,6-8G 都是可以出图的,就是慢点。实测 8GB 在 ComfyUI 可以跑。
    disorientatefree
        6
    disorientatefree  
       50 天前
    训练不要想,出图是够玩玩的,但是笔记本这配置批量做起来也不现实

    ---

    除非你玩像素图当我没说
    hafuhafu
        7
    hafuhafu  
       50 天前
    8G 训练 LoRa 够了。我之前就用 3070Ti Laptop 8G 弄了几个自己的 LoRa 玩,更低都行。
    出图的话,小显存也能玩,但是效果要好点倒是对显存要求比较高,不然加上插件什么的,只能出小分辨率的图。
    HeyWeGo
        8
    HeyWeGo  
       50 天前
    如果想出 1920x1080 的图,推荐多少显存的卡呢? 4090 ok 吗?
    chesha1
        9
    chesha1  
       50 天前
    @HeyWeGo #8 你要是用 web ui 那种整合包,会包括很多节约显存的工具,4090 24G 应该够了,如果用裸 diffusers ,才会不够
    tikebosi6787782
        10
    tikebosi6787782  
       50 天前 via Android
    还是需要 12
    emberzhang
        11
    emberzhang  
       50 天前 via iPhone
    用 comfyui + flux.1 ,16G 跑 fp16 肯定是爆,但也没有感觉特别慢,会再把内存吃掉 25G 的样子,4070tis 大概 40 秒一张 1024x1024 。我还是垃圾 3200Mhz ddr4 内存
    mscsky
        12
    mscsky  
       50 天前
    模型转精度,没什么不能跑的
    sampeng
        13
    sampeng  
       50 天前
    也就能玩了。。。但没生产力。。除非你电脑啥都不干
    rm0gang0rf
        14
    rm0gang0rf  
       50 天前
    1050 4g 也能跑, 你跑 20 秒, 我跑半小时
    zzNucker
        15
    zzNucker  
       49 天前
    sd webui 跑跑图肯定是没问题的,训练就算了
    NoOneNoBody
        16
    NoOneNoBody  
       49 天前
    所谓能,起点其实很低的,算力越低耗时越长
    以前的机器很弱,还有人花一周不断电来训练出一个模型呢,而且还是只做训练这一件事,这耐心我是比不了

    别听别人画饼,人家的情况,包括情操,不是你能照搬的
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5788 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 06:12 · PVG 14:12 · LAX 22:12 · JFK 01:12
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.