Lada|JavPlayer 中文交流论坛

 找回密码
 立即注册
楼主: gbywreyuerh@out

Amd卡在Win11下运用显卡原生加速运行Lada教程,简单易懂!!

  [复制链接]

0

主题

8

帖子

37

积分

注册会员

Rank: 1

积分
37
发表于 2025-10-20 00:32:19 | 显示全部楼层
感谢分享 太牛了
回复

使用道具 举报

0

主题

19

帖子

21

积分

注册会员

Rank: 1

积分
21
发表于 2025-10-20 00:39:34 | 显示全部楼层
大佬请问一下我是7900xtx,首先最新的版本是torch-2.9.0a0+rocm7.0.0rc20250908-cp313-cp313-win_amd64。
patch -u .venv/lib/site-packages/ultralytics/utils/ops.py patches/increase_mms_time_limit.patch时出错。
测试(lada-cli --list-devices,
lada-cli --list-codecs等)都正常,但是正常使用时报错
Traceback (most recent call last):
  File "<frozen runpy>", line 198, in _run_module_as_main
  File "<frozen runpy>", line 88, in _run_code
  File "D:\Lada\lada\.venv\Scripts\lada-cli.exe\__main__.py", line 6, in <module>
    sys.exit(main())
             ~~~~^^
  File "D:\Lada\lada\lada\cli\main.py", line 151, in main
    mosaic_detection_model, mosaic_restoration_model, preferred_pad_mode = load_models(
                                                                           ~~~~~~~~~~~^
        args.device, args.mosaic_restoration_model, args.mosaic_restoration_model_path, args.mosaic_restoration_config_path,
        ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
        args.mosaic_detection_model_path
        ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
    )
    ^
  File "D:\Lada\lada\lada\lib\frame_restorer.py", line 26, in load_models
    from lada.basicvsrpp.inference import load_model, get_default_gan_inference_config
  File "D:\Lada\lada\lada\basicvsrpp\inference.py", line 9, in <module>
    from mmengine.runner import load_checkpoint
  File "D:\Lada\lada\.venv\Lib\site-packages\mmengine\runner\__init__.py", line 2, in <module>
    from ._flexible_runner import FlexibleRunner
  File "D:\Lada\lada\.venv\Lib\site-packages\mmengine\runner\_flexible_runner.py", line 14, in <module>
    from mmengine._strategy import BaseStrategy
  File "D:\Lada\lada\.venv\Lib\site-packages\mmengine\_strategy\__init__.py", line 3, in <module>
    from mmengine.utils.dl_utils import TORCH_VERSION
  File "D:\Lada\lada\.venv\Lib\site-packages\mmengine\utils\dl_utils\__init__.py", line 8, in <module>
    from .time_counter import TimeCounter
  File "D:\Lada\lada\.venv\Lib\site-packages\mmengine\utils\dl_utils\time_counter.py", line 8, in <module>
    from mmengine.dist.utils import master_only
  File "D:\Lada\lada\.venv\Lib\site-packages\mmengine\dist\__init__.py", line 2, in <module>
    from .dist import (all_gather_object, all_reduce, all_gather, all_reduce_dict,
    ...<2 lines>...
                       collect_results_cpu, collect_results_gpu, all_reduce_params)
  File "D:\Lada\lada\.venv\Lib\site-packages\mmengine\dist\dist.py", line 26, in <module>
    def _get_reduce_op(name: str) -> torch_dist.ReduceOp:
                                     ^^^^^^^^^^^^^^^^^^^
AttributeError: module 'torch.distributed' has no attribute 'ReduceOp'
看了一下gfx120的9.09(教程)的轮子和gfx110的9.08(我使用的)关于torch.distributed代码内容几乎一致。所以应该是我其他地方出了问题。
希望大佬能解惑
回复

使用道具 举报

2

主题

20

帖子

86

积分

注册会员

Rank: 1

积分
86
发表于 2025-10-20 03:44:32 | 显示全部楼层
eeeeeeeeeeeeeeeeeeeeeeeeeeeeeee
回复

使用道具 举报

0

主题

7

帖子

10

积分

注册会员

Rank: 1

积分
10
发表于 2025-10-20 09:05:49 | 显示全部楼层
膜拜一下
回复

使用道具 举报

0

主题

7

帖子

10

积分

注册会员

Rank: 1

积分
10
发表于 2025-10-20 09:29:28 | 显示全部楼层
问下7900xtx支持不支持
回复

使用道具 举报

0

主题

3

帖子

3

积分

临时会员

积分
3
发表于 2025-10-20 10:01:29 | 显示全部楼层
刚找到组织,感谢大佬
回复

使用道具 举报

0

主题

3

帖子

0

积分

临时会员

积分
0
发表于 2025-10-20 10:47:45 | 显示全部楼层
试试这个
回复

使用道具 举报

3

主题

28

帖子

40

积分

注册会员

Rank: 1

积分
40
发表于 2025-10-20 15:33:07 | 显示全部楼层
本帖最后由 fish313331 于 2025-10-20 15:41 编辑
LettingMeDown 发表于 2025-10-20 00:39
大佬请问一下我是7900xtx,首先最新的版本是torch-2.9.0a0+rocm7.0.0rc20250908-cp313-cp313-win_amd64。
p ...

這個錯誤我的9070(gfx1201)出現在更後面的版本,懷疑是新的rocm更新了什麼出問題了
後來給ai分析,

它讓我把.venv\Lib\site-packages\mmengine\model\wrappers\__init__.py
這個檔案裏頭
開頭加上
  1. import torch, types
  2. if not hasattr(torch, "distributed") or not hasattr(torch.distributed, "fsdp"):
  3.     torch.distributed = types.SimpleNamespace()
  4.     torch.distributed.fsdp = types.SimpleNamespace()
  5.     torch.distributed.fsdp.fully_sharded_data_parallel = types.SimpleNamespace()
复制代码


然後後面這段
  1. if digit_version(TORCH_VERSION) >= digit_version('2.0.0'):
  2.     from .fully_sharded_distributed import \
  3.         MMFullyShardedDataParallel  # noqa:F401
  4.     __all__.append('MMFullyShardedDataParallel')
复制代码

改為
  1. if digit_version(TORCH_VERSION) >= digit_version('2.0.0'):
  2.     try:
  3.         from .fully_sharded_distributed import MMFullyShardedDataParallel  # noqa:F401
  4.     except Exception as e:
  5.         import warnings
  6.         warnings.warn(f"FSDP disabled: {e}")
  7.         MMFullyShardedDataParallel = None
  8.         
  9.     __all__.append('MMFullyShardedDataParallel')
复制代码

另一個檔案.venv\Lib\site-packages\mmengine\dist\dist.py
  1. def _get_reduce_op(name: str) -> torch_dist.ReduceOp:
复制代码
之前加上
  1. if not hasattr(torch.distributed, "ReduceOp"):
  2.     class DummyReduceOp:
  3.         SUM = None
  4.         MEAN = None
  5.     torch.distributed.ReduceOp = DummyReduceOp
复制代码


這樣就會跳過錯誤的部分,每次執行lada還是會有一個警告,但可以正常使用了
回复

使用道具 举报

0

主题

8

帖子

10

积分

注册会员

Rank: 1

积分
10
发表于 2025-10-20 18:03:08 | 显示全部楼层
求分享破解设置参数
回复

使用道具 举报

0

主题

19

帖子

21

积分

注册会员

Rank: 1

积分
21
发表于 2025-10-20 19:57:05 | 显示全部楼层
本帖最后由 LettingMeDown 于 2025-10-20 20:01 编辑
fish313331 发表于 2025-10-20 15:33
這個錯誤我的9070(gfx1201)出現在更後面的版本,懷疑是新的rocm更新了什麼出問題了
後來給ai分析,

好的感谢大佬,我等会去试试。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|小黑屋|Lada|JavPlayer 中文交流论坛 |网站地图

GMT+8, 2025-12-1 06:57 , Processed in 0.022224 second(s), 19 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表