Lada|JavPlayer 中文交流论坛

 找回密码
 立即注册
楼主: 不兼容

Javplayer 3.00画质有多大提升?

  [复制链接]

7

主题

93

帖子

1127

积分

中级会员

Rank: 3Rank: 3

积分
1127
发表于 2024-10-8 22:48:10 | 显示全部楼层
yyy1985 发表于 2024-10-8 22:44
请问怎么取消马赛克检测?设置里好像没看到相关选项

点击左下角那个圆形的马赛克按钮,黑色为关闭,白色为开启,右键单击是显示马赛克的大小数量信息
回复

使用道具 举报

11

主题

62

帖子

617

积分

中级会员

Rank: 3Rank: 3

积分
617
发表于 2024-10-8 22:50:03 | 显示全部楼层
好像又有更新版本準備出了 想等穩定點在考慮更新
回复

使用道具 举报

0

主题

5

帖子

119

积分

初级会员

Rank: 2

积分
119
发表于 2024-10-8 23:13:40 | 显示全部楼层
Zsural 发表于 2024-10-8 22:48
点击左下角那个圆形的马赛克按钮,黑色为关闭,白色为开启,右键单击是显示马赛克的大小数量信息 ...

好像是这里,黑白我都试了,但还是得检测马赛克,左上角显示“investigating mosaic”

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

点评

是的,这个按钮只是一个预览功能,不选BATCH就不会进行超分了,但软件还是会对马赛克进行预处理  详情 回复 发表于 2024-10-9 08:44
回复

使用道具 举报

2

主题

28

帖子

52

积分

注册会员

Rank: 1

积分
52
发表于 2024-10-9 00:06:13 | 显示全部楼层
好 TG8X_AF1b_253K 这个模型的参数量大概是 800万级 高级显卡的瓶颈是保存png时的io 最后的三个Conv 就是超分辨率操作的层了 我把模型的源码简单复现了 但是单个工具使用 图片生成的效果不如3.0的融合 那个工具单用 丢失了不少高频信息 A B在一起是怎么特征融合的 如果是训练 打算用注意力机制了。那个模型作者也是抄的TecoGAN-PyTorch 原版是4倍 一层conv 2x 两层 4x  8x那就是三层 复现的时候发现少两层 然后看调试 发现分支没走进加第二层的 那么少的两层就在这了 但是作者加了一个8x 就是有三层

  1. TecoGAN8X_AF1b_253k@7t layers
  2. ==========================================================================================
  3. Layer (type:depth-idx)                   Output Shape              Param #
  4. ==========================================================================================
  5. FRNet                                    [1, 128, 128, 3]          --
  6. ├─FNet: 1-1                              [1, 2, 16, 16]            --
  7. │    └─Sequential: 2-1                   [1, 32, 8, 8]             --
  8. │    │    └─Conv2d: 3-1                  [1, 32, 16, 16]           1,760
  9. │    │    └─LeakyReLU: 3-2               [1, 32, 16, 16]           --
  10. │    │    └─Conv2d: 3-3                  [1, 32, 16, 16]           9,248
  11. │    │    └─LeakyReLU: 3-4               [1, 32, 16, 16]           --
  12. │    │    └─MaxPool2d: 3-5               [1, 32, 8, 8]             --
  13. │    └─Sequential: 2-2                   [1, 64, 4, 4]             --
  14. │    │    └─Conv2d: 3-6                  [1, 64, 8, 8]             18,496
  15. │    │    └─LeakyReLU: 3-7               [1, 64, 8, 8]             --
  16. │    │    └─Conv2d: 3-8                  [1, 64, 8, 8]             36,928
  17. │    │    └─LeakyReLU: 3-9               [1, 64, 8, 8]             --
  18. │    │    └─MaxPool2d: 3-10              [1, 64, 4, 4]             --
  19. │    └─Sequential: 2-3                   [1, 128, 2, 2]            --
  20. │    │    └─Conv2d: 3-11                 [1, 128, 4, 4]            73,856
  21. │    │    └─LeakyReLU: 3-12              [1, 128, 4, 4]            --
  22. │    │    └─Conv2d: 3-13                 [1, 128, 4, 4]            147,584
  23. │    │    └─LeakyReLU: 3-14              [1, 128, 4, 4]            --
  24. │    │    └─MaxPool2d: 3-15              [1, 128, 2, 2]            --
  25. │    └─Sequential: 2-4                   [1, 256, 2, 2]            --
  26. │    │    └─Conv2d: 3-16                 [1, 256, 2, 2]            295,168
  27. │    │    └─LeakyReLU: 3-17              [1, 256, 2, 2]            --
  28. │    │    └─Conv2d: 3-18                 [1, 256, 2, 2]            590,080
  29. │    │    └─LeakyReLU: 3-19              [1, 256, 2, 2]            --
  30. │    └─Sequential: 2-5                   [1, 128, 4, 4]            --
  31. │    │    └─Conv2d: 3-20                 [1, 128, 4, 4]            295,040
  32. │    │    └─LeakyReLU: 3-21              [1, 128, 4, 4]            --
  33. │    │    └─Conv2d: 3-22                 [1, 128, 4, 4]            147,584
  34. │    │    └─LeakyReLU: 3-23              [1, 128, 4, 4]            --
  35. │    └─Sequential: 2-6                   [1, 64, 8, 8]             --
  36. │    │    └─Conv2d: 3-24                 [1, 64, 8, 8]             73,792
  37. │    │    └─LeakyReLU: 3-25              [1, 64, 8, 8]             --
  38. │    │    └─Conv2d: 3-26                 [1, 64, 8, 8]             36,928
  39. │    │    └─LeakyReLU: 3-27              [1, 64, 8, 8]             --
  40. │    └─Sequential: 2-7                   [1, 2, 16, 16]            --
  41. │    │    └─Conv2d: 3-28                 [1, 32, 16, 16]           18,464
  42. │    │    └─LeakyReLU: 3-29              [1, 32, 16, 16]           --
  43. │    │    └─Conv2d: 3-30                 [1, 2, 16, 16]            578
  44. ├─SRNet: 1-2                             --                        (recursive)
  45. │    └─BicubicUpsampler: 2-8             [1, 2, 128, 128]          --
  46. ├─SRNet: 1-3                             [1, 3, 128, 128]          --
  47. │    └─Sequential: 2-9                   [1, 128, 16, 16]          --
  48. │    │    └─Conv2d: 3-31                 [1, 128, 16, 16]          224,768
  49. │    │    └─ReLU: 3-32                   [1, 128, 16, 16]          --
  50. │    └─Sequential: 2-10                  [1, 128, 16, 16]          --
  51. │    │    └─ResidualBlock: 3-33          [1, 128, 16, 16]          295,168
  52. │    │    └─ResidualBlock: 3-34          [1, 128, 16, 16]          295,168
  53. │    │    └─ResidualBlock: 3-35          [1, 128, 16, 16]          295,168
  54. │    │    └─ResidualBlock: 3-36          [1, 128, 16, 16]          295,168
  55. │    │    └─ResidualBlock: 3-37          [1, 128, 16, 16]          295,168
  56. │    │    └─ResidualBlock: 3-38          [1, 128, 16, 16]          295,168
  57. │    │    └─ResidualBlock: 3-39          [1, 128, 16, 16]          295,168
  58. │    │    └─ResidualBlock: 3-40          [1, 128, 16, 16]          295,168
  59. │    │    └─ResidualBlock: 3-41          [1, 128, 16, 16]          295,168
  60. │    │    └─ResidualBlock: 3-42          [1, 128, 16, 16]          295,168
  61. │    │    └─ResidualBlock: 3-43          [1, 128, 16, 16]          295,168
  62. │    │    └─ResidualBlock: 3-44          [1, 128, 16, 16]          295,168
  63. │    │    └─ResidualBlock: 3-45          [1, 128, 16, 16]          295,168
  64. │    │    └─ResidualBlock: 3-46          [1, 128, 16, 16]          295,168
  65. │    │    └─ResidualBlock: 3-47          [1, 128, 16, 16]          295,168
  66. │    │    └─ResidualBlock: 3-48          [1, 128, 16, 16]          295,168
  67. │    │    └─ResidualBlock: 3-49          [1, 128, 16, 16]          295,168
  68. │    │    └─ResidualBlock: 3-50          [1, 128, 16, 16]          295,168
  69. │    │    └─ResidualBlock: 3-51          [1, 128, 16, 16]          295,168
  70. │    │    └─ResidualBlock: 3-52          [1, 128, 16, 16]          295,168
  71. │    └─Sequential: 2-11                  [1, 128, 128, 128]        --
  72. │    │    └─ConvTranspose2d: 3-53        [1, 128, 32, 32]          147,584
  73. │    │    └─ReLU: 3-54                   [1, 128, 32, 32]          --
  74. │    │    └─ConvTranspose2d: 3-55        [1, 128, 64, 64]          147,584
  75. │    │    └─ReLU: 3-56                   [1, 128, 64, 64]          --
  76. │    │    └─ConvTranspose2d: 3-57        [1, 128, 128, 128]        147,584
  77. │    │    └─ReLU: 3-58                   [1, 128, 128, 128]        --
  78. │    └─Conv2d: 2-12                      [1, 3, 128, 128]          3,459
  79. │    └─BicubicUpsampler: 2-13            [1, 3, 128, 128]          --
  80. ==========================================================================================
  81. Total params: 8,319,845
  82. Trainable params: 8,319,845
  83. Non-trainable params: 0
  84. Total mult-adds (Units.GIGABYTES): 4.83
  85. ==========================================================================================
  86. Input size (MB): 0.00
  87. Forward/backward pass size (MB): 33.57
  88. Params size (MB): 33.28
  89. Estimated Total Size (MB): 66.86
  90. ==========================================================================================
复制代码
回复

使用道具 举报

2

主题

28

帖子

52

积分

注册会员

Rank: 1

积分
52
发表于 2024-10-9 00:56:55 | 显示全部楼层
好 onnx我已经导出了,这样可以做更简单的自制处理模块了。另外TecoGAN8X_AF1b_253k@7t 模型网络架构图已经导出了

点评

Nice!可以讲讲具体的转换和导出思路吗,或者分享一下导出的模型(只含权重参数?)和模型算法架构  详情 回复 发表于 2024-10-9 08:46
回复

使用道具 举报

7

主题

93

帖子

1127

积分

中级会员

Rank: 3Rank: 3

积分
1127
发表于 2024-10-9 08:44:08 | 显示全部楼层
yyy1985 发表于 2024-10-8 23:13
好像是这里,黑白我都试了,但还是得检测马赛克,左上角显示“investigating mosaic”
...

是的,这个按钮只是一个预览功能,不选BATCH就不会进行超分了,但软件还是会对马赛克进行预处理
回复

使用道具 举报

7

主题

93

帖子

1127

积分

中级会员

Rank: 3Rank: 3

积分
1127
发表于 2024-10-9 08:46:32 | 显示全部楼层
asa 发表于 2024-10-9 00:56
好 onnx我已经导出了,这样可以做更简单的自制处理模块了。另外TecoGAN8X_AF1b_253k@7t 模型网络架构图已经 ...

Nice!可以讲讲具体的转换和导出思路吗,或者分享一下导出的模型(只含权重参数?)和模型算法架构
回复

使用道具 举报

0

主题

10

帖子

16

积分

注册会员

Rank: 1

积分
16
发表于 2024-10-9 09:59:28 | 显示全部楼层
Zsural 发表于 2024-10-8 22:44
在作者研发3.00时我最感兴趣的时BVPP8X模型,因为这个模型从算法上使用了双向特征传播和特征对齐,从效果 ...

我也感觉两个8x的batch融合之后效果是不错的,作者现在又加了个1xdf预处理模型,我在用1xdf+tg8xa STD(无论闪马还是正常码)的测试下感觉会以少许模糊为代价换来更稳定的结果,本来想着用SRA再提升一下清晰度,顺便解决一下边缘融合的问题,但感觉无论是3xSR还是Span,提升效果都不大,反而会加重扭曲的效果,现在只能寄希望于作者会加入tvai的batch文件,我也邮件过他关于tvai的事情,并问他tvai能不能加入调用多个模型多次超分,这样就可以用thm-2(减少扭曲感+边缘融合)+任意2x或者4x模型处理,他回了个3.0版本出来后会再做tvai的batch。
回复

使用道具 举报

8

主题

103

帖子

304

积分

初级会员

Rank: 2

积分
304
发表于 2024-10-9 11:45:00 | 显示全部楼层
ccbbll 发表于 2024-10-9 09:59
我也感觉两个8x的batch融合之后效果是不错的,作者现在又加了个1xdf预处理模型,我在用1xdf+tg8xa STD( ...

高手,本来听说要加入ai(类似sd)的方式,所以很期待
现在是确定不加入了吗
回复

使用道具 举报

8

主题

103

帖子

304

积分

初级会员

Rank: 2

积分
304
发表于 2024-10-9 12:06:48 | 显示全部楼层
asa 发表于 2024-10-8 21:12
我昨天刚升级 , 另外2.0版本的那个TecoGAN8X的源码我拿到了 我看看可不可以把模型的网络参数导出来 导出on ...

666,高手,这个应该很有意思
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|小黑屋|Lada|JavPlayer 中文交流论坛 |网站地图

GMT+8, 2025-12-1 08:53 , Processed in 0.020047 second(s), 20 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表