报名已满,停止接受新的申请。

 

 

Project list / 作品项目列表

(Image Credit: ふぃーる@pixiv) Online Docs / 在线表格 Google Sheet Notes / 注释: UID / RS / Rev / SP = 年月+序号 / 重发 / 重制 / 集中式补丁包 UID...

阅读全文

VCB-Studio 2024 秋季组员招募(已截止)

本次 2024 秋季招新面向整理组、压制组和发布组,欢迎大家踊跃报名。 入群方式 有意报名任意组的同学,请直接加群 873142259(QQ 可能出现搜不到的情况,...

阅读全文

VCB-Studio 支持 IEEE 的决定: 发布时禁止使用涩图 [愚人节快乐]

VCB-S 全心全意地支持 IEEE 的倡议,并热情地加入到他们促进多样性和性别平等的努力中。 At VCB-S, we wholeheartedly support the IEEE’s initiative ...

阅读全文

60 条评论

  1. So how much time should we take while working as a lolicon? Getting new tasks for every week? Or every 15 days?
    And is it ok that I apply for the training without any AviSynth, VapourSynth and a little Python basics?
    BTW, AV1 encoding is tooooooo slow. It seems that AOM has been testing it for 1 or 2 years, but the algorithm is still not being optimized at present.

    1. Un,reread the requirements and the comments below. So lack of knowledge of VapourSynth and Python is OK. But I’m still cared about how much time the work will take.

  2. 我还以为vcb要换为av1编码了,原来是只用来测试的。
    现在av1的编码速度太慢了吧,好像是比x264慢千倍还是百倍来着。

  3. 余,大一新生一枚,对研究技术有强烈的兴趣和热情,对贵团队的精神与做出的贡献感到深深的佩服和向往,然恐因学业外活动致两边不讨好而误事,多是不能来报名加入,参与其中。希望在之后几年内,学习能有成果,以能对贵团队尽绵薄之力。在此留言,以明我志,早日实现目标。
    祝越做越强。
    某中二少年

  4. VCB真的一直再压制组之中走在技术的前端,但也看得到压制的质量是操再技术总监的手上,花费的心思,时间,还有当下的状态,以及不同的人和心境都有机会影响成品,好奇一下,现在的深度学习技术这么火,也就是所谓的人工智能,有没有可能透过众人团队的力量来制作出一个完全透过人工智能决定9成9以上的原盘判断和压制参数制作,而达到人人的压制分配自动化,这么一来VCB就能无所不在,屹立不摇.

    1. 如果vcb-s的技术组,计算机科学水准,有全球Top 30 计算机学院博士研究生院的研发能力,大概是可以的。
      可惜,目前平均水准也就是国内普通高校CS系大二大三的样子。

    2. 要是有那么好的东西我是真想赶紧退休坐享其成咯……(话说这条留言一股中二风格迎面扑来,我读着都感觉好羞耻(T▽T)

      1. 从没有到有往往是最困难的过程,不过相信在许多人工智能的开发门槛不断下降下,即便是大学生水平也能VCB更上一层楼,我在计算机领域也是只菜鸡,不过目前有这样的建议,首先第一步是将目前首席技术总监的思路以尽可能完善的方式传承下来
        那么第一步便是将思路标准化,可以透过以往的蓝光源建立大量的样本库,例如不同的artifact建立成不同的库,样本完善了,就可以打造一个训练课程,例如看到了这些库的场景知道要怎么下达正确的阐述,只要通过整个训练课程就确保了基本的思路

        接着第二部曲就是比较有技术门槛的部分,将蓝光片源能够自动透过计算机的图像识别(传统手法也好AI也好)来抽取出各个存在aritifact的场景,然后就是画质的评断指数(例如透过一些锐利度等来判断基础数值)

        如此一来应该能够完成一套半自动的工具,而透过不断的优化这些,和技术的进步,希望有朝一日能达成全自动的理想

    3. 就技术上来说深度学习来选择最佳压制模式非常可行,但就目前来说,性价比不高。就两方面来说,用来训练的算法编写很复杂,就像LP大大说的,研发能力要足够(不过似乎目前已经有类似的算法了);另一方面,深度学习说白了就是大量的数据堆出来的,用来训练生成模型的话,图片级别还好,可能家用机级别电脑用上万张图片训练一星期怎么也出来了,但视频级别要更多算力和时间来训练。就这些来看,人工似乎目前更合适,长远了肯定深度学习更强。
      PS:我的导师有一个课题就是搞深度学习,很可惜,我是另一个课题搞区块链的。贵组需要区块链程序猿么?

    4. 这个其实不用DL,用grid search找hyper parameter是很传统的方法,只要有足够的算力,暴力搜索就可以了。学界的AI encoder是分析画面内容,这块还是有待研究。

  5. 还有就是。。。比起笼统的说program背景,我觉得细化到数字信号/图像处理背景更好。FFT变换这一类的东西虽然入门不难,但是要到总监那种级别最好有点feeling。。。就是在充分了解原理的情况下能够很快猜一个参数的合理区间来。。。视频编码一把成本还是挺高的(怼CPU当我没说)。。。当然这种东西经验也是可以培养的,但是要压RIP精益求精的话我觉得还是要能深入原理。。。毕竟这也算是一门艺术了。。。当然有视觉识别方面背景的人也是很好的,就像自传里写的,对于噪点的处理很可能回过头一看思路可能完全不同一样。
    不过果然还是最重要的是闲和爱,有时间和行动什么都能怼出来(吧)(QAQ)

    1. 编码器中的FFT、DCT等等基本是黑箱,不需要任何了解。
      然后编码参数到目前为止需要调的更多是psy相关,显然和FFT没关系,噪点保留与否的思路也是心理学相关。
      事实上能用到FFT的基本也就原生分辨率判断,然而判断原生分辨率基本靠经验足矣,判断不出的那一部分也不需要缩回720p。

    2. 要计算机知识背景只是为了你能看工具和滤镜的doc和以python为基础的vapoursynth脚本而已,并不要你非得学计算机图形学,反正那些玩意儿生产中到底用不用得上都是个问题

  6. 8分钟的AV1编码。。。现在AV1 codec 快到那种程度了???
    “使用AV1默认的速度预设,在48核HP Z840工作站上进行了5秒钟的Tears of Steel 1080p源素材编码需要23小时46分钟(1,426分钟)”
    来源: https://blog.csdn.net/vn9PLgZvnPs1522s82g/article/details/82935174 2018/10/03
    就算假设这位哥用的是60fps源,不严谨的算一下默认预设编一把大概要1426*(480/5)*(24/60)*(1/2.25)=24337min (405小时/16天)
    就算两个月的时间来试错我觉得也是时间堪忧啊。。。。(或许这就是要成为技术总监应该用普通处理器跨过的难关吧【大雾】【逃】)
    当然我只有双核i5,av1试都没试过,实际如何我是不知道的。。。我就是单纯想吐槽一下”You are not required to have a powerful computer with advanced CPU. However, it is still considered as an advantage.“

    1. 你算的很有道理,只不过我们组内报名的同学已经压完第一版了。码率没控制好,回炉重做中。另外他不是压制组的,他负责分流。

    2. 1、我不知道所谓Z840工作站主频多少,但是通过前期测试下来,AV1编码器多核优化几乎没有,48核和4核就没有区别了。
      2、VCB-S分流组的CPU战斗力本身就很强

      1. :mrgreen: 太真实了,“分流组的CPU战斗力本身就很强”
        突然想起来之前测试Hetzner的VPS的时候找了个贵组的公网种子吸血,发现只能吸到60MB/s,top一看单核cpu满载了2333,CPU太菜是原罪——过于真实

欢迎留言

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据