11-25 18,393
報名已滿,停止接受新的申請。
Latest posts by LittlePox (see all)
- VCB-Studio 編年史(2023.02.01 更新) - 2023年2月1日
- White Album 2 / 白色相簿2 1080p AVC BDRip [Reseed V4 Fin] - 2022年2月14日
- Toradora! / 龍與虎 10-bit 1080p AVC BDRip [Reseed V2 Fin] - 2021年12月25日
11-25 18,393
報名已滿,停止接受新的申請。
已經報名,等待回復
So how much time should we take while working as a lolicon? Getting new tasks for every week? Or every 15 days?
And is it ok that I apply for the training without any AviSynth, VapourSynth and a little Python basics?
BTW, AV1 encoding is tooooooo slow. It seems that AOM has been testing it for 1 or 2 years, but the algorithm is still not being optimized at present.
Un,reread the requirements and the comments below. So lack of knowledge of VapourSynth and Python is OK. But I’m still cared about how much time the work will take.
我還以為vcb要換為av1編碼了,原來是只用來測試的。
現在av1的編碼速度太慢了吧,好像是比x264慢千倍還是百倍來着。
lolicon和siscon可還行,剛看到一臉懵逼。
1234都符合,可惜英語爛的不行
已報名,等待大佬回復ing…
能回信給個你用的參照版本下載么?整個公網沒找着,尷尬了。。。
已發
沒時間永遠是最傷的,祝好
余,大一新生一枚,對研究技術有強烈的興趣和熱情,對貴團隊的精神與做出的貢獻感到深深的佩服和嚮往,然恐因學業外活動致兩邊不討好而誤事,多是不能來報名加入,參與其中。希望在之後幾年內,學習能有成果,以能對貴團隊盡綿薄之力。在此留言,以明我志,早日實現目標。
祝越做越強。
某中二少年
要學生啊,那就沒了。。。不過本來確實做這個要花不少時間吧-。-
萌新默默表示支持
壓了兩版用了四十多個小時,雖然說了不要求CPU,但是我這樣的CPU可以報名嗎?
這個用時很正常。歡迎報名。
放心,我這邊八十多小時都不知道能不能壓一版
羨慕 我平均下來100多小時一個
能找到一個有心有又有時間並且技能合適的人確實困難啊….希望VCB越來越好,加油
VCB真的一直再壓制組之中走在技術的前端,但也看得到壓制的質量是操再技術總監的手上,花費的心思,時間,還有當下的狀態,以及不同的人和心境都有機會影響成品,好奇一下,現在的深度學習技術這麼火,也就是所謂的人工智能,有沒有可能透過眾人團隊的力量來製作出一個完全透過人工智能決定9成9以上的原盤判斷和壓制參數製作,而達到人人的壓制分配自動化,這麼一來VCB就能無所不在,屹立不搖.
如果vcb-s的技術組,計算機科學水準,有全球Top 30 計算機學院博士研究生院的研發能力,大概是可以的。
可惜,目前平均水準也就是國內普通高校CS系大二大三的樣子。
要是有那麼好的東西我是真想趕緊退休坐享其成咯……(話說這條留言一股中二風格迎面撲來,我讀着都感覺好羞恥(T▽T)
我是看到層主的ID名進來的,
臟翅膀天下第一!
從沒有到有往往是最困難的過程,不過相信在許多人工智能的開發門檻不斷下降下,即便是大學生水平也能VCB更上一層樓,我在計算機領域也是只菜雞,不過目前有這樣的建議,首先第一步是將目前首席技術總監的思路以儘可能完善的方式傳承下來
那麼第一步便是將思路標準化,可以透過以往的藍光源建立大量的樣本庫,例如不同的artifact建立成不同的庫,樣本完善了,就可以打造一個訓練課程,例如看到了這些庫的場景知道要怎麼下達正確的闡述,只要通過整個訓練課程就確保了基本的思路
接着第二部曲就是比較有技術門檻的部分,將藍光片源能夠自動透過計算機的圖像識別(傳統手法也好AI也好)來抽取出各個存在aritifact的場景,然後就是畫質的評斷指數(例如透過一些銳利度等來判斷基礎數值)
如此一來應該能夠完成一套半自動的工具,而透過不斷的優化這些,和技術的進步,希望有朝一日能達成全自動的理想
來來來!機器給你!你來做!
就技術上來說深度學習來選擇最佳壓制模式非常可行,但就目前來說,性價比不高。就兩方面來說,用來訓練的算法編寫很複雜,就像LP大大說的,研發能力要足夠(不過似乎目前已經有類似的算法了);另一方面,深度學習說白了就是大量的數據堆出來的,用來訓練生成模型的話,圖片級別還好,可能家用機級別電腦用上萬張圖片訓練一星期怎麼也出來了,但視頻級別要更多算力和時間來訓練。就這些來看,人工似乎目前更合適,長遠了肯定深度學習更強。
PS:我的導師有一個課題就是搞深度學習,很可惜,我是另一個課題搞區塊鏈的。貴組需要區塊鏈程序猿么?
你說的讓我想起了LB家的naobu.dll啊(霧
這個其實不用DL,用grid search找hyper parameter是很傳統的方法,只要有足夠的算力,暴力搜索就可以了。學界的AI encoder是分析畫面內容,這塊還是有待研究。
還有就是。。。比起籠統的說program背景,我覺得細化到數字信號/圖像處理背景更好。FFT變換這一類的東西雖然入門不難,但是要到總監那種級別最好有點feeling。。。就是在充分了解原理的情況下能夠很快猜一個參數的合理區間來。。。視頻編碼一把成本還是挺高的(懟CPU當我沒說)。。。當然這種東西經驗也是可以培養的,但是要壓RIP精益求精的話我覺得還是要能深入原理。。。畢竟這也算是一門藝術了。。。當然有視覺識別方面背景的人也是很好的,就像自傳里寫的,對於噪點的處理很可能回過頭一看思路可能完全不同一樣。
不過果然還是最重要的是閑和愛,有時間和行動什麼都能懟出來(吧)(QAQ)
編碼器中的FFT、DCT等等基本是黑箱,不需要任何了解。
然後編碼參數到目前為止需要調的更多是psy相關,顯然和FFT沒關係,噪點保留與否的思路也是心理學相關。
事實上能用到FFT的基本也就原生分辨率判斷,然而判斷原生分辨率基本靠經驗足矣,判斷不出的那一部分也不需要縮回720p。
要計算機知識背景只是為了你能看工具和濾鏡的doc和以python為基礎的vapoursynth腳本而已,並不要你非得學計算機圖形學,反正那些玩意兒生產中到底用不用得上都是個問題
8分鐘的AV1編碼。。。現在AV1 codec 快到那種程度了???
“使用AV1默認的速度預設,在48核HP Z840工作站上進行了5秒鐘的Tears of Steel 1080p源素材編碼需要23小時46分鐘(1,426分鐘)”
來源: https://blog.csdn.net/vn9PLgZvnPs1522s82g/article/details/82935174 2018/10/03
就算假設這位哥用的是60fps源,不嚴謹的算一下默認預設編一把大概要1426*(480/5)*(24/60)*(1/2.25)=24337min (405小時/16天)
就算兩個月的時間來試錯我覺得也是時間堪憂啊。。。。(或許這就是要成為技術總監應該用普通處理器跨過的難關吧【大霧】【逃】)
當然我只有雙核i5,av1試都沒試過,實際如何我是不知道的。。。我就是單純想吐槽一下”You are not required to have a powerful computer with advanced CPU. However, it is still considered as an advantage.“
你算的很有道理,只不過我們組內報名的同學已經壓完第一版了。碼率沒控制好,回爐重做中。另外他不是壓制組的,他負責分流。
1、我不知道所謂Z840工作站主頻多少,但是通過前期測試下來,AV1編碼器多核優化幾乎沒有,48核和4核就沒有區別了。
2、VCB-S分流組的CPU戰鬥力本身就很強
太真實了,“分流組的CPU戰鬥力本身就很強”
突然想起來之前測試Hetzner的VPS的時候找了個貴組的公網種子吸血,發現只能吸到60MB/s,top一看單核cpu滿載了2333,CPU太菜是原罪——過於真實
除了時間,其他的真都好說,希望VCB能越來越好!