오랜만에 글을 써봅니다. 원래 CNN으로 CIFAR-10 작업을 하고 있는데, Batch Normalization과 기타 다른 기법도 정리해야 하기도 하고 좀 바쁜 일도 있어서 아직 딥러닝 파트는 글을 다 못 썻네요. 아무튼 이번 글에서는 딥러닝을 활용하여 꾸린 동영상 화질을 개선해볼 겁니다.


이 괴랄한 짓을 하게 된 계기는 다음과 같습니다. 제가 아이유 팬인지라 이번에 아이유 콘서트 포토북을 샀는데, 포토북에 같이 담겨 있는 DVD의 화질이 480p로 괴랄한 관계로 이것을 어떻게든 개선해서 영상을 보겠다는 덕질로부터 시작하게 되었습니다. ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ


아 참고로, 이 개선을 하겠다고 좀 머리 굴려보고 이렇게 컴퓨터 굴려봤는데도 개선의 큰 효과는 거두지 못했습니다. 원체 해상도가 낮았던 영상인지라...제 방법을 그대로 적용하실 분은 가능하면 720p 이상에 작은 세부사항이 없는 영상(눈이 2px정도이면 이건 확대해서 다듬어도 개선이 안 됩니다. 사람이 직접 건드리거나, 모자이크를 살리는 딥러닝을 돌려야 합니다.)에서 적용하시는 걸 권해드립니다.


일단 먼저 예시로 한 프레임을 보도록 합시다. 원본 영상은 720x480입니다.


무려 2017년에...4K도 거의 대중화가 된 이 세상에서 480p 영상이라니....

해상도가 워낙 낮아서 폰 화면에서 보는 거 아니라면 좀 보기 껄그러운 수준의 해상도입니다.


자, 이번엔 Image Super Resolution과 OpenCV의 filter2D 기능을 사용하여 좀 더 깔끔하게 하기 위해 sharpen까지 준 프레임입니다.

(Tistory의 업로드 최대 폭이 900px인지라 조금 이미지가 작게 올라갑니다. 원본 사이즈는 1440x960입니다.)


솔직히 이것도 그닥 보기 편한 품질은 아니지만, 그나마 원본 영상의 프레임보다는 많이 개선된 편입니다.



자, 그러면 이제 어떻게 동영상의 품질을 개선했는지 간단하게 설명해보겠습니다.


기본적으로 제 컴퓨터 환경은 다음과 같습니다. 이 환경에서 7,000프레임 정도 되는 영상을 업스케일링 & sharpen을 줬을 때 1시간 30~40분 정도 걸리니, 제 컴퓨터의 GPU(연산은 CPU가 아니라 GPU로 돌렸습니다. 이게 더 빠릅니다.)보다 안 좋으신 분은 좀 더 시간이 걸릴 것을 알고 자는 시간에 돌리는게 정신건강에 매우 이롭습니다.


CPU: i7-5820K

GPU: GTX 970

RAM: DDR4 16GB

SSD: Toshiba Q Series 256GB (Pro 버전인지 아닌지는 기억이 안 나네요. 그냥 기본적인 SSD 성능을 낸다고 보시면 됩니다.)

OS: Ubuntu Gnome 16.04.1 LTS


1. 기본적인 프로그램을 설치한다.

아래는 필수적으로 필요한 프로그램입니다. 구글에 검색하면 다 나오니 알아서 까시면 됩니다.

- CUDA, cuDNN

- Torch

- FFMPEG

- Python Libraries: numpy, Theano, OpenCV, etc(프로그램 돌릴 때 없다고 뜨는 거 그것들 설치해주시면 됩니다. 자세히 기억은 안 나네요)


2. waifu2x를 git에서 clone해온다. 그리고 waifu2x에 필요한 필수적인 프로그램들을 설치한다.(README 참조)

간단하게 waifu2x를 설명해드리자면, 원래는 애니메이션이나 일러스트 등을 업스케일링하는 딥러닝입니다. 근데 어차피 딥러닝 모델은 학습만 하면 되니까, 일반적인 사진을 업스케일링할 수 있는 photo model도 있더라고요.


https://github.com/nagadomi/waifu2x


waifu2x의 READM.md를 읽어보시면 아시겠지만, 거기에도 영상을 업스케일링하는 방법이 간단하게 소개되어 있습니다. 저는 거기서 조금 더 응용해서 적용했습니다.


3. 아래 Python 코드를 다운받아서 어디에 저장해둔다.

이 코드는 좀 안 좋은 영상의 경우엔 초점이 흐릿하게 보이기 때문에 이때 좀 초점을 쨍하게 만들어 주기 위해 sharpen을 주는 코드입니다. 영상 업스케일링에 필수적인 코드는 아니니 필요하신 분만 사용하시면 됩니다.


Sharpen.py


* 함수를 보면 sharpen_filter와 sharpen_deblur 두 가지 종류가 있는데, 각각 적용해보시고 맘에 드시는 거 하나 골라서 함수명만 바꿔주시면 됩니다. 저 같은 경우에는 좀 어두운 환경(콘서트장)에서는 sharpen_filter가 더 적합했고, 약간 몽상적이면서 밝은 분위기 영상에는 sharpen_deblur가 채도도 살짝 높여주면서 영상을 괜찮게 만들어 줬습니다.


4. 영상을 프레임 단위로 쪼개어 png 파일로 저장한다.

명령어는 다음과 같습니다. 어디에 폴더 하나 만드시고 거기에 저장하시면 됩니다. 참고로 이미지 파일들이 동영상 파일의 10배 가까이 용량을 차지하기 때문에 용량이 넉넉한 곳을 마련해두시는게 좋습니다.

ffmpeg -i 동영상파일 -f image2 %08d.png


5. 영상에서 오디오 파일을 추출한다.

나중에 개선된 프레임을 다시 합칠 때에는 오디오가 없는 상태이기 때문에, 이때 오디오를 넣어주기 위해서 원본 영상에서 오디오를 추출해냅니다.

ffmpeg -i 동영상파일 -acodec copy 오디오파일


6. 프레임 목록을 만듭니다.

아래 명령어만 입력하시면 됩니다.

find "$(cd 이미지폴더; pwd)" -name "*.png" | sort > frames.txt


7. (선택) 프레임에 sharpen을 줍니다.

선택 사항이며, 화질구지인 480p에서는 어느정도 효과를 얻었습니다.

python Sharpen.py경로 frames.txt경로


8. 프레임을 업스케일링합니다.

제일 중요한 부분입니다. 먼저 새 프레임 폴더를 만들고, torch를 이용해 waifu2x를 돌립니다. 노이즈 레벨은 3정도가 적당했습니다.


mkdir new_frames

th waifu2x폴더/waifu2x.lua -force_cudnn 1 -model_dir models/photo -m noise_scale -noise_level 3 -resume 1 -l frames.txt 경로 -o new_frames/%08d.png


* waifu2x 옵션은 이외에도 여러가지가 있고, GPU 대신에 CPU에서 돌릴 수 있는 옵션 등이 있으므로 명령어 옵션을 체크하고 커스텀해주시면 됩니다.


여기서 95% 이상의 시간이 소요됩니다.


9. 프레임과 오디오 파일을 합쳐서 동영상을 만듭니다.

ffmpeg -f image2 -framerate fps수 -i new_frames/%08d.png -i 오디오파일 -r 오디오파일fps수 -vcodec mpeg4 -acodec copy -crf 16 video.mp4


이외에 많은 ffmpeg 옵션이 있으므로 구글링 해보시는 것을 권해드립니다. 코덱도 mpeg4 외에 좀 더 용량이 작은 libx264를 쓸 수는 있으나, 윈도 환경에서 VLC를 제외하고 곰플레이어, 윈도 기본 내장 플레이어 등에서 정상적으로 동영상이 재생 안 되는 것으로 확인되어 가능하면 용량이 좀 더 크더라도(대략 1.5배?) mpeg4를 쓰는 것이 정신건강에 더 좋을 거 같습니다. 아니면 libx264 호환 윈도 코덱을 까시면 됩니다.


이렇게 하면 그나마 20% 정도 개선된 동영상을 얻으실 수 있으며 원본 영상의 해상도가 더 높을 수록, 세부 요소가 더 적은 영상일 수록 더 큰 개선 효과를 얻으실 수 있을 거 같습니다. 따로 동영상 프레임 추출부터 재합성까지 자동화하는 Bash용 스크립트도 하나 만들어뒀는데, 이것은 나중에 GitHub에 정리해서 업로드하겠습니다.


+ 추가: 정리해서 업로드했습니다. https://github.com/AMakeApp/DVD2FHD

+ Recent posts

티스토리 툴바