2017년 3월 22일에 나온 아직도 따끈따끈한 논문입니다. GitHub링크는 아래와 같습니다.

https://github.com/luanfujun/deep-photo-styletransfer

간단히 논문에 대해 요약을 하자면 아래와 같습니다.


기존까지 있었던 image style transfer(유명한 neural-style 등)은 이미지에 스타일을 입히는 게 얼추 가능은 했지만, style faithfulness가 약하거나 photorealism이 약했습니다. photorealism이 약한 이유는 사진 내부에 있는 직선 성분과 택스쳐 성분이 왜곡되기 때문이고, style faithfulness가 약한 이유는 예를 들어서 sky style은 sky에 매칭이 되야 하고, building style은 building에 매칭되어야 하는데 이게 잘 안돼서 연관없는 것이 매칭되었기 때문입니다.  따라서 Deep Photo Style Transfer는 이것들을 해결하고자 뭐 여러가지 적용했습니다. 그래서 이전의 알고리즘과는 달리 위 두 가지를 충족시키는 좋은 알고리즘이 되었다 뭐 이정도입니다. 그래서 실제로 이걸 돌려보면 사진의 전체적인 분위기(시각, 계절, 날씨, 택스쳐 재배치 등)이 제대로 됩니다.


아래가 그 예시입니다. (원본을 GitHub에서 링크 따온 것입니다.) 왼쪽부터 순서대로 원본, 스타일, 결과물입니다.



코드가 GtiHub에 있기 때문에 돌려볼려고 clone도 받고 Octave도 설치해서 라플라시안 돌리고 그러려고 했는데... GPU 램 부족하다고 안 되네요 쩝... 나중에 좋은 장비 구축하면 그때가서 돌려보겠습니다.


p.s. 논문은 대충 읽어봤는데 처음해보는 리뷰라 그런지 잘 안 되네요 쿨럭...  나중에 시간이 되면 더 꼼꼼히 읽어서 리뷰해보겠습니다

  1. 스터디중 2017.10.24 12:52 신고

    안녕하세요. 리뷰 잘 읽었습니다.
    한가지 질문을 드려도 될까요?
    segmentation mask에 맞게 transfer 되는건 알겠는데, 그럼 다른 mask 는 transfer에 전혀 관여를 안하는건가요?

    • makeapp 2017.10.28 00:12 신고

      간단하게 논문 조금 훑어보고 예제를 살펴본 정도라서, 저도 정확하게 답변드릴순 없을 거 같습니다. 직접 논문 읽어보시고, 프로그램 실행해보시는게 좋을 거 같습니다.

오랜만에 글을 써봅니다. 원래 CNN으로 CIFAR-10 작업을 하고 있는데, Batch Normalization과 기타 다른 기법도 정리해야 하기도 하고 좀 바쁜 일도 있어서 아직 딥러닝 파트는 글을 다 못 썻네요. 아무튼 이번 글에서는 딥러닝을 활용하여 꾸린 동영상 화질을 개선해볼 겁니다.


이 괴랄한 짓을 하게 된 계기는 다음과 같습니다. 제가 아이유 팬인지라 이번에 아이유 콘서트 포토북을 샀는데, 포토북에 같이 담겨 있는 DVD의 화질이 480p로 괴랄한 관계로 이것을 어떻게든 개선해서 영상을 보겠다는 덕질로부터 시작하게 되었습니다. ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ


아 참고로, 이 개선을 하겠다고 좀 머리 굴려보고 이렇게 컴퓨터 굴려봤는데도 개선의 큰 효과는 거두지 못했습니다. 원체 해상도가 낮았던 영상인지라...제 방법을 그대로 적용하실 분은 가능하면 720p 이상에 작은 세부사항이 없는 영상(눈이 2px정도이면 이건 확대해서 다듬어도 개선이 안 됩니다. 사람이 직접 건드리거나, 모자이크를 살리는 딥러닝을 돌려야 합니다.)에서 적용하시는 걸 권해드립니다.


일단 먼저 예시로 한 프레임을 보도록 합시다. 원본 영상은 720x480입니다.


무려 2017년에...4K도 거의 대중화가 된 이 세상에서 480p 영상이라니....

해상도가 워낙 낮아서 폰 화면에서 보는 거 아니라면 좀 보기 껄그러운 수준의 해상도입니다.


자, 이번엔 Image Super Resolution과 OpenCV의 filter2D 기능을 사용하여 좀 더 깔끔하게 하기 위해 sharpen까지 준 프레임입니다.

(Tistory의 업로드 최대 폭이 900px인지라 조금 이미지가 작게 올라갑니다. 원본 사이즈는 1440x960입니다.)


솔직히 이것도 그닥 보기 편한 품질은 아니지만, 그나마 원본 영상의 프레임보다는 많이 개선된 편입니다.



자, 그러면 이제 어떻게 동영상의 품질을 개선했는지 간단하게 설명해보겠습니다.


기본적으로 제 컴퓨터 환경은 다음과 같습니다. 이 환경에서 7,000프레임 정도 되는 영상을 업스케일링 & sharpen을 줬을 때 1시간 30~40분 정도 걸리니, 제 컴퓨터의 GPU(연산은 CPU가 아니라 GPU로 돌렸습니다. 이게 더 빠릅니다.)보다 안 좋으신 분은 좀 더 시간이 걸릴 것을 알고 자는 시간에 돌리는게 정신건강에 매우 이롭습니다.


CPU: i7-5820K

GPU: GTX 970

RAM: DDR4 16GB

SSD: Toshiba Q Series 256GB (Pro 버전인지 아닌지는 기억이 안 나네요. 그냥 기본적인 SSD 성능을 낸다고 보시면 됩니다.)

OS: Ubuntu Gnome 16.04.1 LTS


1. 기본적인 프로그램을 설치한다.

아래는 필수적으로 필요한 프로그램입니다. 구글에 검색하면 다 나오니 알아서 까시면 됩니다.

- CUDA, cuDNN

- Torch

- FFMPEG

- Python Libraries: numpy, Theano, OpenCV, etc(프로그램 돌릴 때 없다고 뜨는 거 그것들 설치해주시면 됩니다. 자세히 기억은 안 나네요)


2. waifu2x를 git에서 clone해온다. 그리고 waifu2x에 필요한 필수적인 프로그램들을 설치한다.(README 참조)

간단하게 waifu2x를 설명해드리자면, 원래는 애니메이션이나 일러스트 등을 업스케일링하는 딥러닝입니다. 근데 어차피 딥러닝 모델은 학습만 하면 되니까, 일반적인 사진을 업스케일링할 수 있는 photo model도 있더라고요.


https://github.com/nagadomi/waifu2x


waifu2x의 READM.md를 읽어보시면 아시겠지만, 거기에도 영상을 업스케일링하는 방법이 간단하게 소개되어 있습니다. 저는 거기서 조금 더 응용해서 적용했습니다.


3. 아래 Python 코드를 다운받아서 어디에 저장해둔다.

이 코드는 좀 안 좋은 영상의 경우엔 초점이 흐릿하게 보이기 때문에 이때 좀 초점을 쨍하게 만들어 주기 위해 sharpen을 주는 코드입니다. 영상 업스케일링에 필수적인 코드는 아니니 필요하신 분만 사용하시면 됩니다.


Sharpen.py


* 함수를 보면 sharpen_filter와 sharpen_deblur 두 가지 종류가 있는데, 각각 적용해보시고 맘에 드시는 거 하나 골라서 함수명만 바꿔주시면 됩니다. 저 같은 경우에는 좀 어두운 환경(콘서트장)에서는 sharpen_filter가 더 적합했고, 약간 몽상적이면서 밝은 분위기 영상에는 sharpen_deblur가 채도도 살짝 높여주면서 영상을 괜찮게 만들어 줬습니다.


4. 영상을 프레임 단위로 쪼개어 png 파일로 저장한다.

명령어는 다음과 같습니다. 어디에 폴더 하나 만드시고 거기에 저장하시면 됩니다. 참고로 이미지 파일들이 동영상 파일의 10배 가까이 용량을 차지하기 때문에 용량이 넉넉한 곳을 마련해두시는게 좋습니다.

ffmpeg -i 동영상파일 -f image2 %08d.png


5. 영상에서 오디오 파일을 추출한다.

나중에 개선된 프레임을 다시 합칠 때에는 오디오가 없는 상태이기 때문에, 이때 오디오를 넣어주기 위해서 원본 영상에서 오디오를 추출해냅니다.

ffmpeg -i 동영상파일 -acodec copy 오디오파일


6. 프레임 목록을 만듭니다.

아래 명령어만 입력하시면 됩니다.

find "$(cd 이미지폴더; pwd)" -name "*.png" | sort > frames.txt


7. (선택) 프레임에 sharpen을 줍니다.

선택 사항이며, 화질구지인 480p에서는 어느정도 효과를 얻었습니다.

python Sharpen.py경로 frames.txt경로


8. 프레임을 업스케일링합니다.

제일 중요한 부분입니다. 먼저 새 프레임 폴더를 만들고, torch를 이용해 waifu2x를 돌립니다. 노이즈 레벨은 3정도가 적당했습니다.


mkdir new_frames

th waifu2x폴더/waifu2x.lua -force_cudnn 1 -model_dir models/photo -m noise_scale -noise_level 3 -resume 1 -l frames.txt 경로 -o new_frames/%08d.png


* waifu2x 옵션은 이외에도 여러가지가 있고, GPU 대신에 CPU에서 돌릴 수 있는 옵션 등이 있으므로 명령어 옵션을 체크하고 커스텀해주시면 됩니다.


여기서 95% 이상의 시간이 소요됩니다.


9. 프레임과 오디오 파일을 합쳐서 동영상을 만듭니다.

ffmpeg -f image2 -framerate fps수 -i new_frames/%08d.png -i 오디오파일 -r 오디오파일fps수 -vcodec mpeg4 -acodec copy -crf 16 video.mp4


이외에 많은 ffmpeg 옵션이 있으므로 구글링 해보시는 것을 권해드립니다. 코덱도 mpeg4 외에 좀 더 용량이 작은 libx264를 쓸 수는 있으나, 윈도 환경에서 VLC를 제외하고 곰플레이어, 윈도 기본 내장 플레이어 등에서 정상적으로 동영상이 재생 안 되는 것으로 확인되어 가능하면 용량이 좀 더 크더라도(대략 1.5배?) mpeg4를 쓰는 것이 정신건강에 더 좋을 거 같습니다. 아니면 libx264 호환 윈도 코덱을 까시면 됩니다.


이렇게 하면 그나마 20% 정도 개선된 동영상을 얻으실 수 있으며 원본 영상의 해상도가 더 높을 수록, 세부 요소가 더 적은 영상일 수록 더 큰 개선 효과를 얻으실 수 있을 거 같습니다. 따로 동영상 프레임 추출부터 재합성까지 자동화하는 Bash용 스크립트도 하나 만들어뒀는데, 이것은 나중에 GitHub에 정리해서 업로드하겠습니다.


+ 추가: 정리해서 업로드했습니다. https://github.com/AMakeApp/DVD2FHD

+ Recent posts

티스토리 툴바