장면 전환 기반의 움직임과 프레임 서술자를 이용한 동영상 식별에 관한 연구

Title
장면 전환 기반의 움직임과 프레임 서술자를 이용한 동영상 식별에 관한 연구
Authors
진주경
Keywords
장면전환기반의움직임과프레임서술자를이용한동영상식별에관한연구
Issue Date
2011
Publisher
인하대학교
Abstract
본 논문은 대용량의 데이터베이스에서 빠르게 동영상을 식별하는 새로운 서술자 및 정합 방법을 제안한다. 동영상 식별은 유사한 콘텐츠를 찾는 검색과 다르게 질의한 미디어와 내용상 동일한 콘텐츠를 찾는 기술로 검색 기술에 비해 안정적인 성능, 확실한 서비스 모델, 통신 및 멀티미디어 장치의 사용인구 증가 등을 바탕으로 크게 발전하고 있는 분야이다. 이에 따라 MPEG-7(Moving Picture Expert Group-7) 국제표준기구 및 TRECVID(TREC VIDeo Retrieval Evaluation)와 같은 연구 단체들에서 멀티미디어 식별에 관한 다양한 연구 및 표준화 활동이 진행 중에 있다. 본 논문에서는 처리 성능 향상을 위한 동영상의 장면전환 검출 방법과 움직임 서술자 및 프레임의 특징을 이용한 동영상 서술자에 관하여 제안한다. 제안된 동영상 내용기반 장면전환 검출 방법은 복호화된 프레임에서 수직, 수평의 화소 값과 매크로블록(macro block)의 정보로 구성된 시공간 슬라이스에 그래프 컷(graph cut) 알고리즘과 제안하는 움직임 상관관계 계수를 이용한다. 움직임 서술자는 검출된 장면전환 위치를 기반으로 시간축 상에서 분할된 동영상 내에서 추출된 움직임 분포 히스토그램과 워드를 이용하여 구성하며 정합 가능한 후보 콘텐츠의 수를 줄이는데 사용한다. 프레임 서술자는 정밀한 식별을 위해 장면 내에서 장면전환 계수값이 큰 프레임에서 제안된 16개 형태의 저주파 패턴 마스크를 이용하여 구성한다. 프레임 서술자는 효율적인 정합을 위해 작은 크기의 강인성이 높은 저정밀 서술자와 상대적으로 크고 독립성이 높은 고정밀 서술자로 나누어 구성한다. 동영상 식별을 위한 정합구조는 성능과 식별 속도를 높이기 위한 사전 필터링 정합과 주 정합 과정으로 나누었다. 필터링 정합 과정은 서술자를 이용하여 정합 후보가 될 수 있는 콘텐츠 및 그 영역을 빠르게 선별하는 과정이며, 주 정합 과정은 검출된 정합 후보에서 프레임 서술자들을 이용하여 정확한 최종 정합 위치와 정합 정도를 판단한다. 제안된 동영상 식별 방법의 평가를 위해 국, 내외 콘텐츠 제공 서비스에서 선별한 531개의 동영상을 이용하여 데이터베이스를 구성했으며, 콘텐츠 별로 14가지 종류의 변형과 2가지 질의방식을 이용한 28가지 질의 동영상을 제작하였다. 또한 MPEG-7 표준화 회의에서 사용된 ‘Video Signature Tools'의 실험조건과 동영상 데이터 세트를 사용한 성능도 평가해 보았다. 실험에서 설정한 정합 과정의 식별 성능 문턱값들은 양성 오류율 5 ppm(part per million) 이하로 설정하였으며, 실험 결과 직접 및 간접 질의에 대하여 각각 92.5%와 91.5%의 정합 성공률을 얻었다. 실험 결과를 분석해 보았을 때 제안하는 방법은 성능 평가 기준인 강인성, 독립성 및 정합 속도 모든 면에서 기존의 방법보다 전반적으로 우수한 성능을 발휘하였다. 따라서 본 연구 결과물은 온라인 동영상 서비스에서 불법 복제 및 중복된 콘텐츠를 식별하여 올바르고 효율적인 동영상 서비스를 제공하는데 유용하리라 판단한다.
Description
제 1 장 서 론 1 제 2 장 동영상 식별 및 분할 9 2.1 동영상 식별 9 2.1.1 동영상 검색과 식별 9 2.1.2 동영상 식별기술의 응용 12 2.2 콘텐츠 식별 기술의 동향 13 2.2.1 MPEG-7 서술자 16 2.2.2 디지털 콘텐츠 핑거프린팅 20 2.3 장면전환 검출 26 2.3.1 압축 영역에서 장면전환 검출 28 2.3.2 비 압축 영역에서 장면전환 29 2.3.3 그래프 컷(graph cut) 34 2.3.4 시공간 슬라이스(spatio-temporal slice) 분석 기법 35 2.4 동영상 서술자 37 2.4.1 공간적 순차측정(ordinal) 서술자 37 2.4.2 시공간적 순차측정 서술자 39 2.4.3 Tomography 서술자 40 제 3 장 동영상 분할을 위한 장면전환 검출 43 3.1 시공간 슬라이스에서 장면전환 모델링 43 3.2 시공간 상관관계 히스토그램 46 3.3 장면전환 검출 50 3.3.1 그래프 컷 분할을 이용한 후보 영역 검출 52 3.3.2 매크로블록의 상관관계를 이용한 오류 제거 55 제 4 장 동영상 식별을 위한 서술자 60 4.1 동영상 변형 60 4.2 움직임 서술자의 모델링 65 4.3 움직임 서술자의 구성 66 4.3.1 움직임 분포 히스토그램 67 4.3.2 움직임 히스토그램 구성 68 4.3.3 움직임 워드 히스토그램 72 4.4. 프레임 서술자의 모델링 74 4.5 프레임 서술자의 구성 79 4.5.1 외곽 왜곡 제거 83 4.5.2 블록의 명암과 색상 구성 84 4.5.3 비주얼 프레임 워드 구성 86 4.5.4 프레임 서술자 해시(hash)화 구성 87 4.5.5 프레임 서술자의 문턱값 설정 91 4.5.6 프레임 서술자 선택 94 제 5 장 동영상 식별을 위한 정합 과정 96 5.1 사전 필터링 정합과정 96 5.2 주 정합과정 99 5.2.1 제안된 프레임 서술자를 이용한 정합 99 5.2.2 최종 정합 판단 102 제 6 장 성능 평가 104 6.1 장면전환 검출 성능 평가 104 6.2 동영상 식별 성능 평가 모델 109 6.3 동영상 식별 성능 평가 116 제 7 장 고찰 및 결론 132 참 고 문 헌 136
URI
http://dspace.inha.ac.kr/handle/10505/22655
Appears in Collections:
College of Engineering(공과대학) > Electronic Engineering (전자공학) > Theses(전자공학 석박사 학위논문)
Files in This Item:
23676.pdfDownload

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Browse