KR20180096378A - Method and apparatus for monitoring quality of sign language broadcasting - Google Patents

Method and apparatus for monitoring quality of sign language broadcasting Download PDF

Info

Publication number
KR20180096378A
KR20180096378A KR1020170023009A KR20170023009A KR20180096378A KR 20180096378 A KR20180096378 A KR 20180096378A KR 1020170023009 A KR1020170023009 A KR 1020170023009A KR 20170023009 A KR20170023009 A KR 20170023009A KR 20180096378 A KR20180096378 A KR 20180096378A
Authority
KR
South Korea
Prior art keywords
sign language
broadcast
time
captured image
hydration
Prior art date
Application number
KR1020170023009A
Other languages
Korean (ko)
Other versions
KR102557442B1 (en
Inventor
최지훈
안충현
서정일
양승준
장인선
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170023009A priority Critical patent/KR102557442B1/en
Publication of KR20180096378A publication Critical patent/KR20180096378A/en
Application granted granted Critical
Publication of KR102557442B1 publication Critical patent/KR102557442B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Abstract

The present disclosure relates to a method for monitoring quality of sign language broadcasting and an apparatus thereof. According to one embodiment of the present disclosure, the method for monitoring quality of sign language broadcasting comprises the following steps: generating a captured image of broadcast content; detecting a sign language region in the captured image; determining whether the captured image belongs to a non-sign language time when the sign language region is detected in the captured image; and determining quality of sign language broadcast of the broadcast content based on at least one of broadcast schedule information, signaling information, a monitoring unit object, or a monitoring detailed unit object related to the captured image on accumulated result data by repeating the generation step, the detection step, and the determination step for each predetermined capturing period.

Description

수화 방송 품질 모니터링 방법 및 장치{METHOD AND APPARATUS FOR MONITORING QUALITY OF SIGN LANGUAGE BROADCASTING}[0001] METHOD AND APPARATUS FOR MONITORING QUALITY OF SIGNAL LANGUAGE BROADCASTING [0002]

본 개시는 수화 방송에 대한 것이며, 구체적으로는 수화 방송의 품질을 모니터링하는 방법 및 장치에 대한 것이다.The present disclosure relates to sign language broadcasts, and more particularly, to a method and apparatus for monitoring the quality of sign language broadcasts.

최근 들어 장애인을 위한 방송 부가 서비스에 대한 지원이 증가하고 있다. 예를 들어, 방송 콘텐츠에 자막이 제공되거나, 화면 해설 정보가 제공되거나, 수화 통역 화면이 제공되는 등의 청각 장애인을 위한 방송 부가 서비스가 증가하고 있다. 또한, 방송통신위원회에서는 자막, 화면해설, 수화통역의 편성 비율을 높이도록 목표를 설정하였다.Recently, support for broadcasting supplementary services for the disabled has been increasing. For example, broadcast supplementary services for hearing-impaired people are increasing, such as providing subtitles for broadcast content, providing screen commentary information, or providing a sign language interpretation screen. In addition, the Broadcasting and Communications Commission has set goals to increase the programming ratio of caption, screen commentary, and sign language interpretation.

이러한 수화 방송이 제공되는지 여부를 모니터링하기 위해서, 비장애인이 직접 방송을 시청하면서 수동적으로 일부 샘플을 조사하는 수준에 머무르고 있다. 즉, 아직까지는 수화 방송의 품질을 자동적으로 모니터링하는 방안은 마련되지 않은 실정이다. In order to monitor whether or not such sign language broadcast is provided, it remains at a level where the non-handicapped person manually examines some samples while watching the broadcast. In other words, there has not yet been a method for automatically monitoring the quality of a sign language broadcast.

본 개시의 기술적 과제는 수화 방송에서 수화 영역을 검출하는 방법 및 장치를 제공하는 것이다.SUMMARY OF THE INVENTION It is a technical object of the present disclosure to provide a method and apparatus for detecting a hydration region in a sign language broadcast.

본 개시의 다른 기술적 과제는 수화 방송에서 수화 시간을 측정하는 방법 및 장치를 제공하는 것이다.It is another object of the present disclosure to provide a method and apparatus for measuring the hydration time in a sign language broadcast.

본 개시의 또 다른 기술적 과제는 수화 방송의 품질을 결정하는 방법 및 장치를 제공하는 것이다.A further technical object of the present disclosure is to provide a method and apparatus for determining the quality of a sign language broadcast.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical objects to be achieved by the present disclosure are not limited to the above-mentioned technical subjects, and other technical subjects which are not mentioned are to be clearly understood from the following description to those skilled in the art It will be possible.

본 개시의 일 양상에 따른 수화 방송 품질을 모니터링하는 방법은, 방송 콘텐츠의 캡쳐 영상을 생성하는 단계; 상기 캡쳐 영상에서 수화 영역을 검출하는 단계; 상기 캡쳐 영상에서 수화 영역이 검출되는 경우, 상기 캡쳐 영상이 비수화 시간에 속하는지 여부를 결정하는 단계; 및 상기 생성 단계, 검출 단계 및 결정 단계를 소정의 캡쳐 주기마다 반복하여 누적된 결과 데이터에 대하여, 상기 캡쳐 영상에 관련된 방송 편성 정보, 시그널링 정보, 모니터링 단위 대상, 또는 모니터링 세부 단위 대상 중의 하나 이상에 기초하여, 상기 방송 콘텐츠의 수화 방송 품질을 결정하는 단계를 포함할 수 있다.According to an aspect of the present disclosure, a method for monitoring the quality of a sign language broadcast includes: generating a captured image of broadcast content; Detecting a hydration region in the captured image; Determining whether the captured image belongs to a non-hydration time when a hydration region is detected in the captured image; And repeating the generation step, the detection step, and the determination step for each predetermined capture period to generate at least one of broadcast programming information, signaling information, monitoring unit targets, or monitoring detailed unit targets related to the captured video And determining a quality of a sign language broadcast of the broadcast content based on the received broadcast content.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above for this disclosure are only exemplary aspects of the detailed description of the disclosure which follow, and are not intended to limit the scope of the disclosure.

본 개시에 따르면, 수화 방송에서 수화 영역을 검출하는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus for detecting a hydration region in a sign language broadcast can be provided.

본 개시에 따르면, 수화 방송에서 수화 시간을 측정하는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus for measuring the hydration time in a hydration broadcast can be provided.

본 개시에 따르면, 수화 방송의 품질을 결정하는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus for determining the quality of a sign language broadcast can be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below will be.

도 1 및 도 2는 본 개시에 따른 수화 방송 품질 모니터링 장치의 예시적인 구성을 나타내는 도면이다.
도 3은 본 개시에 따른 수화 영역 검출 방안을 설명하기 위한 도면이다.
도 4 및 도 5는 본 개시에 따른 수화 시간 검출 방안의 예시들을 설명하기 위한 도면이다.
도 6은 본 개시에 따른 수집 장치의 동작을 설명하기 위한 흐름도이다.
도 7은 본 개시에 따른 분석 서버의 동작을 설명하기 위한 흐름도이다.
1 and 2 are views showing an exemplary configuration of a sign language broadcast quality monitoring apparatus according to the present disclosure.
3 is a diagram for explaining a hydration area detection scheme according to the present disclosure;
Figs. 4 and 5 are diagrams illustrating examples of a hydration time detection scheme according to the present disclosure. Fig.
6 is a flow chart for explaining the operation of the collecting apparatus according to the present disclosure;
7 is a flowchart illustrating an operation of the analysis server according to the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, which will be easily understood by those skilled in the art. However, the present disclosure may be embodied in many different forms and is not limited to the embodiments described herein.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present disclosure rather unclear. Parts not related to the description of the present disclosure in the drawings are omitted, and like parts are denoted by similar reference numerals.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when an element is referred to as being "connected", "coupled", or "connected" to another element, it is understood that not only a direct connection relationship but also an indirect connection relationship May also be included. Also, when an element is referred to as " comprising "or" having "another element, it is meant to include not only excluding another element but also another element .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, the terms first, second, etc. are used only for the purpose of distinguishing one element from another, and do not limit the order or importance of elements, etc. unless specifically stated otherwise. Thus, within the scope of this disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly a second component in one embodiment may be referred to as a first component .

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components that are distinguished from each other are intended to clearly illustrate each feature and do not necessarily mean that components are separate. That is, a plurality of components may be integrated into one hardware or software unit, or a single component may be distributed into a plurality of hardware or software units. Thus, unless otherwise noted, such integrated or distributed embodiments are also included within the scope of this disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, the components described in the various embodiments are not necessarily essential components, and some may be optional components. Thus, embodiments consisting of a subset of the components described in one embodiment are also included within the scope of the present disclosure. Also, embodiments that include other elements in addition to the elements described in the various embodiments are also included in the scope of the present disclosure.

본 개시에서 사용하는 용어에 대한 정의는 다음과 같다.The definitions of the terms used in the present disclosure are as follows.

- 수화 방송: 수화 영역을 포함하는 영상을 포함하는 방송 콘텐츠 또는 이러한 방송 콘텐츠를 송출하는 것.- Sign language broadcast: Broadcast content that contains video including the sign language area, or the transmission of such broadcast content.

- 수화 영상: 수화 영역을 포함하는 영상.- Sign language: Sign language.

- 수화 영역: 수화 영상에서 수화자가 표시되는 영역.- Sign language area: The area where the sign language is displayed on the sign language video.

- 수화자: 수화 영상에서 수화 동작을 표시하는 객체. 수화자는 일반적으로 사람이지만 사람과 유사한 형상의 그래픽으로 대체될 수도 있음.- Listener: An object that displays the sign language behavior in a sign language video. The signer is usually a person, but may be replaced by a graphical representation of the person.

- 수화 배경: 수화 영역에서 수화자로 인식되는 부분을 제외한 나머지 영역.- Sign language background: The sign language area except the part recognized as sign language.

- 수화 시간: 수화 방송 중에서 수화가 제공되는 시간.- Signature Time: The time sign language is provided in the sign language broadcast.

- 비수화 시간: 수화 방송 중에서 수화 시간을 제외한 나머지 시간.- Dehydration time: The remaining time except sign language time in sign language broadcasting.

- 수화 방송 품질: 수화 영역 존재 여부, 수화 동작 상태, 수화 시간 비중, 수화 제공 빈도 등에 기초한, 유효한 수화 서비스가 제공되는 정도를 나타내는 값.- Sign language broadcast quality: A value indicating the degree to which a valid sign language service is provided, based on the presence or absence of the sign language area, the sign language, the sign language, and the sign language.

전술한 용어들의 정의는 단지 예시적인 것일 뿐, 본 발명의 범위가 이러한 정의에 의해서 제한되는 것은 아니다. 예를 들어, 위와 같은 용어의 정의는, 해당 용어에 대해서 당업자에 의해서 용이하게 이해되는 기본적인 의미를 배제하는 것은 아니다. The definitions of the above terms are merely illustrative, and the scope of the present invention is not limited by these definitions. For example, the definition of such terms does not exclude the basic meaning that is easily understood by those skilled in the art.

이하에서는, 본 개시에 따른 수화 방송의 품질을 모니터링하는 방법 및 장치에 대한 본 개시의 다양한 예시들에 대해서 설명한다.In the following, various examples of this disclosure for a method and apparatus for monitoring the quality of a sign language broadcast according to the present disclosure will be described.

방송통신위원회는 장애인을 위한 방송 서비스 개선을 목표로, 방송 사업자가 장애인을 위한 다양한 부가 서비스를 제공할 것을 고려하고 있다. 예를 들어, 청각 장애인을 위한 방송을 제공할 의무 사업자를 선정하고, 선정된 사업자는 자막, 화면 해설, 수화 통역 등의 편성 비율에 대한 소정의 목표를 달성하도록 하였다. 그러나, 방송통신위원회가 장애인 방송 고시 의무 사업자 선정 기준을 축소하고, 자막, 화면 해설, 수화 통역 등의 편성 비율 목표 달성 시점을 2~3년 연기했다. 이번 개정안의 주요 내용은 현실 방송 환경이 열악함을 고려해서, 방송 채널 사용 사업자의 대상과 범위를 축소하고, 권고 편성 시점도 2~3년 연기한다는 것이다. 즉, KBS, MBS, SBS와 같은 지상파 방송 사업자는 2013년까지 자막 100%, 수화통역 5%, 2014년까지는 화면해설 10%를 달성해야 했으나, 이러한 목표 달성은 2016년까지로 연기되었다. 또한, 위성방송, 종편 등의 유료방송은 2016년까지 자막 70~100%, 화면 해설 5~7%, 수화 통역 3~5% 편성해야 했으나 이 시점도 2018년까지로 수정되었다.The Korea Communications Commission (KCC) considers that broadcasters should provide various supplementary services for people with disabilities with the aim of improving broadcasting services for people with disabilities. For example, an obligation provider to provide broadcasting for the hearing impaired was selected, and the selected provider achieved a predetermined target for the programming ratio of subtitles, screen commentary, and sign language interpretation. However, the Broadcasting and Communications Commission has reduced the criteria for selecting the broadcasting companies for the broadcasting of audiovisuals for the disabled, postponing the target of achieving the programming ratio target of caption, screen commentary, and sign language interpretation for two to three years. The main content of this amendment is to reduce the scope and scope of broadcasting service providers and to postpone the recommendation for two or three years in consideration of the poor realistic broadcasting environment. In other words, terrestrial broadcasters such as KBS, MBS and SBS had to achieve 100% subtitles, 5% sign language interpretation and 10% commentary until 2014 by 2013, but this goal was postponed until 2016. In addition, by 2016, pay-TV programs such as satellite broadcasting and jongbyeon should have 70 ~ 100% of subtitles, 5 ~ 7% of screen commentary and 3 ~ 5% of sign language interpreter.

방송통신위원회는 개정 이유로 "장애인 방송 제작 인프라 환경이 열악하고 방송 광고 침체로 어려움을 겪는 방송 사업자의 재정 상황을 고려해 장애인 방송 편성 비율 목표치 달성 시점을 일정 기간 연기한다"라고 밝혔다.The Broadcasting Commission said, "Due to the financial situation of the broadcasters who are suffering from the poor infrastructure of broadcasting production for the disabled,

이와 같이 장애인 방송 의무 편성 기준의 적용이 연기되는 이유 중의 하나는, 수화 방송의 품질을 자동적으로 평가하는 방안이 마련되어 있지 않기 때문이다. 즉, 현재까지는, 장애인 협회 등을 중심으로 비장애인이 방송을 직접 시청하면서 자막, 화면 해설, 수화 통역 등이 제공되는지를 수동적으로 조사하고, 이러한 확인 작업은 모든 방송 채널의 모든 방송 시간에 대해서 수행할 수 없기 때문에 일부 샘플링 기준에 따라서 조사하는 정도에 머무르고 있는 실정이다. One of the reasons for delaying the application of the standard for compulsory broadcasting standards is that there is no way to automatically evaluate the quality of sign language broadcasts. That is, until now, the non-disabled people have been watching the broadcasts directly, mainly by the disabled people's association, etc., passively investigating whether caption, screen commentary, sign language interpretation, etc. are provided. It can not be done. Therefore, it is still a matter of investigating according to some sampling standards.

본 개시에서는 이러한 문제점을 해결하기 위해서, 장애인 방송 서비스 중의 하나인 수화 방송 품질의 모니터링을 자동화하는 방안을 제공함으로써, 모든 방송 채널에 대한 모든 방송 시간에 걸쳐서 수화 방송의 품질을 전수 조사할 수 있는 토대를 마련할 수 있다. In order to solve such a problem, the present invention provides a method for automating the monitoring of the sign language broadcast quality, which is one of the broadcast services for the disabled person, so that it is possible to investigate the quality of the sign language broadcast over the entire broadcast time for all the broadcast channels Can be provided.

도 1 및 도 2는 본 개시에 따른 수화 방송 품질 모니터링 장치의 예시적인 구성을 나타내는 도면이다.1 and 2 are views showing an exemplary configuration of a sign language broadcast quality monitoring apparatus according to the present disclosure.

현행 방송 표준에 따르면 방송 송출 신호 자체에는, 해당 방송이 수화 방송을 포함하는지 여부를 나타내는 정보가 포함되지는 않는다. 또한, 방송 신호의 시그널링 정보는 화면 해설 오디오 및/또는 폐쇄 자막의 편성 유무와 품질에 대한 정보를 포함할 수 있지만, 수화 방송에 대한 방송 시그널링 정보는 전송 스트림(Transport Stream, TS) 상에 포함되지는 않는다. According to the current broadcast standard, the broadcast transmission signal itself does not include information indicating whether the broadcast includes the sign language broadcast. Also, the signaling information of the broadcast signal may include information on the presence or absence of the screen commentary audio and / or closed caption and the quality, but the broadcast signaling information for the sign language broadcast is not included in the transport stream (TS) .

따라서, 방송 사업자가 제공하는 방송 편성 정보(예를 들어, 채널, 프로그램명, 방송일자, 프로그램 시작시간 및 종료시간 등) 및 시그널링 정보(예를 들어, 다중화된 프로그램에 속한 복잡한 전송 스트림(TS)에 필요한 프로그램 정보를 테이블 형식으로 표현한 메타 데이터)를 기반으로 수화 방송 영상을 분석하여, 영상에 수화 영역이 포함되어 있는지를 확인함으로써, 수화 방송 유무를 결정할 수 밖에 없다. Accordingly, it is possible to use the broadcast program information (e.g., channel, program name, broadcast date, program start time and end time) and signaling information (for example, a complicated transport stream TS belonging to a multiplexed program) , It is necessary to determine whether or not a sign language broadcast is to be made by analyzing the sign language broadcast image based on the metadata of the program information necessary for the sign language broadcast.

이에 따라, 본 개시에 따른 수화 방송 품질 모니터링 장치는 수집 장치(100) 및 분석 서버(200)를 포함할 수 있다. 수집 장치(100) 각각에 의해서 방송 프로그램 단위로 캡쳐된 하나 이상의 영상에 기초하여, 분석 서버(200)는 해당 방송 프로그램의 수화 방송 품질(예를 들어, 수화 영역 존재 여부, 수화 동작 상태, 수화 시간 비중, 수화 제공 빈도 등)을 결정할 수 있다. Accordingly, the apparatus for monitoring the quality of a sign language broadcast according to the present disclosure may include a collection device 100 and an analysis server 200. Based on one or more images captured by each of the collection devices 100 on the basis of a broadcast program, the analysis server 200 analyzes the quality of the received broadcast programs (for example, presence or absence of a sign language area, Specific gravity, hydration provision frequency, etc.) can be determined.

도 1 및 도 2를 참조하면 수화 방송 품질 모니터링 장치는 N 개의 수집 장치(100_1, 100_2, ..., 100_N) 및 분석 서버(200)를 포함할 수 있다. 1 and 2, the apparatus for monitoring the quality of a sign language broadcast may include N collection devices 100_1, 100_2, ..., 100_N and an analysis server 200. [

도 1을 참조하면 N 개의 수집 장치(100_1, 100_2, ..., 100_N)에서, N 은 1 이상의 자연수일 수 있다. 또한, N 개의 수집 장치(100_1, 100_2, ..., 100_N)의 각각은 하나의 모니터링 단위 대상에 대응할 수 있다. 즉, N 개의 수집 장치(100_1, 100_2, ..., 100_N)에 의해서 N 개의 모니터링 단위 대상에 대한 정보를 동시에 수집할 수 있다. Referring to FIG. 1, in N collecting apparatuses 100_1, 100_2, ..., 100_N, N may be a natural number of 1 or more. Further, each of the N collecting apparatuses 100_1, 100_2, ..., 100_N may correspond to one monitoring unit object. That is, the N collecting apparatuses 100_1, 100_2, ..., 100_N collect information on N monitoring unit targets at the same time.

예를 들어, 모니터링 단위 대상은 지역, 채널, 시간, 프로그램, 타입 단위로 정의될 수 있다. 예를 들어, N은 모니터링 대상인 방송 지역의 개수, 방송 채널의 개수, 방송 시간의 개수, 방송 프로그램의 개수, 방송 타입(예를 들어, 뉴스, 예능, 교양 등)의 개수에 대응할 수도 있다.For example, a monitoring unit target can be defined as a region, a channel, a time, a program, and a type unit. For example, N may correspond to the number of broadcasting areas to be monitored, the number of broadcasting channels, the number of broadcasting times, the number of broadcasting programs, and the number of broadcasting types (e.g., news, entertainment, education, etc.).

각각의 수집 장치(100)는 M 개의 디먹스/튜너 모듈(110), 저장 모듈(120) 및 수집 관리 모듈(130)을 포함할 수 있다. Each collection device 100 may include M demux / tuner modules 110, a storage module 120, and a collection management module 130.

M 개의 디먹스/튜너 모듈(110)에서, M 은 1 이상의 자연수일 수 있다. 또한, M 개의 디먹스/튜너 모듈(110)의 각각은 하나의 모니터링 세부 단위 대상에 대응할 수 있다. 즉, M 개의 디먹스/튜너 모듈(110_1, 110_2, ..., 110_M)에 의해서 M 개의 모니터링 세부 단위 대상에 대한 정보를 동시에 수집할 수 있다. In the M demux / tuner module 110, M may be a natural number greater than or equal to one. In addition, each of the M demux / tuner modules 110 may correspond to one monitoring subunit object. That is, the M demux / tuner modules 110_1, 110_2, ..., 110_M can simultaneously collect information on M monitoring subunits.

모니터링 단위 대상이 지역, 채널, 시간, 프로그램, 타입 중의 어느 하나로 결정되면, 모니터링 세부 단위 대상은 나머지 하나로 결정될 수 있다. 이에 따라, 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합에 대한 모니터링이 가능하다. 예를 들어, 임의의 조합은 수화 방송으로 편성된 또는 편성 가능한 모든 모니터링 대상을 전수 조사할 수 있도록 정의될 수 있다. If the monitoring unit target is determined as one of the area, channel, time, program, or type, the monitoring unit target can be determined as the remaining one. Thus, monitoring for any combination of region, channel, time, program, or type is possible. For example, any combination may be defined such that all monitored objects, which are organized or can be organized into sign language broadcasts, can be traced in whole numbers.

예를 들어, 모니터링 단위 대상이 지역인 경우, 모니터링 세부 단위 대상은 채널, 시간, 프로그램, 또는 타입으로 정의될 수 있다. For example, if the monitoring unit target is a region, the monitoring unit target can be defined as a channel, time, program, or type.

예를 들어, 모니터링 단위 대상이 채널인 경우, 모니터링 세부 단위 대상은 지역, 시간, 프로그램, 또는 타입으로 정의될 수 있다. For example, if the monitoring unit target is a channel, the monitoring unit target can be defined as a region, time, program, or type.

예를 들어, 모니터링 단위 대상이 시간인 경우, 모니터링 세부 단위 대상은 지역, 채널, 프로그램, 또는 타입으로 정의될 수 있다. For example, if the monitoring unit target is time, the monitoring unit target can be defined as a region, a channel, a program, or a type.

예를 들어, 모니터링 단위 대상이 프로그램인 경우, 모니터링 세부 단위 대상은 지역, 채널, 시간, 또는 타입으로 정의될 수 있다. For example, if the monitoring unit target is a program, the monitoring unit target can be defined as a region, a channel, a time, or a type.

예를 들어, 모니터링 단위 대상이 타입인 경우, 모니터링 세부 단위 대상은 지역, 채널, 시간, 또는 프로그램으로 정의될 수 있다. For example, if the monitoring unit target is a type, the monitoring unit target can be defined as a region, a channel, a time, or a program.

또한, 복수의 수집 장치(100)의 각각에 포함되는 디먹스/튜너 모듈(110)의 개수는 서로 동일할 수도 있고 서로 다를 수도 있다. 예를 들어, 제 1 수집 장치(100_1)에 포함되는 디먹스/튜너 모듈(110)의 개수와, 제 2 수집 장치(100_2)에 포함되는 디먹스/튜너 모듈(110)의 개수는 서로 동일할 수도 있고 서로 다를 수도 있다.In addition, the number of the demux / tuner modules 110 included in each of the plurality of collecting apparatuses 100 may be the same or different from each other. For example, the number of the demux / tuner modules 110 included in the first collecting device 100_1 and the number of the demux / tuner modules 110 included in the second collecting device 100_2 are the same It may or may not be the same.

각각의 디먹스/튜너 모듈(110)은 수신되는 방송 신호로부터 방송 콘텐츠에 해당하는 동영상을 소정의 주기마다 캡쳐하고, 캡쳐된 영상을 저장 모듈(120)로 전달할 수 있다. 또한, 각각의 디먹스/튜너 모듈(120)은 수신되는 방송 신호의 전송 스트림(TS)을 분석하여, PSIP(Program and System Information Protocol) 및/또는 PSI(Program Specific Information) 정보를 수집 관리 모듈(130)로 전달할 수 있다. Each of the demux / tuner modules 110 may capture a moving image corresponding to the broadcast content from the received broadcast signal at predetermined intervals, and may transmit the captured image to the storage module 120. Each demux / tuner module 120 analyzes a transport stream (TS) of a received broadcast signal and transmits PSIP (program and system information protocol) and / or PSI (program specific information) information to a collection management module 130).

저장 모듈(120)은 디먹스/튜너 모듈(110)로부터 획득된 수화 방송 콘텐츠의 캡쳐 영상들을, 모니터링 단위 대상 및 모니터링 세부 단위 대상 별로 저장 및 관리할 수 있다. 예를 들어, 저장 모듈(120)은, 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로, 해당 방송 콘텐츠의 캡쳐 영상들을 저장 및 관리할 수 있다. The storage module 120 may store and manage captured images of the sign language broadcast content obtained from the demux / tuner module 110 for each of the monitoring unit object and the monitoring detailed unit object. For example, the storage module 120 may store and manage captured images of corresponding broadcast content for any combination of region, channel, time, program, or type.

또한, 저장 모듈(120)은 캡쳐 영상과 함께 방송 편성 정보(PSIP) 및 시그널링 정보(PSI) 등을 저장할 수 있다.In addition, the storage module 120 may store the broadcast program information (PSIP) and the signaling information (PSI) together with the captured image.

수집 관리 모듈(130)은 디먹스/튜너 모듈(110)로부터 획득된 PSIP 및/또는 PSI 정보에 기초하여, 모니터링 단위 대상 및 모니터링 세부 단위 대상 별로 방송 프로그램 편성 정보 및 프로그램 시그널링 정보를 관리할 수 있다. 예를 들어, 수집 관리 모듈(130)은, 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로, 해당 방송 프로그램의 편성 정보 및 프로그램 시그널링 정보를 관리할 수 있다.The collection management module 130 may manage the broadcasting program organizing information and the program signaling information for each of the monitoring unit object and the monitoring detailed unit object based on the PSIP and / or PSI information obtained from the demux / tuner module 110 . For example, the collection management module 130 may manage program information and program signaling information for each combination of region, channel, time, program, or type.

또한, 수집 관리 모듈(130)은 웹 EPG(Electronic Program Guide) 정보로부터 PSIP를 획득할 수도 있다. In addition, the collection management module 130 may obtain PSIP from Web EPG (Electronic Program Guide) information.

또한, 수집 관리 모듈(130)은 디먹스/튜너 모듈(110)을 제어하여, 모니터링 단위 대상 및 모니터링 세부 단위 대상 별로 시그널링 정보(PSI)를 분석할 수 있다. Also, the collection management module 130 may control the demux / tuner module 110 to analyze signaling information (PSI) for each monitoring unit object and each monitoring unit object.

또한, 수집 관리 모듈(130)은 저장 모듈(120)에 저장된 방송 편성 정보(PSIP) 및 시그널링 정보(PSI)를 분석한 분석 결과를 방송 콘텐츠 캡쳐 영상과 함께 분석 서버(200)로 전달할 수 있다. The collection management module 130 may transmit analysis results obtained by analyzing broadcast programming information (PSIP) and signaling information (PSI) stored in the storage module 120 to the analysis server 200 together with the broadcast content capture images.

도 2를 참조하면 분석 서버(200)는 분석 관리 모듈(210), 통계 모듈(220), 데이터 분석 모듈(230) 및 데이터베이스(240)를 포함할 수 있다.2, the analysis server 200 may include an analysis management module 210, a statistics module 220, a data analysis module 230, and a database 240.

분석 관리 모듈(210)은 N 개의 수집 장치(100_1, 100_2, ..., 100_N) 각각으로부터 소정의 주기에 따라 수행된 모니터링 결과를 수신할 수 있다. 여기서, 모니터링 결과는, 수화 방송 콘텐츠 캡쳐 영상 및 관련 정보를 포함할 수 있다. 여기서, 관련 정보는, 해당 캡쳐 영상이 포함된 모니터링 단위 대상, 모니터링 세부 단위 대상, 방송 편성 정보(PSIP), 또는 시그널링 정보(PSI) 중의 하나 이상을 포함할 수 있다. The analysis management module 210 may receive the monitoring results performed in each of the N collecting devices 100_1, 100_2, ..., 100_N according to a predetermined period. Here, the monitoring result may include a sign language broadcast content capture image and related information. Here, the related information may include at least one of a monitoring unit object, a monitoring subunit object, a broadcast programming information (PSIP), or signaling information (PSI) including the captured image.

또한, 분석 관리 모듈(210)은 수신된 모니터링 결과를 데이터베이스(240)에 저장할 수 있다. The analysis management module 210 may also store the received monitoring results in the database 240.

또한, 분석 관리 모듈(210)은 수신된 모니터링 결과를 분석하여 수집 장치(100)의 오류 유무를 주기적으로 확인할 수도 있다. In addition, the analysis management module 210 may analyze the received monitoring results and periodically check whether there is an error in the collection device 100. [

통계 모듈(220)은 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상 별로 데이터 분석 모듈(230)의 분석 결과를 집계하고 관리할 수 있다. The statistical module 220 can collect and manage analysis results of the data analysis module 230 for each of the monitoring unit object and / or the monitoring detailed unit object.

데이터 분석 모듈(230)은 데이터베이스(240)에 저장된 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상 별 모니터링 결과를 실시간 또는 비실시간으로 분석하고, 분석 결과를 데이터베이스(240)에 저장할 수 있다. The data analysis module 230 may analyze the monitoring results of the monitoring unit targets and / or monitoring detailed unit targets stored in the database 240 in real time or in non-real time, and may store the analysis results in the database 240.

또한, 데이터 분석 모듈(230)은 모니터링 결과를 분석하여 수화 영역 존재 여부, 수화 동작 상태, 수화 시간 비중, 수화 제공 빈도 등을 결정할 수 있다.In addition, the data analysis module 230 may analyze the monitoring result to determine the presence or absence of the sign language area, the sign language operation status, the sign language scopes, and the sign language sign language.

도 3은 본 개시에 따른 수화 영역 검출 방안을 설명하기 위한 도면이다.3 is a diagram for explaining a hydration area detection scheme according to the present disclosure;

도 3을 참조하여 설명하는 수화 영역 검출 방안은, 방송 신호(예를 들어, PSIP, PSI 등) 또는 별도의 정보(예를 들어, EPG 정보)를 참조하여도, 해당 방송 콘텐츠가 수화 영역을 포함하는지 여부를 알 수 없는 경우 또는 해당 방송 콘텐츠에서 수화 영역이 어디에 위치하는지 알 수 없는 경우에 적용될 수 있다. 그러나, 본 개시의 범위가 이에 제한되는 것은 아니며, 방송 신호 또는 별도의 정보로 수화 영역을 판단할 수 있는 경우에도, 검증을 위해 도 3을 참조하여 설명하는 예시들이 적용될 수도 있다.The sign language area detection method described with reference to FIG. 3 is a method in which a broadcast content (for example, PSIP, PSI or the like) or a separate information (for example, EPG information) Or if it is unknown where the sign language area is located in the broadcast content. However, the scope of the present disclosure is not limited thereto, and the examples described with reference to FIG. 3 may be applied for verification even when the sign language area can be determined by a broadcast signal or separate information.

영상 처리 분야에서 정의하는 다양하고 복잡한 영상 분석 알고리즘을 수화 영역을 분석하기 위해서 사용할 수도 있지만, 수화 영상을 분석함에 있어서 복잡하거나 고사양의 하드웨어 또는 소프트웨어 리소스를 사용하는 알고리즘을 사용할 필요는 없다. 따라서, 본 개시에서는 간단하고 효율적으로 수화 영상을 분석하는 예시들에 대해서 설명한다. Although various complex image analysis algorithms defined in image processing field can be used to analyze sign language, there is no need to use complicated or high-level hardware or software resources for analyzing sign language images. Thus, the present disclosure describes examples of simple and efficient analysis of a sign language image.

특히, 본 개시에서는 캡쳐 영상에서 수화 영역을 특정 또는 검출하는 예시들에 대해서 설명한다.In particular, the present disclosure describes examples of identifying or detecting a hydration region in a captured image.

수화 영역을 검출하기 위해서 칼라 분석 및 얼굴 인식을 적용할 수 있다.Color analysis and face recognition can be applied to detect the hydration region.

먼저 칼라 분석에 대해서 설명한다.First, the color analysis is explained.

방송 프로그램의 시작된 후부터 종료될 때까지 사이의 시간 동안 주기적으로 캡쳐된 복수의 영상에 대해서, 픽셀 단위로 칼라 변화량을 측정할 수 있다. 칼라 변화량은 HSV(Hue Saturation Value), RGB(Red Green Blue), 또는 YUV(휘도 및 색차) 기준에 따라서 측정될 수 있다. The amount of color change can be measured on a pixel-by-pixel basis for a plurality of images periodically captured during a period between the start of the broadcast program and the end of the broadcast program. The amount of color change can be measured according to HSV (Hue Saturation Value), RGB (Red Green Blue), or YUV (luminance and color difference) standards.

다음으로, 소정의 칼라 변화량 임계치를 기준으로, 칼라 변화량이 적은 영역을 검출할 수 있다. 여기서, 칼라 변화량이 적은 영역은, 영상 내의 동일한 위치에 동일한 오브젝트가 존재할 확률이 높은 것을 의미한다. 이에 따라, 검출된 영역은 수화 영역 후보라고 결정할 수 있다. Next, an area having a small amount of color change can be detected based on a predetermined color change amount threshold value. Here, an area having a small amount of change in color means that there is a high probability that the same object exists at the same position in the image. Accordingly, the detected region can be determined as the hydration region candidate.

또한, 소정의 칼라 변화량 임계치는 방송 사업자, 방송 프로그램, 방송 타입 등에 따라서 상이하게 설정될 수 있다. 예를 들어, 예능 프로그램의 경우에는 뉴스 프로그램에 비하여 대부분의 영역에서 칼라 변화량이 많을 것으로 예상할 수 있으므로, 예능 프로그램에 대한 임계치는 뉴스 프로그램에 대한 임계치보다 낮게 설정될 수도 있다. In addition, the predetermined color variation threshold may be set differently according to the broadcasting company, the broadcasting program, the broadcasting type, and the like. For example, in the case of an entertainment program, since it is expected that the amount of color change is large in most areas compared to the news program, the threshold value for the entertainment program may be set lower than the threshold value for the news program.

다음으로, 얼굴 인식에 대해서 설명한다.Next, the face recognition will be described.

전술한 바와 같은 칼라 분석을 통해서 캡쳐 영상에서 검출된 수화 영역 후보의 각각에 대해서, 얼굴 검출을 시도할 수 있다. 이에 따라, 수화 영역 후보 중에서 하나의 얼굴이 검출되는 영역을 최종적으로 수화 영역으로 결정할 수 있다.The face detection can be attempted for each of the marsh region candidates detected in the captured image through the color analysis as described above. As a result, the region in which one face is detected from among the hydration region candidates can finally be determined as the hydration region.

도 3의 예시에서는, 캡쳐 영상(300)에서 칼라 변화량이 소정의 임계치 이하인 제 1 수화 영역 후보(310) 및 제 2 수화 영역 후보(320)가 검출되는 경우를 가정한다. 보다 구체적으로, 제 1 및 제 2 수화 영역 후보(310 및 320)은 복수의 캡쳐 영상에 걸쳐서 칼라 변화량이 적은 영역, 즉, 동일한 위치에 동일한 오브젝트가 고정적으로 위치하는 영역에 해당할 수 있다.In the example of FIG. 3, it is assumed that the first mating area candidate 310 and the second mating area candidate 320 having a color variation amount less than a predetermined threshold value are detected in the captured image 300. More specifically, the first and second mating area candidates 310 and 320 may correspond to an area having a small amount of color change over a plurality of captured images, that is, an area where the same object is fixedly located at the same position.

다음으로, 제 1 및 제 2 수화 영역 후보(310 및 320)의 각각에 대해서 얼굴 검출을 시도할 수 있다. 제 1 수화 영역 후보(310)에서는 하나의 얼굴이 검출되므로 최종적으로 수화 영역이라고 결정할 수 있다. 제 2 수화 영역 후보(320)에서는 얼굴 인식에 실패하므로, 수화 영역이 아닌 것으로 결정할 수 있다.Next, face detection may be attempted for each of the first and second mating area candidates 310 and 320. [ Since one face is detected in the first mating area candidate 310, it can be finally determined to be the mating area. Since the second recognition area candidate 320 fails to recognize the face, it can be determined that it is not the sign language area.

또한, 얼굴 인식 대신에 수화 영역 패턴 매칭 검사를 수행할 수도 있다. 구체적으로, 칼라 변화량이 적은 것으로 검출된 수화 영역 후보에 대해서, 소정의 수화 영역 패턴과 매칭되는지를 검사할 수 있다. 예를 들어, 소정의 수화 영역 패턴을 파란색 타원형의 배경으로 설정할 수 있다. 도 3의 예시에서 제 1 수화 영역 후보(310)은 상기 소정의 수화 영역 패턴과 비교하여 파란색 타원형의 배경 부분이 소정의 비율(예를 들어, 50%) 이상으로 매칭되므로, 최종적으로 수화 영역이라고 결정할 수 있다. 제 2 수화 영역 후보(320)는 상기 소정의 수화 영역 패턴과 일치하는 비율이 낮으므로, 수화 영역이 아닌 것으로 결정할 수 있다.In addition, the sign language area pattern matching test may be performed instead of the face recognition. Specifically, it is possible to check whether or not a mating area candidate that is detected as having a small amount of color variation matches a predetermined mating area pattern. For example, a predetermined sign language area pattern can be set as a blue oval background. In the example of FIG. 3, since the background part of the blue ellipse is matched with a predetermined ratio (for example, 50%) or more as compared with the predetermined sign language area pattern, the first sign language area candidate 310 is finally the sign language area You can decide. Since the ratio of the second hydration area candidate 320 to the predetermined hydration area pattern is low, it can be determined that the second hydration area candidate 320 is not the hydration area.

여기서, 소정의 수화 영역 패턴의 예시는 파란색 타원형으로 제한되는 것은 아니다. 예를 들어, 방송 사업자, 방송 프로그램, 방송 타입 등에 따라 다른 패턴(예를 들어, 검은색 직사각형)과의 매칭 정도를 검사할 수도 있다. 즉, 본 개시의 범위는 소정의 수화 영역 패턴의 예시에 제한되는 것이 아니라, 소정의 수화 영역 패턴과의 매칭 정도를 이용한 수화 영역 검출의 다양한 방안들을 포함한다. Here, an example of a predetermined sign language area pattern is not limited to a blue ellipse. For example, the degree of matching with another pattern (for example, a black rectangle) may be checked according to a broadcasting company, a broadcasting program, a broadcasting type, and the like. That is, the scope of the present disclosure is not limited to the example of a predetermined hydration area pattern, but includes various schemes of hydration area detection using the degree of matching with a predetermined hydration area pattern.

도 4 및 도 5는 본 개시에 따른 수화 시간 검출 방안의 예시들을 설명하기 위한 도면이다.Figs. 4 and 5 are diagrams illustrating examples of a hydration time detection scheme according to the present disclosure. Fig.

수화 시간을 검출하기 위해서는, 수화 영역이 존재하는 시간 중에서 비수화 시간을 제외하는 방안을 적용할 수 있다. 이를 위하여 비수화 시간을 검출하는 예시들에 대해서 이하에서 설명한다.In order to detect the hydration time, it is possible to apply a scheme excluding the non-hydration time from the time when the hydration region exists. Examples for detecting the non-hydration time for this purpose are described below.

도 4의 예시는 손 위치 인식 또는 손 제스쳐 인식을 기반으로 수화 시간 또는 비수화 시간을 측정하는 방안에 대한 것이다. 예를 들어, 수화자의 손을 인식하고, 인식된 손의 위치를 소정의 주기마다 분석할 수 있다. The example of FIG. 4 is for measuring a sign language time or a sign language time based on hand position recognition or hand gesture recognition. For example, the hand of the listener can be recognized and the position of the recognized hand can be analyzed at predetermined intervals.

또한, 수화자의 손을 인식하는 시점은 수화 영역에서 수화자의 얼굴이 인식된 시점에 포함될 수 있다. 즉, 수화자의 얼굴이 인식되지 않은 시점은 손 위치를 인식하지 않더라도 비수화 시간으로 결정할 수 있고, 수화자의 얼굴이 인식되는 시점에서 손 위치 인식에 기초하여 비수화 시간 또는 수화 시간 여부를 결정할 수 있다.Further, the time point at which the hand of the receiver is recognized may be included at the time when the face of the receiver is recognized in the sign language area. That is, the point in time when the face of the listener is not recognized can be determined as the non-signifying time even if the hand position is not recognized, and the non-signifying time or the sign language time can be determined based on the hand position recognition at the time when the face of the signee is recognized .

도 4의 예시에서 t-1의 시점에서는 인식된 손의 위치가 수화 영역의 하단 중앙을 벗어난 중단 좌우측이므로, 수화 시간에 속하는 것으로 결정할 수 있다. In the example of Fig. 4, at the time point t-1, since the position of the recognized hand is the left and right of the stop, which is outside the bottom center of the hydration area, it can be determined to belong to the hydration time.

다음으로, t 및 t+1의 시점에서는 인식된 손의 위치가 수화 영역의 하단 중앙이므로, 비수화 시간에 속하는 것으로 결정할 수 있다. Next, at the time point of t and t + 1, since the position of the hand recognized is the bottom center of the hydration region, it can be determined to belong to the non-hydration time.

다음으로, t+2의 시점에서는 인식된 손의 위치가 수화 영역의 하단 중앙을 벗어난 중단 중앙이므로, 수화 시간에 속하는 것으로 결정할 수 있다.Next, at the time point t + 2, it is determined that the position of the recognized hand belongs to the hydration time since the position of the recognized hand is the stopping center outside the bottom center of the hydration area.

즉, 수화자의 손으로 인식된 오브젝트의 위치가 수화 영역의 하단 중앙에 위치하는 시간을 비수화 시간으로 결정하고, 전체 프로그램 제공 시간 중에서 수화 영역이 존재하는 시간 동안에 상기 비수화 시간을 제외한 나머지를 수화 시간으로 결정할 수 있다.That is, the time when the position of the object recognized by the hand of the listener is located at the center of the lower end of the sign language area is determined as the non-sign language time, and during the time when the sign language area exists, You can decide by time.

도 5의 예시는 칼라 인식 기반으로 수화 시간 또는 비수화 시간을 측정하는 방안에 대한 것이다. 예를 들어, 수화 영역 중의 특정 하위 영역의 칼라를 인식하여, 인식된 칼라가 수화자의 손의 칼라에 매칭되는지 여부를 소정의 주기마다 분석할 수 있다. The example of FIG. 5 is for a method of measuring the hydration time or the non-hydration time based on the color recognition. For example, it is possible to recognize the color of a specific subregion in the hydration region, and to analyze at every predetermined cycle whether or not the recognized color matches the color of the hand of the recipient.

또한, 수화 영역의 특정 하위 영역의 칼라를 인식하는 시점은 수화 영역에서 수화자의 얼굴이 인식된 시점에 포함될 수 있다. 즉, 수화자의 얼굴이 인식되지 않은 시점은 특정 하위 영역의 칼라를 인식하지 않더라도 비수화 시간으로 결정할 수 있고, 수화자의 얼굴이 인식되는 시점에서 특정 하위 영역의 칼라 인식에 기초하여 비수화 시간 또는 수화 시간 여부를 결정할 수 있다.Further, the time point at which the color of the specific sub region in the sign language area is recognized may be included at the time when the face of the sign language is recognized in the sign language area. That is, the point in time when the face of the listener is not recognized can be determined as the non-sign language time even if the color of the specific sub-region is not recognized, and when the face of the listener is recognized, It can be decided whether or not it is time.

도 5의 예시에서 t-1의 시점에서는 수화 영역의 하단 중앙의 특정 하위 영역에 수화자의 손의 칼라 값의 비중이 낮으므로, 수화 시간에 속하는 것으로 결정할 수 있다. In the example of FIG. 5, since the specific value of the color value of the hand of the handler is low in a specific sub-area at the bottom center of the hydration area at the time of t-1, it can be determined to belong to the hydration time.

다음으로, t 및 t+1의 시점에서는 수화 영역의 하단 중앙의 특정 하위 영역에 수화자의 손의 칼라 값의 비중이 높으므로, 비수화 시간에 속하는 것으로 결정할 수 있다. Next, since the specific value of the color value of the hand of the handler is high in the specific sub-area at the center of the lower end of the hydration area at time t and t + 1, it can be determined to belong to the non-hydration time.

다음으로, t+2의 시점에서는 수화 영역의 하단 중앙의 특정 하위 영역에 수화자의 손의 칼라 값의 비중이 낮으므로, 수화 시간에 속하는 것으로 결정할 수 있다.Next, at the time point t + 2, since the weight of the hand value of the hand of the handler is low in a specific sub area at the lower center of the hand sign area, it can be determined to belong to the hand sign time.

즉, 수화 영역에서 특정 하위 영역(예를 들어, 하단 중앙)의 칼라를 분석하여, 수화자의 손의 칼라 값과 유사한 칼라가 차지하는 시간 및/또는 영역의 크기가 소정의 임계치에 비하여 높다면 비수화 시간이라고 결정할 수 있다. 이에 따라, 전체 프로그램 제공 시간 중에서 수화 영역이 존재하는 시간 동안에 상기 비수화 시간을 제외한 나머지를 수화 시간으로 결정할 수 있다.That is, if the color of a certain sub region (for example, the lower center) in the hydration region is analyzed and the time occupied by the color similar to the color value of the hand of the receiver is higher than the predetermined threshold value, Time can be determined. Accordingly, it is possible to determine, as the hydration time, the remainder excluding the non-hydration time during the time when the hydration area exists in the entire program provision time.

도 5와 같은 예시를 적용하기 위해서 수화자는 수화 영역의 배경(예를 들어, 파란색)과 명확하게 구분되면서, 수화자의 얼굴 및 손의 색깔과 명확하게 구분되는 칼라의 복장을 갖출 수 있다.In order to apply the example shown in Fig. 5, the receiver can be clearly distinguished from the background of the sign language area (for example, blue), and can have a color dress clearly distinguished from the face and hands of the listener.

추가적인 예시로서, 모션 벡터 기반으로 수화 시간을 측정할 수도 있다.As a further example, the hydration time may be measured based on the motion vector.

모션 벡터는 제 1 시점의 영상에서 특정 위치가 제 2 시점의 영상에서 이동한 변위를 벡터로 나타낸 것이다. 본 개시에서는 제 1 시점의 캡쳐 영상의 수화 영역에서의 복수의 특징점(예를 들어, 픽셀 단위) 각각의 위치가 제 2 시점의 캡쳐 영상에서 이동한 변위에 기초한 모션 벡터를 측정하고, 복수의 특징점들에 대한 모션 벡터의 스칼라 총합의 값이 소정의 임계치 이하인지 여부를 판단할 수 있다. The motion vector is a vector representing a displacement of a specific position in an image at a first view point from an image at a second view point. In the present disclosure, a motion vector based on a displacement of a position of each of a plurality of minutiae points (for example, pixel units) in a hydration region of a captured image at a first time point in a captured image at a second time point is measured, It is possible to determine whether the value of the scalar sum of the motion vectors for the motion vectors is below a predetermined threshold.

만약 모션 벡터 총합이 임계치 이하인 경우에는, 수화자의 수화 동작이 없는 시간으로 볼 수 있으므로, 제 1 시점 및 제 2 시간 사이의 시간 동안을 비수화 시간이라고 결정할 수 있다. 이에 따라, 전체 프로그램 제공 시간 중에서 수화 영역이 존재하는 시간 동안에 상기 비수화 시간을 제외한 나머지를 수화 시간으로 결정할 수 있다.If the sum of the motion vectors is less than or equal to the threshold value, it can be regarded as a time without the hydration operation of the receiver. Therefore, the time between the first time and the second time can be determined as the non-hydration time. Accordingly, it is possible to determine, as the hydration time, the remainder excluding the non-hydration time during the time when the hydration area exists in the entire program provision time.

만약 모션 벡터 총합이 임계치 초과인 경우에는, 수화자의 수화 동작이 있는 시간으로 볼 수 있으므로, 제 1 시점 및 제 2 시간 사이의 시간 동안을 수화 시간이라고 결정할 수도 있다. If the sum of the motion vectors exceeds the threshold value, since the hydration operation of the receiver can be regarded as a time, the time between the first time and the second time may be determined as the hydration time.

도 6은 본 개시에 따른 수집 장치의 동작을 설명하기 위한 흐름도이다.6 is a flow chart for explaining the operation of the collecting apparatus according to the present disclosure;

도 6의 단계 S610에서 수집 장치(100)는 방송 편성 정보(예를 들어, 채널 정보, 프로그램명, 방영 날짜, 프로그램 시작 시간, 프로그램 종료 시간 등)를 획득할 수 있다. 예를 들어, 이러한 방송 편성 정보(또는 PSIP)는 웹 EPG로부터 수집 관리 모듈(130)이 직접 획득할 수도 있고, 디먹스/튜너 모듈(110)이 방송 신호를 수신 및 분석하여 획득한 PSIP 정보를 수집 관리 모듈(130)에게 전달하여 줄 수도 있다. In step S610 of FIG. 6, the collecting apparatus 100 may acquire broadcast program information (e.g., channel information, program name, broadcast date, program start time, program end time, etc.). For example, such a broadcast programming information (or PSIP) may be obtained directly from the web EPG by the collection management module 130, or the PSIP information obtained by the demux / tuner module 110 by receiving and analyzing the broadcast signal To the collection management module 130.

단계 S620에서 수집 장치(100)는 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상에 대한 시그널링 정보(예를 들어, 다중화된 프로그램에 속한 복잡한 전송 스트림(TS)에 필요한 프로그램 정보를 테이블 형식으로 표현한 메타 데이터)를 분석할 수 있다. 예를 들어, 수집 관리 모듈(130)은 디먹스/튜너 모듈(110)을 제어하여 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로 시그널링 정보(또는 PSI)를 분석할 수 있다. In step S620, the collecting apparatus 100 transmits signaling information on a monitoring unit target and / or a monitoring subunit object (for example, meta data representing program information necessary for a complicated transport stream TS belonging to a multiplexed program in a table format) ) Can be analyzed. For example, the acquisition management module 130 may control the demux / tuner module 110 to analyze the signaling information (or PSI) by any combination of region, channel, time, program, or type.

단계 S630에서 수집 장치(100)는 주기적으로 방송 프로그램 화면을 캡쳐할 수 있다. 예를 들어, 디먹스/튜너 모듈(110)은 방송 프로그램 제공 시간 동안 소정의 주기 마다 캡쳐 영상을 생성할 수 있다. In step S630, the collecting apparatus 100 may periodically capture a broadcast program screen. For example, the demux / tuner module 110 may generate a captured image at predetermined intervals during a broadcast program providing time.

단계 S640에서 수집 장치(100)는 캡쳐 영상을 저장하면서, 해당 캡쳐 영상의 관련 정보를 저장할 수 있다. 예를 들어, 저장 모듈(120)은 캡쳐 영상과 함께, 해당 캡쳐 영상이 포함된 모니터링 단위 대상, 모니터링 세부 단위 대상, 방송 편성 정보(PSIP), 또는 시그널링 정보(PSI) 중의 하나 이상을 관련 정보로서 저장할 수 있다. In step S640, the collecting apparatus 100 may store related information of the captured image while storing the captured image. For example, the storage module 120 may store one or more of a monitoring unit object, a monitoring unit object, a PSIP, or a signaling information (PSI) including the captured image as related information together with the captured image Can be stored.

단계 S650에서 수집 장치(100)는 저장된 캡쳐 영상 및 관련 정보를 분석 서버(200)로 전송할 수 있다. 또한, 수집 장치(100)는 해당 캡쳐 영상의 관련 정보에 대한 분석 결과도 분석 서버(200)로 전송할 수 있다. 예를 들어, 예를 들어, 수집 관리 모듈(130)은 저장 모듈(120)에 저장된 캡쳐 영상, 관련 정보(예를 들어, 모니터링 단위 대상, 모니터링 세부 단위 대상, PSIP, 또는 PSI 중의 하나 이상) 및 분석 결과를 분석 서버(200)의 분석 관리 모듈(210)로 전송할 수 있다.In step S650, the collecting apparatus 100 may transmit the captured captured image and related information to the analysis server 200. [ Also, the collection device 100 may transmit the analysis result of the related information of the captured image to the analysis server 200. [ For example, for example, the collection management module 130 may include a capture image, associated information (e.g., one or more of a monitoring unit target, a monitoring unit target, a PSIP, or a PSI) stored in the storage module 120, And transmit the analysis result to the analysis management module 210 of the analysis server 200.

분석 결과는 관련 정보에 대한 오류 정보를 포함할 수 있다. 예를 들어, 분석 결과는 시그널링 정보에 대한 오류가 있는지, 오류가 있다면 어떠한 오류가 발생하였는지 등을 나타내는 정보를 포함할 수 있다.The result of the analysis may include error information on the relevant information. For example, the analysis result may include information indicating whether there is an error in the signaling information, an error in the case of an error, and the like.

도 6의 예시에서 수집 장치는 단계 S630 내지 S650의 동작을 소정의 캡쳐 주기 마다 반복하여 수행할 수 있다. In the example of Fig. 6, the collecting apparatus can perform the operations of steps S630 to S650 repeatedly at predetermined capture periods.

또는, 단계 S630 및 S640을 소정의 캡쳐 주기마다 수행하고, 단계 S650에서는 누적하여 저장된 복수의 캡쳐 주기에 대응하는 복수의 캡쳐 영상, 관련 정보 및 분석 결과를 한 번에 분석 서버(200)로 전송할 수도 있다.Alternatively, steps S630 and S640 may be performed for each predetermined capture period, and in step S650, a plurality of captured images, related information, and analysis results corresponding to a plurality of capture periods cumulatively stored may be transmitted to the analysis server 200 at one time have.

도 7은 본 개시에 따른 분석 서버의 동작을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an operation of the analysis server according to the present disclosure.

도 7의 단계 S710에서 분석 서버(200)는 수집 장치(100)로부터 캡쳐 영상, 관련 정보 및 분석 결과를 수신할 수 있다. 예를 들어, 분석 관리 모듈(210)은 수집 장치(100)의 수집 관리 모듈(130)로부터 전송되는 캡쳐 영상, 관련 정보 및 분석 결과를 수신할 수 있다.In step S710 of FIG. 7, the analysis server 200 may receive the captured image, the related information, and the analysis result from the collection device 100. FIG. For example, the analysis management module 210 may receive captured images, related information, and analysis results transmitted from the collection management module 130 of the collection device 100.

단계 S720에서 분석 서버(200)는 수신된 데이터를 저장할 수 있다. 예를 들어, 분석 관리 모듈(210)은 수신된 데이터(예를 들어, 캡쳐 영상, 관련 정보 및 분석 결과)를 데이터베이스(240)에 저장할 수 있다.In step S720, the analysis server 200 may store the received data. For example, the analysis management module 210 may store the received data (e.g., captured images, related information, and analysis results) in the database 240.

단계 S730에서 분석 서버(200)는 저장된 데이터를 분석할 수 있다. 예를 들어, 데이터 분석 모듈(230)은 저장된 데이터(예를 들어, 캡쳐 영상, 관련 정보 및 분석 결과)를 분석할 수 있다. In step S730, the analysis server 200 may analyze the stored data. For example, data analysis module 230 may analyze stored data (e.g., captured images, related information, and analysis results).

또한, 데이터 분석 모듈(230)은 저장된 데이터의 캡쳐 영상에 수화 영역이 존재하는지 여부를 결정할 수 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상에 수화 영역이 존재하는지 여부를 방송 편성 정보 및/또는 시그널링 정보에 기초하여 결정할 수도 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상에 수화 영역이 존재하는지 여부를 칼라 분석, 얼굴 인식, 패턴 매칭 등의 방식에 기초하여 결정할 수도 있다(도 3의 예시 참조).In addition, the data analysis module 230 may determine whether or not a sign language area exists in the captured image of the stored data. For example, the data analysis module 230 may determine whether there is a sign language area in the captured image based on broadcast programming information and / or signaling information. For example, the data analysis module 230 may determine whether or not a sign language area exists in the captured image based on a method such as color analysis, face recognition, pattern matching, and the like (see an example of FIG. 3).

또한, 데이터 분석 모듈(230)은 저장된 데이터의 캡쳐 영상이 수화 시간에 속하는지 또는 비수화 시간에 속하는지 여부를 결정할 수 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상이 수화 시간 또는 비수화 시간에 속하는지 여부를 방송 편성 정보 및/또는 시그널링 정보에 기초하여 결정할 수도 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상에 캡쳐 영상이 수화 시간 또는 비수화 시간에 속하는지 여부를 손 위치 인식, 칼라 인식, 모션 벡터 분석 등의 방식에 기초하여 결정할 수도 있다(도 4 및 도 5의 예시 참조).In addition, the data analysis module 230 may determine whether the captured image of the stored data belongs to the hydration time or the de-hydration time. For example, the data analysis module 230 may determine whether the captured image belongs to a sign-on time or a sign-off time based on broadcast programming information and / or signaling information. For example, the data analysis module 230 may determine whether the captured image belongs to the hydration time or the non-hydration time on the captured image based on a method such as hand position recognition, color recognition, and motion vector analysis And the example of Fig. 5).

또한, 데이터 분석 모듈(230)은 저장된 데이터의 캡쳐 영상 분석 결과(예를 들어, 수화 방송 유무, 수화 방송 품질 등)을 관련 정보(예를 들어, 모니터링 단위 대상, 모니터링 세부 단위 대상, PSIP, 또는 PSI 중의 하나 이상)와 함께 데이터베이스(240)에 저장할 수 있다.The data analysis module 230 analyzes the captured image analysis result of the stored data (for example, the presence of a sign language broadcast, the quality of a sign language broadcast, etc.) with related information (for example, a monitoring unit target, PSI < / RTI > in the database 240).

또한, 데이터 분석 모듈(230)은 저장된 데이터에서 캡쳐 영상이 수화 방송이 아닌 경우에는 삭제할 수도 있다.In addition, the data analysis module 230 may delete the captured image if the captured image is not a sign language broadcast.

단계 S740에서 분석 서버(200)는 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상 별로 분석 결과를 집계하고 관리할 수 있다. In step S740, the analysis server 200 may aggregate and manage analysis results for each monitoring unit object and / or each monitoring unit object.

예를 들어, 통계 모듈(220)은 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로 분석 결과를 집계하고 이를 사용자의 요구에 따라 화면에 출력할 수 있다. 예를 들어, 수화 방송 품질은 수화 제공 빈도의 값으로 나타낼 수 있으며, 수화 제공 빈도는 전체 프로그램 제공 시간 중에서 수화 시간이 차지하는 비중, 수화 시간의 분포 등의 수치로 나타낼 수 있다. For example, the statistics module 220 may aggregate analysis results by any combination of region, channel, time, program, or type and output it to the screen according to the user's request. For example, the quality of a sign language broadcast can be expressed by a value of a sign language provision frequency, and a sign language provision frequency can be expressed by a numerical value such as a distribution of a sign language time, a distribution of a sign language time,

도 7의 단계 S710 내지 S740의 동작은 주기적으로 수행될 수도 있고, 복수의 캡쳐 주기에 대응하는 정보를 한 번에 수신하여 이에 대한 저장, 분석 및 통계 산출이 한 번에 수행될 수도 있다. 또는, 도 7의 단계 S710 내지 S730은 캡쳐 주기마다 반복하여 수행될 수도 있고, 단계 S740은 복수의 캡쳐 주기가 완료된 후에 누적하여 저장 및 분석된 데이터에 기초하여 한 번에 수행될 수도 있다. The operations of steps S710 to S740 in FIG. 7 may be performed periodically, and information corresponding to a plurality of capture periods may be received at one time, and storage, analysis, and statistical calculation may be performed at one time. Alternatively, steps S710 to S730 of FIG. 7 may be repeatedly performed at each capture period, and step S740 may be performed at a time based on data accumulated and stored after completion of the plurality of capture periods.

본 개시에 따르면 수화 방송에 대한 새로운 영상 분석 방안을 제공하고, 이에 따라 객관적으로 또한 자동적으로 수화 방송 편성 여부를 확인할 수 있고, 수화 방송의 품질을 검증할 수 있다. 따라서, 본 개시에 따른 수화 방송 품질 모니터링 장치를 전국적으로 설치 및 운영함으로써, 장애인 방송 고시 의무 사업자 선정 및 목표 달성 여부를 검증하는 데에 활용할 수 있다. According to the present disclosure, it is possible to provide a new image analysis method for sign language broadcast, and thus it is possible to objectively and automatically check whether the sign language broadcast is organized, and to verify the quality of sign language broadcast. Therefore, by installing and operating the device for monitoring the quality of the sign language broadcasts according to the present invention nationwide, it can be utilized for selecting the obligation service provider for the broadcasting of the disabled and verifying whether or not the target is achieved.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of this disclosure are represented by a series of acts for clarity of explanation, they are not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order. In order to implement the method according to the present disclosure, the illustrative steps may additionally include other steps, include the remaining steps except for some steps, or may include additional steps other than some steps.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the disclosure are not intended to be all-inclusive and are intended to illustrate representative aspects of the disclosure, and the features described in the various embodiments may be applied independently or in a combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. In the case of hardware implementation, one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays A general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is to be accorded the broadest interpretation as understanding of the principles of the invention, as well as software or machine-executable instructions (e.g., operating system, applications, firmware, Instructions, and the like are stored and are non-transitory computer-readable medium executable on the device or computer.

100...수집 장치
110...디먹스/튜너 모듈
120...저장 모듈
130...수집 관리 모듈
200...분석 서버
210...분석 관리 모듈
220...통계 모듈
230...데이터 분석 모듈
240...데이터베이스
300...캡쳐 영상
310...제 1 수화 영역 후보
320...제 2 수화 영역 후보
100 ... collecting device
110 ... demux / tuner module
120 ... storage module
130 ... collection management module
200 ... Analysis Server
210 ... analysis management module
220 ... Statistical module
230 ... Data Analysis Module
240 ... database
300 ... capture video
310 ... First sign language candidate
320 ... second sign language candidate

Claims (1)

수화 방송 품질을 모니터링하는 방법에 있어서,
방송 콘텐츠의 캡쳐 영상을 생성하는 단계;
상기 캡쳐 영상에서 수화 영역을 검출하는 단계;
상기 캡쳐 영상에서 수화 영역이 검출되는 경우, 상기 캡쳐 영상이 비수화 시간에 속하는지 여부를 결정하는 단계; 및
상기 생성 단계, 검출 단계 및 결정 단계를 소정의 캡쳐 주기마다 반복하여 누적된 결과 데이터에 대하여, 상기 캡쳐 영상에 관련된 방송 편성 정보, 시그널링 정보, 모니터링 단위 대상, 또는 모니터링 세부 단위 대상 중의 하나 이상에 기초하여, 상기 방송 콘텐츠의 수화 방송 품질을 결정하는 단계를 포함하는, 수화 방송 품질 모니터링 방법.
A method for monitoring sign language broadcast quality,
Generating a captured image of broadcast content;
Detecting a hydration region in the captured image;
Determining whether the captured image belongs to a non-hydration time when a hydration region is detected in the captured image; And
Wherein the generation step, the detection step, and the determination step are repeated for each predetermined capture period to generate cumulative result data based on at least one of broadcast programming information, signaling information, monitoring unit targets, And determining a sign language broadcast quality of the broadcast content.
KR1020170023009A 2017-02-21 2017-02-21 Method and apparatus for monitoring quality of sign language broadcasting KR102557442B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170023009A KR102557442B1 (en) 2017-02-21 2017-02-21 Method and apparatus for monitoring quality of sign language broadcasting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170023009A KR102557442B1 (en) 2017-02-21 2017-02-21 Method and apparatus for monitoring quality of sign language broadcasting

Publications (2)

Publication Number Publication Date
KR20180096378A true KR20180096378A (en) 2018-08-29
KR102557442B1 KR102557442B1 (en) 2023-07-19

Family

ID=63434710

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170023009A KR102557442B1 (en) 2017-02-21 2017-02-21 Method and apparatus for monitoring quality of sign language broadcasting

Country Status (1)

Country Link
KR (1) KR102557442B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030030232A (en) * 2001-10-09 2003-04-18 한국과학기술원 Method and System for recognizing continuous sign language based on computer vision
US20110151846A1 (en) * 2009-12-17 2011-06-23 Chi Mei Communication Systems, Inc. Sign language recognition system and method
KR20130067639A (en) * 2011-12-14 2013-06-25 한국전자통신연구원 System and method for providing sign language broadcasting service

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030030232A (en) * 2001-10-09 2003-04-18 한국과학기술원 Method and System for recognizing continuous sign language based on computer vision
US20110151846A1 (en) * 2009-12-17 2011-06-23 Chi Mei Communication Systems, Inc. Sign language recognition system and method
KR20130067639A (en) * 2011-12-14 2013-06-25 한국전자통신연구원 System and method for providing sign language broadcasting service

Also Published As

Publication number Publication date
KR102557442B1 (en) 2023-07-19

Similar Documents

Publication Publication Date Title
CA2698063C (en) Methods and apparatus for identifying primary media content in a post-production media content presentation
JP4287053B2 (en) Audience rating system for digital TV
US8255963B2 (en) System and method for monitoring video data
US8553148B2 (en) Methods and apparatus to distinguish a signal originating from a local device from a broadcast signal
US11245958B2 (en) Detection of mute and compensation therefor during media replacement event
MX2014014741A (en) Methods and apparatus for identifying media.
MXPA03004846A (en) Apparatus and method for measuring tuning of a digital broadcast receiver.
CN102572500A (en) Network TV program rating collecting system and method
US20130232517A1 (en) Audience measurement apparatus, system and process
CN106454426B (en) A kind of method of identification intelligent TV analog channel
US20210385534A1 (en) Method for obtaining television rating points for television channels
KR102487111B1 (en) Method and apparatus for monitoring quality of sign language broadcasting
US20230119783A1 (en) Methods and apparatus to monitor a split screen media presentation
KR20180096378A (en) Method and apparatus for monitoring quality of sign language broadcasting
KR20100116306A (en) Program rating research system and the research method
KR101625567B1 (en) Verification apparatus for screen synchronization information
KR101849092B1 (en) Method and Apparatus for Detecting Picture Breaks for Video Service of Real Time
EP2720469A1 (en) Display apparatus and method thereof for detecting a channel change event
KR101770958B1 (en) Method for calculating real watched ratio of advertisement based on real time of seconds
JP4280100B2 (en) Transmission device, reception device, and viewing history collection system
KR101143942B1 (en) Method for detecting broadcast provider and system thereof
KR101860937B1 (en) Apparatus and method for measuring program rating
KR20080055338A (en) Set top box of internet protocol television service system, audience rating survey system for internet protocol television service system and method thereof
KR20170108596A (en) System and method for evaluating quality of broadcasting for handicapped
AU2012268871B2 (en) Methods and apparatus for identifying primary media content in a post-production media content presentation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right