KR20190132074A - Method and apparatus for monitoring quality of sign language broadcasting - Google Patents

Method and apparatus for monitoring quality of sign language broadcasting Download PDF

Info

Publication number
KR20190132074A
KR20190132074A KR1020180057291A KR20180057291A KR20190132074A KR 20190132074 A KR20190132074 A KR 20190132074A KR 1020180057291 A KR1020180057291 A KR 1020180057291A KR 20180057291 A KR20180057291 A KR 20180057291A KR 20190132074 A KR20190132074 A KR 20190132074A
Authority
KR
South Korea
Prior art keywords
sign language
broadcast
area
region
captured image
Prior art date
Application number
KR1020180057291A
Other languages
Korean (ko)
Other versions
KR102487111B1 (en
Inventor
최지훈
안충현
서정일
양승준
장인선
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180057291A priority Critical patent/KR102487111B1/en
Publication of KR20190132074A publication Critical patent/KR20190132074A/en
Application granted granted Critical
Publication of KR102487111B1 publication Critical patent/KR102487111B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/59Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

The present invention relates to a method for monitoring quality of a sign language broadcast, and an apparatus thereof. According to one embodiment of the present invention, the method for monitoring quality of a sign language broadcast comprises the following steps: identifying at least one captured image that captures broadcast content at every predetermined first time unit; generating a different image regarding the at least one captured image and detecting a sign language candidate region by accumulating the difference images regarding a unit of the broadcast content; determining a sign language region by analyzing the at least one captured image corresponding to the sign language candidate region; and determining quality of a sign language broadcast of the broadcast content based on at least one among broadcast programming information, signaling information, a unit object for monitoring, or a detailed unit object for monitoring associated with the captured image by using an image included in the sign language region of the broadcast content.

Description

수화 방송 품질 모니터링 방법 및 장치{METHOD AND APPARATUS FOR MONITORING QUALITY OF SIGN LANGUAGE BROADCASTING}Sign Language Broadcast Quality Monitoring Method and Apparatus {METHOD AND APPARATUS FOR MONITORING QUALITY OF SIGN LANGUAGE BROADCASTING}

본 개시는 수화 방송에 대한 것이며, 구체적으로는 수화 방송의 품질을 모니터링하는 방법 및 장치에 대한 것이다.The present disclosure relates to a sign language broadcast, and more particularly, to a method and apparatus for monitoring the quality of a sign language broadcast.

최근 들어 장애인을 위한 방송 부가 서비스에 대한 지원이 증가하고 있다. 예를 들어, 방송 콘텐츠에 자막이 제공되거나, 화면 해설 정보가 제공되거나, 수화 통역 화면이 제공되는 등의 청각 장애인을 위한 방송 부가 서비스가 증가하고 있다. 또한, 방송통신위원회에서는 자막, 화면해설, 수화통역의 편성 비율을 높이도록 목표를 설정하였다.Recently, support for broadcast supplementary services for the disabled has increased. For example, broadcast supplementary services for the hearing impaired, such as subtitles, broadcast commentary information, or a sign language interpreter screen are provided for broadcast content. The Korea Communications Commission also set a goal to increase the ratio of captions, screen commentaries, and sign language interpretation.

이러한 수화 방송이 제공되는지 여부를 모니터링하기 위해서, 비장애인이 직접 방송을 시청하면서 수동적으로 일부 샘플을 조사하는 수준에 머무르고 있다. 즉, 아직까지는 수화 방송의 품질을 자동적으로 모니터링하는 방안은 마련되지 않은 실정이다. In order to monitor whether or not such a sign language broadcast is provided, the non-disabled person stays at the level of manually examining some samples while watching the broadcast. That is, there is no way to automatically monitor the quality of sign language broadcasting.

본 개시의 기술적 과제는 수화 방송에서 수화 영역을 검출하는 방법 및 장치를 제공하는 것이다.An object of the present disclosure is to provide a method and apparatus for detecting a sign language area in a sign language broadcast.

본 개시의 다른 기술적 과제는 수화 방송에서 수화 시간을 측정하는 방법 및 장치를 제공하는 것이다.Another technical problem of the present disclosure is to provide a method and apparatus for measuring a sign language time in a sign language broadcast.

본 개시의 또 다른 기술적 과제는 수화 방송의 품질을 결정하는 방법 및 장치를 제공하는 것이다.Another technical problem of the present disclosure is to provide a method and apparatus for determining the quality of a sign language broadcast.

본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Technical problems to be achieved in the present disclosure are not limited to the above-mentioned technical problems, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.

본 개시의 일 양상에 따른 수화 방송 품질을 모니터링하는 방법은, 방송 콘텐츠를 미리 정해진 제1시간 단위마다 캡쳐한 적어도 하나의 캡쳐 영상을 확인하는 단계; 상기 적어도 하나의 캡쳐 영상에 대한 차영상을 생성하고, 상기 방송 콘텐츠 단위에 대한 상기 차영상을 누적하여 수화 후보 영역을 검출하는 단계; 상기 수화 후보 영역에 대응되는 상기 적어도 하나의 캡쳐 영상을 분석하여, 수화 영역을 결정하는 단계; 및 상기 캡쳐 영상에 관련된 방송 편성 정보, 시그널링 정보, 모니터링 단위 대상, 또는 모니터링 세부 단위 대상 중의 하나 이상에 기초하고, 상기 방송 콘텐츠 중 상기 수화 영역에 포함되는 영상을 사용하여, 상기 방송 콘텐츠의 수화 방송 품질을 결정하는 단계를 포함할 수 있다.According to an aspect of the present disclosure, a method of monitoring a sign language broadcast quality includes: identifying at least one captured image of capturing broadcast content every predetermined first time unit; Generating a difference image for the at least one captured image and accumulating the difference image for the broadcast content unit to detect a sign language candidate region; Determining a sign language region by analyzing the at least one captured image corresponding to the sign language candidate region; And a sign language broadcast of the broadcast content based on one or more of broadcast schedule information, signaling information, a monitoring unit object, or a monitoring subunit object related to the captured image, and using an image included in the sign language area of the broadcast content. Determining quality.

본 개시의 다른 양상에 따른 수화 방송 품질을 모니터링하는 장치는, 방송 콘텐츠를 사용자에게 제공하는 적어도 하나의 수집 장치로부터 상기 방송 콘텐츠를 미리 정해진 제1시간 단위마다 캡쳐한 적어도 하나의 캡쳐 영상을 수신 및 저장하는 분석 관리부와, 상기 적어도 하나의 캡쳐 영상에 대한 차영상을 생성하고, 상기 방송 콘텐츠 단위에 대한 상기 차영상을 누적하여 수화 후보 영역을 검출하고, 상기 수화 후보 영역에 대응되는 상기 적어도 하나의 캡쳐 영상을 분석하여, 수화 영역을 결정하고, 상기 캡쳐 영상에 관련된 방송 편성 정보, 시그널링 정보, 모니터링 단위 대상, 또는 모니터링 세부 단위 대상 중의 하나 이상에 기초하고, 상기 방송 콘텐츠 중 상기 수화 영역에 포함되는 영상을 사용하여, 상기 방송 콘텐츠의 수화 방송 품질을 결정하는 데이터 분석부를 포함할 수 있다.An apparatus for monitoring sign language broadcast quality according to another aspect of the present disclosure may include receiving at least one captured image of capturing the broadcast content every predetermined first time unit from at least one collection device providing the broadcast content to a user. Generating a difference image for the at least one captured image, accumulating the difference image for the broadcast content unit, detecting a sign language candidate region, and detecting the at least one sign language candidate region; Analyze a captured image to determine a sign language area, and based on one or more of broadcast programming information, signaling information, a monitoring unit object, or a monitoring sub-unit object related to the captured image, and included in the sign language area of the broadcast content. Using a video to determine the sign language broadcast quality of the broadcast content. May include a data analyzer.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above with respect to the present disclosure are merely exemplary aspects of the detailed description of the present disclosure described below, and do not limit the scope of the present disclosure.

본 개시에 따르면, 수화 방송에서 수화 영역을 검출하는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus for detecting a sign language area in a sign language broadcast may be provided.

본 개시에 따르면, 수화 방송에서 수화 시간을 측정하는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus for measuring a sign language time in a sign language broadcast may be provided.

본 개시에 따르면, 수화 방송의 품질을 결정하는 방법 및 장치가 제공될 수 있다.According to the present disclosure, a method and apparatus for determining the quality of a sign language broadcast may be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.

도 1 및 도 2는 본 개시에 따른 수화 방송 품질 모니터링 장치의 예시적인 구성을 나타내는 도면이다.
도 3a 내지 도 3h는 다양한 수화 영역을 포함하는 방송 콘텐츠를 예시하는 도면이다.
도 4a 및 도 4b는 본 개시의 실시예에 따른 수화 영역 검출 방안을 설명하기 위한 도면이다.
도 5 및 도 6은 본 개시에 따른 수화 시간 검출 방안의 예시들을 설명하기 위한 도면이다.
도 7은 본 개시에 따른 수집 장치의 동작을 설명하기 위한 흐름도이다.
도 8은 본 개시에 따른 분석 서버의 동작을 설명하기 위한 흐름도이다.
1 and 2 are diagrams illustrating an exemplary configuration of a sign language broadcast quality monitoring apparatus according to the present disclosure.
3A to 3H are diagrams illustrating broadcast content including various sign language regions.
4A and 4B illustrate a sign language detection method according to an exemplary embodiment of the present disclosure.
5 and 6 are views for explaining examples of a sign language detection method according to the present disclosure.
7 is a flowchart illustrating the operation of the collecting device according to the present disclosure.
8 is a flowchart illustrating an operation of an analysis server according to the present disclosure.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present disclosure. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In describing the embodiments of the present disclosure, when it is determined that a detailed description of a known structure or function may obscure the gist of the present disclosure, a detailed description thereof will be omitted. In the drawings, parts irrelevant to the description of the present disclosure are omitted, and like reference numerals designate like parts.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In the present disclosure, when a component is "connected", "coupled" or "connected" with another component, it is not only a direct connection, but also an indirect connection in which another component exists in the middle. It may also include. In addition, when a component "includes" or "having" another component, it means that it may further include another component, without excluding the other component unless otherwise stated. .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance between the components unless specifically mentioned. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and likewise, a second component in one embodiment may be referred to as a first component in another embodiment. It may also be called.

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are for clearly describing each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed and formed into a plurality of hardware or software units. Therefore, even if not mentioned otherwise, such integrated or distributed embodiments are included in the scope of the present disclosure.

본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments are not necessarily required components, and some may be optional components. Therefore, an embodiment composed of a subset of components described in an embodiment is also included in the scope of the present disclosure. In addition, embodiments including other components in addition to the components described in the various embodiments are included in the scope of the present disclosure.

본 개시에서 사용하는 용어에 대한 정의는 다음과 같다.Definitions of terms used in the present disclosure are as follows.

- 수화 방송: 수화 영역을 포함하는 영상을 포함하는 방송 콘텐츠 또는 이러한 방송 콘텐츠를 송출하는 것.Sign language broadcast: Broadcast content including an image including a sign language area or the transmission of such broadcast content.

- 수화 영상: 수화 영역을 포함하는 영상.Sign language image: An image including a sign language region.

- 수화 영역: 수화 영상에서 수화자가 표시되는 영역.-Sign language area: the area where the called party is displayed in the sign language image.

- 수화자: 수화 영상에서 수화 동작을 표시하는 객체. 수화자는 일반적으로 사람이지만 사람과 유사한 형상의 그래픽으로 대체될 수도 있음.-Recipient: An object representing a sign language operation in a sign language image. The listener is usually a human but may be replaced by a graphic similar to a human.

- 수화 배경: 수화 영역에서 수화자로 인식되는 부분을 제외한 나머지 영역.-Sign language background: An area other than the part recognized as a sign language in a sign language area.

- 수화 시간: 수화 방송 중에서 수화가 제공되는 시간.-Sign Language Time: The time at which sign language is provided in a sign language broadcast.

- 비수화 시간: 수화 방송 중에서 수화 시간을 제외한 나머지 시간.-Non-hydration time: The remaining time except the sign language time among sign broadcasts.

- 수화 방송 품질: 수화 영역 존재 여부, 수화 동작 상태, 수화 시간 비중, 수화 제공 빈도 등에 기초한, 유효한 수화 서비스가 제공되는 정도를 나타내는 값.-Sign language broadcast quality: A value indicating the degree to which a valid sign language service is provided based on the presence of a sign language area, a sign language operation state, a sign language weight ratio, and a sign language provision frequency.

전술한 용어들의 정의는 단지 예시적인 것일 뿐, 본 발명의 범위가 이러한 정의에 의해서 제한되는 것은 아니다. 예를 들어, 위와 같은 용어의 정의는, 해당 용어에 대해서 당업자에 의해서 용이하게 이해되는 기본적인 의미를 배제하는 것은 아니다. The definitions of the above terms are merely exemplary, and the scope of the present invention is not limited by these definitions. For example, the definition of the above terms does not exclude the basic meaning easily understood by those skilled in the art for the terms.

이하에서는, 본 개시에 따른 수화 방송의 품질을 모니터링하는 방법 및 장치에 대한 본 개시의 다양한 예시들에 대해서 설명한다.Hereinafter, various examples of the present disclosure for a method and apparatus for monitoring the quality of a sign language broadcast according to the present disclosure will be described.

방송통신위원회는 장애인을 위한 방송 서비스 개선을 목표로, 방송 사업자가 장애인을 위한 다양한 부가 서비스를 제공할 것을 고려하고 있다. 예를 들어, 청각 장애인을 위한 방송을 제공할 의무 사업자를 선정하고, 선정된 사업자는 자막, 화면 해설, 수화 통역 등의 편성 비율에 대한 소정의 목표를 달성하도록 하였다. 그러나, 방송통신위원회가 장애인 방송 고시 의무 사업자 선정 기준을 축소하고, 자막, 화면 해설, 수화 통역 등의 편성 비율 목표 달성 시점을 2~3년 연기했다. 이번 개정안의 주요 내용은 현실 방송 환경이 열악함을 고려해서, 방송 채널 사용 사업자의 대상과 범위를 축소하고, 권고 편성 시점도 2~3년 연기한다는 것이다. 즉, KBS, MBS, SBS와 같은 지상파 방송 사업자는 2013년까지 자막 100%, 수화통역 5%, 2014년까지는 화면해설 10%를 달성해야 했으나, 이러한 목표 달성은 2016년까지로 연기되었다. 또한, 위성방송, 종편 등의 유료방송은 2016년까지 자막 70~100%, 화면 해설 5~7%, 수화 통역 3~5% 편성해야 했으나 이 시점도 2018년까지로 수정되었다.The Korea Communications Commission is considering the provision of various additional services for the disabled by aiming to improve broadcasting services for the disabled. For example, a mandatory operator was selected to provide broadcasting for the hearing impaired, and the selected operator was required to achieve a predetermined target for programming ratios such as subtitles, screen commentary, and sign language interpretation. However, the Korea Communications Commission has reduced the selection criteria for mandatory broadcasters for the disabled and delayed the completion of the targets for the ratio of captions, screen descriptions, and sign language interpretation for two to three years. The main contents of this amendment are to reduce the target and scope of broadcast channel users and to delay the preparation of recommendations for 2-3 years in consideration of the poor real broadcast environment. In other words, terrestrial broadcasters such as KBS, MBS, and SBS had to achieve 100% of subtitles, 5% of sign language interpreters, and 10% of screen commentary by 2014, but this goal was delayed until 2016. In addition, paid broadcasting such as satellite broadcasting and Jongpyeon had to arrange 70 ~ 100% of subtitles, 5 ~ 7% of screen commentary, and 3 ~ 5% of sign language interpretation by 2016, but this time was also revised to 2018.

방송통신위원회는 개정 이유로 "장애인 방송 제작 인프라 환경이 열악하고 방송 광고 침체로 어려움을 겪는 방송 사업자의 재정 상황을 고려해 장애인 방송 편성 비율 목표치 달성 시점을 일정 기간 연기한다"라고 밝혔다.The Korea Communications Commission said, "We will postpone the time to achieve the target ratio for the disabled for a certain period in consideration of the financial situation of broadcasters who are suffering from poor broadcasting production infrastructure environment and difficulties in the broadcast advertising recession."

이와 같이 장애인 방송 의무 편성 기준의 적용이 연기되는 이유 중의 하나는, 수화 방송의 품질을 자동적으로 평가하는 방안이 마련되어 있지 않기 때문이다. 즉, 현재까지는, 장애인 협회 등을 중심으로 비장애인이 방송을 직접 시청하면서 자막, 화면 해설, 수화 통역 등이 제공되는지를 수동적으로 조사하고, 이러한 확인 작업은 모든 방송 채널의 모든 방송 시간에 대해서 수행할 수 없기 때문에 일부 샘플링 기준에 따라서 조사하는 정도에 머무르고 있는 실정이다. One of the reasons why the application of the mandatory broadcasting standard for persons with disabilities is delayed is because there is no plan for automatically evaluating the quality of sign language broadcasting. That is, until now, passively inspecting broadcasts by handicapped non-disabled persons, such as subtitles, screen commentary, and sign language interpretation, are conducted for all broadcasting times of all broadcasting channels. Since it is impossible to do so, it is still being investigated to some sampling criteria.

본 개시에서는 이러한 문제점을 해결하기 위해서, 장애인 방송 서비스 중의 하나인 수화 방송 품질의 모니터링을 자동화하는 방안을 제공함으로써, 모든 방송 채널에 대한 모든 방송 시간에 걸쳐서 수화 방송의 품질을 전수 조사할 수 있는 토대를 마련할 수 있다. In order to solve this problem, the present disclosure provides a method for automating the monitoring of a sign language broadcasting quality, which is one of the handicapped broadcasting services, to provide a foundation for fully investigating the quality of a sign language broadcasting over all broadcasting times for all broadcasting channels. Can be prepared.

도 1 및 도 2는 본 개시에 따른 수화 방송 품질 모니터링 장치의 예시적인 구성을 나타내는 도면이다.1 and 2 are diagrams illustrating an exemplary configuration of a sign language broadcast quality monitoring apparatus according to the present disclosure.

현행 방송 표준에 따르면 방송 송출 신호 자체에는, 해당 방송이 수화 방송을 포함하는지 여부를 나타내는 정보가 포함되지는 않는다. 또한, 방송 신호의 시그널링 정보는 화면 해설 오디오 및/또는 폐쇄 자막의 편성 유무와 품질에 대한 정보를 포함할 수 있지만, 수화 방송에 대한 방송 시그널링 정보는 전송 스트림(Transport Stream, TS) 상에 포함되지는 않는다. According to the current broadcast standard, the broadcast transmission signal itself does not include information indicating whether the broadcast includes a sign language broadcast. In addition, the signaling information of the broadcast signal may include information on the presence and quality of picture description audio and / or closed caption, but the broadcast signaling information for the sign language broadcast is not included on the transport stream (TS). Does not.

따라서, 방송 사업자가 제공하는 방송 편성 정보(예를 들어, 채널, 프로그램명, 방송일자, 프로그램 시작시간 및 종료시간 등) 및 시그널링 정보(예를 들어, 다중화된 프로그램에 속한 복잡한 전송 스트림(TS)에 필요한 프로그램 정보를 테이블 형식으로 표현한 메타 데이터)를 기반으로 수화 방송 영상을 분석하여, 영상에 수화 영역이 포함되어 있는지를 확인함으로써, 수화 방송 유무를 결정할 수 밖에 없다. Therefore, broadcast programming information (eg, channel, program name, broadcast date, program start time and end time, etc.) and signaling information (eg, a complex transport stream (TS) belonging to a multiplexed program) provided by a broadcasting company are provided. It is necessary to determine the presence or absence of a sign language broadcast by analyzing a sign language broadcast image based on meta data expressing program information required in a table format) and checking whether a sign language region is included in the image.

이에 따라, 본 개시에 따른 수화 방송 품질 모니터링 장치는 수집 장치(100) 및 분석 서버(200)를 포함할 수 있다. 수집 장치(100) 각각에 의해서 방송 프로그램 단위로 캡쳐된 하나 이상의 영상에 기초하여, 분석 서버(200)는 해당 방송 프로그램의 수화 방송 품질(예를 들어, 수화 영역 존재 여부, 수화 동작 상태, 수화 시간 비중, 수화 제공 빈도 등)을 결정할 수 있다. Accordingly, the sign language broadcast quality monitoring apparatus according to the present disclosure may include a collection device 100 and an analysis server 200. Based on the one or more images captured by each of the collection apparatuses 100 in units of broadcast programs, the analysis server 200 performs a sign language broadcast quality (eg, whether a sign language area exists, a sign language operation state, or a sign language time) of the corresponding broadcast program. Specific gravity, frequency of hydration provision, etc.).

도 1 및 도 2를 참조하면 수화 방송 품질 모니터링 장치는 N 개의 수집 장치(100_1, 100_2, ..., 100_N) 및 분석 서버(200)를 포함할 수 있다. 1 and 2, the sign language broadcast quality monitoring apparatus may include N collection apparatuses 100_1, 100_2,..., 100_N and an analysis server 200.

도 1을 참조하면 N 개의 수집 장치(100_1, 100_2, ..., 100_N)에서, N 은 1 이상의 자연수일 수 있다. 또한, N 개의 수집 장치(100_1, 100_2, ..., 100_N)의 각각은 하나의 모니터링 단위 대상에 대응할 수 있다. 즉, N 개의 수집 장치(100_1, 100_2, ..., 100_N)에 의해서 N 개의 모니터링 단위 대상에 대한 정보를 동시에 수집할 수 있다. Referring to FIG. 1, in the N collecting apparatuses 100_1, 100_2,..., 100_N, N may be one or more natural numbers. In addition, each of the N collection devices 100_1, 100_2,..., 100_N may correspond to one monitoring unit object. That is, the N collection apparatuses 100_1, 100_2,..., 100_N may simultaneously collect information about N monitoring unit targets.

예를 들어, 모니터링 단위 대상은 지역, 채널, 시간, 프로그램, 타입 단위로 정의될 수 있다. 예를 들어, N은 모니터링 대상인 방송 지역의 개수, 방송 채널의 개수, 방송 시간의 개수, 방송 프로그램의 개수, 방송 타입(예를 들어, 뉴스, 예능, 교양 등)의 개수에 대응할 수도 있다.For example, the monitoring unit object may be defined by region, channel, time, program, and type. For example, N may correspond to the number of broadcast areas to be monitored, the number of broadcast channels, the number of broadcast times, the number of broadcast programs, and the number of broadcast types (eg, news, entertainment, culture, etc.).

각각의 수집 장치(100)는 M 개의 디먹스/튜너 모듈(110), 저장 모듈(120) 및 수집 관리 모듈(130)을 포함할 수 있다. Each collection device 100 may include M demux / tuner modules 110, storage modules 120, and collection management module 130.

M 개의 디먹스/튜너 모듈(110)에서, M 은 1 이상의 자연수일 수 있다. 또한, M 개의 디먹스/튜너 모듈(110)의 각각은 하나의 모니터링 세부 단위 대상에 대응할 수 있다. 즉, M 개의 디먹스/튜너 모듈(110_1, 110_2, ..., 110_M)에 의해서 M 개의 모니터링 세부 단위 대상에 대한 정보를 동시에 수집할 수 있다. In M demux / tuner modules 110, M may be one or more natural numbers. In addition, each of the M demux / tuner modules 110 may correspond to one monitoring subunit object. That is, the M demux / tuner modules 110_1, 110_2,..., 110_M may simultaneously collect information on M monitoring subunit targets.

모니터링 단위 대상이 지역, 채널, 시간, 프로그램, 타입 중의 어느 하나로 결정되면, 모니터링 세부 단위 대상은 나머지 하나로 결정될 수 있다. 이에 따라, 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합에 대한 모니터링이 가능하다. 예를 들어, 임의의 조합은 수화 방송으로 편성된 또는 편성 가능한 모든 모니터링 대상을 전수 조사할 수 있도록 정의될 수 있다. If the monitoring unit target is determined as one of region, channel, time, program, and type, the monitoring detailed unit target may be determined as the other. Accordingly, monitoring of any combination of region, channel, time, program, or type is possible. For example, any combination may be defined to allow full inspection of all monitored subjects organized or organized by a sign language broadcast.

예를 들어, 모니터링 단위 대상이 지역인 경우, 모니터링 세부 단위 대상은 채널, 시간, 프로그램, 또는 타입으로 정의될 수 있다. For example, when the monitoring unit object is a region, the monitoring detailed unit object may be defined as a channel, a time, a program, or a type.

예를 들어, 모니터링 단위 대상이 채널인 경우, 모니터링 세부 단위 대상은 지역, 시간, 프로그램, 또는 타입으로 정의될 수 있다. For example, when the monitoring unit object is a channel, the monitoring detailed unit object may be defined as a region, time, program, or type.

예를 들어, 모니터링 단위 대상이 시간인 경우, 모니터링 세부 단위 대상은 지역, 채널, 프로그램, 또는 타입으로 정의될 수 있다. For example, when the monitoring unit object is time, the monitoring detailed unit object may be defined as a region, a channel, a program, or a type.

예를 들어, 모니터링 단위 대상이 프로그램인 경우, 모니터링 세부 단위 대상은 지역, 채널, 시간, 또는 타입으로 정의될 수 있다. For example, when the monitoring unit object is a program, the monitoring detailed unit object may be defined as a region, a channel, a time, or a type.

예를 들어, 모니터링 단위 대상이 타입인 경우, 모니터링 세부 단위 대상은 지역, 채널, 시간, 또는 프로그램으로 정의될 수 있다. For example, when the monitoring unit object is a type, the monitoring detailed unit object may be defined as a region, a channel, a time, or a program.

또한, 복수의 수집 장치(100)의 각각에 포함되는 디먹스/튜너 모듈(110)의 개수는 서로 동일할 수도 있고 서로 다를 수도 있다. 예를 들어, 제 1 수집 장치(100_1)에 포함되는 디먹스/튜너 모듈(110)의 개수와, 제 2 수집 장치(100_2)에 포함되는 디먹스/튜너 모듈(110)의 개수는 서로 동일할 수도 있고 서로 다를 수도 있다.In addition, the number of demux / tuner modules 110 included in each of the plurality of collection devices 100 may be the same as or different from each other. For example, the number of demux / tuner modules 110 included in the first collecting device 100_1 and the number of demux / tuner modules 110 included in the second collecting device 100_2 may be the same. It can be different or different.

각각의 디먹스/튜너 모듈(110)은 수신되는 방송 신호로부터 방송 콘텐츠에 해당하는 동영상을 소정의 주기마다 캡쳐하고, 캡쳐된 영상을 저장 모듈(120)로 전달할 수 있다. 또한, 각각의 디먹스/튜너 모듈(120)은 수신되는 방송 신호의 전송 스트림(TS)을 분석하여, PSIP(Program and System Information Protocol) 및/또는 PSI(Program Specific Information) 정보를 수집 관리 모듈(130)로 전달할 수 있다. Each demux / tuner module 110 may capture a video corresponding to the broadcast content at a predetermined period from the received broadcast signal and transfer the captured image to the storage module 120. In addition, each demux / tuner module 120 analyzes a transport stream (TS) of a received broadcast signal, and collects program and system information protocol (PSIP) and / or program specific information (PSI) information. 130).

저장 모듈(120)은 디먹스/튜너 모듈(110)로부터 획득된 수화 방송 콘텐츠의 캡쳐 영상들을, 모니터링 단위 대상 및 모니터링 세부 단위 대상 별로 저장 및 관리할 수 있다. 예를 들어, 저장 모듈(120)은, 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로, 해당 방송 콘텐츠의 캡쳐 영상들을 저장 및 관리할 수 있다. The storage module 120 may store and manage the captured images of the sign language broadcast content obtained from the demux / tuner module 110 for each monitoring unit object and a monitoring subunit object. For example, the storage module 120 may store and manage captured images of the broadcast content for any combination of region, channel, time, program, or type.

또한, 저장 모듈(120)은 캡쳐 영상과 함께 방송 편성 정보(PSIP) 및 시그널링 정보(PSI) 등을 저장할 수 있다.In addition, the storage module 120 may store broadcast programming information (PSIP) and signaling information (PSI) together with the captured image.

수집 관리 모듈(130)은 디먹스/튜너 모듈(110)로부터 획득된 PSIP 및/또는 PSI 정보에 기초하여, 모니터링 단위 대상 및 모니터링 세부 단위 대상 별로 방송 프로그램 편성 정보 및 프로그램 시그널링 정보를 관리할 수 있다. 예를 들어, 수집 관리 모듈(130)은, 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로, 해당 방송 프로그램의 편성 정보 및 프로그램 시그널링 정보를 관리할 수 있다.The collection management module 130 may manage broadcast program organization information and program signaling information for each monitoring unit object and monitoring subunit object based on the PSIP and / or PSI information obtained from the demux / tuner module 110. . For example, the collection management module 130 may manage organization information and program signaling information of the corresponding broadcast program for any combination of region, channel, time, program, or type.

또한, 수집 관리 모듈(130)은 웹 EPG(Electronic Program Guide) 정보로부터 PSIP를 획득할 수도 있다. In addition, the collection management module 130 may obtain a PSIP from web EPG (Electronic Program Guide) information.

또한, 수집 관리 모듈(130)은 디먹스/튜너 모듈(110)을 제어하여, 모니터링 단위 대상 및 모니터링 세부 단위 대상 별로 시그널링 정보(PSI)를 분석할 수 있다. In addition, the collection management module 130 may control the demux / tuner module 110 to analyze signaling information (PSI) for each monitoring unit object and the monitoring detailed unit object.

또한, 수집 관리 모듈(130)은 저장 모듈(120)에 저장된 방송 편성 정보(PSIP) 및 시그널링 정보(PSI)를 분석한 분석 결과를 방송 콘텐츠 캡쳐 영상과 함께 분석 서버(200)로 전달할 수 있다. In addition, the collection management module 130 may transmit the analysis result of analyzing the broadcast scheduling information (PSIP) and the signaling information (PSI) stored in the storage module 120 to the analysis server 200 together with the broadcast content captured image.

도 2를 참조하면 분석 서버(200)는 분석 관리 모듈(210), 통계 모듈(220), 데이터 분석 모듈(230) 및 데이터베이스(240)를 포함할 수 있다.2, the analysis server 200 may include an analysis management module 210, a statistics module 220, a data analysis module 230, and a database 240.

분석 관리 모듈(210)은 N 개의 수집 장치(100_1, 100_2, ..., 100_N) 각각으로부터 소정의 주기에 따라 수행된 모니터링 결과를 수신할 수 있다. 여기서, 모니터링 결과는, 수화 방송 콘텐츠 캡쳐 영상 및 관련 정보를 포함할 수 있다. 여기서, 관련 정보는, 해당 캡쳐 영상이 포함된 모니터링 단위 대상, 모니터링 세부 단위 대상, 방송 편성 정보(PSIP), 또는 시그널링 정보(PSI) 중의 하나 이상을 포함할 수 있다. The analysis management module 210 may receive a monitoring result performed according to a predetermined period from each of the N collection devices 100_1, 100_2,..., 100_N. Here, the monitoring result may include a sign language broadcast content capture image and related information. Here, the related information may include one or more of a monitoring unit object, a monitoring detailed unit object, a broadcast scheduling information (PSIP), or signaling information (PSI) including the corresponding captured image.

또한, 분석 관리 모듈(210)은 수신된 모니터링 결과를 데이터베이스(240)에 저장할 수 있다. In addition, the analysis management module 210 may store the received monitoring result in the database 240.

또한, 분석 관리 모듈(210)은 수신된 모니터링 결과를 분석하여 수집 장치(100)의 오류 유무를 주기적으로 확인할 수도 있다. In addition, the analysis management module 210 may periodically check whether there is an error of the collecting device 100 by analyzing the received monitoring result.

통계 모듈(220)은 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상 별로 데이터 분석 모듈(230)의 분석 결과를 집계하고 관리할 수 있다. The statistical module 220 may aggregate and manage the analysis result of the data analysis module 230 for each monitoring unit target and / or monitoring detailed unit target.

데이터 분석 모듈(230)은 데이터베이스(240)에 저장된 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상 별 모니터링 결과를 실시간 또는 비 실시간으로 분석하고, 분석 결과를 데이터베이스(240)에 저장할 수 있다. The data analysis module 230 may analyze the monitoring result for each monitoring unit object and / or the monitoring detailed unit object in real time or non-real time, and store the analysis result in the database 240.

또한, 데이터 분석 모듈(230)은 모니터링 결과를 분석하여 수화 영역 존재 여부, 수화 동작 상태, 수화 시간 비중, 수화 제공 빈도 등을 결정할 수 있다.In addition, the data analysis module 230 may analyze the monitoring result to determine whether there is a sign language region, a sign language operation state, a sign language weight ratio, a sign language provision frequency, and the like.

한편, 도 3a 내지 도 3h는 다양한 수화 영역을 포함하는 방송 콘텐츠를 예시하는 도면이다.3A to 3H illustrate broadcast content including various sign language regions.

도 3a 및 도 3b를 참조하면, 제1방송 콘텐츠(310)와 제2방송 콘텐츠(320)는 복수의 수화 영역을 포함하는 것을 예시한다. 예컨대, 제1방송 콘텐츠(310)와 제2방송 콘텐츠(320)는 복수의 사용자가 나타나는 방송 콘텐츠일 수 있으며, 복수의 사용자 각각은 서로 다른 음성을 출력할 수 있다. 이에 대응하여 제1방송 콘텐츠(310)와 제2방송 콘텐츠(320)는 각각 복수의 사용자 각각에 대응되는 수화 영역을 포함하도록 구비될 수 있다.Referring to FIGS. 3A and 3B, the first broadcast content 310 and the second broadcast content 320 illustrate a plurality of sign language regions. For example, the first broadcast content 310 and the second broadcast content 320 may be broadcast content in which a plurality of users appear, and each of the plurality of users may output different voices. Correspondingly, the first broadcast content 310 and the second broadcast content 320 may each include a sign language area corresponding to each of the plurality of users.

또한, 도 3c를 참조하면, 제3방송 콘텐츠(330)는 청각 장애인 전용 방송 콘텐츠 일 수 있으며, 방송 영상 영역(331)보다 상대적으로 크게 구성된 수화 영역(332)을 포함할 수 있다. 나아가, 상기 수화 영역(332)은 제3방송 콘텐츠(330) 내에서 상대적으로 중앙 영역에 마련될 수 있다. In addition, referring to FIG. 3C, the third broadcast content 330 may be broadcast content dedicated to the hearing impaired, and may include a sign language area 332 that is relatively larger than the broadcast video area 331. In addition, the sign language area 332 may be provided in a relatively central area within the third broadcast content 330.

또한, 도 3d 내지 도 3g를 참조하면, 제4 내지 제7방송 콘텐츠(340, 350, 360, 370)는 각각 소정의 자막 영역(341, 351, 361, 371)을 포함할 수 있는데, 이러한 자막 영역(341, 351, 361, 371)은 다양한 크기와 위치에 마련될 수 있다. 이에 따라, 제4 내지 제7방송 콘텐츠(340, 350, 360, 370)는 이러한 자막 영역(341, 351, 361, 371)의 크기와 위치를 고려하여, 수화 영역(342, 352, 362, 372)의 위치가 다양하게 변경될 수 있다. 3D to 3G, the fourth to seventh broadcast contents 340, 350, 360, and 370 may include predetermined caption regions 341, 351, 361, and 371, respectively. Regions 341, 351, 361, and 371 may be provided in various sizes and positions. Accordingly, the fourth to seventh broadcast contents 340, 350, 360, and 370 consider the sizes and positions of the subtitle areas 341, 351, 361, and 371, and thus, the sign language areas 342, 352, 362, and 372. ) Can be changed in various ways.

또 다른 예로서, 도 3 h를 참조하면, 제8방송 콘텐츠(380)에 구비되는 수화 영역(381)은 배경 영역을 포함하지 않고 수화자만을 포함하도록 구비될 수 있다. As another example, referring to FIG. 3H, the sign language area 381 included in the eighth broadcast content 380 may be provided to include only the receiver rather than the background area.

전술한 바와 같이, 방송 콘텐츠 내에 포함되는 수화 영역과 관련하여, 특별한 규제 또는 규정이 없기 때문에, 방송 콘텐츠 내에 다양한 형태의 수화 영역이 구비될 수 있다. 따라서, 방송 콘텐츠 내에 포함된 수화 영역을 자동적으로 검출하고, 방송 콘텐츠가 수화 방송을 수행하고 있는지를 판단하는 것이 용이하지 않다. 본 개시의 일 실시예에서는, 방송 콘텐츠 내에 포함된 수화 영역을 정확하게 검출할 수 있는 방법을 제공한다.As described above, with respect to the sign language area included in the broadcast content, since there is no special regulation or regulation, various types of sign language areas may be provided in the broadcast content. Therefore, it is not easy to automatically detect a sign language area included in broadcast content and determine whether the broadcast content is performing a sign language broadcast. In one embodiment of the present disclosure, a method for accurately detecting a sign language area included in broadcast content is provided.

도 4a 및 도 4b는 본 개시의 실시예에 따른 수화 영역 검출 방안을 설명하기 위한 도면이다.4A and 4B illustrate a sign language detection method according to an exemplary embodiment of the present disclosure.

도 4a 및 도 4b를 참조하여 설명하는 수화 영역 검출 방안은, 방송 신호(예를 들어, PSIP, PSI 등) 또는 별도의 정보(예를 들어, EPG 정보)를 참조하여도, 해당 방송 콘텐츠가 수화 영역을 포함하는지 여부를 알 수 없는 경우 또는 해당 방송 콘텐츠에서 수화 영역이 어디에 위치하는지 알 수 없는 경우에 적용될 수 있다. 그러나, 본 개시의 범위가 이에 제한되는 것은 아니며, 방송 신호 또는 별도의 정보로 수화 영역을 판단할 수 있는 경우에도, 검증을 위해 도 4a 및 도 4b를 참조하여 설명하는 예시들이 적용될 수도 있다.In the sign language detection method described with reference to FIGS. 4A and 4B, even when a broadcast signal (for example, PSIP, PSI, etc.) or other information (for example, EPG information) is referenced, the corresponding broadcast content is a sign language. It may be applied when it is not known whether a region is included or when the sign language region is located in the corresponding broadcast content. However, the scope of the present disclosure is not limited thereto, and even when the sign language region may be determined by a broadcast signal or separate information, examples described with reference to FIGS. 4A and 4B may be applied for verification.

영상 처리 분야에서 정의하는 다양하고 복잡한 영상 분석 알고리즘을 수화 영역을 분석하기 위해서 사용할 수도 있지만, 수화 영상을 분석함에 있어서 복잡하거나 고사양의 하드웨어 또는 소프트웨어 리소스를 사용하는 알고리즘을 사용할 필요는 없다. 따라서, 본 개시에서는 간단하고 효율적으로 수화 영상을 분석하는 예시들에 대해서 설명한다. Although various and complex image analysis algorithms defined in the field of image processing may be used to analyze a sign language region, it is not necessary to use a complex or high-specific algorithm that uses hardware or software resources in analyzing a sign language. Therefore, in the present disclosure, examples of simply and efficiently analyzing a sign language image will be described.

특히, 본 개시에서는 캡쳐 영상에서 수화 영역을 특정 또는 검출하는 예시들에 대해서 설명한다.In particular, the present disclosure describes examples of specifying or detecting a sign language area in a captured image.

우선, 도 4a를 참조하면, 본 개시의 일 실시예에 따른 수화 영역 검출 방안에서는, 수화 영역의 움직임이 다른 영역, 즉 비수화 영역에 비해서 픽셀값의 변화가 많이 없다는 특징을 이용하여 차영상 기반으로 수화영역을 검출할 수 있다. First, referring to FIG. 4A, in a sign language detection method according to an exemplary embodiment of the present disclosure, a motion image is based on a feature that a motion of a sign language region does not change much compared to another region, that is, a non-signal region. The hydration area can be detected.

우선, 방송 프로그램의 시작된 후부터 종료될 때까지 사이의 시간 동안 주기적으로 캡쳐된 복수의 영상(410)에 대해서, 캡처된 시간 순서 상관없이 모든 차영상을 순열을 생성한다. 예컨대, 캡쳐된 영상 두 개를 한 쌍으로 하여 차영상을 생성하고, 한쌍의 영상에서 생성된 차영상에 대한 순열을 생성할 수 있다.First, with respect to the plurality of images 410 periodically captured for a time period between the start of the broadcast program and the end, a permutation is generated for all difference images regardless of the captured time sequence. For example, a difference image may be generated by pairing two captured images, and a permutation of the difference image generated from the pair of images may be generated.

캡쳐된 복수의 영상(410)을 원본 영상 그대로 차영상을 생성할 수 있으나, 바람직하게, 캡쳐된 복수의 영상(410)에 구비되는 픽셀을 휘도값으로 변환한 후, 변환된 영상에 대한 차영상을 생성할 수 있다. 이와 다른 예로서, 캡쳐된 복수의 영상(410)에 구비되는 픽셀을 미리 정해진 색상값(예, 적색(red))을 기준으로 변환한 후, 변환된 영상에 대한 차영상을 생성할 수도 있다.The difference image may be generated as it is from the captured images 410 as the original image. Preferably, after converting the pixels included in the captured images 410 into luminance values, the difference images of the converted images Can be generated. As another example, after converting pixels included in the plurality of captured images 410 based on a predetermined color value (for example, red), a difference image of the converted image may be generated.

그리고, 생성된 n개의 차영상(diff(n))(420)에는 노이즈가 많기에, 작은 크기의 노이즈 픽셀을 제거한다.In addition, the generated n difference images (diff (n)) 420 have a lot of noise, and thus, noise pixels having a small size are removed.

이후, n개의 차영상(diff(n))(420)에서 픽셀값 차이가 적은 좌표만을 추출하고, 해당 좌표 위치를 누적시켜 차영상 히스토그램(430)을 생성한다.Thereafter, only coordinates having a small pixel value difference are extracted from the n difference images (diff (n)) 420, and the coordinate position is accumulated to generate the difference image histogram 430.

나아가, 이와 같이 생성된 차영상 히스토그램(430)에서 작은 크기의 노이즈를 제거함으로써, 최종적인 차영상 히스토그램을 생성할 수 있다. Furthermore, the final difference image histogram may be generated by removing a small amount of noise from the difference image histogram 430 generated as described above.

다음으로, 소정의 임계치를 기준으로, 차영상 히스토그램의 값이 적게 나타나는 영역을 검출할 수 있다. 여기서, 차영상 히스토그램의 값이 적게 나타나는 영역은, 영상 내의 동일한 위치에 동일한 오브젝트가 존재할 확률이 높은 것을 의미한다. 이에 따라, 검출된 영역은 수화 후보 영역이라고 결정할 수 있다. Next, based on a predetermined threshold value, an area in which a value of the difference image histogram is less may be detected. Here, the region where the value of the difference image histogram is small means that there is a high probability that the same object exists at the same position in the image. Accordingly, the detected region may be determined to be a sign language candidate region.

또한, 소정의 임계치는 방송 사업자, 방송 프로그램, 방송 타입 등에 따라서 상이하게 설정될 수 있다. 예를 들어, 예능 프로그램의 경우에는 뉴스 프로그램에 비하여 대부분의 영역에서 변화량이 많을 것으로 예상할 수 있으므로, 예능 프로그램에 대한 임계치는 뉴스 프로그램에 대한 임계치보다 낮게 설정될 수도 있다. In addition, the predetermined threshold may be set differently according to a broadcaster, a broadcast program, a broadcast type, and the like. For example, in the case of the entertainment program, since it can be expected that the amount of change in most areas is larger than that of the news program, the threshold for the entertainment program may be set lower than the threshold for the news program.

차영상 히스토그램을 통해서 캡쳐 영상에서 검출된 수화 후보 영역의 각각에 대해서, 얼굴 검출을 시도할 수 있다. 이에 따라, 수화 후보 영역 중에서 하나의 얼굴이 검출되는 영역을 최종적으로 수화 영역으로 결정할 수 있다.For each of the sign language candidate regions detected in the captured image through the difference image histogram, face detection may be attempted. Accordingly, a region where one face is detected among the sign language candidate regions may be finally determined as a sign language region.

캡쳐 영상(400)에서 변화량이 소정의 임계치 이하인 제 1, 제2, 및 제3 수화 후보 영역(451, 452, 453)가 검출되는 경우를 가정한다. 보다 구체적으로, 제 1, 제2, 및 제3 수화 후보 영역(451, 452, 453)은 복수의 캡쳐 영상에 걸쳐서 차영상 히스토그램 값이 적은 영역, 즉, 동일한 위치에 동일한 오브젝트가 고정적으로 위치하는 영역에 해당할 수 있다.It is assumed that the first, second, and third sign language candidate regions 451, 452, and 453 having a change amount below a predetermined threshold are detected in the captured image 400. More specifically, the first, second, and third sign language candidate regions 451, 452, and 453 are regions in which the difference image histogram values are low over a plurality of captured images, that is, the same object is fixedly positioned at the same position. It may correspond to an area.

다음으로, 제 1, 제2, 및 제3 수화 후보 영역(451, 452, 453)의 각각에 대해서 얼굴 검출을 시도할 수 있다. 제 1 수화 후보 영역(451)에서는 하나의 얼굴이 검출되므로 최종적으로 수화 영역이라고 결정할 수 있다. 제2 및 제3 수화 후보 영역(452, 453)에서는 얼굴 인식에 실패하므로, 수화 영역이 아닌 것으로 결정할 수 있다.Next, face detection may be attempted for each of the first, second, and third sign language candidate regions 451, 452, and 453. Since one face is detected in the first sign language candidate region 451, it may be finally determined as a sign language region. Since face recognition fails in the second and third sign language candidate areas 452 and 453, it may be determined that the sign language is not a sign language area.

또한, 얼굴 인식 대신에 수화 영역 패턴 매칭 검사를 수행할 수도 있다. 구체적으로, 차영상 히스토그램 값이 적은 것으로 검출된 수화 후보 영역에 대해서, 소정의 수화 영역 패턴과 매칭되는지를 검사할 수 있다. 예를 들어, 소정의 수화 영역 패턴을 형상(예컨대, 타원형 또는 원형)의 배경으로 설정할 수 있다. 도 4b의 예시에서 제 1 수화 후보 영역(451)은 상기 소정의 수화 영역 패턴과 비교하여 타원형의 배경 부분이 소정의 비율(예를 들어, 50%) 이상으로 매칭되므로, 최종적으로 수화 영역이라고 결정할 수 있다. 제 2 수화 후보 영역(452)는 상기 소정의 수화 영역 패턴과 일치하는 비율이 낮으므로, 수화 영역이 아닌 것으로 결정할 수 있다.In addition, instead of face recognition, a sign language region pattern matching test may be performed. Specifically, the sign language candidate region detected as having a small difference image histogram value may be checked to match a predetermined sign language region pattern. For example, a predetermined hydration area pattern may be set as a background of a shape (eg, oval or circular). In the example of FIG. 4B, the first sign language candidate region 451 is finally determined to be a sign language region because an elliptical background portion is matched to a predetermined ratio (for example, 50% or more) compared to the predetermined sign language region pattern. Can be. Since the second sign language candidate region 452 has a low ratio matching the predetermined sign language region pattern, the second sign language candidate region 452 may be determined not to be a sign language region.

여기서, 소정의 수화 영역 패턴의 예시는 타원형으로 제한되는 것은 아니다. 예를 들어, 방송 사업자, 방송 프로그램, 방송 타입 등에 따라 다른 패턴(예를 들어, 검은색 직사각형)과의 매칭 정도를 검사할 수도 있다. 즉, 본 개시의 범위는 소정의 수화 영역 패턴의 예시에 제한되는 것이 아니라, 소정의 수화 영역 패턴과의 매칭 정도를 이용한 수화 영역 검출의 다양한 방안들을 포함한다. Here, examples of the predetermined hydration region pattern are not limited to ellipses. For example, the degree of matching with another pattern (eg, a black rectangle) may be checked according to a broadcaster, a broadcast program, a broadcast type, and the like. That is, the scope of the present disclosure is not limited to the example of a predetermined sign language region pattern, but includes various methods of detecting a sign language region using a degree of matching with a predetermined sign language region pattern.

도 5 및 도 6은 본 개시에 따른 수화 시간 검출 방안의 예시들을 설명하기 위한 도면이다.5 and 6 are views for explaining examples of a sign language detection method according to the present disclosure.

수화 시간을 검출하기 위해서는, 수화 영역이 존재하는 시간 중에서 비수화 시간을 제외하는 방안을 적용할 수 있다. 이를 위하여 비수화 시간을 검출하는 예시들에 대해서 이하에서 설명한다.In order to detect the hydration time, a method of excluding the non-hydration time from the time where the hydration region exists may be applied. Examples for detecting the dehydration time are described below for this purpose.

도 5의 예시는 손 위치 인식 또는 손 제스쳐 인식을 기반으로 수화 시간 또는 비수화 시간을 측정하는 방안에 대한 것이다. 예를 들어, 수화자의 손을 인식하고, 인식된 손의 위치를 소정의 주기마다 분석할 수 있다. 5 illustrates a method for measuring a sign language time or a non-sign language time based on hand position recognition or hand gesture recognition. For example, the hand of the called party may be recognized and the position of the recognized hand may be analyzed at predetermined intervals.

또한, 수화자의 손을 인식하는 시점은 수화 영역에서 수화자의 얼굴이 인식된 시점에 포함될 수 있다. 즉, 수화자의 얼굴이 인식되지 않은 시점은 손 위치를 인식하지 않더라도 비수화 시간으로 결정할 수 있고, 수화자의 얼굴이 인식되는 시점에서 손 위치 인식에 기초하여 비수화 시간 또는 수화 시간 여부를 결정할 수 있다.In addition, the viewpoint of recognizing the hand of the receiver may be included in the viewpoint of recognition of the face of the receiver in the sign language area. That is, the time when the face of the caller is not recognized may be determined as the non-hydration time even if the hand position is not recognized, and whether or not the time of the sign language or the sign language may be determined based on the hand position recognition at the time when the face of the caller is recognized. .

도 5의 예시에서 t-1의 시점에서는 인식된 손의 위치가 수화 영역의 하단 중앙을 벗어난 중단 좌우측이므로, 수화 시간에 속하는 것으로 결정할 수 있다. In the example of FIG. 5, since the position of the recognized hand is at the left and right sides outside the lower center of the sign language area, it may be determined that the recognized hand belongs to the sign language time.

다음으로, t 및 t+1의 시점에서는 인식된 손의 위치가 수화 영역의 하단 중앙이므로, 비수화 시간에 속하는 것으로 결정할 수 있다. Next, at the time points t and t + 1, since the recognized hand position is the center of the lower end of the sign language area, it may be determined that it belongs to the non-hydration time.

다음으로, t+2의 시점에서는 인식된 손의 위치가 수화 영역의 하단 중앙을 벗어난 중단 중앙이므로, 수화 시간에 속하는 것으로 결정할 수 있다.Next, at the time t + 2, since the recognized position of the hand is the middle of the break out of the center of the lower end of the sign language region, it may be determined that it belongs to the sign language time.

즉, 수화자의 손으로 인식된 오브젝트의 위치가 수화 영역의 하단 중앙에 위치하는 시간을 비수화 시간으로 결정하고, 전체 프로그램 제공 시간 중에서 수화 영역이 존재하는 시간 동안에 상기 비수화 시간을 제외한 나머지를 수화 시간으로 결정할 수 있다.That is, the time at which the position of the object recognized by the hand of the receiver is located at the bottom center of the sign language area is determined as the non-hydration time, and the rest of the entire program providing time except for the non-hydration time during the time in which the sign language area exists. Can be determined by time.

도 6의 예시는 칼라 인식 기반으로 수화 시간 또는 비수화 시간을 측정하는 방안에 대한 것이다. 예를 들어, 수화 영역 중의 특정 하위 영역의 칼라를 인식하여, 인식된 칼라가 수화자의 손의 칼라에 매칭되는지 여부를 소정의 주기마다 분석할 수 있다. The example of FIG. 6 relates to a method of measuring a sign language time or a non-sign language time based on color recognition. For example, by recognizing the color of a specific subregion of the sign language area, it is possible to analyze whether or not the recognized color matches the color of the hand of the receiver at every predetermined period.

또한, 수화 영역의 특정 하위 영역의 칼라를 인식하는 시점은 수화 영역에서 수화자의 얼굴이 인식된 시점에 포함될 수 있다. 즉, 수화자의 얼굴이 인식되지 않은 시점은 특정 하위 영역의 칼라를 인식하지 않더라도 비수화 시간으로 결정할 수 있고, 수화자의 얼굴이 인식되는 시점에서 특정 하위 영역의 칼라 인식에 기초하여 비수화 시간 또는 수화 시간 여부를 결정할 수 있다.In addition, the viewpoint of recognizing a color of a specific subregion of the sign language region may be included in the viewpoint at which the face of the receiver is recognized in the sign language region. That is, the time when the face of the receiver is not recognized may be determined as the non-hydration time even when the color of the specific sub-area is not recognized, and the non-hydration time or the sign language is based on the color recognition of the specific sub-area at the time when the face of the receiver is recognized. You can decide whether to time.

도 6의 예시에서 t-1의 시점에서는 수화 영역의 하단 중앙의 특정 하위 영역에 수화자의 손의 칼라 값의 비중이 낮으므로, 수화 시간에 속하는 것으로 결정할 수 있다. In the example of FIG. 6, since the specific gravity of the color value of the hand of the receiver is low in a specific lower region of the lower center of the sign language region, it may be determined to belong to a sign language time.

다음으로, t 및 t+1의 시점에서는 수화 영역의 하단 중앙의 특정 하위 영역에 수화자의 손의 칼라 값의 비중이 높으므로, 비수화 시간에 속하는 것으로 결정할 수 있다. Next, at the time of t and t + 1, since the specific gravity of the color value of the hand of the receiver is high in a specific lower region in the lower center of the sign language area, it can be determined that the time belongs to the non-hydration time.

다음으로, t+2의 시점에서는 수화 영역의 하단 중앙의 특정 하위 영역에 수화자의 손의 칼라 값의 비중이 낮으므로, 수화 시간에 속하는 것으로 결정할 수 있다.Next, at the time t + 2, since the specific gravity of the color value of the hand of the receiver is low in the specific lower region in the lower center of the sign language area, it can be determined that the time belongs to the sign language time.

즉, 수화 영역에서 특정 하위 영역(예를 들어, 하단 중앙)의 칼라를 분석하여, 수화자의 손의 칼라 값과 유사한 칼라가 차지하는 시간 및/또는 영역의 크기가 소정의 임계치에 비하여 높다면 비수화 시간이라고 결정할 수 있다. 이에 따라, 전체 프로그램 제공 시간 중에서 수화 영역이 존재하는 시간 동안에 상기 비수화 시간을 제외한 나머지를 수화 시간으로 결정할 수 있다.That is, by analyzing the color of a specific subregion (eg, bottom center) in the sign language area, if the time occupied by a color similar to the color value of the hand of the receiver and / or the size of the area is higher than a predetermined threshold, the sign language is not. You can decide that it is time. Accordingly, the rest of the program providing time except for the non-hydration time may be determined as the hydration time while the hydration region is present.

도 6과 같은 예시를 적용하기 위해서 수화자는 수화 영역의 배경(예를 들어, 파란색)과 명확하게 구분되면서, 수화자의 얼굴 및 손의 색깔과 명확하게 구분되는 칼라의 복장을 갖출 수 있다.In order to apply the example shown in FIG. 6, the receiver may have a dress of a color that is clearly distinguished from the background (eg, blue) of the sign language area and clearly distinguished from the color of the face and hands of the receiver.

추가적인 예시로서, 모션 벡터 기반으로 수화 시간을 측정할 수도 있다.As an additional example, the hydration time may be measured based on the motion vector.

모션 벡터는 제 1 시점의 영상에서 특정 위치가 제 2 시점의 영상에서 이동한 변위를 벡터로 나타낸 것이다. 본 개시에서는 제 1 시점의 캡쳐 영상의 수화 영역에서의 복수의 특징점(예를 들어, 픽셀 단위) 각각의 위치가 제 2 시점의 캡쳐 영상에서 이동한 변위에 기초한 모션 벡터를 측정하고, 복수의 특징점들에 대한 모션 벡터의 스칼라 총합의 값이 소정의 임계치 이하인지 여부를 판단할 수 있다. The motion vector represents a displacement in which a specific position in the image of the first viewpoint is moved in the image of the second viewpoint. In the present disclosure, a motion vector based on a displacement of each of a plurality of feature points (for example, pixels) in a sign language area of a captured image at a first point in time is measured, and a plurality of feature points are measured. It is possible to determine whether or not the value of the scalar sum of the motion vectors for these fields is equal to or less than a predetermined threshold.

만약 모션 벡터 총합이 임계치 이하인 경우에는, 수화자의 수화 동작이 없는 시간으로 볼 수 있으므로, 제 1 시점 및 제 2 시간 사이의 시간 동안을 비수화 시간이라고 결정할 수 있다. 이에 따라, 전체 프로그램 제공 시간 중에서 수화 영역이 존재하는 시간 동안에 상기 비수화 시간을 제외한 나머지를 수화 시간으로 결정할 수 있다.If the sum of the motion vectors is less than or equal to the threshold, it may be regarded as a time without a sign language operation of the receiver, and thus, the time between the first time point and the second time may be determined as the non-hydration time. Accordingly, the rest of the program providing time except for the non-hydration time may be determined as the hydration time while the hydration region is present.

만약 모션 벡터 총합이 임계치 초과인 경우에는, 수화자의 수화 동작이 있는 시간으로 볼 수 있으므로, 제 1 시점 및 제 2 시간 사이의 시간 동안을 수화 시간이라고 결정할 수도 있다. If the sum of the motion vectors exceeds the threshold, it can be regarded as the time during which the sign language operation is performed by the receiver, and thus, the time between the first time point and the second time may be determined as the sign time.

도 7은 본 개시에 따른 수집 장치의 동작을 설명하기 위한 흐름도이다.7 is a flowchart illustrating the operation of the collecting device according to the present disclosure.

도 7의 단계 S710에서 수집 장치(100)는 방송 편성 정보(예를 들어, 채널 정보, 프로그램명, 방영 날짜, 프로그램 시작 시간, 프로그램 종료 시간 등)를 획득할 수 있다. 예를 들어, 이러한 방송 편성 정보(또는 PSIP)는 웹 EPG로부터 수집 관리 모듈(130)이 직접 획득할 수도 있고, 디먹스/튜너 모듈(110)이 방송 신호를 수신 및 분석하여 획득한 PSIP 정보를 수집 관리 모듈(130)에게 전달하여 줄 수도 있다. In operation S710 of FIG. 7, the collection apparatus 100 may obtain broadcast programming information (eg, channel information, program name, broadcast date, program start time, program end time, etc.). For example, such broadcast scheduling information (or PSIP) may be directly obtained by the collection management module 130 from the web EPG, and the PSIP information obtained by receiving and analyzing a broadcast signal by the demux / tuner module 110 may be obtained. It may be delivered to the collection management module 130.

단계 S720에서 수집 장치(100)는 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상에 대한 시그널링 정보(예를 들어, 다중화된 프로그램에 속한 복잡한 전송 스트림(TS)에 필요한 프로그램 정보를 테이블 형식으로 표현한 메타 데이터)를 분석할 수 있다. 예를 들어, 수집 관리 모듈(130)은 디먹스/튜너 모듈(110)을 제어하여 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로 시그널링 정보(또는 PSI)를 분석할 수 있다. In operation S720, the collecting device 100 may display signaling information (eg, program information required for a complex transport stream (TS) belonging to the multiplexed program) of the monitoring unit object and / or the monitoring subunit object in a table format. ) Can be analyzed. For example, the collection management module 130 may control the demux / tuner module 110 to analyze signaling information (or PSI) for any combination of region, channel, time, program, or type.

단계 S730에서 수집 장치(100)는 주기적으로 방송 프로그램 화면을 캡쳐할 수 있다. 예를 들어, 디먹스/튜너 모듈(110)은 방송 프로그램 제공 시간 동안 소정의 주기 마다 캡쳐 영상을 생성할 수 있다. In operation S730, the collection device 100 may periodically capture a broadcast program screen. For example, the demux / tuner module 110 may generate a captured image at predetermined intervals during a broadcast program providing time.

단계 S740에서 수집 장치(100)는 캡쳐 영상을 저장하면서, 해당 캡쳐 영상의 관련 정보를 저장할 수 있다. 예를 들어, 저장 모듈(120)은 캡쳐 영상과 함께, 해당 캡쳐 영상이 포함된 모니터링 단위 대상, 모니터링 세부 단위 대상, 방송 편성 정보(PSIP), 또는 시그널링 정보(PSI) 중의 하나 이상을 관련 정보로서 저장할 수 있다. In operation S740, the collection apparatus 100 may store related information of the corresponding captured image while storing the captured image. For example, the storage module 120 may include, as the related information, one or more of a monitoring unit object, a monitoring detailed unit object, a broadcasting program information (PSIP), or signaling information (PSI) including the captured image. Can be stored.

단계 S750에서 수집 장치(100)는 저장된 캡쳐 영상 및 관련 정보를 분석 서버(200)로 전송할 수 있다. 또한, 수집 장치(100)는 해당 캡쳐 영상의 관련 정보에 대한 분석 결과도 분석 서버(200)로 전송할 수 있다. 예를 들어, 예를 들어, 수집 관리 모듈(130)은 저장 모듈(120)에 저장된 캡쳐 영상, 관련 정보(예를 들어, 모니터링 단위 대상, 모니터링 세부 단위 대상, PSIP, 또는 PSI 중의 하나 이상) 및 분석 결과를 분석 서버(200)의 분석 관리 모듈(210)로 전송할 수 있다.In operation S750, the collection apparatus 100 may transmit the stored captured image and the related information to the analysis server 200. In addition, the collection apparatus 100 may transmit the analysis result of the related information of the corresponding captured image to the analysis server 200. For example, the collection management module 130 may include a captured image stored in the storage module 120, related information (eg, one or more of a monitoring unit object, a monitoring detailed unit object, a PSIP, or a PSI) and The analysis result may be transmitted to the analysis management module 210 of the analysis server 200.

분석 결과는 관련 정보에 대한 오류 정보를 포함할 수 있다. 예를 들어, 분석 결과는 시그널링 정보에 대한 오류가 있는지, 오류가 있다면 어떠한 오류가 발생하였는지 등을 나타내는 정보를 포함할 수 있다.The analysis result may include error information about the related information. For example, the analysis result may include information indicating whether there is an error with signaling information, and if there is an error, what error occurred.

도 7의 예시에서 수집 장치는 단계 S730 내지 S750의 동작을 소정의 캡쳐 주기 마다 반복하여 수행할 수 있다. In the example of FIG. 7, the collecting device may repeat the operations of steps S730 to S750 every predetermined capture period.

또는, 단계 S730 및 S740을 소정의 캡쳐 주기마다 수행하고, 단계 S750에서는 누적하여 저장된 복수의 캡쳐 주기에 대응하는 복수의 캡쳐 영상, 관련 정보 및 분석 결과를 한 번에 분석 서버(200)로 전송할 수도 있다.Alternatively, steps S730 and S740 may be performed for each predetermined capture period, and in step S750, a plurality of captured images, related information, and analysis results corresponding to a plurality of cumulatively stored capture periods may be transmitted to the analysis server 200 at one time. have.

도 8은 본 개시에 따른 분석 서버의 동작을 설명하기 위한 흐름도이다.8 is a flowchart illustrating an operation of an analysis server according to the present disclosure.

도 8의 단계 S810에서 분석 서버(200)는 수집 장치(100)로부터 캡쳐 영상, 관련 정보 및 분석 결과를 수신할 수 있다. 예를 들어, 분석 관리 모듈(210)은 수집 장치(100)의 수집 관리 모듈(130)로부터 전송되는 캡쳐 영상, 관련 정보 및 분석 결과를 수신할 수 있다.In operation S810 of FIG. 8, the analysis server 200 may receive a captured image, related information, and an analysis result from the collection apparatus 100. For example, the analysis management module 210 may receive a captured image, related information, and an analysis result transmitted from the collection management module 130 of the collection device 100.

단계 S820에서 분석 서버(200)는 수신된 데이터를 저장할 수 있다. 예를 들어, 분석 관리 모듈(210)은 수신된 데이터(예를 들어, 캡쳐 영상, 관련 정보 및 분석 결과)를 데이터베이스(240)에 저장할 수 있다.In operation S820, the analysis server 200 may store the received data. For example, the analysis management module 210 may store the received data (eg, captured image, related information, and analysis result) in the database 240.

단계 S830에서 분석 서버(200)는 저장된 데이터를 분석할 수 있다. 예를 들어, 데이터 분석 모듈(230)은 저장된 데이터(예를 들어, 캡쳐 영상, 관련 정보 및 분석 결과)를 분석할 수 있다. In operation S830, the analysis server 200 may analyze the stored data. For example, the data analysis module 230 may analyze the stored data (eg, captured image, related information, and analysis result).

또한, 데이터 분석 모듈(230)은 저장된 데이터의 캡쳐 영상에 수화 영역이 존재하는지 여부를 결정할 수 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상에 수화 영역이 존재하는지 여부를 방송 편성 정보 및/또는 시그널링 정보에 기초하여 결정할 수도 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상에 수화 영역이 존재하는지 여부를 차영상에 대한 히스토그램 분석, 얼굴 인식, 패턴 매칭 등의 방식에 기초하여 결정할 수도 있다.In addition, the data analysis module 230 may determine whether a sign language area exists in the captured image of the stored data. For example, the data analysis module 230 may determine whether a sign language region exists in the captured image based on the broadcasting schedule information and / or signaling information. For example, the data analysis module 230 may determine whether a sign language region exists in the captured image based on a histogram analysis, face recognition, pattern matching, or the like for the difference image.

구체적으로, 데이터 분석 모듈(230)은 방송 프로그램의 시작된 후부터 종료될 때까지 사이의 시간 동안 주기적으로 캡쳐된 복수의 영상(410)에 대해서, 캡처된 시간 순서 상관없이 모든 차영상을 순열을 생성한다. 예컨대, 데이터 분석 모듈(230)은 캡쳐된 영상 두 개를 한 쌍으로 하여 차영상을 생성하고, 한쌍의 영상에서 생성된 차영상에 대한 순열을 생성할 수 있다.In detail, the data analysis module 230 generates a permutation of all difference images, regardless of the captured time sequence, for the plurality of images 410 periodically captured for a time period between the start of the broadcast program and the end of the broadcast program. . For example, the data analysis module 230 may generate a difference image by pairing two captured images and generate a permutation of the difference images generated from the pair of images.

캡쳐된 복수의 영상(410)을 원본 영상 그대로 차영상을 생성할 수 있으나, 바람직하게, 데이터 분석 모듈(230)은 캡쳐된 복수의 영상(410)에 구비되는 픽셀을 휘도값으로 변환한 후, 변환된 영상에 대한 차영상을 생성할 수 있다. 이와 다른 예로서, 데이터 분석 모듈(230)은 캡쳐된 복수의 영상(410)에 구비되는 픽셀을 미리 정해진 색상값(예, 적색(red))을 기준으로 변환한 후, 변환된 영상에 대한 차영상을 생성할 수도 있다.The difference image may be generated as the original image from the captured images 410, but preferably, the data analysis module 230 converts the pixels included in the captured images 410 into luminance values. A difference image of the converted image may be generated. As another example, the data analysis module 230 converts pixels included in the plurality of captured images 410 based on a predetermined color value (for example, red), and then the difference of the converted images. You can also create an image.

나아가, 데이터 분석 모듈(230)은 생성된 n개의 차영상(diff(n))(420)에서 작은 크기의 노이즈 픽셀을 제거할 수 있다.Furthermore, the data analysis module 230 may remove noise pixels having a small size from the generated n difference images (diff (n)) 420.

이후, 데이터 분석 모듈(230)은 n개의 차영상(diff(n))(420)에서 픽셀값 차이가 적은 좌표만을 추출하고, 해당 좌표 위치를 누적시켜 차영상 히스토그램(430)을 생성한다.Thereafter, the data analysis module 230 extracts only coordinates having small pixel value differences from the n difference images (diff (n)) 420, and accumulates corresponding coordinate positions to generate the difference image histogram 430.

나아가, 데이터 분석 모듈(230)은 이와 같이 생성된 차영상 히스토그램(430)에서 작은 크기의 노이즈를 제거함으로써, 최종적인 차영상 히스토그램을 생성할 수 있다. Furthermore, the data analysis module 230 may generate a final difference image histogram by removing a small amount of noise from the difference image histogram 430 generated as described above.

다음으로, 데이터 분석 모듈(230)은 소정의 임계치를 기준으로, 차영상 히스토그램의 값이 적게 나타나는 영역을 검출할 수 있다. 여기서, 차영상 히스토그램의 값이 적게 나타나는 영역은, 영상 내의 동일한 위치에 동일한 오브젝트가 존재할 확률이 높은 것을 의미한다. 이에 따라, 데이터 분석 모듈(230)은 검출된 영역을 수화 후보 영역이라고 결정할 수 있다. Next, the data analysis module 230 may detect an area where the value of the difference image histogram is less, based on a predetermined threshold value. Here, the region where the value of the difference image histogram is small means that there is a high probability that the same object exists at the same position in the image. Accordingly, the data analysis module 230 may determine that the detected area is a sign language candidate area.

또한, 소정의 임계치는 방송 사업자, 방송 프로그램, 방송 타입 등에 따라서 상이하게 설정될 수 있다. 예를 들어, 예능 프로그램의 경우에는 뉴스 프로그램에 비하여 대부분의 영역에서 변화량이 많을 것으로 예상할 수 있으므로, 예능 프로그램에 대한 임계치는 뉴스 프로그램에 대한 임계치보다 낮게 설정될 수도 있다. In addition, the predetermined threshold may be set differently according to a broadcaster, a broadcast program, a broadcast type, and the like. For example, in the case of the entertainment program, since it can be expected that the amount of change in most areas is larger than that of the news program, the threshold for the entertainment program may be set lower than the threshold for the news program.

이후, 데이터 분석 모듈(230)은 차영상 히스토그램을 통해서 캡쳐 영상에서 검출된 수화 후보 영역의 각각에 대해서, 얼굴 검출을 시도할 수 있다. 이에 따라, 수화 후보 영역 중에서 하나의 얼굴이 검출되는 영역을 최종적으로 수화 영역으로 결정할 수 있다.Thereafter, the data analysis module 230 may attempt to detect a face for each of the sign language candidate regions detected in the captured image through the difference image histogram. Accordingly, a region where one face is detected among the sign language candidate regions may be finally determined as a sign language region.

또한, 데이터 분석 모듈(230)은 저장된 데이터의 캡쳐 영상이 수화 시간에 속하는지 또는 비수화 시간에 속하는지 여부를 결정할 수 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상이 수화 시간 또는 비수화 시간에 속하는지 여부를 방송 편성 정보 및/또는 시그널링 정보에 기초하여 결정할 수도 있다. 예를 들어, 데이터 분석 모듈(230)은 캡쳐 영상에 캡쳐 영상이 수화 시간 또는 비수화 시간에 속하는지 여부를 손 위치 인식, 칼라 인식, 모션 벡터 분석 등의 방식에 기초하여 결정할 수도 있다.In addition, the data analysis module 230 may determine whether the captured image of the stored data belongs to a hydration time or a non-hydration time. For example, the data analysis module 230 may determine whether the captured image belongs to a sign language time or a non-sign language time based on the broadcast scheduling information and / or signaling information. For example, the data analysis module 230 may determine whether the captured image belongs to a hydration time or a non-hydration time based on a method such as hand position recognition, color recognition, motion vector analysis, or the like in the captured image.

또한, 데이터 분석 모듈(230)은 저장된 데이터의 캡쳐 영상 분석 결과(예를 들어, 수화 방송 유무, 수화 방송 품질 등)을 관련 정보(예를 들어, 모니터링 단위 대상, 모니터링 세부 단위 대상, PSIP, 또는 PSI 중의 하나 이상)와 함께 데이터베이스(240)에 저장할 수 있다.In addition, the data analysis module 230 may store the captured image analysis result (for example, whether a sign language broadcast or a sign language broadcast quality) of the stored data is related information (for example, a monitoring unit object, a monitoring detailed unit object, a PSIP, or Along with one or more of the PSI).

또한, 데이터 분석 모듈(230)은 저장된 데이터에서 캡쳐 영상이 수화 방송이 아닌 경우에는 삭제할 수도 있다.In addition, the data analysis module 230 may delete the captured image from the stored data when the captured image is not a sign language broadcast.

단계 S840에서 분석 서버(200)는 모니터링 단위 대상 및/또는 모니터링 세부 단위 대상 별로 분석 결과를 집계하고 관리할 수 있다. In operation S840, the analysis server 200 may aggregate and manage the analysis result for each monitoring unit target and / or monitoring detailed unit target.

예를 들어, 통계 모듈(220)은 지역, 채널, 시간, 프로그램, 또는 타입 중의 임의의 조합 별로 분석 결과를 집계하고 이를 사용자의 요구에 따라 화면에 출력할 수 있다. 예를 들어, 수화 방송 품질은 수화 제공 빈도의 값으로 나타낼 수 있으며, 수화 제공 빈도는 전체 프로그램 제공 시간 중에서 수화 시간이 차지하는 비중, 수화 시간의 분포 등의 수치로 나타낼 수 있다. For example, the statistics module 220 may aggregate the analysis result by any combination of region, channel, time, program, or type, and output the analysis result on the screen according to a user's request. For example, the sign language broadcast quality may be represented by a value of a sign language provision frequency, and the sign language provision frequency may be represented by a numerical value such as a specific gravity of the sign language time, a distribution of sign language time, and the like.

도 7의 단계 S810 내지 S840의 동작은 주기적으로 수행될 수도 있고, 복수의 캡쳐 주기에 대응하는 정보를 한 번에 수신하여 이에 대한 저장, 분석 및 통계 산출이 한 번에 수행될 수도 있다. 또는, 도 7의 단계 S810 내지 S830은 캡쳐 주기마다 반복하여 수행될 수도 있고, 단계 S840은 복수의 캡쳐 주기가 완료된 후에 누적하여 저장 및 분석된 데이터에 기초하여 한 번에 수행될 수도 있다. Operations of steps S810 to S840 of FIG. 7 may be periodically performed, and information corresponding to a plurality of capture periods may be received at one time, and storage, analysis, and statistical calculation thereof may be performed at once. Alternatively, steps S810 to S830 of FIG. 7 may be repeatedly performed for each capture period, and step S840 may be performed at once based on accumulated and stored data after completion of a plurality of capture periods.

본 개시에 따르면 수화 방송에 대한 새로운 영상 분석 방안을 제공하고, 이에 따라 객관적으로 또한 자동적으로 수화 방송 편성 여부를 확인할 수 있고, 수화 방송의 품질을 검증할 수 있다. 따라서, 본 개시에 따른 수화 방송 품질 모니터링 장치를 전국적으로 설치 및 운영함으로써, 장애인 방송 고시 의무 사업자 선정 및 목표 달성 여부를 검증하는 데에 활용할 수 있다. According to the present disclosure, a new image analysis method for a sign language broadcast is provided, and thus, whether or not a sign language broadcast is organized objectively and automatically, and a quality of a sign language broadcast can be verified. Therefore, by installing and operating a sign language broadcasting quality monitoring apparatus nationwide in accordance with the present disclosure, it can be utilized to verify whether the disabled broadcast notification mandatory operators and achieve the target.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Exemplary methods of the present disclosure are represented as a series of operations for clarity of description, but are not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order as necessary. In order to implement the method according to the present disclosure, the illustrated step may further include other steps, may include other steps except some, or may include additional other steps except some.

본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.The various embodiments of the present disclosure are not an exhaustive list of all possible combinations and are intended to describe representative aspects of the present disclosure, and the matters described in the various embodiments may be applied independently or in combination of two or more.

또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For hardware implementations, one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), General Purpose It may be implemented by a general processor, a controller, a microcontroller, a microprocessor, and the like.

본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. It is intended that the scope of the disclosure include software or machine-executable instructions (eg, an operating system, an application, firmware, a program, etc.) to cause an operation in accordance with various embodiments of the method to be executed on an apparatus or a computer, and such software or Instructions, and the like, including non-transitory computer-readable media that are stored and executable on a device or computer.

Claims (20)

수화 방송 품질을 모니터링하는 방법에 있어서,
방송 콘텐츠를 미리 정해진 제1시간 단위마다 캡쳐한 적어도 하나의 캡쳐 영상을 확인하는 단계;
상기 적어도 하나의 캡쳐 영상에 대한 차영상을 생성하고, 상기 방송 콘텐츠 단위에 대한 상기 차영상을 누적하여 수화 후보 영역을 검출하는 단계;
상기 수화 후보 영역에 대응되는 상기 적어도 하나의 캡쳐 영상을 분석하여, 수화 영역을 결정하는 단계; 및
상기 캡쳐 영상에 관련된 방송 편성 정보, 시그널링 정보, 모니터링 단위 대상, 또는 모니터링 세부 단위 대상 중의 하나 이상에 기초하고, 상기 방송 콘텐츠 중 상기 수화 영역에 포함되는 영상을 사용하여, 상기 방송 콘텐츠의 수화 방송 품질을 결정하는 단계를 포함하는, 수화 방송 품질 모니터링 방법.
In the method for monitoring the sign language broadcast quality,
Identifying at least one captured image capturing broadcast content every predetermined first time unit;
Generating a difference image for the at least one captured image and accumulating the difference image for the broadcast content unit to detect a sign language candidate region;
Determining a sign language region by analyzing the at least one captured image corresponding to the sign language candidate region; And
A sign language broadcast quality of the broadcast content based on one or more of broadcast programming information, signaling information, a monitoring unit object, or a monitoring subunit object related to the captured image, and using an image included in the sign language area of the broadcast content. Determining the sign language broadcast quality monitoring method.
제1항에 있어서,
상기 수화 후보 영역을 검출하는 단계는,
상기 적어도 하나의 캡쳐 영상에 대한 차영상으로부터 노이즈를 제거하는 단계와,
상기 노이즈가 제거된 차영상으로부터 픽셀값의 차이가 적은 영역의 좌표를 추출하는 단계와,
상기 추출된 좌표를 누적하여 차영상 히스토그램을 생성하는 단계를 포함하는, 수화 방송 품질 모니터링 방법.
The method of claim 1,
Detecting the sign language candidate region,
Removing noise from the difference image of the at least one captured image;
Extracting coordinates of a region having a small difference between pixel values from the difference image from which the noise is removed;
And accumulating the extracted coordinates to generate a difference image histogram.
제2항에 있어서,
상기 수화 후보 영역을 검출하는 단계는,
상기 차영상 히스토그램으로부터 노이즈를 제거하는 단계를 더 포함하는, 수화 방송 품질 모니터링 방법.
The method of claim 2,
Detecting the sign language candidate region,
And removing noise from the difference image histogram.
제2항에 있어서,
상기 수화 후보 영역을 검출하는 단계는,
상기 차영상 히스토그램에서 미리 정해진 임계값보다 상대적으로 큰 값을 구비하는 영역을 상기 수화 후보 영역으로서 검출하는 것을 특징으로 하는 수화 방송 품질 모니터링 방법.
The method of claim 2,
Detecting the sign language candidate region,
And detecting a region having a value relatively larger than a predetermined threshold value in the difference image histogram as the sign language candidate region.
제4항에 있어서,
상기 미리 정해진 임계값은 방송 사업자, 방송 프로그램, 방송 타입 중 적어도 하나에 기초하여 설정되는 것을 특징으로 하는 수화 방송 품질 모니터링 방법.
The method of claim 4, wherein
The predetermined threshold is set based on at least one of a broadcaster, a broadcast program, and a broadcast type.
제1항에 있어서,
상기 수화 영역을 결정하는 단계는,
상기 적어도 하나의 캡쳐 영상에서 상기 수화 후보 영역에 대응되는 영역으로부터 얼굴 영역의 존재여부를 확인하는 단계와,
상기 얼굴 영역이 존재하는 상기 수화 후보 영역을 상기 수화 영역으로 결정하는 단계를 포함하는 것을 특징으로 하는 수화 방송 품질 모니터링 방법.
The method of claim 1,
Determining the hydration region,
Confirming the presence of a face region from the region corresponding to the sign language candidate region in the at least one captured image;
And determining the sign language candidate area in which the face area exists as the sign language area.
제1항에 있어서,
상기 수화 영역을 결정하는 단계는,
상기 적어도 하나의 캡쳐 영상에서 상기 수화 후보 영역에 대응되는 영역이, 미리 정해진 수화 영역 패턴에 부합되는지 여부를 확인하는 단계와,
상기 미리 정해진 수화 영역 패턴에 부합되는 상기 수화 후보 영역을 상기 수화 영역으로 결정하는 단계를 포함하는 것을 특징으로 하는 수화 방송 품질 모니터링 방법.
The method of claim 1,
Determining the hydration region,
Determining whether a region corresponding to the sign language candidate region in the at least one captured image matches a predetermined sign language region pattern;
And determining the sign language candidate area corresponding to the predetermined sign language area pattern as the sign language area.
제1항에 있어서,
상기 방송 콘텐츠의 수화 방송 품질을 결정하는 단계는,
상기 적어도 하나의 캡쳐 영상에서 상기 수화 영역의 영상 정보에 기초하여, 비수화 시간 또는 수화 시간 여부를 결정하는 단계를 포함하는 것을 특징으로 하는 수화 방송 품질 모니터링 방법.
The method of claim 1,
Determining the sign language broadcast quality of the broadcast content,
And determining whether a non-hydration time or a hydration time is determined based on the image information of the sign language area in the at least one captured image.
제8항에 있어서,
상기 비수화 시간 또는 수화 시간 여부를 결정하는 단계는,
상기 수화 영역의 영상 정보로부터 손의 위치를 인식하는 단계와,
상기 손의 위치가 상기 수화 영역 내에서 미리 정해진 위치에 존재하는지 여부에 기초하고 상기 미리 정해진 제1시간 단위를 고려하여, 상기 비수화 시간 또는 수화 시간을 결정하는 단계를 포함하는 것을 특징으로 하는 수화 방송 품질 모니터링 방법.
The method of claim 8,
Determining whether the non-hydration time or hydration time,
Recognizing a hand position from the image information of the sign language area;
And determining the non-hydration time or the hydration time based on whether the position of the hand is present at a predetermined position within the sign language area and in consideration of the first predetermined time unit. How to monitor broadcast quality.
제8항에 있어서,
상기 비수화 시간 또는 수화 시간 여부를 결정하는 단계는,
상기 수화 영역 내에서 미리 정해진 제1영역에 손에 대응되는 색상이 존재하는지 여부를 확인하는 단계와,
상기 미리 정해진 제1영역에 손에 대응되는 색상이 존재하는지 여부에 기초하고 상기 미리 정해진 제1시간 단위를 고려하여, 상기 비수화 시간 또는 수화 시간을 결정하는 단계를 포함하는 것을 특징으로 하는 수화 방송 품질 모니터링 방법.
The method of claim 8,
Determining whether the non-hydration time or hydration time,
Checking whether a color corresponding to a hand is present in the first predetermined area within the sign language area;
And determining a non-hydration time or a hydration time based on whether a color corresponding to a hand exists in the first predetermined area and considering the first predetermined time unit. Quality monitoring method.
수화 방송 품질을 모니터링하는 장치에 있어서,
방송 콘텐츠를 사용자에게 제공하는 적어도 하나의 수집 장치로부터 상기 방송 콘텐츠를 미리 정해진 제1시간 단위마다 캡쳐한 적어도 하나의 캡쳐 영상을 수신 및 저장하는 분석 관리부와,
상기 적어도 하나의 캡쳐 영상에 대한 차영상을 생성하고, 상기 방송 콘텐츠 단위에 대한 상기 차영상을 누적하여 수화 후보 영역을 검출하고, 상기 수화 후보 영역에 대응되는 상기 적어도 하나의 캡쳐 영상을 분석하여, 수화 영역을 결정하고, 상기 캡쳐 영상에 관련된 방송 편성 정보, 시그널링 정보, 모니터링 단위 대상, 또는 모니터링 세부 단위 대상 중의 하나 이상에 기초하고, 상기 방송 콘텐츠 중 상기 수화 영역에 포함되는 영상을 사용하여, 상기 방송 콘텐츠의 수화 방송 품질을 결정하는 데이터 분석부를 포함하는, 수화 방송 품질 모니터링 장치.
An apparatus for monitoring sign language broadcast quality,
An analysis management unit for receiving and storing at least one captured image of capturing the broadcast content at a predetermined first time unit from at least one collection device providing the broadcast content to a user;
Generating a difference image for the at least one captured image, accumulating the difference image for the broadcast content unit, detecting a sign language candidate region, and analyzing the at least one captured image corresponding to the sign language candidate region, Determining a sign language area, and based on one or more of broadcast programming information, signaling information, a monitoring unit object, or a monitoring sub-unit object related to the captured image, by using an image included in the sign language area of the broadcast content; Sign language broadcast quality monitoring device comprising a data analysis unit for determining the sign language broadcast quality of the broadcast content.
제11항에 있어서,
상기 데이터 분석부는,
상기 적어도 하나의 캡쳐 영상에 대한 차영상으로부터 노이즈를 제거하고,
상기 노이즈가 제거된 차영상으로부터 픽셀값의 차이가 적은 영역의 좌표를 추출하고,
상기 추출된 좌표를 누적하여 차영상 히스토그램을 생성하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 11,
The data analysis unit,
Removing noise from the difference image for the at least one captured image,
Extracting coordinates of a region having a small difference in pixel value from the difference image from which the noise is removed,
Sign language broadcast quality monitoring device, characterized in that for generating the difference image histogram by accumulating the extracted coordinates.
제12항에 있어서,
상기 데이터 분석부는,
상기 차영상 히스토그램으로부터 노이즈를 제거하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 12,
The data analysis unit,
Sign language broadcast quality monitoring device, characterized in that to remove noise from the difference image histogram.
제12항에 있어서,
상기 데이터 분석부는,
상기 차영상 히스토그램에서 미리 정해진 임계값보다 상대적으로 큰 값을 구비하는 영역을 상기 수화 후보 영역으로서 검출하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 12,
The data analysis unit,
And a sign language broadcasting apparatus for detecting a region having a value relatively larger than a predetermined threshold value in the difference image histogram as the sign language candidate region.
제11항에 있어서,
상기 데이터 분석부는,
상기 적어도 하나의 캡쳐 영상에서 상기 수화 후보 영역에 대응되는 영역으로부터 얼굴 영역의 존재여부를 확인하고,
상기 얼굴 영역이 존재하는 상기 수화 후보 영역을 상기 수화 영역으로 결정하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 11,
The data analysis unit,
In the at least one captured image, the presence or absence of a face area is determined from an area corresponding to the sign language candidate area.
The sign language broadcast quality monitoring apparatus, wherein the sign language candidate area in which the face area exists is determined as the sign language area.
제11항에 있어서,
상기 데이터 분석부는,
상기 적어도 하나의 캡쳐 영상에서 상기 수화 후보 영역에 대응되는 영역이, 미리 정해진 수화 영역 패턴에 부합되는지 여부를 확인하고,
상기 미리 정해진 수화 영역 패턴에 부합되는 상기 수화 후보 영역을 상기 수화 영역으로 결정하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 11,
The data analysis unit,
Determining whether a region corresponding to the sign language candidate region in the at least one captured image matches a predetermined sign language region pattern,
The sign language broadcast quality monitoring apparatus, wherein the sign language candidate area corresponding to the predetermined sign language area pattern is determined as the sign language area.
제11항에 있어서,
상기 데이터 분석부는,
상기 적어도 하나의 캡쳐 영상에서 상기 수화 영역의 영상 정보에 기초하여, 비수화 시간 또는 수화 시간 여부를 결정하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 11,
The data analysis unit,
The sign language broadcast quality monitoring device, characterized in that for determining the non-hydration time or the sign language time, based on the image information of the sign language area in the at least one captured image.
제17항에 있어서,
상기 데이터 분석부는,
상기 수화 영역의 영상 정보로부터 손의 위치를 인식하고,
상기 손의 위치가 상기 수화 영역 내에서 미리 정해진 위치에 존재하는지 여부에 기초하고 상기 미리 정해진 제1시간 단위를 고려하여, 상기 비수화 시간 또는 수화 시간을 결정하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 17,
The data analysis unit,
Recognize the position of the hand from the image information of the sign language area,
A sign language broadcast quality monitoring apparatus, wherein the non-hydration time or the sign language time is determined based on whether the position of the hand exists at a predetermined position within the sign language area and in consideration of the first predetermined time unit. .
제17항에 있어서,
상기 데이터 분석부는,
상기 수화 영역 내에서 미리 정해진 제1영역에 손에 대응되는 색상이 존재하는지 여부를 확인하고,
상기 미리 정해진 제1영역에 손에 대응되는 색상이 존재하는지 여부에 기초하고 상기 미리 정해진 제1시간 단위를 고려하여, 상기 비수화 시간 또는 수화 시간을 결정하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 17,
The data analysis unit,
Check whether a color corresponding to a hand exists in the first predetermined area within the sign language area,
The sign language broadcast quality monitoring apparatus of claim 1, wherein the non-hydration time or the sign language time is determined based on whether a color corresponding to a hand exists in the first predetermined area and considering the first predetermined time unit.
제11항에 있어서,
상기 분석 관리부는,
상기 적어도 하나의 캡쳐 영상에 대응되는 모니터링 단위 대상, 모니터링 세부 단위 대상, 방송 편성 정보(PSIP), 및 시그널링 정보(PSI) 중, 적어도 하나를 더 수신 및 저장하는 것을 특징으로 하는 수화 방송 품질 모니터링 장치.
The method of claim 11,
The analysis management unit,
A sign language broadcast quality monitoring device further comprising receiving and storing at least one of a monitoring unit object corresponding to the at least one captured image, a monitoring detailed unit object, broadcast scheduling information (PSIP), and signaling information (PSI). .
KR1020180057291A 2018-05-18 2018-05-18 Method and apparatus for monitoring quality of sign language broadcasting KR102487111B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180057291A KR102487111B1 (en) 2018-05-18 2018-05-18 Method and apparatus for monitoring quality of sign language broadcasting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180057291A KR102487111B1 (en) 2018-05-18 2018-05-18 Method and apparatus for monitoring quality of sign language broadcasting

Publications (2)

Publication Number Publication Date
KR20190132074A true KR20190132074A (en) 2019-11-27
KR102487111B1 KR102487111B1 (en) 2023-01-10

Family

ID=68730050

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180057291A KR102487111B1 (en) 2018-05-18 2018-05-18 Method and apparatus for monitoring quality of sign language broadcasting

Country Status (1)

Country Link
KR (1) KR102487111B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021182750A1 (en) * 2020-03-11 2021-09-16 Samsung Electronics Co., Ltd. Display apparatus and method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010009588A (en) * 1999-07-12 2001-02-05 정선종 Method and Embodiment of the Initial Hand-Region Detection Using Stereo Matching Technique For a Hand Gesture Recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010009588A (en) * 1999-07-12 2001-02-05 정선종 Method and Embodiment of the Initial Hand-Region Detection Using Stereo Matching Technique For a Hand Gesture Recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021182750A1 (en) * 2020-03-11 2021-09-16 Samsung Electronics Co., Ltd. Display apparatus and method thereof

Also Published As

Publication number Publication date
KR102487111B1 (en) 2023-01-10

Similar Documents

Publication Publication Date Title
EP2244208B1 (en) Methods and apparatus for identifying primary media content in a post-production media content presentation
US8553148B2 (en) Methods and apparatus to distinguish a signal originating from a local device from a broadcast signal
MXPA03004846A (en) Apparatus and method for measuring tuning of a digital broadcast receiver.
CN103475910A (en) Set-top box (STB) program recommending method and system for smart television (TV) terminal
CN106454426B (en) A kind of method of identification intelligent TV analog channel
KR102487111B1 (en) Method and apparatus for monitoring quality of sign language broadcasting
WO2018000699A1 (en) Television channel identification method and device, television, and server
KR101377849B1 (en) System and method for providing additional information of multiple real-time broadcasting channels
US20210021886A1 (en) Monitoring and Activity Reporting of Enhanced Media Content
US20230119783A1 (en) Methods and apparatus to monitor a split screen media presentation
KR101193549B1 (en) The Method and system for an episode auto segmentation of the TV program
KR102557442B1 (en) Method and apparatus for monitoring quality of sign language broadcasting
KR101625567B1 (en) Verification apparatus for screen synchronization information
KR20100116306A (en) Program rating research system and the research method
KR101849092B1 (en) Method and Apparatus for Detecting Picture Breaks for Video Service of Real Time
EP2720469A1 (en) Display apparatus and method thereof for detecting a channel change event
KR101770958B1 (en) Method for calculating real watched ratio of advertisement based on real time of seconds
EP2865186A1 (en) Synchronized movie summary
CN109451350A (en) A kind of method and device of the two dimensional code message automatic push based on TV
KR20080055338A (en) Set top box of internet protocol television service system, audience rating survey system for internet protocol television service system and method thereof
KR20010097950A (en) Examination method of audience rating by disposition of viewer and system for the same
KR101403969B1 (en) How to recognize the point of the subtitles of the video playback time code is lost
AU2012268871B2 (en) Methods and apparatus for identifying primary media content in a post-production media content presentation
CN112911276A (en) Method for detecting audio and video synchronization of set top box
KR20170108596A (en) System and method for evaluating quality of broadcasting for handicapped

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant