JP6030945B2 - Viewer video display control device, viewer video display control method, and viewer video display control program - Google Patents

Viewer video display control device, viewer video display control method, and viewer video display control program Download PDF

Info

Publication number
JP6030945B2
JP6030945B2 JP2012277959A JP2012277959A JP6030945B2 JP 6030945 B2 JP6030945 B2 JP 6030945B2 JP 2012277959 A JP2012277959 A JP 2012277959A JP 2012277959 A JP2012277959 A JP 2012277959A JP 6030945 B2 JP6030945 B2 JP 6030945B2
Authority
JP
Japan
Prior art keywords
video
viewer
image
sign language
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012277959A
Other languages
Japanese (ja)
Other versions
JP2014123818A (en
Inventor
美佐 平尾
美佐 平尾
陽子 石井
陽子 石井
宮崎 泰彦
泰彦 宮崎
小林 透
透 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012277959A priority Critical patent/JP6030945B2/en
Publication of JP2014123818A publication Critical patent/JP2014123818A/en
Application granted granted Critical
Publication of JP6030945B2 publication Critical patent/JP6030945B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、聴覚障がいがあるユーザやその家族のユーザなど、手話や口話を用いてコミュニケーションをとるユーザが、テレビ放送をはじめとするコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムに関する。   The present invention is a viewing method that facilitates communication when a user who communicates using sign language or spoken language, such as a user with hearing impairment or a user of his / her family member, views content video including television broadcasting. The present invention relates to a viewer video display control device, a viewer video display control method, and a viewer video display control program.

「テレビを見ながら家族と会話をする」という行為は、聴者(聴覚に障害がない人のこと)のユーザにとってはごく自然な行為である。これは、聴者同士は音声のみによってコミュニケーションをとることが可能であり、コンテンツ映像の視聴を中断せずにコミュニケーションをとることができるからである。一方で、手話や口話によってコミュニケーションをとる聴覚障がい者やその家族のユーザは、コンテンツ映像の視聴時にコミュニケーションをとろうとすると、「番組本編を見逃さないように、CM中、番組終了後だけおしゃべりする」、「お互いの様子、手話や顔の表情が見やすいように座る位置を工夫する」など、様々な制約がともなう。手話や口話は相手と目を合わせることで成立するコミュニケーション方法であり、コンテンツ映像の視聴時に会話をするためには、視聴を中断して相手と向き合う必要があるからである。   The act of “conversing with family while watching TV” is a very natural act for a listener (a person who has no hearing impairment). This is because the listeners can communicate with each other only by voice, and can communicate without interrupting the viewing of the content video. On the other hand, people with hearing disabilities and their family members who communicate by sign language or spoken language try to communicate when viewing content video. ”,“ Devise the sitting position so that each other's appearance, sign language and facial expressions are easy to see ”. This is because sign language and spoken language are communication methods established by looking at the other person's eyes, and in order to have a conversation when viewing the content video, it is necessary to interrupt viewing and face the other person.

このような問題に対して、例えば非特許文献1のような遠隔コミュニケーションに用いるシステムを適用することが考えられる。   For such a problem, for example, it is conceivable to apply a system used for remote communication as in Non-Patent Document 1.

特開2008-217536号公報JP 2008-217536 JP

上述のように、聴覚障がい者やその家族のユーザが、テレビなどのコンテンツ映像の視聴時にコミュニケーションをとろうとすると、様々な制約がともなうため、円滑なコミュニケーションを実現することが難しい。   As described above, when a hearing impaired person or a user of his or her family tries to communicate when viewing a content image such as a television, various restrictions are involved, and it is difficult to realize smooth communication.

特許文献1のシステムは、遠隔コミュニケーションに用いるシステムであって、コンテンツ映像を視聴する際に、聴覚障がい者などの円滑なコミュニケーションを図ることについては考慮されていない。   The system of Patent Document 1 is a system used for remote communication, and is not considered for smooth communication of persons with hearing disabilities and the like when viewing content video.

例えば、画面に表示される自己画像は、ユーザの状態に応じて表示/非表示を制御されることはなく、常時表示される。しかし、ユーザが、コンテンツ映像を視聴中、ユーザをビデオカメラにより撮影した映像(以下では、ユーザ映像と呼ぶ)は、例えば、ユーザが手話や口話などの会話をしているなどの状況に応じて表示/非表示を制御される必要がある。ユーザが会話を行っていない間、ユーザ映像は表示されている必要はなく、コンテンツ映像やテロップや字幕等の文字情報の見やすさを考えると、表示されない方が望ましいからである。   For example, the self-image displayed on the screen is always displayed without being controlled to be displayed / hidden according to the state of the user. However, while the user is viewing content video, video captured by the video camera (hereinafter referred to as user video) depends on the situation such as the user having a conversation such as sign language or spoken language. Need to be controlled to show / hide. This is because the user video does not need to be displayed while the user is not talking, and it is desirable that the user video is not displayed in consideration of the legibility of the content video, text information such as telop and subtitles.

また、ユーザが会話を行っていない間でも、ユーザの表情に変化があればユーザ映像が表示されることが望ましい。ユーザ映像を通して互いの表情の変化に気がつくことで、会話を開始するきっかけとなったり、逆に話しかけるのを控えるべきだと判断したりするなど、コミュニケーションをより円滑にすることを可能とするためである。   In addition, even when the user is not talking, it is desirable that the user video is displayed if there is a change in the user's facial expression. To be able to communicate more smoothly by noticing the change in each other's facial expressions through user images, and as a starting point for conversations and judging that they should refrain from talking to each other. is there.

本発明は、上記事情に鑑みてなされたものであり、本発明の目的は、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a viewer image display control apparatus and a viewing device that facilitate communication when a user with hearing impairment views content images. It is to provide a viewer video display control method and a viewer video display control program.

上記目的を達成するため、本発明は、視聴者の映像の表示を制御する視聴者映像表示制御装置であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記コンテンツ映像がCM中であるか否かを判断するTV内容判断部と、前記カメラ映像を用いて前記視聴者が手話をしているか否かを検出する手話検出部と、前記TV内容判断部による判断がCM中でない場合は、前記手話検出部が手話をしていると検出したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備え、前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像であるIn order to achieve the above object, the present invention provides a viewer video display control apparatus that controls display of a viewer's video, and that captures a camera video input from a camera that shoots a viewer watching the content video. A video analysis unit that analyzes and detects the viewer's video; a TV content determination unit that determines whether the content video is in a CM; and the viewer uses the camera video to sign language a sign language detection unit for detecting whether dolphins not, when the determination by the TV content judgment unit is not in the CM, at a timing when the sign language detection unit detects that the sign language, the viewer is the sign language during only example Bei and a video synthesis unit for synthesizing by superimposing the sign language video using the video of the viewer to the content image, the sign language video, a sign language when the viewer is performing sign language It is an image in which the operation can be visually recognized .

上記視聴者映像表示制御装置において、前記TV内容判断部による判断がCM中である場合は、前記映像合成部は、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer image display control device, when the determination by the TV content judgment unit is in the CM, the video synthesis unit is synthesized by superimposing the sign language video using the video of the viewer to the content image May be.

上記視聴者映像表示制御装置において、前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部をさらに備え、前記TV内容判断部による判断がCM中でない場合であって、前記視聴者が手話をしていない場合、前記映像合成部は、前記表情変化検出部が前記表情変化を検出したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control device, further comprising a facial expression change detection unit that detects a facial expression change of the viewer using the camera video, when the judgment by the TV content judgment unit is not in the CM, When the viewer is not sign language, the video composition unit superimposes a facial expression video using the viewer's video on the content video at a timing when the facial expression change detection unit detects the facial expression change. You may synthesize .

上記視聴者映像表示制御装置において、前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部と、前記視聴者の映像を用いた手話映像、または前記視聴者の映像を用いた表情映像を強調するための強調処理を、前記手話検出部または前記表情変化検出部が検出してから所定の時間、行う強調部と、をさらに備え、前記映像合成部は、前記強調処理がなされた手話映像または表情映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control device, a facial expression change detection unit that detects a facial expression change of the viewer using the camera video, and a sign language video using the viewer video or the viewer video. An emphasis unit that performs an emphasis process for emphasizing the used facial expression video for a predetermined time after the sign language detection unit or the facial expression change detection unit detects, and the video composition unit includes the enhancement process A sign language image or a facial expression image that has been marked may be combined with the content image .

本発明は、コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、前記コンテンツ映像がCM中であるか否かを判断するTV内容判断ステップと、前記TV内容判断ステップにおいてCM中でないと判断された場合、前記視聴者が手話を開始したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行い、前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像であるThe present invention is a viewer video display control method for controlling display of a viewer's video performed by a computer, analyzing a camera video input from a camera that shoots a viewer watching a content video, The video analysis step for detecting the viewer's video, the TV content determination step for determining whether or not the content video is in a CM, and the TV content determination step when the TV content determination step is determined not to be in a CM person at a timing starting the sign language, only while the viewer is the sign language, we have rows, and image synthesis step of synthesizing superimposed on the content image a sign language video using the video of the viewer, The sign language image is an image in which an operation of sign language can be visually recognized when the viewer is performing sign language .

上記視聴者映像表示制御方法において、前記TV内容判断ステップにおいてCM中であると判断された場合、前記映像合成ステップは、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control method, when it is determined in the TV content determination step that CM is being performed, the video synthesis step synthesizes a sign language video using the viewer's video by superimposing it on the content video. May be.

上記視聴者映像表示制御方法において、前記TV内容判断ステップにおいてCM中でないと判断された場合であって、前記視聴者が手話をしていない場合、前記映像合成ステップは、前記視聴者の顔の表情が変化したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control method, when it is determined that the TV content determination step is not under CM, and the viewer is not sign language, the video composition step is performed on the face of the viewer. A facial expression video using the viewer's video may be superimposed on the content video at the timing when the facial expression changes .

上記視聴者映像表示制御方法において、前記検出された視聴者の映像を用いた手話映像を手話の開始から所定の時間、強調させる処理を行う、または、前記検出された視聴者の映像を用いた表情映像を表情変化から所定の時間、強調させる処理を行う強調ステップをさらに行い、前記映像合成ステップは、前記強調ステップの処理がなされた手話映像または表情映像を、前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control method, the sign language video using the detected viewer video is emphasized for a predetermined time from the start of sign language, or the detected viewer video is used. An emphasis step is further performed for emphasizing the facial expression video for a predetermined time from the facial expression change, and the video synthesis step synthesizes the sign language video or facial expression video subjected to the enhancement step by superimposing it on the content video. May be.

本発明は、前記視聴者映像表示制御装置が備える各部としてコンピュータを機能させる視聴者映像表示制御プログラムである。 The present invention is a viewer video display control program that causes a computer to function as each unit included in the viewer video display control device.

本発明によれば、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムを提供することができる。   According to the present invention, there are provided a viewer video display control device, a viewer video display control method, and a viewer video display control program that facilitate communication when a user with hearing impairments views content video. can do.

本発明の実施形態に係るシステムの全体構成を示す構成図である。1 is a configuration diagram showing an overall configuration of a system according to an embodiment of the present invention. 制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of a control apparatus. 手話判断部および表情変化判断部の構成を示すブロック図である。It is a block diagram which shows the structure of a sign language judgment part and a facial expression change judgment part. ユーザ映像生成部の構成を示すブロック図である。It is a block diagram which shows the structure of a user image | video production | generation part. TV内容判断部及び手話判断部の処理を表すフローチャートである。It is a flowchart showing the process of a TV content judgment part and a sign language judgment part. 表情変化判断部の処理を表すフローチャートである。It is a flowchart showing the process of a facial expression change judgment part. ユーザ映像生成部の処理を示す模式図である。It is a schematic diagram which shows the process of a user image | video production | generation part. 手話映像または表情映像が表示された画面例のイメージ図である。It is an image figure of the example of a screen on which a sign language image or a facial expression image was displayed. 手話映像または表情映像が表示された画面例のイメージ図である。It is an image figure of the example of a screen on which a sign language image or a facial expression image was displayed.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態に係るシステムの全体構成図である。図示するシステムは、コンテンツ映像を表示する画面1と、当該画面1の近くに設置され、コンテンツ映像を視聴しているユーザ(視聴者)を撮影するビデオカメラ2と、カメラ入力インタフェース3と、画面出力インタフェース4と、ユーザが使用するリモコン5と、ユーザ入力インタフェース6と、制御装置7(視聴者映像表示制御装置)と、地上デジタルテレビ放送受像機などのコンテンツ映像を出力する映像コンテンツ出力装置8とを備える。   FIG. 1 is an overall configuration diagram of a system according to an embodiment of the present invention. The illustrated system includes a screen 1 that displays content video, a video camera 2 that is installed near the screen 1 and captures a user (viewer) who is viewing the content video, a camera input interface 3, and a screen. Video content output device 8 for outputting content video such as an output interface 4, a remote controller 5 used by a user, a user input interface 6, a control device 7 (viewer video display control device), a terrestrial digital television broadcast receiver, and the like. With.

制御装置7には、ビデオカメラ2により撮影されたカメラ映像が、カメラ入力インタフェース3を介して制御装置7に入力される。また、制御装置7には、映像コンテンツ出力装置8から出力されるコンテンツ映像が入力される。また、制御装置7には、リモコン5を用いてユーザが入力したユーザ入力データ(指示情報、設定情報など)が、ユーザ入力インタフェース6を介して入力される。   A camera image taken by the video camera 2 is input to the control device 7 via the camera input interface 3. In addition, the content video output from the video content output device 8 is input to the control device 7. Further, user input data (instruction information, setting information, etc.) input by the user using the remote controller 5 is input to the control device 7 via the user input interface 6.

制御装置7は、入力されたカメラ映像からユーザの顔及び上半身の検出、ユーザの手話の動作の検出、表情の変化の検出、コンテンツ映像におけるテレビCMの検出などを行う。そして、制御装置7は、ユーザが手話をしている間とテレビCM中は、手話映像をユーザが視聴しているコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力する。また、制御装置7は、手話はしていないが、表情変化があったときには、表情映像をユーザが視聴しているコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力する。   The control device 7 performs detection of the user's face and upper body from the input camera video, detection of the user's sign language operation, detection of a change in facial expression, detection of a television CM in the content video, and the like. The control device 7 then superimposes the sign language video on the content video that the user is viewing while the user is sign language and during the TV commercial, and outputs it to the screen 1 via the screen output interface 4. To do. Further, the control device 7 does not sign language, but when there is a change in facial expression, the facial expression video is superimposed on the content video being viewed by the user and is synthesized and output to the screen 1 via the screen output interface 4. To do.

なお、制御装置7には、例えば、画面1に接続されたPCやテレビに搭載されたブラウザなどを用いること考えられる。   As the control device 7, for example, a PC connected to the screen 1 or a browser mounted on a television can be used.

次に、図2を用いて制御装置7の詳細を説明する。図2は、制御装置7の構成を示すブロック図である。図示する制御装置7は、カメラ映像解析部71と、TV内容判断部72と、手話判断部73と、表情変化判断部74と、ユーザ映像生成部75と、映像合成部76とを備える。   Next, details of the control device 7 will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the control device 7. The illustrated control device 7 includes a camera video analysis unit 71, a TV content determination unit 72, a sign language determination unit 73, a facial expression change determination unit 74, a user video generation unit 75, and a video synthesis unit 76.

ビデオカメラ2は、画面1に表示されるコンテンツ映像を視聴するユーザを撮影し、撮影したカメラ映像をフレーム単位でカメラ映像解析部71に入力する。カメラ映像解析部71は、入力されたカメラ映像フレームを画像解析し、ユーザ毎にユーザの映像(顔及び上半身など)を検出する。そして、各ユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとを、TV内容判断部72に出力する。TV内容判断部72は、映像コンテンツ出力装置8から出力されるコンテンツ映像がCM中か、すなわちCMに切り替わったか否かを検知する。   The video camera 2 captures a user who views the content video displayed on the screen 1 and inputs the captured camera video to the camera video analysis unit 71 in units of frames. The camera video analysis unit 71 performs image analysis on the input camera video frame and detects a user video (face, upper body, etc.) for each user. Then, the coordinate information indicating the image area of each user's face and upper body and the camera video frame are output to the TV content determination unit 72. The TV content determination unit 72 detects whether the content video output from the video content output device 8 is being commercialized, that is, has been switched to CM.

手話判断部73は、カメラ映像フレームを用いて、ユーザが手話をしているか否かを検出する。表情変化判断部74は、カメラ映像フレームを用いて、ユーザの顔の表情変化を検出する。ユーザ映像生成部75は、カメラ映像解析部71が検出したユーザの顔および上半身を用いて、ユーザの手話映像または表情映像を生成する。映像合成部76は、ユーザの手話映像および表情映像をコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力し、画面1上に表示させる。   The sign language determination unit 73 detects whether or not the user is sign language using the camera video frame. The expression change determination unit 74 detects a change in the expression of the user's face using the camera video frame. The user video generation unit 75 generates a user sign language video or facial expression video using the user's face and upper body detected by the camera video analysis unit 71. The video synthesizing unit 76 superimposes the user sign language video and the facial expression video on the content video, synthesizes them, outputs them to the screen 1 via the screen output interface 4, and displays them on the screen 1.

図3は、制御装置7の手話判断部73および表情変化判断部74の構成を示すブロック図である。図示する手話判断部73は、手話検出部731と、手話非検出時間参照部732とを備え、表情変化判断部74は、表情変化検出部741と、表情変化検出時間参照部742と、アイコン判断部743とを備える。これらの処理については、図5および図6を用いて後述する。   FIG. 3 is a block diagram illustrating configurations of the sign language determination unit 73 and the facial expression change determination unit 74 of the control device 7. The sign language determination unit 73 illustrated includes a sign language detection unit 731 and a sign language non-detection time reference unit 732, and the expression change determination unit 74 includes an expression change detection unit 741, an expression change detection time reference unit 742, and icon determination. Part 743. These processes will be described later with reference to FIGS.

図4は、制御装置7のユーザ映像生成部75の構成を示すブロック図である。図示するユーザ映像生成部75は、ユーザ映像抽出部751と、ユーザ映像エフェクト処理部752と、ユーザ映像サイズ決定部753と、ユーザ映像位置座標決定部754と、文字情報検出部755とを備える。これらの処理については、図7を用いて後述する。   FIG. 4 is a block diagram illustrating a configuration of the user video generation unit 75 of the control device 7. The illustrated user video generation unit 75 includes a user video extraction unit 751, a user video effect processing unit 752, a user video size determination unit 753, a user video position coordinate determination unit 754, and a character information detection unit 755. These processes will be described later with reference to FIG.

上記説明した制御装置7には、例えば、CPUと、メモリと、HDD等の外部記憶装置と、入力装置と、出力装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた制御装置7用のプログラムを実行することにより、制御装置7の各機能が実現される。また、制御装置7用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD−ROMなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。   As the control device 7 described above, for example, a general-purpose computer system including a CPU, a memory, an external storage device such as an HDD, an input device, and an output device can be used. In this computer system, each function of the control device 7 is realized by the CPU executing a program for the control device 7 loaded on the memory. The program for the control device 7 can be stored in a computer-readable recording medium such as a hard disk, flexible disk, CD-ROM, MO, DVD-ROM, or distributed via a network.

次に、本実施形態の制御装置7の処理について説明する。   Next, the process of the control apparatus 7 of this embodiment is demonstrated.

まず、ビデオカメラ2は、コンテンツを視聴しているユーザを撮影する。このカメラ映像は、カメラ入力インタフェース3を介して、制御装置7のカメラ映像解析部71にフレーム単位で入力される。   First, the video camera 2 photographs a user who is viewing content. This camera video is input to the camera video analysis unit 71 of the control device 7 in units of frames via the camera input interface 3.

カメラ映像解析部71は、入力されたカメラ映像フレームからユーザの映像(ここでは、顔及び上半身)をユーザ毎に検出する。そして、カメラ映像解析部71は、ユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとを、TV内容判断部72に出力する。なお、ユーザの顔及び上半身を検出するには、例えば以下の参考文献1のような技術を用いることができる。具体的には、顔の向きに応じた特徴量の抽出と、その特徴量を用いた類似度算出を行い、算出された類似度に基づいてユーザの映像を認識・検出する。   The camera image analysis unit 71 detects a user image (here, face and upper body) for each user from the input camera image frame. Then, the camera video analysis unit 71 outputs coordinate information representing the image area of the user's face and upper body and the camera video frame to the TV content determination unit 72. In addition, in order to detect a user's face and upper body, the technique like the following reference literature 1 can be used, for example. Specifically, feature amounts are extracted in accordance with the face orientation and similarity is calculated using the feature amounts, and the user's video is recognized and detected based on the calculated similarities.

[参考文献1]:特開2009-157766号公報
図5は、TV内容判断部72及び手話判断部73が行う処理を表すフローチャートである。まず、TV内容判断部72には、映像コンテンツ出力装置8から出力されるコンテンツ映像がフレーム単位で入力されるとともに、カメラ映像解析部71からユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとがフレーム単位で入力される(S11)。
[Reference Document 1]: Japanese Unexamined Patent Application Publication No. 2009-157766 FIG. 5 is a flowchart illustrating processing performed by the TV content determination unit 72 and the sign language determination unit 73. First, the content content output from the video content output device 8 is input to the TV content determination unit 72 in units of frames, and the camera video analysis unit 71 receives coordinate information indicating the user's face and upper body image area and the camera. Video frames are input in units of frames (S11).

TV内容判断部72は、入力されたコンテンツ映像フレームがテレビCMであるか否かを判断する(S12)。入力されたコンテンツ映像フレームがテレビCMであるか否かは、例えば以下の参考文献2のような技術を用いて判断することができる。   The TV content determination unit 72 determines whether or not the input content video frame is a television commercial (S12). Whether or not the input content video frame is a television commercial can be determined using, for example, a technique such as Reference Document 2 below.

[参考文献2]:武 小萌、佐藤 真一、「超高速CM検出に関する研究とその知識発見への応用」、電子情報通信学会技術研究報告、2011年6月、PRMU2011-53、p.119-124
本実施形態では、コンテンツ映像がCM中の場合は、ユーザが手話をしているか否かにかかわらず、手話映像をコンテンツ映像に重畳して画面1に表示するものとする。手話映像は、ユーザが手話を行っている場合に手話の動作が視認できるユーザの映像であって、本実施形態では、手話映像として、ユーザの顔及び上半身を含む映像とする。また、コンテンツ映像がCM中でない場合は、ユーザが手話をしている間だけ、手話映像をコンテンツ映像に重畳して画面1に表示するものとする。
[Reference 2]: Take Komoe, Shinichi Sato, “Research on ultra-high-speed CM detection and its application to knowledge discovery”, IEICE technical report, June 2011, PRMU2011-53, p. 119-124
In the present embodiment, when the content video is being commercialized, the sign language video is superimposed on the content video and displayed on the screen 1 regardless of whether or not the user is sign language. The sign language video is a video of the user who can visually recognize the sign language operation when the user is performing the sign language. In the present embodiment, the sign language video is a video including the user's face and upper body. When the content video is not in the CM, the sign language video is superimposed on the content video and displayed on the screen 1 only while the user is sign language.

また、本実施形態では、手話をしていない状態から手話をしている状態に遷移した場合(すなわち、手話が開始された場合)、手話の開始から所定の時間(t1秒間)は、手話が開始されたことをユーザに気づかせるためのエフェクト処理(強調処理)を施すためのマーカーを当該カメラ映像フレームに設定することとする。   In the present embodiment, when a transition is made from a state in which no sign language is being performed to a state in which sign language is being performed (that is, when sign language is started), the sign language is not transmitted for a predetermined time (t1 second) from the start of the sign language. A marker for performing effect processing (enhancement processing) for notifying the user of the start is set in the camera video frame.

具体的には、入力されたコンテンツ映像フレームがCMの場合(S12:YES)、TV内容判断部72は、S11で入力されたカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とを、手話判断部73に出力する。手話判断部73の手話検出部731は、入力されたカメラ映像フレームを用いて、ユーザが手話をしているか否かを判断する(S13)。ユーザが手話をしているか否かは、例えば以下の参考文献3のような技術を用いて判断することができる。   Specifically, when the input content video frame is CM (S12: YES), the TV content determination unit 72 includes the camera video frame input in S11, coordinate information representing the user's face and upper body image area, and Is output to the sign language determination unit 73. The sign language detection unit 731 of the sign language determination unit 73 determines whether or not the user is sign language using the input camera video frame (S13). Whether or not the user is sign language can be determined using a technique such as the following Reference 3, for example.

[参考文献3]:山田 寛、松尾 直志、島田 伸敬、白井 良明「手話認識のための見えの学習による手領域検出と形状識別」、画像の認識・理解シンポジウム、2009 年 7 月、MIRU2009、p.635-642
入力されたカメラ映像フレームで手話が行われていない場合(S13:NO)、手話判断部73の手話非検出時間参照部732は、現在時間をn1としてメモリなどの記憶部に保存し(S14)、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S15)。
[Reference 3]: Hiroshi Yamada, Naoshi Matsuo, Nobutaka Shimada, Yoshiaki Shirai “Hand Region Detection and Shape Identification by Learning of Signs for Sign Language Recognition”, Image Recognition and Understanding Symposium, July 2009, MIRU2009, p. 635-642
When sign language is not performed in the input camera image frame (S13: NO), the sign language non-detection time reference unit 732 of the sign language determination unit 73 stores the current time as n1 in a storage unit such as a memory (S14). Then, the camera video frame and coordinate information representing the image area of the user's face and upper body are output to the user video generation unit 75 (S15).

入力されたカメラ映像フレームで手話が行われていた場合(ユーザが複数いる場合は、その内の少なくとも1人が手話を行っていた場合)(S13:YES)は、手話非検出時間参照部732は、記憶部に直前に保存されたn1と現在時間とを照らし合わせ、その差分を算出する。算出した差分が予め指定されたt1秒以内の場合(S16:YES)、手話開始からt1秒以内であると判断する。この場合、手話非検出時間参照部732は、手話が開始されたことを、コンテンツ映像を視聴している他のユーザに気づかせる(注意を喚起させる)ためのエフェクト処理を行わせるために、S11で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔及び上半身の画像領域を表す座標情報とともにユーザ映像生成部75へ出力する(S17)。   When sign language is performed in the input camera video frame (when there are a plurality of users, at least one of them is sign language) (S13: YES), sign language non-detection time reference unit 732 Compares the current time with n1 stored immediately before in the storage unit, and calculates the difference. When the calculated difference is within t1 seconds specified in advance (S16: YES), it is determined that it is within t1 seconds from the start of sign language. In this case, the sign language non-detection time reference unit 732 performs an effect process for notifying other users who are viewing the content video that the sign language has started (calling attention). An arbitrary marker is attached to the camera video frame input in step S3, and is output to the user video generation unit 75 together with coordinate information representing the image area of the user's face and upper body (S17).

直前に保存されたn1と現在時間との差分がt1秒を超える場合(S16:NO)、手話非検出時間参照部732は、手話の開始からt1秒を経過していると判断し、マーカーを付けることなく、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S15)。   When the difference between n1 stored immediately before and the current time exceeds t1 seconds (S16: NO), the sign language non-detection time reference unit 732 determines that t1 seconds have elapsed since the start of sign language, Without adding, the camera video frame and the coordinate information representing the image area of the user's face and upper body are output to the user video generation unit 75 (S15).

一方、入力されたコンテンツ映像フレームがCMではない場合(S12:NO)、TV内容判断部72は、手話判断部73にカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報を出力する。手話判断部73の手話検出部731は、入力されたカメラ映像フレームを用いて、ユーザが手話をしているか否かを判断する(S18)。   On the other hand, when the input content video frame is not a CM (S12: NO), the TV content determination unit 72 outputs the camera video frame and coordinate information representing the image area of the user's face and upper body to the sign language determination unit 73. . The sign language detection unit 731 of the sign language determination unit 73 determines whether or not the user is sign language using the input camera video frame (S18).

入力されたカメラ映像フレームで手話が行われていない場合(S18:NO)、手話判断部73の手話非検出時間参照部732は、現在時間をn2としてメモリなどの記憶部に保存し(S22)、表情変化判断部74へカメラ映像フレームとユーザの顔の画像領域を表す座標情報とを出力する(S23)。   When sign language is not performed in the input camera video frame (S18: NO), the sign language non-detection time reference unit 732 of the sign language determination unit 73 stores the current time as n2 in a storage unit such as a memory (S22). Then, the camera image frame and the coordinate information representing the image area of the user's face are output to the expression change determination unit 74 (S23).

入力されたカメラ映像フレームで手話が行われていた場合(ユーザが複数いる場合は、その内の少なくとも1人が手話を行っていた場合)(S18:YES)は、手話非検出時間参照部732は、記憶部に直前に保存されたn2と現在時間とを照らし合わせ、その差分が予め指定されたt1秒以内の場合(S19:YES)、手話の開始からt1秒以内であると判断し、手話が開始されたことをコンテンツ映像を視聴している他のユーザに気づかせるために、S11で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔及び上半身の画像領域を表す座標情報とともにユーザ映像生成部へ出力する(S20)。   When sign language is performed in the input camera video frame (when there are a plurality of users, at least one of them is sign language) (S18: YES), sign language non-detection time reference unit 732 Compares the current time with n2 stored immediately before in the storage unit, and if the difference is within t1 seconds specified in advance (S19: YES), determines that it is within t1 seconds from the start of sign language, In order to make other users viewing the content video notice that sign language has started, an arbitrary marker is attached to the camera video frame input in S11, and coordinate information representing the image area of the user's face and upper body And it outputs to a user image | video production | generation part (S20).

直前に保存されたn2と現在時間との差分がt1秒を超える場合は(S19:NO)、手話非検出時間参照部732は、手話の開始からt1秒を経過していると判断し、マーカーを付けることなく、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報をユーザ映像生成部75へ出力する(S21)。   When the difference between n2 stored immediately before and the current time exceeds t1 seconds (S19: NO), the sign language non-detection time reference unit 732 determines that t1 seconds have elapsed since the start of sign language, and the marker Without adding a mark, coordinate information representing the camera video frame and the image area of the user's face and upper body is output to the user video generation unit 75 (S21).

なお、図5の処理は、入力されるカメラ映像およびコンテンツ映像のフレーム毎に繰り返し行われるものである。   Note that the processing in FIG. 5 is repeatedly performed for each frame of the input camera video and content video.

図6は、表情変化判断部74の処理を表すフローチャートである。   FIG. 6 is a flowchart showing processing of the facial expression change determination unit 74.

本実施形態では、コンテンツ映像がCM中でない場合であって、ユーザが手話をしていない場合でユーザに表情変化が発生した場合、所定の時間(t2秒間)、変化した後の表情映像をコンテンツ映像に重畳して画面1に表示するものとする。また、本実施形態では、表情変化が発生したことをユーザに気づかせるためのエフェクト処理(強調処理)を施すためのマーカーをカメラ映像フレームに設定することとする。   In the present embodiment, when the content video is not in the CM and the user does not sign language and the facial expression changes, the content video is displayed for a predetermined time (t2 seconds). It is assumed that the image is superimposed on the video and displayed on the screen 1. In the present embodiment, a marker for performing effect processing (enhancement processing) for notifying the user that an expression change has occurred is set in the camera video frame.

表情変化判断部74の表情変化検出部741には、図4のS23により、手話判断部73により出力されたカメラ映像フレームとユーザの顔の画像領域を表す座標情報とが入力される(S31)。   The expression change detection unit 741 of the expression change determination unit 74 receives the camera video frame output by the sign language determination unit 73 and the coordinate information representing the image area of the user's face in S23 of FIG. 4 (S31). .

表情変化検出部741は、入力されたカメラ映像フレームを用いて、ユーザの表情変化が発生したか否かを検出する(S32)。ユーザの表情変化の検出には、例えば参考文献4のような技術を用いることができる。   The facial expression change detection unit 741 detects whether a facial expression change of the user has occurred using the input camera video frame (S32). For example, a technique such as Reference 4 can be used to detect a change in the facial expression of the user.

[参考文献4]:太田 寛志、佐治 斉、中谷 広正「顔面筋に基づいた顔構成要素モデルによる表情変化の認識」、電子情報通信学会論文誌。 D-II、 情報・システム、 II-パターン処理 Vol. J82-D-II(7)、pp.1129-1139、1999年7月
表情変化が検出された場合(S32:YES)、表情変化検出部741は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報と、どのような表情変化なのか(例えば、笑顔になったのか、驚いた顔になったのかなどの変化した後の表情)を表すタグAをともに、表情変化検出時間参照部742へ出力する。表情変化検出時間参照部742は、現在時間をn3としてメモリなどの記憶部に保存するとともに、入力されたカメラ映像フレームとユーザの顔の画像領域を表す座標情報も記憶部に保存し、表情変化を表すタグAと、カメラ映像フレームと、ユーザの顔の画像領域を表す座標情報とをアイコン判断部743に出力する(S33)。
[Reference 4]: Hiroshi Ota, Hitoshi Saji, Hiromasa Nakatani “Recognition of facial expression changes by facial component model based on facial muscles”, IEICE Transactions. D-II, Information / System, II-Pattern Processing Vol. J82-D-II (7), pp. 1129-1139, July 1999 When a change in facial expression is detected (S32: YES), the facial expression change detection unit 741 performs coordinate information representing the camera video frame and the image area of the user's face, and what kind of facial expression change Together with a tag A indicating whether the expression has changed (for example, whether it has become a smile or a surprised face), is output to the expression change detection time reference unit 742. The expression change detection time reference unit 742 stores the current time as n3 in a storage unit such as a memory, and also stores the input camera video frame and the coordinate information indicating the image area of the user's face in the storage unit. Is output to the icon determining unit 743 (S33).

アイコン判断部743は、表情変化があった場合に、画面1に表示する表情映像を、カメラ映像フレームから取得するユーザの顔の映像とするのか、ユーザの表情を表す任意のアイコンとするのかを判別する(S34)。なお、カメラ映像フレームの映像とするかアイコンとするかについては、アイコン判断部743は、ユーザが設定した設定情報にもとづいて判断するものとする。ユーザは、リモコン5などを用いて予め(またはコンテンツ映像を視聴中に)、カメラ映像フレームの映像とするかアイコンとするかを、アイコン判断部743に設定する。   When there is a change in facial expression, the icon determination unit 743 determines whether the facial expression video displayed on the screen 1 is the user's facial image acquired from the camera video frame or an arbitrary icon representing the user's facial expression. A determination is made (S34). It should be noted that the icon determination unit 743 determines whether to use the video of the camera video frame or the icon based on the setting information set by the user. The user uses the remote controller 5 or the like in advance (or while viewing the content video) to set in the icon determination unit 743 whether to use the video of the camera video frame or the icon.

なお、表情映像は、ユーザの表情が視認できる映像であって、本実施形態では、表情映像として、カメラ映像フレームから取得した映像の場合はユーザの顔を含む映像とし、アイコンの場合は顔の表情が判るものとする。   The facial expression video is an image in which the user's facial expression can be visually recognized. In this embodiment, the facial expression video is a video including the user's face in the case of a video acquired from a camera video frame, and in the case of an icon, Assume that facial expressions are understood.

カメラ映像フレームの表情映像をユーザが設定していた場合は(S34:NO)、アイコン判断部743は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S35)。そして、表情変化が起こったことを、コンテンツ映像を視聴している他のユーザに気づかせるために、アイコン判断部743は、S31で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔の画像領域を表す座標情報とともにユーザ映像生成部75へ出力する。   When the user has set the facial expression video of the camera video frame (S34: NO), the icon determination unit 743 outputs the camera video frame and the coordinate information representing the image area of the user's face to the user video generation unit 75. (S35). Then, in order to make another user who is viewing the content video notice that the expression change has occurred, the icon determination unit 743 attaches an arbitrary marker to the camera video frame input in S31, and the user's face Are output to the user video generation unit 75 together with coordinate information representing the image area.

アイコンの表情映像をユーザが指定していた場合は(S34:YES)、アイコン判断部743は、タグAの表す表情に対応するアイコンを選択し(S36)、選択したアイコンの情報をユーザ映像生成部75へ出力する(S37)。なお、タグAはn3と対応づけてアイコン判断部743内のメモリなどの記憶部に保存する。   If the user has designated an icon facial image (S34: YES), the icon determination unit 743 selects an icon corresponding to the facial expression represented by the tag A (S36), and generates information on the selected icon as a user video. The data is output to the unit 75 (S37). Tag A is stored in a storage unit such as a memory in icon determination unit 743 in association with n3.

入力されたカメラ映像フレームで表情変化がなかった場合(S32:NO)、表情変化検出部741は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とを表情変化検出時間参照部742へ出力する。表情変化検出時間参照部742は、現在時間と直前に記憶部に保存されたn3とを照らし合わせ、その差分が予め設定された所定の時間(t2秒間)以内の場合(S38:YES)、表情変化が発生してからt2秒以内である(画面1への表情映像の表示期間内)と判別する。そして、表情変化検出時間参照部742は、直前にS33で保存された情報を用いて、n3時点での顔の位置と現時点での顔の位置との差分がαピクセル以内であるか否かを判断する(S39)。これにより、直前に表情変化が発生したカメラ映像フレームのユーザの顔と、現在のカメラ映像フレームのユーザの顔が同一人物であるか否かを判別する。   When there is no expression change in the input camera image frame (S32: NO), the expression change detection unit 741 sends the camera image frame and the coordinate information representing the image area of the user's face to the expression change detection time reference unit 742. Output. The facial expression change detection time reference unit 742 compares the current time with n3 stored in the storage unit immediately before, and if the difference is within a predetermined time (t2 seconds) set in advance (S38: YES), the facial expression change It is determined that it is within t2 seconds from the occurrence of the change (within the display period of the facial expression video on the screen 1). Then, the facial expression change detection time reference unit 742 uses the information stored immediately before in S33 to determine whether or not the difference between the face position at the n3 time point and the current face position is within α pixels. Judgment is made (S39). Thus, it is determined whether or not the user's face in the camera video frame in which the expression change has occurred immediately before and the user's face in the current camera video frame are the same person.

差分がαピクセル以内の場合(S39:YES)、表情変化検出時間参照部742は、過去の顔と同一人物であると判別し、アイコン判断部743にカメラ映像フレームとユーザの顔の画像領域を表す座標情報とを出力する。アイコン判断部743は、カメラ映像フレームの表情映像をユーザが設定していた場合(S40:NO)、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S41)。アイコンの表情映像をユーザが設定していた場合は(S40:YES)、アイコン判断部743は、直前のS36で記憶部に保存しておいたタグAの表す表情に対応するアイコンを選択し(S42)、当該アイコンの情報をユーザ映像生成部75へ出力する(S43)。   When the difference is within α pixels (S39: YES), the expression change detection time reference unit 742 determines that the person is the same person as the past face, and the icon determination unit 743 stores the camera video frame and the image area of the user's face. Output coordinate information. If the user has set a facial expression video of the camera video frame (S40: NO), the icon determination unit 743 outputs the camera video frame and coordinate information representing the image area of the user's face to the user video generation unit 75. (S41). If the user has set the facial expression image of the icon (S40: YES), the icon determination unit 743 selects an icon corresponding to the facial expression represented by the tag A stored in the storage unit in the immediately preceding S36 ( In step S42, the icon information is output to the user video generation unit 75 (step S43).

一方、現在時間とn3の差分が予め指定されたt2秒を超える場合(S38:NO)、表情変化検出時間参照部742は、表情変化が発生してからt2秒(画面1への表情映像の表示期間)を経過したと判別し、アイコン判断部743への出力を行わない(S43)。これにより、これまで画面1に表示されていた表情映像が消えることになる。   On the other hand, when the difference between the current time and n3 exceeds t2 seconds specified in advance (S38: NO), the facial expression change detection time reference unit 742 displays t2 seconds (the facial expression video on the screen 1 is displayed) after the facial expression change occurs. It is determined that the display period has elapsed, and no output is performed to the icon determination unit 743 (S43). As a result, the facial expression image that has been displayed on the screen 1 until now disappears.

また、差分がαピクセルを超える場合(S39:NO)も、表情変化検出時間参照部742は、過去の顔と違うユーザであると判別し、アイコン判断部743への出力を行わない(S43)。これにより、これまで画面1に表示されていた表情映像が消えることになる。   When the difference exceeds the α pixel (S39: NO), the facial expression change detection time reference unit 742 determines that the user is different from the past face, and does not output to the icon determination unit 743 (S43). . As a result, the facial expression image that has been displayed on the screen 1 until now disappears.

なお、図6の処理は、入力されるカメラ映像のフレーム毎に繰り返し行われるものである。   Note that the processing in FIG. 6 is repeatedly performed for each frame of the input camera video.

また、図6に示す実施形態では、マーカーが付されるカメラ映像フレームはS35に該当するカメラ映像フレームのみであるが、t2の値が小さい場合は、S41のカメラ映像フレームにもマーカーを付してエフェクト処理を行わせることとしてもよい。すなわち、画面1に表情映像を表示する間、エフェクト処理を行うこととしてもよい。   In the embodiment shown in FIG. 6, the camera video frame to which the marker is attached is only the camera video frame corresponding to S35, but when the value of t2 is small, the marker is also attached to the camera video frame of S41. The effect processing may be performed. That is, effect processing may be performed while a facial expression video is displayed on the screen 1.

図7は、ユーザ映像生成部75の処理を、図5および図6の処理により入力される情報の種類毎に表わしたものである。   FIG. 7 shows the processing of the user video generation unit 75 for each type of information input by the processing of FIGS. 5 and 6.

(a)マーカー付きのカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図5のS17、S20)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔及び上半身部分の画像領域を表す座標情報にもとづいて、ユーザの顔及び上半身部分を抽出し、手話映像を生成する(S51)。そして、ユーザ映像エフェクト処理部752は、生成した手話映像に、手話映像の表示を目立たせるようなエフェクト処理(強調処理)をかける(S52)。エフェクトとしては、例えば、手話映像の周囲に目立つ色の枠をつける、枠を点滅させる、手話映像のサイズを予め設定した通常よりも拡大するなどが考えられる。その他に、ユーザがリモコン5などを用いて予め指定したエフェクトあれば、それにもとづいたエフェクトもあわせてかけることも考えられる。
(A) When coordinate information representing a camera video frame with a marker and an image area of the user's face and upper body is input to the user video generation unit 75 (S17 and S20 in FIG. 5).
First, the user video extraction unit 751 extracts the user's face and upper body part from the camera video frame based on the coordinate information representing the image area of the user's face and upper body part, and generates a sign language video (S51). Then, the user video effect processing unit 752 performs effect processing (emphasis processing) on the generated sign language video so that the display of the sign language video is conspicuous (S52). Examples of the effects include adding a conspicuous color frame around the sign language image, blinking the frame, and enlarging the size of the sign language image from a preset normal size. In addition, if there is an effect designated in advance by the user using the remote controller 5 or the like, an effect based on the effect may be applied.

次に、ユーザ映像サイズ決定部753は、ユーザがリモコン5などを用いて予め指定した大きさに手話映像の大きさを調整する(S53)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S53)、手話映像と位置座標とを映像合成部76へ出力する(S54)。   Next, the user video size determination unit 753 adjusts the size of the sign language video to a size specified in advance by the user using the remote controller 5 or the like (S53). Next, the user video position coordinate determining unit 754 gives a position coordinate based on a position designated in advance by the user or based on an embodiment described later (S53), and outputs the sign language video and the position coordinate to the video synthesizing unit 76. (S54).

(b)カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図5:S15、S21)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔及び上半身部分の画像領域を表す座標情報にもとづいて、ユーザの顔及び上半身部分を抽出し、手話映像を生成する(S61)。そして、ユーザがリモコン5などにより予め手話映像にエフェクトをかけることを指定している場合には、ユーザ映像エフェクト処理部752は、指定されたエフェクトをかける(S62)。ユーザによるエフェクトの指定が無い場合は、エフェクト処理を行わない。
(B) When coordinate information representing the camera video frame and the image area of the user's face and upper body is input to the user video generation unit 75 (FIG. 5: S15, S21)
First, the user video extraction unit 751 extracts the user's face and upper body part from the camera video frame based on the coordinate information representing the image area of the user's face and upper body part, and generates a sign language video (S61). Then, when the user has designated in advance that the sign language video is to be applied with the remote controller 5 or the like, the user video effect processing unit 752 applies the specified effect (S62). If no effect is specified by the user, no effect processing is performed.

次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに手話映像の大きさを調整する(S63)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S63)、手話映像と位置座標とを映像合成部へ出力する(S64)。   Next, the user video size determination unit 753 adjusts the size of the sign language video to a size specified in advance by the user (S63). Next, the user video position coordinate determination unit 754 gives a position coordinate based on a position specified in advance by the user or based on an embodiment described later (S63), and outputs the sign language video and the position coordinate to the video composition unit. (S64).

(c)マーカー付きのカメラ映像フレームとユーザの顔の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図6:S35)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔の画像領域を表す座標情報にもとづいてユーザの顔部分を抽出し、表情映像を生成する(S71)。そして、ユーザ映像エフェクト処理部752は、生成した表情映像に、表情映像の表示を目立たせるようなエフェクトをかける。エフェクトについては、(a)のS52と同様である。
(C) When the coordinate information representing the camera image frame with the marker and the image area of the user's face is input to the user image generation unit 75 (FIG. 6: S35).
First, the user video extraction unit 751 extracts a user's face from the camera video frame based on coordinate information representing the image area of the user's face, and generates a facial expression video (S71). Then, the user video effect processing unit 752 applies an effect that makes the facial expression video noticeable on the generated facial expression video. The effect is the same as S52 in (a).

次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに表情映像の大きさを調整する(S73)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S73)、表情映像と位置座標とを映像合成部76へ出力する(S74)。   Next, the user video size determination unit 753 adjusts the size of the facial expression video to a size specified in advance by the user (S73). Next, the user video position coordinate determination unit 754 gives a position coordinate based on a position designated in advance by the user or based on an embodiment described later (S73), and outputs the facial expression video and the position coordinate to the video composition unit 76. (S74).

(d)カメラ映像フレームとユーザの顔の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図6:S41)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔の画像領域を表す座標情報にもとづいてユーザの顔部分を抽出し、表情映像を生成する(S81)。そして、ユーザ映像エフェクト処理部752は、予めユーザが表情映像にエフェクトをかけることを指定している場合、指定されたエフェクトをかける(S82)。ユーザによるエフェクトの指定が無い場合は、エフェクト処理を行わない。
(D) When coordinate information representing the camera video frame and the image area of the user's face is input to the user video generation unit 75 (FIG. 6: S41)
First, the user video extraction unit 751 extracts the user's face portion from the camera video frame based on the coordinate information representing the image area of the user's face, and generates a facial expression video (S81). Then, when the user has previously specified that the effect is applied to the facial expression video, the user video effect processing unit 752 applies the specified effect (S82). If no effect is specified by the user, no effect processing is performed.

次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに表情映像の大きさを調整する(S83)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S83)、表情映像と位置座標とを映像合成部76へ出力する(S84)。   Next, the user video size determination unit 753 adjusts the size of the facial expression video to a size specified in advance by the user (S83). Next, the user video position coordinate determination unit 754 gives a position coordinate based on a position specified in advance by the user or based on an embodiment described later (S83), and outputs the facial expression video and the position coordinate to the video composition unit 76. (S84).

(e)表情映像としてアイコンの情報がユーザ映像生成部75に入力された場合(図6:S37、S43)
まず、予めユーザがアイコンにエフェクトをかけることを指定している場合は、ユーザ映像エフェクト処理部752は、指定されたエフェクトをかける(S91)。次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさにアイコン映像の大きさを調整する(S92)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を決定し(S92)、アイコンの情報と位置座標とを映像合成部76へ出力する(S93)。
(E) When icon information is input to the user video generation unit 75 as a facial expression video (FIG. 6: S37, S43)
First, when the user has specified in advance that an effect is to be applied to the icon, the user video effect processing unit 752 applies the specified effect (S91). Next, the user video size determination unit 753 adjusts the size of the icon video to a size specified in advance by the user (S92). Next, the user video position coordinate determination unit 754 determines a position coordinate based on a position designated in advance by the user or based on an embodiment described later (S92), and sends the icon information and the position coordinate to the video composition unit 76. Output (S93).

なお、図7の処理は、入力される情報に応じて繰り返し行われるものである。   Note that the process of FIG. 7 is repeatedly performed according to input information.

以上説明した(a)から(e)の処理において、ユーザ映像位置座標決定部754が、コンテンツ映像に含まれる文字情報の位置に基づいて、手話映像および表情映像の位置座標を決定する場合、文字情報検出部755は、コンテンツ映像の中から文字情報の表示位置を検出する。なお、文字情報の検出には、例えば、参考文献5のような技術を用いることができる。文字情報は、時刻表示や番組ロゴなどを除く、コンテンツ映像における台詞やナレーションなどの音声を文字によって表現した字幕、テロップなどの情報である。   In the processes (a) to (e) described above, when the user video position coordinate determination unit 754 determines the position coordinates of the sign language video and the facial expression video based on the position of the character information included in the content video, The information detection unit 755 detects the display position of the character information from the content video. For detection of character information, for example, a technique such as Reference 5 can be used. The character information is information such as subtitles and telops that express voices such as dialogue and narration in the content video by characters, excluding time display and program logo.

[参考文献5]:門馬孝雄,沢村英治,都木徹,白井克彦,“オフライン字幕制作実用システムにおける自動整形技術の開発”,2003年映像メディア学会冬季大会
以下に、ユーザ映像位置座標決定部754が、手話映像および表情映像の位置座標を決定する際の実施例を説明する。
[Reference 5]: Takao Kadoma, Eiji Sawamura, Toru Tsuki, Katsuhiko Shirai, “Development of Automatic Formatting Technology in Practical System for Off-line Caption Production”, 2003 Video Media Society Winter Conference However, an embodiment for determining the position coordinates of the sign language image and the expression image will be described.

ここでは、聴覚に障がいがあるユーザにとっての見やすさを考えると、手話映像および表情映像は、字幕やテロップなどの非定常的にコンテンツ映像に重畳される文字情報との重なりをできる限り避けるとともに、視線の移動が少なくて済むように文字情報とできる限り近接していることが望ましいと考える。ここでは、手話映像については、画面の4隅のうち、文字情報にもっとも近接する隅に表示し、表情映像については、文字情報の末尾に表示するものとする。手話映像は、手話の内容を見えるようにするため映像サイズが大きくなる場合が多いため、文字情報の末尾では手話映像が収まらない場合を考慮し、画面の4隅とした。   Here, considering the ease of viewing for users with hearing impairments, sign language video and facial expression video should avoid overlapping text information superimposed on content video such as subtitles and telops as much as possible, I think it is desirable to be as close as possible to the character information so that the movement of the line of sight is small. Here, the sign language image is displayed at the corner closest to the character information among the four corners of the screen, and the facial expression image is displayed at the end of the character information. Since sign language images often have a large image size so that the contents of the sign language can be seen, the sign language images have four corners in consideration of the case where the sign language image does not fit at the end of the character information.

また、文字情報が画面上の複数箇所に検出された場合は、手話映像は、画面上の最も下部に検出された文字情報に近接する隅に表示し、また、表情映像は、画面上の最も下部に検出された文字情報の末尾に表示するものとする。   When character information is detected at multiple locations on the screen, the sign language image is displayed at the corner near the detected character information at the bottom of the screen, and the facial expression image is the most on the screen. It shall be displayed at the end of the character information detected at the bottom.

図8および図9は、このような実施例において、手話映像と表情映像の位置座標を決定した画面の一例のイメージ図を示すものである。   FIG. 8 and FIG. 9 show an image diagram of an example of the screen in which the position coordinates of the sign language image and the facial expression image are determined in such an embodiment.

図8の画面81は、文字情報が画面中央に検出されたときに、手話映像を表示する画面例であり、コンテンツ映像を視聴するユーザの手話映像811、812が、文字情報810にもっとも近接する下部の左右の隅に表示されている。図8の画面82は、文字情報が画面中央に検出されたときに、表情映像を表示する画面例であり、コンテンツ映像を視聴するユーザの表情映像821、822が、文字情報820の末尾に表示にされている。   A screen 81 in FIG. 8 is an example of a screen that displays a sign language video when character information is detected in the center of the screen. The sign language video 811 and 812 of the user viewing the content video is closest to the text information 810. It is displayed in the lower left and right corners. The screen 82 in FIG. 8 is an example of a screen that displays a facial expression video when character information is detected at the center of the screen, and facial expressions 821 and 822 of the user viewing the content video are displayed at the end of the character information 820. Has been.

図8の画面83は、文字情報が画面下部に検出されたときに、手話映像を表示する画面例であり、手話映像831、832が、文字情報830に最も近接する下部の左右の隅に表示されている。図8の画面84は、文字情報が画面下部に検出されたときに、表情映像を表示する画面例であり、表情映像841、842が、文字情報840の末尾に表示にされている。   The screen 83 in FIG. 8 is an example of a screen that displays a sign language image when character information is detected at the bottom of the screen. The sign language images 831 and 832 are displayed at the left and right corners closest to the character information 830. Has been. A screen 84 in FIG. 8 is an example of a screen that displays a facial expression video when character information is detected at the bottom of the screen, and facial expression videos 841 and 842 are displayed at the end of the character information 840.

図9の画面91および画面92は、文字情報が画面上部に検出されたときに、手話映像および表情映像をそれぞれ表示する画面例である。また、図9の画面93は、文字情報が複数検出され場合であって、最も下部の文字情報に近接する隅に手話映像を表示する画面例であり、図9の画面94は、文字情報が複数検出され場合であって、最も下部の文字情報の末尾に、表情映像を表示する画面例である。   Screens 91 and 92 in FIG. 9 are screen examples that display a sign language image and a facial expression image, respectively, when character information is detected at the top of the screen. A screen 93 in FIG. 9 is an example of a screen in which a plurality of character information is detected, and a sign language image is displayed at a corner close to the lowermost character information. A screen 94 in FIG. This is an example of a screen that displays a facial expression video at the end of the lowermost character information when a plurality of characters are detected.

このように、手話映像および表情映像の画面内での表示位置は、文字情報に重ならないような位置に決定する。なお、上記実施例以外にも、ユーザの任意の位置に手話映像および表情映像を表示することとしてもよい。   Thus, the display positions of the sign language image and the expression image on the screen are determined so as not to overlap the character information. In addition to the above embodiment, a sign language image and a facial expression image may be displayed at an arbitrary position of the user.

そして、映像合成部76は、映像コンテンツ出力装置8から出力されるコンテンツ映像に、ユーザ映像生成部75から出力される手話映像または表情映像を、指定された位置座標の位置に重畳した合成映像を生成し、画面出力インタフェース4を介して画面1に送出する。これにより、画面1には、コンテンツ映像を視聴するユーザの手話映像または表情映像が重畳された合成映像が表示される。   The video composition unit 76 then combines the content video output from the video content output device 8 with the composite video obtained by superimposing the sign language video or facial expression video output from the user video generation unit 75 on the position of the specified position coordinate. It is generated and sent to the screen 1 via the screen output interface 4. Thereby, the screen 1 displays a composite video in which a sign language video or a facial expression video of a user who views the content video is superimposed.

以上説明した本実施形態では、聴覚に障がいがあるユーザが手話をしている間と、ユーザが視聴しているコンテンツ映像がテレビCMに切り替わっている間にのみ、ユーザの手話映像をコンテンツ映像に重畳して表示することで、コンテンツ映像の見易さを考慮しつつ、コンテンツ映像に重畳された手話映像越しにコミュニケーションをとることを可能とし、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際のコミュニケーションをより円滑にすることができる。   In the present embodiment described above, the sign language video of the user is changed to the content video only while the user with hearing impairment is making the sign language and the content video being viewed by the user is switched to the TV commercial. By superimposing and displaying the content video, it is possible to communicate through the sign language video superimposed on the content video while considering the visibility of the content video. When a user with hearing impairments views the content video Communication can be made smoother.

具体的には、ユーザの手話の動作を検出して手話をしている間、ユーザの手話映像をコンテンツ映像に重畳して表示するとともに、視聴しているコンテンツ映像がテレビCMに切り替わっている間は、ユーザの会話が発生しやすいタイミングとみなし、手話映像をコンテンツ映像に重畳して表示することで、円滑なコミュニケーションを実現し、コミュニケーションの促進を図ることができる。   Specifically, while sign language is detected by detecting user sign language movement, the user sign language video is superimposed on the content video and displayed while the content video being viewed is switched to the TV commercial. Is regarded as a timing at which a user's conversation is likely to occur, and a sign language video is superimposed and displayed on a content video, whereby smooth communication can be realized and communication can be promoted.

また、本実施形態では、ユーザの表情の変化を検出した際に、ユーザの顔部分の表情映像をコンテンツ映像に重畳して表示することで、お互いに画面の方向を向いていてはわからない、お互いの表情変化を相手に知らせ、コミュニケーションをより円滑にすることができる。   Further, in this embodiment, when a change in the user's facial expression is detected, the facial expression video of the user's face portion is displayed superimposed on the content video, so that it is not known that the screen faces each other. The change in facial expression can be informed to the other party, and communication can be made smoother.

また、本実施形態では、手話映像や表情映像の表示を開始する際には、それらの映像を目立たせるようなエフェクトをかけ、ユーザがコンテンツ映像に集中していても、手話映像や表情映像の表示が開始され、相手が手話をし始めたことや、相手の表情が変化したことに気がつきやすくする。これにより、ユーザは、手話映像や表情映像を有効に活用することができ、より円滑なコミュニケーションを実現することができる。   In this embodiment, when the display of the sign language image and the expression image is started, an effect that makes the images stand out is applied, and even if the user concentrates on the content image, the sign language image or the expression image is displayed. Display is started, and it is easy to notice that the other party has started sign language and that the other party's facial expression has changed. Accordingly, the user can effectively use the sign language video and the facial expression video, and can realize smoother communication.

また、本実施形態では、手話映像や表情映像の画面上での表示位置をテロップや字幕等の文字情報に重ならないように決定する。これにより、コンテンツ映像に含まれる文字情報の見やすさを考慮しつつ、映像越しに円滑なコミュニケーションをとることができる。   In the present embodiment, the display position of the sign language image or facial expression image on the screen is determined so as not to overlap character information such as telop or subtitle. This makes it possible to communicate smoothly over the video while taking into account the ease of viewing the character information included in the content video.

なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。   In addition, this invention is not limited to the said embodiment, Many deformation | transformation are possible within the range of the summary.

1 :画面
2 :ビデオカメラ
3 :カメラ入力インタフェース
4 :画面出力インタフェース
5 :リモコン
6 :ユーザ入力インタフェース
7 :制御装置
71:カメラ映像解析部
72:TV内容判断部
73:手話判断部
74:表情変化判断部
75:ユーザ映像生成部
76:映像合成部
8 :映像コンテンツ出力装置
1: Screen 2: Video camera 3: Camera input interface 4: Screen output interface 5: Remote control 6: User input interface 7: Control device 71: Camera image analysis unit 72: TV content determination unit 73: Sign language determination unit 74: Expression change Judgment unit 75: User video generation unit 76: Video composition unit 8: Video content output device

Claims (9)

視聴者の映像の表示を制御する視聴者映像表示制御装置であって、
コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、
前記コンテンツ映像がCM中であるか否かを判断するTV内容判断部と、
前記カメラ映像を用いて前記視聴者が手話をしているか否かを検出する手話検出部と、
前記TV内容判断部による判断がCM中でない場合は、前記手話検出部が手話をしていると検出したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備え、
前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像であること
を特徴とする視聴者映像表示制御装置。
A viewer video display control device for controlling display of a viewer's video,
A video analysis unit that analyzes a camera video input from a camera that shoots a viewer viewing a content video and detects the video of the viewer;
A TV content determination unit for determining whether the content video is in a CM;
A sign language detection unit that detects whether the viewer is sign language using the camera image;
If determined by the TV content judgment unit is not in the CM, at a timing when the sign language detection unit detects that the sign language, only while the viewer is the sign language, using the image of the viewer e Bei a video synthesis unit for synthesizing by superimposing the sign language video on the content image, and
The viewer sign display control device , wherein the sign language image is an image in which an operation of a sign language can be visually recognized when the viewer is performing sign language .
請求項1に記載の視聴者映像表示制御装置であって、
前記TV内容判断部による判断がCM中である場合は、前記映像合成部は、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御装置。
The viewer image display control device according to claim 1 ,
If determined by the TV content judgment unit is in the CM, the video synthesis section, a viewer image display characterized by synthesized by superimposing the sign language video using the video of the viewer to the content image Control device.
請求項1に記載の視聴者映像表示制御装置であって、
前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部をさらに備え、
前記TV内容判断部による判断がCM中でない場合であって、前記視聴者が手話をしていない場合、前記映像合成部は、前記表情変化検出部が前記表情変化を検出したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御装置。
The viewer image display control device according to claim 1 ,
Further comprising a facial expression detector for detecting a facial expression change of the face of the viewer by using the camera image,
When the judgment by the TV content judgment unit is not in the CM, and the viewer is not sign language, the video composition unit is the timing at which the facial expression change detection unit detects the facial expression change. viewer video display control apparatus of the expression video using the user image, characterized in that the synthesis is superimposed on the content image.
請求項1に記載の視聴者映像表示制御装置であって、
前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部と、
前記視聴者の映像を用いた手話映像、または前記視聴者の映像を用いた表情映像を強調するための強調処理を、前記手話検出部または前記表情変化検出部が検出してから所定の時間、行う強調部と、をさらに備え、
前記映像合成部は、前記強調処理がなされた手話映像または表情映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御装置。
The viewer image display control device according to claim 1 ,
A facial expression change detector that detects facial changes in the viewer's face using the camera image ;
A predetermined time after the sign language detection unit or the expression change detection unit detects an enhancement process for enhancing a sign language image using the viewer's image or an expression image using the viewer's image, An emphasis unit to perform ,
The image combining unit viewer video display control apparatus characterized by synthesized by superimposing the sign language video or expression image the enhancement processing has been performed on the content image.
コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、
コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、
前記コンテンツ映像がCM中であるか否かを判断するTV内容判断ステップと、
前記TV内容判断ステップにおいてCM中でないと判断された場合、前記視聴者が手話を開始したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行い、
前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像であること
を特徴とする視聴者映像表示制御方法。
A viewer video display control method for controlling display of a viewer's video performed by a computer,
A video analysis step of analyzing a camera video input from a camera that shoots a viewer viewing the content video and detecting the video of the viewer;
TV content determination step for determining whether or not the content video is in a CM;
If it is determined in the TV content determination step that the CM is not being commercialized, the sign language video using the viewer's video is only displayed while the viewer is sign language at the timing when the viewer starts sign language. a video synthesis step of synthesizing superimposed on the content image, gastric row,
The viewer sign display method , wherein the sign language image is an image in which a sign language operation can be visually recognized when the viewer is performing sign language .
請求項5に記載の視聴者映像表示制御方法であって、
前記TV内容判断ステップにおいてCM中であると判断された場合、前記映像合成ステップは、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御方法。
The viewer image display control method according to claim 5 ,
The TV content if it is determined to be in CM and in decision, the video synthesis step the viewer image, which comprises synthesized by superimposing the sign language video using the video of the viewer to the content image Display control method.
請求項5に記載の視聴者映像表示制御方法であって、
前記TV内容判断ステップにおいてCM中でないと判断された場合であって、前記視聴者が手話をしていない場合、前記映像合成ステップは、前記視聴者の顔の表情が変化したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御方法。
The viewer image display control method according to claim 5 ,
If it is determined in the TV content determination step that the CM is not being commercialized and the viewer is not sign language, the video composition step is the timing when the viewer's facial expression changes. A viewer video display control method, comprising superimposing a facial expression video using a viewer's video on the content video and synthesizing it .
請求項5に記載の視聴者映像表示制御方法であって、
前記検出された視聴者の映像を用いた手話映像を手話の開始から所定の時間、強調させる処理を行う、または、前記検出された視聴者の映像を用いた表情映像を表情変化から所定の時間、強調させる処理を行う強調ステップをさらに行い、
前記映像合成ステップは、前記強調ステップの処理がなされた手話映像または表情映像を、前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御方法。
The viewer image display control method according to claim 5 ,
The sign language image using the detected viewer image is emphasized for a predetermined time from the start of sign language, or the facial expression image using the detected viewer image is changed for a predetermined time from the facial expression change. , Further perform an emphasis step to perform the emphasis process ,
The viewer video display control method characterized in that the video synthesizing step superimposes the sign language video or facial expression video on which the processing of the emphasis step has been performed with the content video.
請求項1から4のいずれか1項に記載の視聴者映像表示制御装置が備える各部としてコンピュータを機能させる視聴者映像表示制御プログラム。 A viewer video display control program for causing a computer to function as each unit included in the viewer video display control device according to any one of claims 1 to 4.
JP2012277959A 2012-12-20 2012-12-20 Viewer video display control device, viewer video display control method, and viewer video display control program Active JP6030945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012277959A JP6030945B2 (en) 2012-12-20 2012-12-20 Viewer video display control device, viewer video display control method, and viewer video display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012277959A JP6030945B2 (en) 2012-12-20 2012-12-20 Viewer video display control device, viewer video display control method, and viewer video display control program

Publications (2)

Publication Number Publication Date
JP2014123818A JP2014123818A (en) 2014-07-03
JP6030945B2 true JP6030945B2 (en) 2016-11-24

Family

ID=51403992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012277959A Active JP6030945B2 (en) 2012-12-20 2012-12-20 Viewer video display control device, viewer video display control method, and viewer video display control program

Country Status (1)

Country Link
JP (1) JP6030945B2 (en)

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9554844B2 (en) 2011-11-29 2017-01-31 Covidien Lp Open vessel sealing instrument and method of manufacturing the same
US9610121B2 (en) 2012-03-26 2017-04-04 Covidien Lp Light energy sealing, cutting and sensing surgical device
US9931159B2 (en) 2012-07-17 2018-04-03 Covidien Lp Gap control via overmold teeth and hard stops
US9974605B2 (en) 2012-01-25 2018-05-22 Covidien Lp Surgical instrument with resilient driving member and related methods of use
US10039587B2 (en) 2011-05-16 2018-08-07 Covidien Lp Thread-like knife for tissue cutting
US10188454B2 (en) 2009-09-28 2019-01-29 Covidien Lp System for manufacturing electrosurgical seal plates
US10245103B2 (en) 2013-05-31 2019-04-02 Covidien Lp End effector assemblies and methods of manufacturing end effector assemblies for treating and/or cutting tissue
US10245104B2 (en) 2008-04-22 2019-04-02 Covidien Lp Jaw closure detection system
US10245101B2 (en) 2010-06-02 2019-04-02 Covidien Lp Apparatus for performing an electrosurgical procedure
US10271896B2 (en) 2013-09-16 2019-04-30 Covidien Lp Electrosurgical instrument with end-effector assembly including electrically-conductive, tissue-engaging surfaces and switchable bipolar electrodes
US10271897B2 (en) 2012-05-01 2019-04-30 Covidien Lp Surgical instrument with stamped double-flange jaws and actuation mechanism
US10278770B2 (en) 2010-04-12 2019-05-07 Covidien Lp Surgical instrument with non-contact electrical coupling
US10299851B2 (en) 2011-10-20 2019-05-28 Covidien Lp Dissection scissors on surgical device
US10303641B2 (en) 2014-05-07 2019-05-28 Covidien Lp Authentication and information system for reusable surgical instruments
US10314639B2 (en) 2012-10-08 2019-06-11 Covidien Lp Jaw assemblies for electrosurgical instruments and methods of manufacturing jaw assemblies
US10327838B2 (en) 2010-06-02 2019-06-25 Covidien Lp Apparatus for performing an electrosurgical procedure
US10342605B2 (en) 2014-09-17 2019-07-09 Covidien Lp Method of forming a member of an end effector
US10499979B2 (en) 2014-04-17 2019-12-10 Covidien Lp Methods of manufacturing a pair of jaw members of an end-effector assembly for a surgical instrument
US10537331B2 (en) 2010-10-01 2020-01-21 Covidien Lp Surgical stapling device for performing circular anastomosis and surgical staples for use therewith
US10588686B2 (en) 2012-06-26 2020-03-17 Covidien Lp Surgical instruments with structures to provide access for cleaning
US10595932B2 (en) 2011-11-30 2020-03-24 Covidien Lp Electrosurgical instrument with a knife blade lockout mechanism
US10639040B2 (en) 2010-10-01 2020-05-05 Covidien Lp Surgical fastener applying apparatus
US10675046B2 (en) 2009-10-06 2020-06-09 Covidien Lp Jaw, blade and gap manufacturing for surgical instruments with small jaws
US10806508B2 (en) 2013-02-19 2020-10-20 Covidien Lp Method for manufacturing an electrode assembly configured for use with an electrosurgical instrument
US10813695B2 (en) 2017-01-27 2020-10-27 Covidien Lp Reflectors for optical-based vessel sealing
US10993733B2 (en) 2015-05-27 2021-05-04 Covidien Lp Surgical forceps
US11007000B2 (en) 2012-01-23 2021-05-18 Covidien Lp Partitioned surgical instrument
US11103135B2 (en) 2012-10-31 2021-08-31 Covidien Lp Surgical devices and methods utilizing optical coherence tomography (OCT) to monitor and control tissue sealing
US11172952B2 (en) 2012-11-27 2021-11-16 Covidien Lp Surgical apparatus
US11207129B2 (en) 2012-10-08 2021-12-28 Covidien Lp Electric stapler device
US11207128B2 (en) 2013-03-11 2021-12-28 Covidien Lp Surgical instrument with system and method for springing open jaw members
US11207091B2 (en) 2016-11-08 2021-12-28 Covidien Lp Surgical instrument for grasping, treating, and/or dividing tissue
US11224476B2 (en) 2013-08-07 2022-01-18 Covidien Lp Bipolar surgical instrument
US11253280B2 (en) 2012-10-08 2022-02-22 Covidien Lp Surgical forceps
US11364068B2 (en) 2013-09-16 2022-06-21 Covidien Lp Split electrode for use in a bipolar electrosurgical instrument
US11490959B2 (en) 2012-07-17 2022-11-08 Covidien Lp Surgical instrument for energy-based tissue treatment
US11523862B2 (en) 2011-10-03 2022-12-13 Covidien Lp Surgical forceps
US11576697B2 (en) 2016-08-15 2023-02-14 Covidien Lp Electrosurgical forceps for video assisted thoracoscopic surgery and other surgical procedures
US11583333B2 (en) 2015-03-12 2023-02-21 Covidien Lp Mapping vessels for resecting body tissue
US11596465B2 (en) 2012-07-19 2023-03-07 Covidien Lp Surgical forceps including reposable end effector assemblies
US11690666B2 (en) 2017-06-08 2023-07-04 Covidien Lp Knife lockout for electrosurgical forceps
US11707313B2 (en) 2012-03-29 2023-07-25 Covidien Lp Electrosurgical forceps and method of manufacturing the same
US11871983B2 (en) 2016-01-29 2024-01-16 Covidien Lp Surgical instrument with sensor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5894055B2 (en) * 2012-10-18 2016-03-23 日本電信電話株式会社 VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI276357B (en) * 2002-09-17 2007-03-11 Ginganet Corp Image input apparatus for sign language talk, image input/output apparatus for sign language talk, and system for sign language translation
JP2004112511A (en) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd Display controller and method therefor
JP2005109669A (en) * 2003-09-29 2005-04-21 Casio Comput Co Ltd Display system, terminal, and terminal containing bag
JP4845581B2 (en) * 2006-05-01 2011-12-28 三菱電機株式会社 Television broadcast receiver with image and audio communication function
JP2010014487A (en) * 2008-07-02 2010-01-21 Sanyo Electric Co Ltd Navigation device
JP2010026021A (en) * 2008-07-16 2010-02-04 Sony Corp Display device and display method
JP2010239499A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Communication terminal unit, communication control unit, method of controlling communication of communication terminal unit, and communication control program
JP5346797B2 (en) * 2009-12-25 2013-11-20 株式会社アステム Sign language video synthesizing device, sign language video synthesizing method, sign language display position setting device, sign language display position setting method, and program
JP2012085009A (en) * 2010-10-07 2012-04-26 Sony Corp Information processor and information processing method
JP5894055B2 (en) * 2012-10-18 2016-03-23 日本電信電話株式会社 VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM

Cited By (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10245104B2 (en) 2008-04-22 2019-04-02 Covidien Lp Jaw closure detection system
US11497547B2 (en) 2008-04-22 2022-11-15 Covidien Lp Jaw closure detection system
US10188454B2 (en) 2009-09-28 2019-01-29 Covidien Lp System for manufacturing electrosurgical seal plates
US11490955B2 (en) 2009-09-28 2022-11-08 Covidien Lp Electrosurgical seal plates
US10675046B2 (en) 2009-10-06 2020-06-09 Covidien Lp Jaw, blade and gap manufacturing for surgical instruments with small jaws
US11622782B2 (en) 2009-10-06 2023-04-11 Covidien Lp Jaw, blade and gap manufacturing for surgical instruments with small jaws
US10278770B2 (en) 2010-04-12 2019-05-07 Covidien Lp Surgical instrument with non-contact electrical coupling
US10245101B2 (en) 2010-06-02 2019-04-02 Covidien Lp Apparatus for performing an electrosurgical procedure
US11116565B2 (en) 2010-06-02 2021-09-14 Covidien Lp Apparatus for performing an electrosurgical procedure
US10327838B2 (en) 2010-06-02 2019-06-25 Covidien Lp Apparatus for performing an electrosurgical procedure
US10639040B2 (en) 2010-10-01 2020-05-05 Covidien Lp Surgical fastener applying apparatus
US11357507B2 (en) 2010-10-01 2022-06-14 Covidien Lp Surgical stapling device for performing circular anastomosis and surgical staples for use therewith
US10537331B2 (en) 2010-10-01 2020-01-21 Covidien Lp Surgical stapling device for performing circular anastomosis and surgical staples for use therewith
US10039587B2 (en) 2011-05-16 2018-08-07 Covidien Lp Thread-like knife for tissue cutting
US11523862B2 (en) 2011-10-03 2022-12-13 Covidien Lp Surgical forceps
US10299851B2 (en) 2011-10-20 2019-05-28 Covidien Lp Dissection scissors on surgical device
US10993762B2 (en) 2011-10-20 2021-05-04 Covidien Lp Dissection scissors on surgical device
US9554844B2 (en) 2011-11-29 2017-01-31 Covidien Lp Open vessel sealing instrument and method of manufacturing the same
US10595932B2 (en) 2011-11-30 2020-03-24 Covidien Lp Electrosurgical instrument with a knife blade lockout mechanism
US11007000B2 (en) 2012-01-23 2021-05-18 Covidien Lp Partitioned surgical instrument
US9974605B2 (en) 2012-01-25 2018-05-22 Covidien Lp Surgical instrument with resilient driving member and related methods of use
US11324545B2 (en) 2012-01-25 2022-05-10 Covidien Lp Surgical instrument with resilient driving member and related methods of use
US10639095B2 (en) 2012-01-25 2020-05-05 Covidien Lp Surgical instrument with resilient driving member and related methods of use
US9925008B2 (en) 2012-03-26 2018-03-27 Covidien Lp Light energy sealing, cutting and sensing surgical device
US11819270B2 (en) 2012-03-26 2023-11-21 Covidien Lp Light energy sealing, cutting and sensing surgical device
US9610121B2 (en) 2012-03-26 2017-04-04 Covidien Lp Light energy sealing, cutting and sensing surgical device
US10806514B2 (en) 2012-03-26 2020-10-20 Covidien Lp Light energy sealing, cutting and sensing surgical device
US10806515B2 (en) 2012-03-26 2020-10-20 Covidien Lp Light energy sealing, cutting, and sensing surgical device
US11707313B2 (en) 2012-03-29 2023-07-25 Covidien Lp Electrosurgical forceps and method of manufacturing the same
US10271897B2 (en) 2012-05-01 2019-04-30 Covidien Lp Surgical instrument with stamped double-flange jaws and actuation mechanism
US11219482B2 (en) 2012-05-01 2022-01-11 Covidien Lp Surgical instrument with stamped double-flange jaws and actuation mechanism
US10588686B2 (en) 2012-06-26 2020-03-17 Covidien Lp Surgical instruments with structures to provide access for cleaning
US10702332B2 (en) 2012-07-17 2020-07-07 Covidien Lp Gap control via overmold teeth and hard stops
US11490959B2 (en) 2012-07-17 2022-11-08 Covidien Lp Surgical instrument for energy-based tissue treatment
US11490954B2 (en) 2012-07-17 2022-11-08 Covidien Lp Gap control via overmold teeth and hard stops
US9931159B2 (en) 2012-07-17 2018-04-03 Covidien Lp Gap control via overmold teeth and hard stops
US11596465B2 (en) 2012-07-19 2023-03-07 Covidien Lp Surgical forceps including reposable end effector assemblies
US10314639B2 (en) 2012-10-08 2019-06-11 Covidien Lp Jaw assemblies for electrosurgical instruments and methods of manufacturing jaw assemblies
US11033320B2 (en) 2012-10-08 2021-06-15 Covidien Lp Jaw assemblies for electrosurgical instruments and methods of manufacturing jaw assemblies
US11253280B2 (en) 2012-10-08 2022-02-22 Covidien Lp Surgical forceps
US11207129B2 (en) 2012-10-08 2021-12-28 Covidien Lp Electric stapler device
US11103135B2 (en) 2012-10-31 2021-08-31 Covidien Lp Surgical devices and methods utilizing optical coherence tomography (OCT) to monitor and control tissue sealing
US11172952B2 (en) 2012-11-27 2021-11-16 Covidien Lp Surgical apparatus
US10806508B2 (en) 2013-02-19 2020-10-20 Covidien Lp Method for manufacturing an electrode assembly configured for use with an electrosurgical instrument
US11207128B2 (en) 2013-03-11 2021-12-28 Covidien Lp Surgical instrument with system and method for springing open jaw members
US11974802B2 (en) 2013-03-11 2024-05-07 Covidien Lp Surgical instrument with system and method for springing open jaw members
US10245103B2 (en) 2013-05-31 2019-04-02 Covidien Lp End effector assemblies and methods of manufacturing end effector assemblies for treating and/or cutting tissue
US11224476B2 (en) 2013-08-07 2022-01-18 Covidien Lp Bipolar surgical instrument
US11179191B2 (en) 2013-09-16 2021-11-23 Covidien Lp Electrosurgical instrument with end-effector assembly including electrically-conductive, tissue-engaging surfaces and switchable bipolar electrodes
US11364068B2 (en) 2013-09-16 2022-06-21 Covidien Lp Split electrode for use in a bipolar electrosurgical instrument
US10271896B2 (en) 2013-09-16 2019-04-30 Covidien Lp Electrosurgical instrument with end-effector assembly including electrically-conductive, tissue-engaging surfaces and switchable bipolar electrodes
US10820940B2 (en) 2014-04-17 2020-11-03 Covidien Lp Methods of manufacturing a pair of jaw members of an end-effector assembly for a surgical instrument
US10499979B2 (en) 2014-04-17 2019-12-10 Covidien Lp Methods of manufacturing a pair of jaw members of an end-effector assembly for a surgical instrument
US11144495B2 (en) 2014-05-07 2021-10-12 Covidien Lp Authentication and information system for reusable surgical instruments
US10585839B2 (en) 2014-05-07 2020-03-10 Covidien Lp Authentication and information system for reusable surgical instruments
US10303641B2 (en) 2014-05-07 2019-05-28 Covidien Lp Authentication and information system for reusable surgical instruments
US10342605B2 (en) 2014-09-17 2019-07-09 Covidien Lp Method of forming a member of an end effector
US11583333B2 (en) 2015-03-12 2023-02-21 Covidien Lp Mapping vessels for resecting body tissue
US10993733B2 (en) 2015-05-27 2021-05-04 Covidien Lp Surgical forceps
US11871983B2 (en) 2016-01-29 2024-01-16 Covidien Lp Surgical instrument with sensor
US11576697B2 (en) 2016-08-15 2023-02-14 Covidien Lp Electrosurgical forceps for video assisted thoracoscopic surgery and other surgical procedures
US11207091B2 (en) 2016-11-08 2021-12-28 Covidien Lp Surgical instrument for grasping, treating, and/or dividing tissue
US11596476B2 (en) 2017-01-27 2023-03-07 Covidien Lp Reflectors for optical-based vessel sealing
US10813695B2 (en) 2017-01-27 2020-10-27 Covidien Lp Reflectors for optical-based vessel sealing
US11690666B2 (en) 2017-06-08 2023-07-04 Covidien Lp Knife lockout for electrosurgical forceps

Also Published As

Publication number Publication date
JP2014123818A (en) 2014-07-03

Similar Documents

Publication Publication Date Title
JP6030945B2 (en) Viewer video display control device, viewer video display control method, and viewer video display control program
US8330863B2 (en) Information presentation apparatus and information presentation method that display subtitles together with video
US7876978B2 (en) Regions of interest in video frames
US10542323B2 (en) Real-time modifiable text captioning
US8935169B2 (en) Electronic apparatus and display process
CN108419141B (en) Subtitle position adjusting method and device, storage medium and electronic equipment
US8421823B2 (en) Overlaying camera-derived viewer emotion indication on video display
US20150381925A1 (en) Smart pause for neutral facial expression
US10356340B2 (en) Video rendering with teleprompter overlay
US20150036050A1 (en) Television control apparatus and associated method
US20170017844A1 (en) Image content providing apparatus and image content providing method
CN109416562B (en) Apparatus, method and computer readable medium for virtual reality
WO2012050029A1 (en) Electronic equipment and method for determining language to be displayed thereon
US8467509B2 (en) Video displaying apparatus, video displaying system and video displaying method
WO2011081036A1 (en) Image processing device, image processing method, and image processing program
TW200937959A (en) Information presentation device and information presentation method
JP7074056B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
KR20150011742A (en) User terminal device and the control method thereof
CN105933764A (en) Broadcast Receiving Apparatus And Method For Controlling The Same
US10665026B2 (en) Apparatus and associated methods for displaying amalgamated virtual reality content
KR20130104215A (en) Method for adaptive and partial replacement of moving picture, and method of generating program moving picture including embedded advertisement image employing the same
JP2000278626A (en) Multiple screens sound output controller
EP2519022A2 (en) Video processing apparatus and video processing method
KR101862128B1 (en) Method and apparatus for processing video information including face
CN112601120A (en) Subtitle display method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161021

R150 Certificate of patent or registration of utility model

Ref document number: 6030945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150