JP6030945B2 - Viewer video display control device, viewer video display control method, and viewer video display control program - Google Patents
Viewer video display control device, viewer video display control method, and viewer video display control program Download PDFInfo
- Publication number
- JP6030945B2 JP6030945B2 JP2012277959A JP2012277959A JP6030945B2 JP 6030945 B2 JP6030945 B2 JP 6030945B2 JP 2012277959 A JP2012277959 A JP 2012277959A JP 2012277959 A JP2012277959 A JP 2012277959A JP 6030945 B2 JP6030945 B2 JP 6030945B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- viewer
- image
- sign language
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、聴覚障がいがあるユーザやその家族のユーザなど、手話や口話を用いてコミュニケーションをとるユーザが、テレビ放送をはじめとするコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムに関する。 The present invention is a viewing method that facilitates communication when a user who communicates using sign language or spoken language, such as a user with hearing impairment or a user of his / her family member, views content video including television broadcasting. The present invention relates to a viewer video display control device, a viewer video display control method, and a viewer video display control program.
「テレビを見ながら家族と会話をする」という行為は、聴者(聴覚に障害がない人のこと)のユーザにとってはごく自然な行為である。これは、聴者同士は音声のみによってコミュニケーションをとることが可能であり、コンテンツ映像の視聴を中断せずにコミュニケーションをとることができるからである。一方で、手話や口話によってコミュニケーションをとる聴覚障がい者やその家族のユーザは、コンテンツ映像の視聴時にコミュニケーションをとろうとすると、「番組本編を見逃さないように、CM中、番組終了後だけおしゃべりする」、「お互いの様子、手話や顔の表情が見やすいように座る位置を工夫する」など、様々な制約がともなう。手話や口話は相手と目を合わせることで成立するコミュニケーション方法であり、コンテンツ映像の視聴時に会話をするためには、視聴を中断して相手と向き合う必要があるからである。 The act of “conversing with family while watching TV” is a very natural act for a listener (a person who has no hearing impairment). This is because the listeners can communicate with each other only by voice, and can communicate without interrupting the viewing of the content video. On the other hand, people with hearing disabilities and their family members who communicate by sign language or spoken language try to communicate when viewing content video. ”,“ Devise the sitting position so that each other's appearance, sign language and facial expressions are easy to see ”. This is because sign language and spoken language are communication methods established by looking at the other person's eyes, and in order to have a conversation when viewing the content video, it is necessary to interrupt viewing and face the other person.
このような問題に対して、例えば非特許文献1のような遠隔コミュニケーションに用いるシステムを適用することが考えられる。 For such a problem, for example, it is conceivable to apply a system used for remote communication as in Non-Patent Document 1.
上述のように、聴覚障がい者やその家族のユーザが、テレビなどのコンテンツ映像の視聴時にコミュニケーションをとろうとすると、様々な制約がともなうため、円滑なコミュニケーションを実現することが難しい。 As described above, when a hearing impaired person or a user of his or her family tries to communicate when viewing a content image such as a television, various restrictions are involved, and it is difficult to realize smooth communication.
特許文献1のシステムは、遠隔コミュニケーションに用いるシステムであって、コンテンツ映像を視聴する際に、聴覚障がい者などの円滑なコミュニケーションを図ることについては考慮されていない。 The system of Patent Document 1 is a system used for remote communication, and is not considered for smooth communication of persons with hearing disabilities and the like when viewing content video.
例えば、画面に表示される自己画像は、ユーザの状態に応じて表示/非表示を制御されることはなく、常時表示される。しかし、ユーザが、コンテンツ映像を視聴中、ユーザをビデオカメラにより撮影した映像(以下では、ユーザ映像と呼ぶ)は、例えば、ユーザが手話や口話などの会話をしているなどの状況に応じて表示/非表示を制御される必要がある。ユーザが会話を行っていない間、ユーザ映像は表示されている必要はなく、コンテンツ映像やテロップや字幕等の文字情報の見やすさを考えると、表示されない方が望ましいからである。 For example, the self-image displayed on the screen is always displayed without being controlled to be displayed / hidden according to the state of the user. However, while the user is viewing content video, video captured by the video camera (hereinafter referred to as user video) depends on the situation such as the user having a conversation such as sign language or spoken language. Need to be controlled to show / hide. This is because the user video does not need to be displayed while the user is not talking, and it is desirable that the user video is not displayed in consideration of the legibility of the content video, text information such as telop and subtitles.
また、ユーザが会話を行っていない間でも、ユーザの表情に変化があればユーザ映像が表示されることが望ましい。ユーザ映像を通して互いの表情の変化に気がつくことで、会話を開始するきっかけとなったり、逆に話しかけるのを控えるべきだと判断したりするなど、コミュニケーションをより円滑にすることを可能とするためである。 In addition, even when the user is not talking, it is desirable that the user video is displayed if there is a change in the user's facial expression. To be able to communicate more smoothly by noticing the change in each other's facial expressions through user images, and as a starting point for conversations and judging that they should refrain from talking to each other. is there.
本発明は、上記事情に鑑みてなされたものであり、本発明の目的は、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a viewer image display control apparatus and a viewing device that facilitate communication when a user with hearing impairment views content images. It is to provide a viewer video display control method and a viewer video display control program.
上記目的を達成するため、本発明は、視聴者の映像の表示を制御する視聴者映像表示制御装置であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記コンテンツ映像がCM中であるか否かを判断するTV内容判断部と、前記カメラ映像を用いて前記視聴者が手話をしているか否かを検出する手話検出部と、前記TV内容判断部による判断がCM中でない場合は、前記手話検出部が手話をしていると検出したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備え、前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像である。 In order to achieve the above object, the present invention provides a viewer video display control apparatus that controls display of a viewer's video, and that captures a camera video input from a camera that shoots a viewer watching the content video. A video analysis unit that analyzes and detects the viewer's video; a TV content determination unit that determines whether the content video is in a CM; and the viewer uses the camera video to sign language a sign language detection unit for detecting whether dolphins not, when the determination by the TV content judgment unit is not in the CM, at a timing when the sign language detection unit detects that the sign language, the viewer is the sign language during only example Bei and a video synthesis unit for synthesizing by superimposing the sign language video using the video of the viewer to the content image, the sign language video, a sign language when the viewer is performing sign language It is an image in which the operation can be visually recognized .
上記視聴者映像表示制御装置において、前記TV内容判断部による判断がCM中である場合は、前記映像合成部は、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer image display control device, when the determination by the TV content judgment unit is in the CM, the video synthesis unit is synthesized by superimposing the sign language video using the video of the viewer to the content image May be.
上記視聴者映像表示制御装置において、前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部をさらに備え、前記TV内容判断部による判断がCM中でない場合であって、前記視聴者が手話をしていない場合、前記映像合成部は、前記表情変化検出部が前記表情変化を検出したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control device, further comprising a facial expression change detection unit that detects a facial expression change of the viewer using the camera video, when the judgment by the TV content judgment unit is not in the CM, When the viewer is not sign language, the video composition unit superimposes a facial expression video using the viewer's video on the content video at a timing when the facial expression change detection unit detects the facial expression change. You may synthesize .
上記視聴者映像表示制御装置において、前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部と、前記視聴者の映像を用いた手話映像、または前記視聴者の映像を用いた表情映像を強調するための強調処理を、前記手話検出部または前記表情変化検出部が検出してから所定の時間、行う強調部と、をさらに備え、前記映像合成部は、前記強調処理がなされた手話映像または表情映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control device, a facial expression change detection unit that detects a facial expression change of the viewer using the camera video, and a sign language video using the viewer video or the viewer video. An emphasis unit that performs an emphasis process for emphasizing the used facial expression video for a predetermined time after the sign language detection unit or the facial expression change detection unit detects, and the video composition unit includes the enhancement process A sign language image or a facial expression image that has been marked may be combined with the content image .
本発明は、コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、前記コンテンツ映像がCM中であるか否かを判断するTV内容判断ステップと、前記TV内容判断ステップにおいてCM中でないと判断された場合、前記視聴者が手話を開始したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行い、前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像である。 The present invention is a viewer video display control method for controlling display of a viewer's video performed by a computer, analyzing a camera video input from a camera that shoots a viewer watching a content video, The video analysis step for detecting the viewer's video, the TV content determination step for determining whether or not the content video is in a CM, and the TV content determination step when the TV content determination step is determined not to be in a CM person at a timing starting the sign language, only while the viewer is the sign language, we have rows, and image synthesis step of synthesizing superimposed on the content image a sign language video using the video of the viewer, The sign language image is an image in which an operation of sign language can be visually recognized when the viewer is performing sign language .
上記視聴者映像表示制御方法において、前記TV内容判断ステップにおいてCM中であると判断された場合、前記映像合成ステップは、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control method, when it is determined in the TV content determination step that CM is being performed, the video synthesis step synthesizes a sign language video using the viewer's video by superimposing it on the content video. May be.
上記視聴者映像表示制御方法において、前記TV内容判断ステップにおいてCM中でないと判断された場合であって、前記視聴者が手話をしていない場合、前記映像合成ステップは、前記視聴者の顔の表情が変化したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control method, when it is determined that the TV content determination step is not under CM, and the viewer is not sign language, the video composition step is performed on the face of the viewer. A facial expression video using the viewer's video may be superimposed on the content video at the timing when the facial expression changes .
上記視聴者映像表示制御方法において、前記検出された視聴者の映像を用いた手話映像を手話の開始から所定の時間、強調させる処理を行う、または、前記検出された視聴者の映像を用いた表情映像を表情変化から所定の時間、強調させる処理を行う強調ステップをさらに行い、前記映像合成ステップは、前記強調ステップの処理がなされた手話映像または表情映像を、前記コンテンツ映像に重畳して合成してもよい。 In the viewer video display control method, the sign language video using the detected viewer video is emphasized for a predetermined time from the start of sign language, or the detected viewer video is used. An emphasis step is further performed for emphasizing the facial expression video for a predetermined time from the facial expression change, and the video synthesis step synthesizes the sign language video or facial expression video subjected to the enhancement step by superimposing it on the content video. May be.
本発明は、前記視聴者映像表示制御装置が備える各部としてコンピュータを機能させる視聴者映像表示制御プログラムである。 The present invention is a viewer video display control program that causes a computer to function as each unit included in the viewer video display control device.
本発明によれば、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムを提供することができる。 According to the present invention, there are provided a viewer video display control device, a viewer video display control method, and a viewer video display control program that facilitate communication when a user with hearing impairments views content video. can do.
以下、本発明の実施の形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施形態に係るシステムの全体構成図である。図示するシステムは、コンテンツ映像を表示する画面1と、当該画面1の近くに設置され、コンテンツ映像を視聴しているユーザ(視聴者)を撮影するビデオカメラ2と、カメラ入力インタフェース3と、画面出力インタフェース4と、ユーザが使用するリモコン5と、ユーザ入力インタフェース6と、制御装置7(視聴者映像表示制御装置)と、地上デジタルテレビ放送受像機などのコンテンツ映像を出力する映像コンテンツ出力装置8とを備える。
FIG. 1 is an overall configuration diagram of a system according to an embodiment of the present invention. The illustrated system includes a screen 1 that displays content video, a video camera 2 that is installed near the screen 1 and captures a user (viewer) who is viewing the content video, a camera input interface 3, and a screen. Video
制御装置7には、ビデオカメラ2により撮影されたカメラ映像が、カメラ入力インタフェース3を介して制御装置7に入力される。また、制御装置7には、映像コンテンツ出力装置8から出力されるコンテンツ映像が入力される。また、制御装置7には、リモコン5を用いてユーザが入力したユーザ入力データ(指示情報、設定情報など)が、ユーザ入力インタフェース6を介して入力される。
A camera image taken by the video camera 2 is input to the
制御装置7は、入力されたカメラ映像からユーザの顔及び上半身の検出、ユーザの手話の動作の検出、表情の変化の検出、コンテンツ映像におけるテレビCMの検出などを行う。そして、制御装置7は、ユーザが手話をしている間とテレビCM中は、手話映像をユーザが視聴しているコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力する。また、制御装置7は、手話はしていないが、表情変化があったときには、表情映像をユーザが視聴しているコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力する。
The
なお、制御装置7には、例えば、画面1に接続されたPCやテレビに搭載されたブラウザなどを用いること考えられる。
As the
次に、図2を用いて制御装置7の詳細を説明する。図2は、制御装置7の構成を示すブロック図である。図示する制御装置7は、カメラ映像解析部71と、TV内容判断部72と、手話判断部73と、表情変化判断部74と、ユーザ映像生成部75と、映像合成部76とを備える。
Next, details of the
ビデオカメラ2は、画面1に表示されるコンテンツ映像を視聴するユーザを撮影し、撮影したカメラ映像をフレーム単位でカメラ映像解析部71に入力する。カメラ映像解析部71は、入力されたカメラ映像フレームを画像解析し、ユーザ毎にユーザの映像(顔及び上半身など)を検出する。そして、各ユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとを、TV内容判断部72に出力する。TV内容判断部72は、映像コンテンツ出力装置8から出力されるコンテンツ映像がCM中か、すなわちCMに切り替わったか否かを検知する。
The video camera 2 captures a user who views the content video displayed on the screen 1 and inputs the captured camera video to the camera
手話判断部73は、カメラ映像フレームを用いて、ユーザが手話をしているか否かを検出する。表情変化判断部74は、カメラ映像フレームを用いて、ユーザの顔の表情変化を検出する。ユーザ映像生成部75は、カメラ映像解析部71が検出したユーザの顔および上半身を用いて、ユーザの手話映像または表情映像を生成する。映像合成部76は、ユーザの手話映像および表情映像をコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力し、画面1上に表示させる。
The sign
図3は、制御装置7の手話判断部73および表情変化判断部74の構成を示すブロック図である。図示する手話判断部73は、手話検出部731と、手話非検出時間参照部732とを備え、表情変化判断部74は、表情変化検出部741と、表情変化検出時間参照部742と、アイコン判断部743とを備える。これらの処理については、図5および図6を用いて後述する。
FIG. 3 is a block diagram illustrating configurations of the sign
図4は、制御装置7のユーザ映像生成部75の構成を示すブロック図である。図示するユーザ映像生成部75は、ユーザ映像抽出部751と、ユーザ映像エフェクト処理部752と、ユーザ映像サイズ決定部753と、ユーザ映像位置座標決定部754と、文字情報検出部755とを備える。これらの処理については、図7を用いて後述する。
FIG. 4 is a block diagram illustrating a configuration of the user
上記説明した制御装置7には、例えば、CPUと、メモリと、HDD等の外部記憶装置と、入力装置と、出力装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた制御装置7用のプログラムを実行することにより、制御装置7の各機能が実現される。また、制御装置7用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD−ROMなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。
As the
次に、本実施形態の制御装置7の処理について説明する。
Next, the process of the
まず、ビデオカメラ2は、コンテンツを視聴しているユーザを撮影する。このカメラ映像は、カメラ入力インタフェース3を介して、制御装置7のカメラ映像解析部71にフレーム単位で入力される。
First, the video camera 2 photographs a user who is viewing content. This camera video is input to the camera
カメラ映像解析部71は、入力されたカメラ映像フレームからユーザの映像(ここでは、顔及び上半身)をユーザ毎に検出する。そして、カメラ映像解析部71は、ユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとを、TV内容判断部72に出力する。なお、ユーザの顔及び上半身を検出するには、例えば以下の参考文献1のような技術を用いることができる。具体的には、顔の向きに応じた特徴量の抽出と、その特徴量を用いた類似度算出を行い、算出された類似度に基づいてユーザの映像を認識・検出する。
The camera
[参考文献1]:特開2009-157766号公報
図5は、TV内容判断部72及び手話判断部73が行う処理を表すフローチャートである。まず、TV内容判断部72には、映像コンテンツ出力装置8から出力されるコンテンツ映像がフレーム単位で入力されるとともに、カメラ映像解析部71からユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとがフレーム単位で入力される(S11)。
[Reference Document 1]: Japanese Unexamined Patent Application Publication No. 2009-157766 FIG. 5 is a flowchart illustrating processing performed by the TV
TV内容判断部72は、入力されたコンテンツ映像フレームがテレビCMであるか否かを判断する(S12)。入力されたコンテンツ映像フレームがテレビCMであるか否かは、例えば以下の参考文献2のような技術を用いて判断することができる。
The TV
[参考文献2]:武 小萌、佐藤 真一、「超高速CM検出に関する研究とその知識発見への応用」、電子情報通信学会技術研究報告、2011年6月、PRMU2011-53、p.119-124
本実施形態では、コンテンツ映像がCM中の場合は、ユーザが手話をしているか否かにかかわらず、手話映像をコンテンツ映像に重畳して画面1に表示するものとする。手話映像は、ユーザが手話を行っている場合に手話の動作が視認できるユーザの映像であって、本実施形態では、手話映像として、ユーザの顔及び上半身を含む映像とする。また、コンテンツ映像がCM中でない場合は、ユーザが手話をしている間だけ、手話映像をコンテンツ映像に重畳して画面1に表示するものとする。
[Reference 2]: Take Komoe, Shinichi Sato, “Research on ultra-high-speed CM detection and its application to knowledge discovery”, IEICE technical report, June 2011, PRMU2011-53, p. 119-124
In the present embodiment, when the content video is being commercialized, the sign language video is superimposed on the content video and displayed on the screen 1 regardless of whether or not the user is sign language. The sign language video is a video of the user who can visually recognize the sign language operation when the user is performing the sign language. In the present embodiment, the sign language video is a video including the user's face and upper body. When the content video is not in the CM, the sign language video is superimposed on the content video and displayed on the screen 1 only while the user is sign language.
また、本実施形態では、手話をしていない状態から手話をしている状態に遷移した場合(すなわち、手話が開始された場合)、手話の開始から所定の時間(t1秒間)は、手話が開始されたことをユーザに気づかせるためのエフェクト処理(強調処理)を施すためのマーカーを当該カメラ映像フレームに設定することとする。 In the present embodiment, when a transition is made from a state in which no sign language is being performed to a state in which sign language is being performed (that is, when sign language is started), the sign language is not transmitted for a predetermined time (t1 second) from the start of the sign language. A marker for performing effect processing (enhancement processing) for notifying the user of the start is set in the camera video frame.
具体的には、入力されたコンテンツ映像フレームがCMの場合(S12:YES)、TV内容判断部72は、S11で入力されたカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とを、手話判断部73に出力する。手話判断部73の手話検出部731は、入力されたカメラ映像フレームを用いて、ユーザが手話をしているか否かを判断する(S13)。ユーザが手話をしているか否かは、例えば以下の参考文献3のような技術を用いて判断することができる。
Specifically, when the input content video frame is CM (S12: YES), the TV
[参考文献3]:山田 寛、松尾 直志、島田 伸敬、白井 良明「手話認識のための見えの学習による手領域検出と形状識別」、画像の認識・理解シンポジウム、2009 年 7 月、MIRU2009、p.635-642
入力されたカメラ映像フレームで手話が行われていない場合(S13:NO)、手話判断部73の手話非検出時間参照部732は、現在時間をn1としてメモリなどの記憶部に保存し(S14)、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S15)。
[Reference 3]: Hiroshi Yamada, Naoshi Matsuo, Nobutaka Shimada, Yoshiaki Shirai “Hand Region Detection and Shape Identification by Learning of Signs for Sign Language Recognition”, Image Recognition and Understanding Symposium, July 2009, MIRU2009, p. 635-642
When sign language is not performed in the input camera image frame (S13: NO), the sign language non-detection
入力されたカメラ映像フレームで手話が行われていた場合(ユーザが複数いる場合は、その内の少なくとも1人が手話を行っていた場合)(S13:YES)は、手話非検出時間参照部732は、記憶部に直前に保存されたn1と現在時間とを照らし合わせ、その差分を算出する。算出した差分が予め指定されたt1秒以内の場合(S16:YES)、手話開始からt1秒以内であると判断する。この場合、手話非検出時間参照部732は、手話が開始されたことを、コンテンツ映像を視聴している他のユーザに気づかせる(注意を喚起させる)ためのエフェクト処理を行わせるために、S11で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔及び上半身の画像領域を表す座標情報とともにユーザ映像生成部75へ出力する(S17)。
When sign language is performed in the input camera video frame (when there are a plurality of users, at least one of them is sign language) (S13: YES), sign language non-detection
直前に保存されたn1と現在時間との差分がt1秒を超える場合(S16:NO)、手話非検出時間参照部732は、手話の開始からt1秒を経過していると判断し、マーカーを付けることなく、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S15)。
When the difference between n1 stored immediately before and the current time exceeds t1 seconds (S16: NO), the sign language non-detection
一方、入力されたコンテンツ映像フレームがCMではない場合(S12:NO)、TV内容判断部72は、手話判断部73にカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報を出力する。手話判断部73の手話検出部731は、入力されたカメラ映像フレームを用いて、ユーザが手話をしているか否かを判断する(S18)。
On the other hand, when the input content video frame is not a CM (S12: NO), the TV
入力されたカメラ映像フレームで手話が行われていない場合(S18:NO)、手話判断部73の手話非検出時間参照部732は、現在時間をn2としてメモリなどの記憶部に保存し(S22)、表情変化判断部74へカメラ映像フレームとユーザの顔の画像領域を表す座標情報とを出力する(S23)。
When sign language is not performed in the input camera video frame (S18: NO), the sign language non-detection
入力されたカメラ映像フレームで手話が行われていた場合(ユーザが複数いる場合は、その内の少なくとも1人が手話を行っていた場合)(S18:YES)は、手話非検出時間参照部732は、記憶部に直前に保存されたn2と現在時間とを照らし合わせ、その差分が予め指定されたt1秒以内の場合(S19:YES)、手話の開始からt1秒以内であると判断し、手話が開始されたことをコンテンツ映像を視聴している他のユーザに気づかせるために、S11で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔及び上半身の画像領域を表す座標情報とともにユーザ映像生成部へ出力する(S20)。
When sign language is performed in the input camera video frame (when there are a plurality of users, at least one of them is sign language) (S18: YES), sign language non-detection
直前に保存されたn2と現在時間との差分がt1秒を超える場合は(S19:NO)、手話非検出時間参照部732は、手話の開始からt1秒を経過していると判断し、マーカーを付けることなく、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報をユーザ映像生成部75へ出力する(S21)。
When the difference between n2 stored immediately before and the current time exceeds t1 seconds (S19: NO), the sign language non-detection
なお、図5の処理は、入力されるカメラ映像およびコンテンツ映像のフレーム毎に繰り返し行われるものである。 Note that the processing in FIG. 5 is repeatedly performed for each frame of the input camera video and content video.
図6は、表情変化判断部74の処理を表すフローチャートである。
FIG. 6 is a flowchart showing processing of the facial expression
本実施形態では、コンテンツ映像がCM中でない場合であって、ユーザが手話をしていない場合でユーザに表情変化が発生した場合、所定の時間(t2秒間)、変化した後の表情映像をコンテンツ映像に重畳して画面1に表示するものとする。また、本実施形態では、表情変化が発生したことをユーザに気づかせるためのエフェクト処理(強調処理)を施すためのマーカーをカメラ映像フレームに設定することとする。 In the present embodiment, when the content video is not in the CM and the user does not sign language and the facial expression changes, the content video is displayed for a predetermined time (t2 seconds). It is assumed that the image is superimposed on the video and displayed on the screen 1. In the present embodiment, a marker for performing effect processing (enhancement processing) for notifying the user that an expression change has occurred is set in the camera video frame.
表情変化判断部74の表情変化検出部741には、図4のS23により、手話判断部73により出力されたカメラ映像フレームとユーザの顔の画像領域を表す座標情報とが入力される(S31)。
The expression
表情変化検出部741は、入力されたカメラ映像フレームを用いて、ユーザの表情変化が発生したか否かを検出する(S32)。ユーザの表情変化の検出には、例えば参考文献4のような技術を用いることができる。
The facial expression
[参考文献4]:太田 寛志、佐治 斉、中谷 広正「顔面筋に基づいた顔構成要素モデルによる表情変化の認識」、電子情報通信学会論文誌。 D-II、 情報・システム、 II-パターン処理 Vol. J82-D-II(7)、pp.1129-1139、1999年7月
表情変化が検出された場合(S32:YES)、表情変化検出部741は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報と、どのような表情変化なのか(例えば、笑顔になったのか、驚いた顔になったのかなどの変化した後の表情)を表すタグAをともに、表情変化検出時間参照部742へ出力する。表情変化検出時間参照部742は、現在時間をn3としてメモリなどの記憶部に保存するとともに、入力されたカメラ映像フレームとユーザの顔の画像領域を表す座標情報も記憶部に保存し、表情変化を表すタグAと、カメラ映像フレームと、ユーザの顔の画像領域を表す座標情報とをアイコン判断部743に出力する(S33)。
[Reference 4]: Hiroshi Ota, Hitoshi Saji, Hiromasa Nakatani “Recognition of facial expression changes by facial component model based on facial muscles”, IEICE Transactions. D-II, Information / System, II-Pattern Processing Vol. J82-D-II (7), pp. 1129-1139, July 1999 When a change in facial expression is detected (S32: YES), the facial expression
アイコン判断部743は、表情変化があった場合に、画面1に表示する表情映像を、カメラ映像フレームから取得するユーザの顔の映像とするのか、ユーザの表情を表す任意のアイコンとするのかを判別する(S34)。なお、カメラ映像フレームの映像とするかアイコンとするかについては、アイコン判断部743は、ユーザが設定した設定情報にもとづいて判断するものとする。ユーザは、リモコン5などを用いて予め(またはコンテンツ映像を視聴中に)、カメラ映像フレームの映像とするかアイコンとするかを、アイコン判断部743に設定する。
When there is a change in facial expression, the
なお、表情映像は、ユーザの表情が視認できる映像であって、本実施形態では、表情映像として、カメラ映像フレームから取得した映像の場合はユーザの顔を含む映像とし、アイコンの場合は顔の表情が判るものとする。 The facial expression video is an image in which the user's facial expression can be visually recognized. In this embodiment, the facial expression video is a video including the user's face in the case of a video acquired from a camera video frame, and in the case of an icon, Assume that facial expressions are understood.
カメラ映像フレームの表情映像をユーザが設定していた場合は(S34:NO)、アイコン判断部743は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S35)。そして、表情変化が起こったことを、コンテンツ映像を視聴している他のユーザに気づかせるために、アイコン判断部743は、S31で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔の画像領域を表す座標情報とともにユーザ映像生成部75へ出力する。
When the user has set the facial expression video of the camera video frame (S34: NO), the
アイコンの表情映像をユーザが指定していた場合は(S34:YES)、アイコン判断部743は、タグAの表す表情に対応するアイコンを選択し(S36)、選択したアイコンの情報をユーザ映像生成部75へ出力する(S37)。なお、タグAはn3と対応づけてアイコン判断部743内のメモリなどの記憶部に保存する。
If the user has designated an icon facial image (S34: YES), the
入力されたカメラ映像フレームで表情変化がなかった場合(S32:NO)、表情変化検出部741は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とを表情変化検出時間参照部742へ出力する。表情変化検出時間参照部742は、現在時間と直前に記憶部に保存されたn3とを照らし合わせ、その差分が予め設定された所定の時間(t2秒間)以内の場合(S38:YES)、表情変化が発生してからt2秒以内である(画面1への表情映像の表示期間内)と判別する。そして、表情変化検出時間参照部742は、直前にS33で保存された情報を用いて、n3時点での顔の位置と現時点での顔の位置との差分がαピクセル以内であるか否かを判断する(S39)。これにより、直前に表情変化が発生したカメラ映像フレームのユーザの顔と、現在のカメラ映像フレームのユーザの顔が同一人物であるか否かを判別する。
When there is no expression change in the input camera image frame (S32: NO), the expression
差分がαピクセル以内の場合(S39:YES)、表情変化検出時間参照部742は、過去の顔と同一人物であると判別し、アイコン判断部743にカメラ映像フレームとユーザの顔の画像領域を表す座標情報とを出力する。アイコン判断部743は、カメラ映像フレームの表情映像をユーザが設定していた場合(S40:NO)、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S41)。アイコンの表情映像をユーザが設定していた場合は(S40:YES)、アイコン判断部743は、直前のS36で記憶部に保存しておいたタグAの表す表情に対応するアイコンを選択し(S42)、当該アイコンの情報をユーザ映像生成部75へ出力する(S43)。
When the difference is within α pixels (S39: YES), the expression change detection
一方、現在時間とn3の差分が予め指定されたt2秒を超える場合(S38:NO)、表情変化検出時間参照部742は、表情変化が発生してからt2秒(画面1への表情映像の表示期間)を経過したと判別し、アイコン判断部743への出力を行わない(S43)。これにより、これまで画面1に表示されていた表情映像が消えることになる。
On the other hand, when the difference between the current time and n3 exceeds t2 seconds specified in advance (S38: NO), the facial expression change detection
また、差分がαピクセルを超える場合(S39:NO)も、表情変化検出時間参照部742は、過去の顔と違うユーザであると判別し、アイコン判断部743への出力を行わない(S43)。これにより、これまで画面1に表示されていた表情映像が消えることになる。
When the difference exceeds the α pixel (S39: NO), the facial expression change detection
なお、図6の処理は、入力されるカメラ映像のフレーム毎に繰り返し行われるものである。 Note that the processing in FIG. 6 is repeatedly performed for each frame of the input camera video.
また、図6に示す実施形態では、マーカーが付されるカメラ映像フレームはS35に該当するカメラ映像フレームのみであるが、t2の値が小さい場合は、S41のカメラ映像フレームにもマーカーを付してエフェクト処理を行わせることとしてもよい。すなわち、画面1に表情映像を表示する間、エフェクト処理を行うこととしてもよい。 In the embodiment shown in FIG. 6, the camera video frame to which the marker is attached is only the camera video frame corresponding to S35, but when the value of t2 is small, the marker is also attached to the camera video frame of S41. The effect processing may be performed. That is, effect processing may be performed while a facial expression video is displayed on the screen 1.
図7は、ユーザ映像生成部75の処理を、図5および図6の処理により入力される情報の種類毎に表わしたものである。
FIG. 7 shows the processing of the user
(a)マーカー付きのカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図5のS17、S20)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔及び上半身部分の画像領域を表す座標情報にもとづいて、ユーザの顔及び上半身部分を抽出し、手話映像を生成する(S51)。そして、ユーザ映像エフェクト処理部752は、生成した手話映像に、手話映像の表示を目立たせるようなエフェクト処理(強調処理)をかける(S52)。エフェクトとしては、例えば、手話映像の周囲に目立つ色の枠をつける、枠を点滅させる、手話映像のサイズを予め設定した通常よりも拡大するなどが考えられる。その他に、ユーザがリモコン5などを用いて予め指定したエフェクトあれば、それにもとづいたエフェクトもあわせてかけることも考えられる。
(A) When coordinate information representing a camera video frame with a marker and an image area of the user's face and upper body is input to the user video generation unit 75 (S17 and S20 in FIG. 5).
First, the user
次に、ユーザ映像サイズ決定部753は、ユーザがリモコン5などを用いて予め指定した大きさに手話映像の大きさを調整する(S53)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S53)、手話映像と位置座標とを映像合成部76へ出力する(S54)。
Next, the user video
(b)カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図5:S15、S21)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔及び上半身部分の画像領域を表す座標情報にもとづいて、ユーザの顔及び上半身部分を抽出し、手話映像を生成する(S61)。そして、ユーザがリモコン5などにより予め手話映像にエフェクトをかけることを指定している場合には、ユーザ映像エフェクト処理部752は、指定されたエフェクトをかける(S62)。ユーザによるエフェクトの指定が無い場合は、エフェクト処理を行わない。
(B) When coordinate information representing the camera video frame and the image area of the user's face and upper body is input to the user video generation unit 75 (FIG. 5: S15, S21)
First, the user
次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに手話映像の大きさを調整する(S63)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S63)、手話映像と位置座標とを映像合成部へ出力する(S64)。
Next, the user video
(c)マーカー付きのカメラ映像フレームとユーザの顔の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図6:S35)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔の画像領域を表す座標情報にもとづいてユーザの顔部分を抽出し、表情映像を生成する(S71)。そして、ユーザ映像エフェクト処理部752は、生成した表情映像に、表情映像の表示を目立たせるようなエフェクトをかける。エフェクトについては、(a)のS52と同様である。
(C) When the coordinate information representing the camera image frame with the marker and the image area of the user's face is input to the user image generation unit 75 (FIG. 6: S35).
First, the user
次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに表情映像の大きさを調整する(S73)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S73)、表情映像と位置座標とを映像合成部76へ出力する(S74)。
Next, the user video
(d)カメラ映像フレームとユーザの顔の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図6:S41)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔の画像領域を表す座標情報にもとづいてユーザの顔部分を抽出し、表情映像を生成する(S81)。そして、ユーザ映像エフェクト処理部752は、予めユーザが表情映像にエフェクトをかけることを指定している場合、指定されたエフェクトをかける(S82)。ユーザによるエフェクトの指定が無い場合は、エフェクト処理を行わない。
(D) When coordinate information representing the camera video frame and the image area of the user's face is input to the user video generation unit 75 (FIG. 6: S41)
First, the user
次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに表情映像の大きさを調整する(S83)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S83)、表情映像と位置座標とを映像合成部76へ出力する(S84)。
Next, the user video
(e)表情映像としてアイコンの情報がユーザ映像生成部75に入力された場合(図6:S37、S43)
まず、予めユーザがアイコンにエフェクトをかけることを指定している場合は、ユーザ映像エフェクト処理部752は、指定されたエフェクトをかける(S91)。次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさにアイコン映像の大きさを調整する(S92)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を決定し(S92)、アイコンの情報と位置座標とを映像合成部76へ出力する(S93)。
(E) When icon information is input to the user
First, when the user has specified in advance that an effect is to be applied to the icon, the user video
なお、図7の処理は、入力される情報に応じて繰り返し行われるものである。 Note that the process of FIG. 7 is repeatedly performed according to input information.
以上説明した(a)から(e)の処理において、ユーザ映像位置座標決定部754が、コンテンツ映像に含まれる文字情報の位置に基づいて、手話映像および表情映像の位置座標を決定する場合、文字情報検出部755は、コンテンツ映像の中から文字情報の表示位置を検出する。なお、文字情報の検出には、例えば、参考文献5のような技術を用いることができる。文字情報は、時刻表示や番組ロゴなどを除く、コンテンツ映像における台詞やナレーションなどの音声を文字によって表現した字幕、テロップなどの情報である。
In the processes (a) to (e) described above, when the user video position coordinate
[参考文献5]:門馬孝雄,沢村英治,都木徹,白井克彦,“オフライン字幕制作実用システムにおける自動整形技術の開発”,2003年映像メディア学会冬季大会
以下に、ユーザ映像位置座標決定部754が、手話映像および表情映像の位置座標を決定する際の実施例を説明する。
[Reference 5]: Takao Kadoma, Eiji Sawamura, Toru Tsuki, Katsuhiko Shirai, “Development of Automatic Formatting Technology in Practical System for Off-line Caption Production”, 2003 Video Media Society Winter Conference However, an embodiment for determining the position coordinates of the sign language image and the expression image will be described.
ここでは、聴覚に障がいがあるユーザにとっての見やすさを考えると、手話映像および表情映像は、字幕やテロップなどの非定常的にコンテンツ映像に重畳される文字情報との重なりをできる限り避けるとともに、視線の移動が少なくて済むように文字情報とできる限り近接していることが望ましいと考える。ここでは、手話映像については、画面の4隅のうち、文字情報にもっとも近接する隅に表示し、表情映像については、文字情報の末尾に表示するものとする。手話映像は、手話の内容を見えるようにするため映像サイズが大きくなる場合が多いため、文字情報の末尾では手話映像が収まらない場合を考慮し、画面の4隅とした。 Here, considering the ease of viewing for users with hearing impairments, sign language video and facial expression video should avoid overlapping text information superimposed on content video such as subtitles and telops as much as possible, I think it is desirable to be as close as possible to the character information so that the movement of the line of sight is small. Here, the sign language image is displayed at the corner closest to the character information among the four corners of the screen, and the facial expression image is displayed at the end of the character information. Since sign language images often have a large image size so that the contents of the sign language can be seen, the sign language images have four corners in consideration of the case where the sign language image does not fit at the end of the character information.
また、文字情報が画面上の複数箇所に検出された場合は、手話映像は、画面上の最も下部に検出された文字情報に近接する隅に表示し、また、表情映像は、画面上の最も下部に検出された文字情報の末尾に表示するものとする。 When character information is detected at multiple locations on the screen, the sign language image is displayed at the corner near the detected character information at the bottom of the screen, and the facial expression image is the most on the screen. It shall be displayed at the end of the character information detected at the bottom.
図8および図9は、このような実施例において、手話映像と表情映像の位置座標を決定した画面の一例のイメージ図を示すものである。 FIG. 8 and FIG. 9 show an image diagram of an example of the screen in which the position coordinates of the sign language image and the facial expression image are determined in such an embodiment.
図8の画面81は、文字情報が画面中央に検出されたときに、手話映像を表示する画面例であり、コンテンツ映像を視聴するユーザの手話映像811、812が、文字情報810にもっとも近接する下部の左右の隅に表示されている。図8の画面82は、文字情報が画面中央に検出されたときに、表情映像を表示する画面例であり、コンテンツ映像を視聴するユーザの表情映像821、822が、文字情報820の末尾に表示にされている。
A
図8の画面83は、文字情報が画面下部に検出されたときに、手話映像を表示する画面例であり、手話映像831、832が、文字情報830に最も近接する下部の左右の隅に表示されている。図8の画面84は、文字情報が画面下部に検出されたときに、表情映像を表示する画面例であり、表情映像841、842が、文字情報840の末尾に表示にされている。
The
図9の画面91および画面92は、文字情報が画面上部に検出されたときに、手話映像および表情映像をそれぞれ表示する画面例である。また、図9の画面93は、文字情報が複数検出され場合であって、最も下部の文字情報に近接する隅に手話映像を表示する画面例であり、図9の画面94は、文字情報が複数検出され場合であって、最も下部の文字情報の末尾に、表情映像を表示する画面例である。
このように、手話映像および表情映像の画面内での表示位置は、文字情報に重ならないような位置に決定する。なお、上記実施例以外にも、ユーザの任意の位置に手話映像および表情映像を表示することとしてもよい。 Thus, the display positions of the sign language image and the expression image on the screen are determined so as not to overlap the character information. In addition to the above embodiment, a sign language image and a facial expression image may be displayed at an arbitrary position of the user.
そして、映像合成部76は、映像コンテンツ出力装置8から出力されるコンテンツ映像に、ユーザ映像生成部75から出力される手話映像または表情映像を、指定された位置座標の位置に重畳した合成映像を生成し、画面出力インタフェース4を介して画面1に送出する。これにより、画面1には、コンテンツ映像を視聴するユーザの手話映像または表情映像が重畳された合成映像が表示される。
The
以上説明した本実施形態では、聴覚に障がいがあるユーザが手話をしている間と、ユーザが視聴しているコンテンツ映像がテレビCMに切り替わっている間にのみ、ユーザの手話映像をコンテンツ映像に重畳して表示することで、コンテンツ映像の見易さを考慮しつつ、コンテンツ映像に重畳された手話映像越しにコミュニケーションをとることを可能とし、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際のコミュニケーションをより円滑にすることができる。 In the present embodiment described above, the sign language video of the user is changed to the content video only while the user with hearing impairment is making the sign language and the content video being viewed by the user is switched to the TV commercial. By superimposing and displaying the content video, it is possible to communicate through the sign language video superimposed on the content video while considering the visibility of the content video. When a user with hearing impairments views the content video Communication can be made smoother.
具体的には、ユーザの手話の動作を検出して手話をしている間、ユーザの手話映像をコンテンツ映像に重畳して表示するとともに、視聴しているコンテンツ映像がテレビCMに切り替わっている間は、ユーザの会話が発生しやすいタイミングとみなし、手話映像をコンテンツ映像に重畳して表示することで、円滑なコミュニケーションを実現し、コミュニケーションの促進を図ることができる。 Specifically, while sign language is detected by detecting user sign language movement, the user sign language video is superimposed on the content video and displayed while the content video being viewed is switched to the TV commercial. Is regarded as a timing at which a user's conversation is likely to occur, and a sign language video is superimposed and displayed on a content video, whereby smooth communication can be realized and communication can be promoted.
また、本実施形態では、ユーザの表情の変化を検出した際に、ユーザの顔部分の表情映像をコンテンツ映像に重畳して表示することで、お互いに画面の方向を向いていてはわからない、お互いの表情変化を相手に知らせ、コミュニケーションをより円滑にすることができる。 Further, in this embodiment, when a change in the user's facial expression is detected, the facial expression video of the user's face portion is displayed superimposed on the content video, so that it is not known that the screen faces each other. The change in facial expression can be informed to the other party, and communication can be made smoother.
また、本実施形態では、手話映像や表情映像の表示を開始する際には、それらの映像を目立たせるようなエフェクトをかけ、ユーザがコンテンツ映像に集中していても、手話映像や表情映像の表示が開始され、相手が手話をし始めたことや、相手の表情が変化したことに気がつきやすくする。これにより、ユーザは、手話映像や表情映像を有効に活用することができ、より円滑なコミュニケーションを実現することができる。 In this embodiment, when the display of the sign language image and the expression image is started, an effect that makes the images stand out is applied, and even if the user concentrates on the content image, the sign language image or the expression image is displayed. Display is started, and it is easy to notice that the other party has started sign language and that the other party's facial expression has changed. Accordingly, the user can effectively use the sign language video and the facial expression video, and can realize smoother communication.
また、本実施形態では、手話映像や表情映像の画面上での表示位置をテロップや字幕等の文字情報に重ならないように決定する。これにより、コンテンツ映像に含まれる文字情報の見やすさを考慮しつつ、映像越しに円滑なコミュニケーションをとることができる。 In the present embodiment, the display position of the sign language image or facial expression image on the screen is determined so as not to overlap character information such as telop or subtitle. This makes it possible to communicate smoothly over the video while taking into account the ease of viewing the character information included in the content video.
なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。 In addition, this invention is not limited to the said embodiment, Many deformation | transformation are possible within the range of the summary.
1 :画面
2 :ビデオカメラ
3 :カメラ入力インタフェース
4 :画面出力インタフェース
5 :リモコン
6 :ユーザ入力インタフェース
7 :制御装置
71:カメラ映像解析部
72:TV内容判断部
73:手話判断部
74:表情変化判断部
75:ユーザ映像生成部
76:映像合成部
8 :映像コンテンツ出力装置
1: Screen 2: Video camera 3: Camera input interface 4: Screen output interface 5: Remote control 6: User input interface 7: Control device 71: Camera image analysis unit 72: TV content determination unit 73: Sign language determination unit 74: Expression change Judgment unit 75: User video generation unit 76: Video composition unit 8: Video content output device
Claims (9)
コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、
前記コンテンツ映像がCM中であるか否かを判断するTV内容判断部と、
前記カメラ映像を用いて前記視聴者が手話をしているか否かを検出する手話検出部と、
前記TV内容判断部による判断がCM中でない場合は、前記手話検出部が手話をしていると検出したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備え、
前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像であること
を特徴とする視聴者映像表示制御装置。 A viewer video display control device for controlling display of a viewer's video,
A video analysis unit that analyzes a camera video input from a camera that shoots a viewer viewing a content video and detects the video of the viewer;
A TV content determination unit for determining whether the content video is in a CM;
A sign language detection unit that detects whether the viewer is sign language using the camera image;
If determined by the TV content judgment unit is not in the CM, at a timing when the sign language detection unit detects that the sign language, only while the viewer is the sign language, using the image of the viewer e Bei a video synthesis unit for synthesizing by superimposing the sign language video on the content image, and
The viewer sign display control device , wherein the sign language image is an image in which an operation of a sign language can be visually recognized when the viewer is performing sign language .
前記TV内容判断部による判断がCM中である場合は、前記映像合成部は、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御装置。 The viewer image display control device according to claim 1 ,
If determined by the TV content judgment unit is in the CM, the video synthesis section, a viewer image display characterized by synthesized by superimposing the sign language video using the video of the viewer to the content image Control device.
前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部をさらに備え、
前記TV内容判断部による判断がCM中でない場合であって、前記視聴者が手話をしていない場合、前記映像合成部は、前記表情変化検出部が前記表情変化を検出したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御装置。 The viewer image display control device according to claim 1 ,
Further comprising a facial expression detector for detecting a facial expression change of the face of the viewer by using the camera image,
When the judgment by the TV content judgment unit is not in the CM, and the viewer is not sign language, the video composition unit is the timing at which the facial expression change detection unit detects the facial expression change. viewer video display control apparatus of the expression video using the user image, characterized in that the synthesis is superimposed on the content image.
前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部と、
前記視聴者の映像を用いた手話映像、または前記視聴者の映像を用いた表情映像を強調するための強調処理を、前記手話検出部または前記表情変化検出部が検出してから所定の時間、行う強調部と、をさらに備え、
前記映像合成部は、前記強調処理がなされた手話映像または表情映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御装置。 The viewer image display control device according to claim 1 ,
A facial expression change detector that detects facial changes in the viewer's face using the camera image ;
A predetermined time after the sign language detection unit or the expression change detection unit detects an enhancement process for enhancing a sign language image using the viewer's image or an expression image using the viewer's image, An emphasis unit to perform ,
The image combining unit viewer video display control apparatus characterized by synthesized by superimposing the sign language video or expression image the enhancement processing has been performed on the content image.
コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、
前記コンテンツ映像がCM中であるか否かを判断するTV内容判断ステップと、
前記TV内容判断ステップにおいてCM中でないと判断された場合、前記視聴者が手話を開始したタイミングで、前記視聴者が手話をしている間だけ、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行い、
前記手話映像は、前記視聴者が手話を行っている場合に手話の動作が視認できる映像であること
を特徴とする視聴者映像表示制御方法。 A viewer video display control method for controlling display of a viewer's video performed by a computer,
A video analysis step of analyzing a camera video input from a camera that shoots a viewer viewing the content video and detecting the video of the viewer;
TV content determination step for determining whether or not the content video is in a CM;
If it is determined in the TV content determination step that the CM is not being commercialized, the sign language video using the viewer's video is only displayed while the viewer is sign language at the timing when the viewer starts sign language. a video synthesis step of synthesizing superimposed on the content image, gastric row,
The viewer sign display method , wherein the sign language image is an image in which a sign language operation can be visually recognized when the viewer is performing sign language .
前記TV内容判断ステップにおいてCM中であると判断された場合、前記映像合成ステップは、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御方法。 The viewer image display control method according to claim 5 ,
The TV content if it is determined to be in CM and in decision, the video synthesis step the viewer image, which comprises synthesized by superimposing the sign language video using the video of the viewer to the content image Display control method.
前記TV内容判断ステップにおいてCM中でないと判断された場合であって、前記視聴者が手話をしていない場合、前記映像合成ステップは、前記視聴者の顔の表情が変化したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御方法。 The viewer image display control method according to claim 5 ,
If it is determined in the TV content determination step that the CM is not being commercialized and the viewer is not sign language, the video composition step is the timing when the viewer's facial expression changes. A viewer video display control method, comprising superimposing a facial expression video using a viewer's video on the content video and synthesizing it .
前記検出された視聴者の映像を用いた手話映像を手話の開始から所定の時間、強調させる処理を行う、または、前記検出された視聴者の映像を用いた表情映像を表情変化から所定の時間、強調させる処理を行う強調ステップをさらに行い、
前記映像合成ステップは、前記強調ステップの処理がなされた手話映像または表情映像を、前記コンテンツ映像に重畳して合成すること
を特徴とする視聴者映像表示制御方法。 The viewer image display control method according to claim 5 ,
The sign language image using the detected viewer image is emphasized for a predetermined time from the start of sign language, or the facial expression image using the detected viewer image is changed for a predetermined time from the facial expression change. , Further perform an emphasis step to perform the emphasis process ,
The viewer video display control method characterized in that the video synthesizing step superimposes the sign language video or facial expression video on which the processing of the emphasis step has been performed with the content video.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012277959A JP6030945B2 (en) | 2012-12-20 | 2012-12-20 | Viewer video display control device, viewer video display control method, and viewer video display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012277959A JP6030945B2 (en) | 2012-12-20 | 2012-12-20 | Viewer video display control device, viewer video display control method, and viewer video display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014123818A JP2014123818A (en) | 2014-07-03 |
JP6030945B2 true JP6030945B2 (en) | 2016-11-24 |
Family
ID=51403992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012277959A Active JP6030945B2 (en) | 2012-12-20 | 2012-12-20 | Viewer video display control device, viewer video display control method, and viewer video display control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6030945B2 (en) |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9554844B2 (en) | 2011-11-29 | 2017-01-31 | Covidien Lp | Open vessel sealing instrument and method of manufacturing the same |
US9610121B2 (en) | 2012-03-26 | 2017-04-04 | Covidien Lp | Light energy sealing, cutting and sensing surgical device |
US9931159B2 (en) | 2012-07-17 | 2018-04-03 | Covidien Lp | Gap control via overmold teeth and hard stops |
US9974605B2 (en) | 2012-01-25 | 2018-05-22 | Covidien Lp | Surgical instrument with resilient driving member and related methods of use |
US10039587B2 (en) | 2011-05-16 | 2018-08-07 | Covidien Lp | Thread-like knife for tissue cutting |
US10188454B2 (en) | 2009-09-28 | 2019-01-29 | Covidien Lp | System for manufacturing electrosurgical seal plates |
US10245103B2 (en) | 2013-05-31 | 2019-04-02 | Covidien Lp | End effector assemblies and methods of manufacturing end effector assemblies for treating and/or cutting tissue |
US10245104B2 (en) | 2008-04-22 | 2019-04-02 | Covidien Lp | Jaw closure detection system |
US10245101B2 (en) | 2010-06-02 | 2019-04-02 | Covidien Lp | Apparatus for performing an electrosurgical procedure |
US10271896B2 (en) | 2013-09-16 | 2019-04-30 | Covidien Lp | Electrosurgical instrument with end-effector assembly including electrically-conductive, tissue-engaging surfaces and switchable bipolar electrodes |
US10271897B2 (en) | 2012-05-01 | 2019-04-30 | Covidien Lp | Surgical instrument with stamped double-flange jaws and actuation mechanism |
US10278770B2 (en) | 2010-04-12 | 2019-05-07 | Covidien Lp | Surgical instrument with non-contact electrical coupling |
US10299851B2 (en) | 2011-10-20 | 2019-05-28 | Covidien Lp | Dissection scissors on surgical device |
US10303641B2 (en) | 2014-05-07 | 2019-05-28 | Covidien Lp | Authentication and information system for reusable surgical instruments |
US10314639B2 (en) | 2012-10-08 | 2019-06-11 | Covidien Lp | Jaw assemblies for electrosurgical instruments and methods of manufacturing jaw assemblies |
US10327838B2 (en) | 2010-06-02 | 2019-06-25 | Covidien Lp | Apparatus for performing an electrosurgical procedure |
US10342605B2 (en) | 2014-09-17 | 2019-07-09 | Covidien Lp | Method of forming a member of an end effector |
US10499979B2 (en) | 2014-04-17 | 2019-12-10 | Covidien Lp | Methods of manufacturing a pair of jaw members of an end-effector assembly for a surgical instrument |
US10537331B2 (en) | 2010-10-01 | 2020-01-21 | Covidien Lp | Surgical stapling device for performing circular anastomosis and surgical staples for use therewith |
US10588686B2 (en) | 2012-06-26 | 2020-03-17 | Covidien Lp | Surgical instruments with structures to provide access for cleaning |
US10595932B2 (en) | 2011-11-30 | 2020-03-24 | Covidien Lp | Electrosurgical instrument with a knife blade lockout mechanism |
US10639040B2 (en) | 2010-10-01 | 2020-05-05 | Covidien Lp | Surgical fastener applying apparatus |
US10675046B2 (en) | 2009-10-06 | 2020-06-09 | Covidien Lp | Jaw, blade and gap manufacturing for surgical instruments with small jaws |
US10806508B2 (en) | 2013-02-19 | 2020-10-20 | Covidien Lp | Method for manufacturing an electrode assembly configured for use with an electrosurgical instrument |
US10813695B2 (en) | 2017-01-27 | 2020-10-27 | Covidien Lp | Reflectors for optical-based vessel sealing |
US10993733B2 (en) | 2015-05-27 | 2021-05-04 | Covidien Lp | Surgical forceps |
US11007000B2 (en) | 2012-01-23 | 2021-05-18 | Covidien Lp | Partitioned surgical instrument |
US11103135B2 (en) | 2012-10-31 | 2021-08-31 | Covidien Lp | Surgical devices and methods utilizing optical coherence tomography (OCT) to monitor and control tissue sealing |
US11172952B2 (en) | 2012-11-27 | 2021-11-16 | Covidien Lp | Surgical apparatus |
US11207129B2 (en) | 2012-10-08 | 2021-12-28 | Covidien Lp | Electric stapler device |
US11207128B2 (en) | 2013-03-11 | 2021-12-28 | Covidien Lp | Surgical instrument with system and method for springing open jaw members |
US11207091B2 (en) | 2016-11-08 | 2021-12-28 | Covidien Lp | Surgical instrument for grasping, treating, and/or dividing tissue |
US11224476B2 (en) | 2013-08-07 | 2022-01-18 | Covidien Lp | Bipolar surgical instrument |
US11253280B2 (en) | 2012-10-08 | 2022-02-22 | Covidien Lp | Surgical forceps |
US11364068B2 (en) | 2013-09-16 | 2022-06-21 | Covidien Lp | Split electrode for use in a bipolar electrosurgical instrument |
US11490959B2 (en) | 2012-07-17 | 2022-11-08 | Covidien Lp | Surgical instrument for energy-based tissue treatment |
US11523862B2 (en) | 2011-10-03 | 2022-12-13 | Covidien Lp | Surgical forceps |
US11576697B2 (en) | 2016-08-15 | 2023-02-14 | Covidien Lp | Electrosurgical forceps for video assisted thoracoscopic surgery and other surgical procedures |
US11583333B2 (en) | 2015-03-12 | 2023-02-21 | Covidien Lp | Mapping vessels for resecting body tissue |
US11596465B2 (en) | 2012-07-19 | 2023-03-07 | Covidien Lp | Surgical forceps including reposable end effector assemblies |
US11690666B2 (en) | 2017-06-08 | 2023-07-04 | Covidien Lp | Knife lockout for electrosurgical forceps |
US11707313B2 (en) | 2012-03-29 | 2023-07-25 | Covidien Lp | Electrosurgical forceps and method of manufacturing the same |
US11871983B2 (en) | 2016-01-29 | 2024-01-16 | Covidien Lp | Surgical instrument with sensor |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5894055B2 (en) * | 2012-10-18 | 2016-03-23 | 日本電信電話株式会社 | VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI276357B (en) * | 2002-09-17 | 2007-03-11 | Ginganet Corp | Image input apparatus for sign language talk, image input/output apparatus for sign language talk, and system for sign language translation |
JP2004112511A (en) * | 2002-09-19 | 2004-04-08 | Fuji Xerox Co Ltd | Display controller and method therefor |
JP2005109669A (en) * | 2003-09-29 | 2005-04-21 | Casio Comput Co Ltd | Display system, terminal, and terminal containing bag |
JP4845581B2 (en) * | 2006-05-01 | 2011-12-28 | 三菱電機株式会社 | Television broadcast receiver with image and audio communication function |
JP2010014487A (en) * | 2008-07-02 | 2010-01-21 | Sanyo Electric Co Ltd | Navigation device |
JP2010026021A (en) * | 2008-07-16 | 2010-02-04 | Sony Corp | Display device and display method |
JP2010239499A (en) * | 2009-03-31 | 2010-10-21 | Brother Ind Ltd | Communication terminal unit, communication control unit, method of controlling communication of communication terminal unit, and communication control program |
JP5346797B2 (en) * | 2009-12-25 | 2013-11-20 | 株式会社アステム | Sign language video synthesizing device, sign language video synthesizing method, sign language display position setting device, sign language display position setting method, and program |
JP2012085009A (en) * | 2010-10-07 | 2012-04-26 | Sony Corp | Information processor and information processing method |
JP5894055B2 (en) * | 2012-10-18 | 2016-03-23 | 日本電信電話株式会社 | VIDEO DATA CONTROL DEVICE, VIDEO DATA CONTROL METHOD, AND VIDEO DATA CONTROL PROGRAM |
-
2012
- 2012-12-20 JP JP2012277959A patent/JP6030945B2/en active Active
Cited By (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10245104B2 (en) | 2008-04-22 | 2019-04-02 | Covidien Lp | Jaw closure detection system |
US11497547B2 (en) | 2008-04-22 | 2022-11-15 | Covidien Lp | Jaw closure detection system |
US10188454B2 (en) | 2009-09-28 | 2019-01-29 | Covidien Lp | System for manufacturing electrosurgical seal plates |
US11490955B2 (en) | 2009-09-28 | 2022-11-08 | Covidien Lp | Electrosurgical seal plates |
US10675046B2 (en) | 2009-10-06 | 2020-06-09 | Covidien Lp | Jaw, blade and gap manufacturing for surgical instruments with small jaws |
US11622782B2 (en) | 2009-10-06 | 2023-04-11 | Covidien Lp | Jaw, blade and gap manufacturing for surgical instruments with small jaws |
US10278770B2 (en) | 2010-04-12 | 2019-05-07 | Covidien Lp | Surgical instrument with non-contact electrical coupling |
US10245101B2 (en) | 2010-06-02 | 2019-04-02 | Covidien Lp | Apparatus for performing an electrosurgical procedure |
US11116565B2 (en) | 2010-06-02 | 2021-09-14 | Covidien Lp | Apparatus for performing an electrosurgical procedure |
US10327838B2 (en) | 2010-06-02 | 2019-06-25 | Covidien Lp | Apparatus for performing an electrosurgical procedure |
US10639040B2 (en) | 2010-10-01 | 2020-05-05 | Covidien Lp | Surgical fastener applying apparatus |
US11357507B2 (en) | 2010-10-01 | 2022-06-14 | Covidien Lp | Surgical stapling device for performing circular anastomosis and surgical staples for use therewith |
US10537331B2 (en) | 2010-10-01 | 2020-01-21 | Covidien Lp | Surgical stapling device for performing circular anastomosis and surgical staples for use therewith |
US10039587B2 (en) | 2011-05-16 | 2018-08-07 | Covidien Lp | Thread-like knife for tissue cutting |
US11523862B2 (en) | 2011-10-03 | 2022-12-13 | Covidien Lp | Surgical forceps |
US10299851B2 (en) | 2011-10-20 | 2019-05-28 | Covidien Lp | Dissection scissors on surgical device |
US10993762B2 (en) | 2011-10-20 | 2021-05-04 | Covidien Lp | Dissection scissors on surgical device |
US9554844B2 (en) | 2011-11-29 | 2017-01-31 | Covidien Lp | Open vessel sealing instrument and method of manufacturing the same |
US10595932B2 (en) | 2011-11-30 | 2020-03-24 | Covidien Lp | Electrosurgical instrument with a knife blade lockout mechanism |
US11007000B2 (en) | 2012-01-23 | 2021-05-18 | Covidien Lp | Partitioned surgical instrument |
US9974605B2 (en) | 2012-01-25 | 2018-05-22 | Covidien Lp | Surgical instrument with resilient driving member and related methods of use |
US11324545B2 (en) | 2012-01-25 | 2022-05-10 | Covidien Lp | Surgical instrument with resilient driving member and related methods of use |
US10639095B2 (en) | 2012-01-25 | 2020-05-05 | Covidien Lp | Surgical instrument with resilient driving member and related methods of use |
US9925008B2 (en) | 2012-03-26 | 2018-03-27 | Covidien Lp | Light energy sealing, cutting and sensing surgical device |
US11819270B2 (en) | 2012-03-26 | 2023-11-21 | Covidien Lp | Light energy sealing, cutting and sensing surgical device |
US9610121B2 (en) | 2012-03-26 | 2017-04-04 | Covidien Lp | Light energy sealing, cutting and sensing surgical device |
US10806514B2 (en) | 2012-03-26 | 2020-10-20 | Covidien Lp | Light energy sealing, cutting and sensing surgical device |
US10806515B2 (en) | 2012-03-26 | 2020-10-20 | Covidien Lp | Light energy sealing, cutting, and sensing surgical device |
US11707313B2 (en) | 2012-03-29 | 2023-07-25 | Covidien Lp | Electrosurgical forceps and method of manufacturing the same |
US10271897B2 (en) | 2012-05-01 | 2019-04-30 | Covidien Lp | Surgical instrument with stamped double-flange jaws and actuation mechanism |
US11219482B2 (en) | 2012-05-01 | 2022-01-11 | Covidien Lp | Surgical instrument with stamped double-flange jaws and actuation mechanism |
US10588686B2 (en) | 2012-06-26 | 2020-03-17 | Covidien Lp | Surgical instruments with structures to provide access for cleaning |
US10702332B2 (en) | 2012-07-17 | 2020-07-07 | Covidien Lp | Gap control via overmold teeth and hard stops |
US11490959B2 (en) | 2012-07-17 | 2022-11-08 | Covidien Lp | Surgical instrument for energy-based tissue treatment |
US11490954B2 (en) | 2012-07-17 | 2022-11-08 | Covidien Lp | Gap control via overmold teeth and hard stops |
US9931159B2 (en) | 2012-07-17 | 2018-04-03 | Covidien Lp | Gap control via overmold teeth and hard stops |
US11596465B2 (en) | 2012-07-19 | 2023-03-07 | Covidien Lp | Surgical forceps including reposable end effector assemblies |
US10314639B2 (en) | 2012-10-08 | 2019-06-11 | Covidien Lp | Jaw assemblies for electrosurgical instruments and methods of manufacturing jaw assemblies |
US11033320B2 (en) | 2012-10-08 | 2021-06-15 | Covidien Lp | Jaw assemblies for electrosurgical instruments and methods of manufacturing jaw assemblies |
US11253280B2 (en) | 2012-10-08 | 2022-02-22 | Covidien Lp | Surgical forceps |
US11207129B2 (en) | 2012-10-08 | 2021-12-28 | Covidien Lp | Electric stapler device |
US11103135B2 (en) | 2012-10-31 | 2021-08-31 | Covidien Lp | Surgical devices and methods utilizing optical coherence tomography (OCT) to monitor and control tissue sealing |
US11172952B2 (en) | 2012-11-27 | 2021-11-16 | Covidien Lp | Surgical apparatus |
US10806508B2 (en) | 2013-02-19 | 2020-10-20 | Covidien Lp | Method for manufacturing an electrode assembly configured for use with an electrosurgical instrument |
US11207128B2 (en) | 2013-03-11 | 2021-12-28 | Covidien Lp | Surgical instrument with system and method for springing open jaw members |
US11974802B2 (en) | 2013-03-11 | 2024-05-07 | Covidien Lp | Surgical instrument with system and method for springing open jaw members |
US10245103B2 (en) | 2013-05-31 | 2019-04-02 | Covidien Lp | End effector assemblies and methods of manufacturing end effector assemblies for treating and/or cutting tissue |
US11224476B2 (en) | 2013-08-07 | 2022-01-18 | Covidien Lp | Bipolar surgical instrument |
US11179191B2 (en) | 2013-09-16 | 2021-11-23 | Covidien Lp | Electrosurgical instrument with end-effector assembly including electrically-conductive, tissue-engaging surfaces and switchable bipolar electrodes |
US11364068B2 (en) | 2013-09-16 | 2022-06-21 | Covidien Lp | Split electrode for use in a bipolar electrosurgical instrument |
US10271896B2 (en) | 2013-09-16 | 2019-04-30 | Covidien Lp | Electrosurgical instrument with end-effector assembly including electrically-conductive, tissue-engaging surfaces and switchable bipolar electrodes |
US10820940B2 (en) | 2014-04-17 | 2020-11-03 | Covidien Lp | Methods of manufacturing a pair of jaw members of an end-effector assembly for a surgical instrument |
US10499979B2 (en) | 2014-04-17 | 2019-12-10 | Covidien Lp | Methods of manufacturing a pair of jaw members of an end-effector assembly for a surgical instrument |
US11144495B2 (en) | 2014-05-07 | 2021-10-12 | Covidien Lp | Authentication and information system for reusable surgical instruments |
US10585839B2 (en) | 2014-05-07 | 2020-03-10 | Covidien Lp | Authentication and information system for reusable surgical instruments |
US10303641B2 (en) | 2014-05-07 | 2019-05-28 | Covidien Lp | Authentication and information system for reusable surgical instruments |
US10342605B2 (en) | 2014-09-17 | 2019-07-09 | Covidien Lp | Method of forming a member of an end effector |
US11583333B2 (en) | 2015-03-12 | 2023-02-21 | Covidien Lp | Mapping vessels for resecting body tissue |
US10993733B2 (en) | 2015-05-27 | 2021-05-04 | Covidien Lp | Surgical forceps |
US11871983B2 (en) | 2016-01-29 | 2024-01-16 | Covidien Lp | Surgical instrument with sensor |
US11576697B2 (en) | 2016-08-15 | 2023-02-14 | Covidien Lp | Electrosurgical forceps for video assisted thoracoscopic surgery and other surgical procedures |
US11207091B2 (en) | 2016-11-08 | 2021-12-28 | Covidien Lp | Surgical instrument for grasping, treating, and/or dividing tissue |
US11596476B2 (en) | 2017-01-27 | 2023-03-07 | Covidien Lp | Reflectors for optical-based vessel sealing |
US10813695B2 (en) | 2017-01-27 | 2020-10-27 | Covidien Lp | Reflectors for optical-based vessel sealing |
US11690666B2 (en) | 2017-06-08 | 2023-07-04 | Covidien Lp | Knife lockout for electrosurgical forceps |
Also Published As
Publication number | Publication date |
---|---|
JP2014123818A (en) | 2014-07-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6030945B2 (en) | Viewer video display control device, viewer video display control method, and viewer video display control program | |
US8330863B2 (en) | Information presentation apparatus and information presentation method that display subtitles together with video | |
US7876978B2 (en) | Regions of interest in video frames | |
US10542323B2 (en) | Real-time modifiable text captioning | |
US8935169B2 (en) | Electronic apparatus and display process | |
CN108419141B (en) | Subtitle position adjusting method and device, storage medium and electronic equipment | |
US8421823B2 (en) | Overlaying camera-derived viewer emotion indication on video display | |
US20150381925A1 (en) | Smart pause for neutral facial expression | |
US10356340B2 (en) | Video rendering with teleprompter overlay | |
US20150036050A1 (en) | Television control apparatus and associated method | |
US20170017844A1 (en) | Image content providing apparatus and image content providing method | |
CN109416562B (en) | Apparatus, method and computer readable medium for virtual reality | |
WO2012050029A1 (en) | Electronic equipment and method for determining language to be displayed thereon | |
US8467509B2 (en) | Video displaying apparatus, video displaying system and video displaying method | |
WO2011081036A1 (en) | Image processing device, image processing method, and image processing program | |
TW200937959A (en) | Information presentation device and information presentation method | |
JP7074056B2 (en) | Image processing equipment, image processing systems, and image processing methods, and programs | |
KR20150011742A (en) | User terminal device and the control method thereof | |
CN105933764A (en) | Broadcast Receiving Apparatus And Method For Controlling The Same | |
US10665026B2 (en) | Apparatus and associated methods for displaying amalgamated virtual reality content | |
KR20130104215A (en) | Method for adaptive and partial replacement of moving picture, and method of generating program moving picture including embedded advertisement image employing the same | |
JP2000278626A (en) | Multiple screens sound output controller | |
EP2519022A2 (en) | Video processing apparatus and video processing method | |
KR101862128B1 (en) | Method and apparatus for processing video information including face | |
CN112601120A (en) | Subtitle display method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161021 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6030945 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |