JP2014123818A - 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム - Google Patents

視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム Download PDF

Info

Publication number
JP2014123818A
JP2014123818A JP2012277959A JP2012277959A JP2014123818A JP 2014123818 A JP2014123818 A JP 2014123818A JP 2012277959 A JP2012277959 A JP 2012277959A JP 2012277959 A JP2012277959 A JP 2012277959A JP 2014123818 A JP2014123818 A JP 2014123818A
Authority
JP
Japan
Prior art keywords
video
viewer
sign language
content
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012277959A
Other languages
English (en)
Other versions
JP6030945B2 (ja
Inventor
Misa Hirao
美佐 平尾
Yoko Ishii
陽子 石井
Yasuhiko Miyazaki
泰彦 宮崎
Toru Kobayashi
透 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012277959A priority Critical patent/JP6030945B2/ja
Publication of JP2014123818A publication Critical patent/JP2014123818A/ja
Application granted granted Critical
Publication of JP6030945B2 publication Critical patent/JP6030945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】聴覚に障がいがあるユーザがコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする。
【解決手段】視聴者の映像の表示を制御する視聴者映像表示制御装置7であって、コンテンツ映像を視聴している視聴者を撮影するカメラ2から入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記カメラ映像を用いて前記視聴者が手話をしているか否かを検出する手話検出部と、前記手話検出部が手話を検出したタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備える。
【選択図】図1

Description

本発明は、聴覚障がいがあるユーザやその家族のユーザなど、手話や口話を用いてコミュニケーションをとるユーザが、テレビ放送をはじめとするコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムに関する。
「テレビを見ながら家族と会話をする」という行為は、聴者(聴覚に障害がない人のこと)のユーザにとってはごく自然な行為である。これは、聴者同士は音声のみによってコミュニケーションをとることが可能であり、コンテンツ映像の視聴を中断せずにコミュニケーションをとることができるからである。一方で、手話や口話によってコミュニケーションをとる聴覚障がい者やその家族のユーザは、コンテンツ映像の視聴時にコミュニケーションをとろうとすると、「番組本編を見逃さないように、CM中、番組終了後だけおしゃべりする」、「お互いの様子、手話や顔の表情が見やすいように座る位置を工夫する」など、様々な制約がともなう。手話や口話は相手と目を合わせることで成立するコミュニケーション方法であり、コンテンツ映像の視聴時に会話をするためには、視聴を中断して相手と向き合う必要があるからである。
このような問題に対して、例えば非特許文献1のような遠隔コミュニケーションに用いるシステムを適用することが考えられる。
特開2008-217536号公報
上述のように、聴覚障がい者やその家族のユーザが、テレビなどのコンテンツ映像の視聴時にコミュニケーションをとろうとすると、様々な制約がともなうため、円滑なコミュニケーションを実現することが難しい。
特許文献1のシステムは、遠隔コミュニケーションに用いるシステムであって、コンテンツ映像を視聴する際に、聴覚障がい者などの円滑なコミュニケーションを図ることについては考慮されていない。
例えば、画面に表示される自己画像は、ユーザの状態に応じて表示/非表示を制御されることはなく、常時表示される。しかし、ユーザが、コンテンツ映像を視聴中、ユーザをビデオカメラにより撮影した映像(以下では、ユーザ映像と呼ぶ)は、例えば、ユーザが手話や口話などの会話をしているなどの状況に応じて表示/非表示を制御される必要がある。ユーザが会話を行っていない間、ユーザ映像は表示されている必要はなく、コンテンツ映像やテロップや字幕等の文字情報の見やすさを考えると、表示されない方が望ましいからである。
また、ユーザが会話を行っていない間でも、ユーザの表情に変化があればユーザ映像が表示されることが望ましい。ユーザ映像を通して互いの表情の変化に気がつくことで、会話を開始するきっかけとなったり、逆に話しかけるのを控えるべきだと判断したりするなど、コミュニケーションをより円滑にすることを可能とするためである。
本発明は、上記事情に鑑みてなされたものであり、本発明の目的は、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムを提供することにある。
上記目的を達成するため、本発明は、視聴者の映像の表示を制御する視聴者映像表示制御装置であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記カメラ映像を用いて前記視聴者が手話をしているか否かを検出する手話検出部と、前記手話検出部が手話を検出したタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備える。
本発明は、視聴者の映像の表示を制御する視聴者映像表示制御装置であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記コンテンツ映像がCMに切り替わったことを検知するTV内容判断部と、前記TV内容判断部がCMに切り替わったことを検知したタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備える。
本発明は、視聴者の映像の表示を制御する視聴者映像表示制御装置であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部と、前記表情変化検出部が前記表情変化を検出したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備える。
本発明は、視聴者の映像の表示を制御する視聴者映像表示制御装置であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記検出された視聴者が手話をしているか否かを検出する手話検出部と、前記検出された視聴者の顔の表情変化を検出する表情変化検出部と、前記手話検出部が検出した前記視聴者の手話映像、および前記表情変化検出部が検出した前記視聴者の表情映像を強調するための強調処理を、検出してから所定の時間、行う強調部と、前記強調処理がなされた手話映像および表情映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備える。
本発明は、視聴者の映像の表示を制御する視聴者映像表示制御装置であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、前記検出された視聴者が手話をしているか否かを検出する手話検出部と、前記検出された視聴者の顔の表情変化を検出する表情変化検出部と、前記視聴者の映像を用いた手話映像の表示位置、または前記視聴者の映像を用いた表情映像の表示位置を、前記コンテンツ映像に含まれる文字情報に重ならないように決定する位置決定部と、前記手話映像または前記表情映像を、前記決定された表示位置で前記コンテンツ映像に重畳して合成する映像合成部と、を備える。
本発明は、コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、前記視聴者が手話を開始したタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行う。
本発明は、コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、前記コンテンツ映像がCMに切り替わったタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行う。
本発明は、コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、前記視聴者の顔の表情が変化したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行う。
本発明は、コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、前記検出された視聴者の映像を用いた手話映像を手話の開始から所定の時間、強調させる処理を行う、または、前記検出された視聴者の映像を用いた表情映像を表情変化から所定の時間、強調させる処理を行う強調ステップと、前記強調ステップの処理がなされた手話映像または表情映像を、前記コンテンツ映像に重畳して合成する映像合成ステップと、を行う。
本発明は、コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、前記検出された視聴者の映像を用いた手話映像または表情映像のそれぞれの表示位置を、前記コンテンツ映像に含まれる文字情報に重ならないように決定する位置決定ステップと、前記手話映像または前記表情映像を、前記決定された表示位置で前記コンテンツ映像に重畳して合成する映像合成ステップと、を行う。
本発明は、前記視聴者映像表示制御装置としてコンピュータを機能させるための視聴者映像表示制御プログラムである。
本発明によれば、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際に、コミュニケーションをより円滑にする視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラムを提供することができる。
本発明の実施形態に係るシステムの全体構成を示す構成図である。 制御装置の構成を示すブロック図である。 手話判断部および表情変化判断部の構成を示すブロック図である。 ユーザ映像生成部の構成を示すブロック図である。 TV内容判断部及び手話判断部の処理を表すフローチャートである。 表情変化判断部の処理を表すフローチャートである。 ユーザ映像生成部の処理を示す模式図である。 手話映像または表情映像が表示された画面例のイメージ図である。 手話映像または表情映像が表示された画面例のイメージ図である。
以下、本発明の実施の形態について、図面を参照して説明する。
図1は、本発明の実施形態に係るシステムの全体構成図である。図示するシステムは、コンテンツ映像を表示する画面1と、当該画面1の近くに設置され、コンテンツ映像を視聴しているユーザ(視聴者)を撮影するビデオカメラ2と、カメラ入力インタフェース3と、画面出力インタフェース4と、ユーザが使用するリモコン5と、ユーザ入力インタフェース6と、制御装置7(視聴者映像表示制御装置)と、地上デジタルテレビ放送受像機などのコンテンツ映像を出力する映像コンテンツ出力装置8とを備える。
制御装置7には、ビデオカメラ2により撮影されたカメラ映像が、カメラ入力インタフェース3を介して制御装置7に入力される。また、制御装置7には、映像コンテンツ出力装置8から出力されるコンテンツ映像が入力される。また、制御装置7には、リモコン5を用いてユーザが入力したユーザ入力データ(指示情報、設定情報など)が、ユーザ入力インタフェース6を介して入力される。
制御装置7は、入力されたカメラ映像からユーザの顔及び上半身の検出、ユーザの手話の動作の検出、表情の変化の検出、コンテンツ映像におけるテレビCMの検出などを行う。そして、制御装置7は、ユーザが手話をしている間とテレビCM中は、手話映像をユーザが視聴しているコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力する。また、制御装置7は、手話はしていないが、表情変化があったときには、表情映像をユーザが視聴しているコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力する。
なお、制御装置7には、例えば、画面1に接続されたPCやテレビに搭載されたブラウザなどを用いること考えられる。
次に、図2を用いて制御装置7の詳細を説明する。図2は、制御装置7の構成を示すブロック図である。図示する制御装置7は、カメラ映像解析部71と、TV内容判断部72と、手話判断部73と、表情変化判断部74と、ユーザ映像生成部75と、映像合成部76とを備える。
ビデオカメラ2は、画面1に表示されるコンテンツ映像を視聴するユーザを撮影し、撮影したカメラ映像をフレーム単位でカメラ映像解析部71に入力する。カメラ映像解析部71は、入力されたカメラ映像フレームを画像解析し、ユーザ毎にユーザの映像(顔及び上半身など)を検出する。そして、各ユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとを、TV内容判断部72に出力する。TV内容判断部72は、映像コンテンツ出力装置8から出力されるコンテンツ映像がCM中か、すなわちCMに切り替わったか否かを検知する。
手話判断部73は、カメラ映像フレームを用いて、ユーザが手話をしているか否かを検出する。表情変化判断部74は、カメラ映像フレームを用いて、ユーザの顔の表情変化を検出する。ユーザ映像生成部75は、カメラ映像解析部71が検出したユーザの顔および上半身を用いて、ユーザの手話映像または表情映像を生成する。映像合成部76は、ユーザの手話映像および表情映像をコンテンツ映像に重畳して合成し、画面出力インタフェース4を介して画面1に出力し、画面1上に表示させる。
図3は、制御装置7の手話判断部73および表情変化判断部74の構成を示すブロック図である。図示する手話判断部73は、手話検出部731と、手話非検出時間参照部732とを備え、表情変化判断部74は、表情変化検出部741と、表情変化検出時間参照部742と、アイコン判断部743とを備える。これらの処理については、図5および図6を用いて後述する。
図4は、制御装置7のユーザ映像生成部75の構成を示すブロック図である。図示するユーザ映像生成部75は、ユーザ映像抽出部751と、ユーザ映像エフェクト処理部752と、ユーザ映像サイズ決定部753と、ユーザ映像位置座標決定部754と、文字情報検出部755とを備える。これらの処理については、図7を用いて後述する。
上記説明した制御装置7には、例えば、CPUと、メモリと、HDD等の外部記憶装置と、入力装置と、出力装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた制御装置7用のプログラムを実行することにより、制御装置7の各機能が実現される。また、制御装置7用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD−ROMなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。
次に、本実施形態の制御装置7の処理について説明する。
まず、ビデオカメラ2は、コンテンツを視聴しているユーザを撮影する。このカメラ映像は、カメラ入力インタフェース3を介して、制御装置7のカメラ映像解析部71にフレーム単位で入力される。
カメラ映像解析部71は、入力されたカメラ映像フレームからユーザの映像(ここでは、顔及び上半身)をユーザ毎に検出する。そして、カメラ映像解析部71は、ユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとを、TV内容判断部72に出力する。なお、ユーザの顔及び上半身を検出するには、例えば以下の参考文献1のような技術を用いることができる。具体的には、顔の向きに応じた特徴量の抽出と、その特徴量を用いた類似度算出を行い、算出された類似度に基づいてユーザの映像を認識・検出する。
[参考文献1]:特開2009-157766号公報
図5は、TV内容判断部72及び手話判断部73が行う処理を表すフローチャートである。まず、TV内容判断部72には、映像コンテンツ出力装置8から出力されるコンテンツ映像がフレーム単位で入力されるとともに、カメラ映像解析部71からユーザの顔及び上半身の画像領域を表す座標情報とカメラ映像フレームとがフレーム単位で入力される(S11)。
TV内容判断部72は、入力されたコンテンツ映像フレームがテレビCMであるか否かを判断する(S12)。入力されたコンテンツ映像フレームがテレビCMであるか否かは、例えば以下の参考文献2のような技術を用いて判断することができる。
[参考文献2]:武 小萌、佐藤 真一、「超高速CM検出に関する研究とその知識発見への応用」、電子情報通信学会技術研究報告、2011年6月、PRMU2011-53、p.119-124
本実施形態では、コンテンツ映像がCM中の場合は、ユーザが手話をしているか否かにかかわらず、手話映像をコンテンツ映像に重畳して画面1に表示するものとする。手話映像は、ユーザが手話を行っている場合に手話の動作が視認できるユーザの映像であって、本実施形態では、手話映像として、ユーザの顔及び上半身を含む映像とする。また、コンテンツ映像がCM中でない場合は、ユーザが手話をしている間だけ、手話映像をコンテンツ映像に重畳して画面1に表示するものとする。
また、本実施形態では、手話をしていない状態から手話をしている状態に遷移した場合(すなわち、手話が開始された場合)、手話の開始から所定の時間(t1秒間)は、手話が開始されたことをユーザに気づかせるためのエフェクト処理(強調処理)を施すためのマーカーを当該カメラ映像フレームに設定することとする。
具体的には、入力されたコンテンツ映像フレームがCMの場合(S12:YES)、TV内容判断部72は、S11で入力されたカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とを、手話判断部73に出力する。手話判断部73の手話検出部731は、入力されたカメラ映像フレームを用いて、ユーザが手話をしているか否かを判断する(S13)。ユーザが手話をしているか否かは、例えば以下の参考文献3のような技術を用いて判断することができる。
[参考文献3]:山田 寛、松尾 直志、島田 伸敬、白井 良明「手話認識のための見えの学習による手領域検出と形状識別」、画像の認識・理解シンポジウム、2009 年 7 月、MIRU2009、p.635-642
入力されたカメラ映像フレームで手話が行われていない場合(S13:NO)、手話判断部73の手話非検出時間参照部732は、現在時間をn1としてメモリなどの記憶部に保存し(S14)、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S15)。
入力されたカメラ映像フレームで手話が行われていた場合(ユーザが複数いる場合は、その内の少なくとも1人が手話を行っていた場合)(S13:YES)は、手話非検出時間参照部732は、記憶部に直前に保存されたn1と現在時間とを照らし合わせ、その差分を算出する。算出した差分が予め指定されたt1秒以内の場合(S16:YES)、手話開始からt1秒以内であると判断する。この場合、手話非検出時間参照部732は、手話が開始されたことを、コンテンツ映像を視聴している他のユーザに気づかせる(注意を喚起させる)ためのエフェクト処理を行わせるために、S11で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔及び上半身の画像領域を表す座標情報とともにユーザ映像生成部75へ出力する(S17)。
直前に保存されたn1と現在時間との差分がt1秒を超える場合(S16:NO)、手話非検出時間参照部732は、手話の開始からt1秒を経過していると判断し、マーカーを付けることなく、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S15)。
一方、入力されたコンテンツ映像フレームがCMではない場合(S12:NO)、TV内容判断部72は、手話判断部73にカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報を出力する。手話判断部73の手話検出部731は、入力されたカメラ映像フレームを用いて、ユーザが手話をしているか否かを判断する(S18)。
入力されたカメラ映像フレームで手話が行われていない場合(S18:NO)、手話判断部73の手話非検出時間参照部732は、現在時間をn2としてメモリなどの記憶部に保存し(S22)、表情変化判断部74へカメラ映像フレームとユーザの顔の画像領域を表す座標情報とを出力する(S23)。
入力されたカメラ映像フレームで手話が行われていた場合(ユーザが複数いる場合は、その内の少なくとも1人が手話を行っていた場合)(S18:YES)は、手話非検出時間参照部732は、記憶部に直前に保存されたn2と現在時間とを照らし合わせ、その差分が予め指定されたt1秒以内の場合(S19:YES)、手話の開始からt1秒以内であると判断し、手話が開始されたことをコンテンツ映像を視聴している他のユーザに気づかせるために、S11で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔及び上半身の画像領域を表す座標情報とともにユーザ映像生成部へ出力する(S20)。
直前に保存されたn2と現在時間との差分がt1秒を超える場合は(S19:NO)、手話非検出時間参照部732は、手話の開始からt1秒を経過していると判断し、マーカーを付けることなく、カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報をユーザ映像生成部75へ出力する(S21)。
なお、図5の処理は、入力されるカメラ映像およびコンテンツ映像のフレーム毎に繰り返し行われるものである。
図6は、表情変化判断部74の処理を表すフローチャートである。
本実施形態では、コンテンツ映像がCM中でない場合であって、ユーザが手話をしていない場合でユーザに表情変化が発生した場合、所定の時間(t2秒間)、変化した後の表情映像をコンテンツ映像に重畳して画面1に表示するものとする。また、本実施形態では、表情変化が発生したことをユーザに気づかせるためのエフェクト処理(強調処理)を施すためのマーカーをカメラ映像フレームに設定することとする。
表情変化判断部74の表情変化検出部741には、図4のS23により、手話判断部73により出力されたカメラ映像フレームとユーザの顔の画像領域を表す座標情報とが入力される(S31)。
表情変化検出部741は、入力されたカメラ映像フレームを用いて、ユーザの表情変化が発生したか否かを検出する(S32)。ユーザの表情変化の検出には、例えば参考文献4のような技術を用いることができる。
[参考文献4]:太田 寛志、佐治 斉、中谷 広正「顔面筋に基づいた顔構成要素モデルによる表情変化の認識」、電子情報通信学会論文誌。 D-II、 情報・システム、 II-パターン処理 Vol. J82-D-II(7)、pp.1129-1139、1999年7月
表情変化が検出された場合(S32:YES)、表情変化検出部741は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報と、どのような表情変化なのか(例えば、笑顔になったのか、驚いた顔になったのかなどの変化した後の表情)を表すタグAをともに、表情変化検出時間参照部742へ出力する。表情変化検出時間参照部742は、現在時間をn3としてメモリなどの記憶部に保存するとともに、入力されたカメラ映像フレームとユーザの顔の画像領域を表す座標情報も記憶部に保存し、表情変化を表すタグAと、カメラ映像フレームと、ユーザの顔の画像領域を表す座標情報とをアイコン判断部743に出力する(S33)。
アイコン判断部743は、表情変化があった場合に、画面1に表示する表情映像を、カメラ映像フレームから取得するユーザの顔の映像とするのか、ユーザの表情を表す任意のアイコンとするのかを判別する(S34)。なお、カメラ映像フレームの映像とするかアイコンとするかについては、アイコン判断部743は、ユーザが設定した設定情報にもとづいて判断するものとする。ユーザは、リモコン5などを用いて予め(またはコンテンツ映像を視聴中に)、カメラ映像フレームの映像とするかアイコンとするかを、アイコン判断部743に設定する。
なお、表情映像は、ユーザの表情が視認できる映像であって、本実施形態では、表情映像として、カメラ映像フレームから取得した映像の場合はユーザの顔を含む映像とし、アイコンの場合は顔の表情が判るものとする。
カメラ映像フレームの表情映像をユーザが設定していた場合は(S34:NO)、アイコン判断部743は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S35)。そして、表情変化が起こったことを、コンテンツ映像を視聴している他のユーザに気づかせるために、アイコン判断部743は、S31で入力されたカメラ映像フレームに任意のマーカーを付け、ユーザの顔の画像領域を表す座標情報とともにユーザ映像生成部75へ出力する。
アイコンの表情映像をユーザが指定していた場合は(S34:YES)、アイコン判断部743は、タグAの表す表情に対応するアイコンを選択し(S36)、選択したアイコンの情報をユーザ映像生成部75へ出力する(S37)。なお、タグAはn3と対応づけてアイコン判断部743内のメモリなどの記憶部に保存する。
入力されたカメラ映像フレームで表情変化がなかった場合(S32:NO)、表情変化検出部741は、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とを表情変化検出時間参照部742へ出力する。表情変化検出時間参照部742は、現在時間と直前に記憶部に保存されたn3とを照らし合わせ、その差分が予め設定された所定の時間(t2秒間)以内の場合(S38:YES)、表情変化が発生してからt2秒以内である(画面1への表情映像の表示期間内)と判別する。そして、表情変化検出時間参照部742は、直前にS33で保存された情報を用いて、n3時点での顔の位置と現時点での顔の位置との差分がαピクセル以内であるか否かを判断する(S39)。これにより、直前に表情変化が発生したカメラ映像フレームのユーザの顔と、現在のカメラ映像フレームのユーザの顔が同一人物であるか否かを判別する。
差分がαピクセル以内の場合(S39:YES)、表情変化検出時間参照部742は、過去の顔と同一人物であると判別し、アイコン判断部743にカメラ映像フレームとユーザの顔の画像領域を表す座標情報とを出力する。アイコン判断部743は、カメラ映像フレームの表情映像をユーザが設定していた場合(S40:NO)、カメラ映像フレームとユーザの顔の画像領域を表す座標情報とをユーザ映像生成部75へ出力する(S41)。アイコンの表情映像をユーザが設定していた場合は(S40:YES)、アイコン判断部743は、直前のS36で記憶部に保存しておいたタグAの表す表情に対応するアイコンを選択し(S42)、当該アイコンの情報をユーザ映像生成部75へ出力する(S43)。
一方、現在時間とn3の差分が予め指定されたt2秒を超える場合(S38:NO)、表情変化検出時間参照部742は、表情変化が発生してからt2秒(画面1への表情映像の表示期間)を経過したと判別し、アイコン判断部743への出力を行わない(S43)。これにより、これまで画面1に表示されていた表情映像が消えることになる。
また、差分がαピクセルを超える場合(S39:NO)も、表情変化検出時間参照部742は、過去の顔と違うユーザであると判別し、アイコン判断部743への出力を行わない(S43)。これにより、これまで画面1に表示されていた表情映像が消えることになる。
なお、図6の処理は、入力されるカメラ映像のフレーム毎に繰り返し行われるものである。
また、図6に示す実施形態では、マーカーが付されるカメラ映像フレームはS35に該当するカメラ映像フレームのみであるが、t2の値が小さい場合は、S41のカメラ映像フレームにもマーカーを付してエフェクト処理を行わせることとしてもよい。すなわち、画面1に表情映像を表示する間、エフェクト処理を行うこととしてもよい。
図7は、ユーザ映像生成部75の処理を、図5および図6の処理により入力される情報の種類毎に表わしたものである。
(a)マーカー付きのカメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図5のS17、S20)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔及び上半身部分の画像領域を表す座標情報にもとづいて、ユーザの顔及び上半身部分を抽出し、手話映像を生成する(S51)。そして、ユーザ映像エフェクト処理部752は、生成した手話映像に、手話映像の表示を目立たせるようなエフェクト処理(強調処理)をかける(S52)。エフェクトとしては、例えば、手話映像の周囲に目立つ色の枠をつける、枠を点滅させる、手話映像のサイズを予め設定した通常よりも拡大するなどが考えられる。その他に、ユーザがリモコン5などを用いて予め指定したエフェクトあれば、それにもとづいたエフェクトもあわせてかけることも考えられる。
次に、ユーザ映像サイズ決定部753は、ユーザがリモコン5などを用いて予め指定した大きさに手話映像の大きさを調整する(S53)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S53)、手話映像と位置座標とを映像合成部76へ出力する(S54)。
(b)カメラ映像フレームとユーザの顔及び上半身の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図5:S15、S21)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔及び上半身部分の画像領域を表す座標情報にもとづいて、ユーザの顔及び上半身部分を抽出し、手話映像を生成する(S61)。そして、ユーザがリモコン5などにより予め手話映像にエフェクトをかけることを指定している場合には、ユーザ映像エフェクト処理部752は、指定されたエフェクトをかける(S62)。ユーザによるエフェクトの指定が無い場合は、エフェクト処理を行わない。
次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに手話映像の大きさを調整する(S63)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S63)、手話映像と位置座標とを映像合成部へ出力する(S64)。
(c)マーカー付きのカメラ映像フレームとユーザの顔の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図6:S35)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔の画像領域を表す座標情報にもとづいてユーザの顔部分を抽出し、表情映像を生成する(S71)。そして、ユーザ映像エフェクト処理部752は、生成した表情映像に、表情映像の表示を目立たせるようなエフェクトをかける。エフェクトについては、(a)のS52と同様である。
次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに表情映像の大きさを調整する(S73)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S73)、表情映像と位置座標とを映像合成部76へ出力する(S74)。
(d)カメラ映像フレームとユーザの顔の画像領域を表す座標情報が、ユーザ映像生成部75に入力された場合(図6:S41)
まず、ユーザ映像抽出部751は、カメラ映像フレームからユーザの顔の画像領域を表す座標情報にもとづいてユーザの顔部分を抽出し、表情映像を生成する(S81)。そして、ユーザ映像エフェクト処理部752は、予めユーザが表情映像にエフェクトをかけることを指定している場合、指定されたエフェクトをかける(S82)。ユーザによるエフェクトの指定が無い場合は、エフェクト処理を行わない。
次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさに表情映像の大きさを調整する(S83)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を付与し(S83)、表情映像と位置座標とを映像合成部76へ出力する(S84)。
(e)表情映像としてアイコンの情報がユーザ映像生成部75に入力された場合(図6:S37、S43)
まず、予めユーザがアイコンにエフェクトをかけることを指定している場合は、ユーザ映像エフェクト処理部752は、指定されたエフェクトをかける(S91)。次に、ユーザ映像サイズ決定部753は、ユーザによって予め指定された大きさにアイコン映像の大きさを調整する(S92)。次に、ユーザ映像位置座標決定部754は、ユーザによって予め指定された位置、または後述する実施例にもとづいて位置座標を決定し(S92)、アイコンの情報と位置座標とを映像合成部76へ出力する(S93)。
なお、図7の処理は、入力される情報に応じて繰り返し行われるものである。
以上説明した(a)から(e)の処理において、ユーザ映像位置座標決定部754が、コンテンツ映像に含まれる文字情報の位置に基づいて、手話映像および表情映像の位置座標を決定する場合、文字情報検出部755は、コンテンツ映像の中から文字情報の表示位置を検出する。なお、文字情報の検出には、例えば、参考文献5のような技術を用いることができる。文字情報は、時刻表示や番組ロゴなどを除く、コンテンツ映像における台詞やナレーションなどの音声を文字によって表現した字幕、テロップなどの情報である。
[参考文献5]:門馬孝雄,沢村英治,都木徹,白井克彦,“オフライン字幕制作実用システムにおける自動整形技術の開発”,2003年映像メディア学会冬季大会
以下に、ユーザ映像位置座標決定部754が、手話映像および表情映像の位置座標を決定する際の実施例を説明する。
ここでは、聴覚に障がいがあるユーザにとっての見やすさを考えると、手話映像および表情映像は、字幕やテロップなどの非定常的にコンテンツ映像に重畳される文字情報との重なりをできる限り避けるとともに、視線の移動が少なくて済むように文字情報とできる限り近接していることが望ましいと考える。ここでは、手話映像については、画面の4隅のうち、文字情報にもっとも近接する隅に表示し、表情映像については、文字情報の末尾に表示するものとする。手話映像は、手話の内容を見えるようにするため映像サイズが大きくなる場合が多いため、文字情報の末尾では手話映像が収まらない場合を考慮し、画面の4隅とした。
また、文字情報が画面上の複数箇所に検出された場合は、手話映像は、画面上の最も下部に検出された文字情報に近接する隅に表示し、また、表情映像は、画面上の最も下部に検出された文字情報の末尾に表示するものとする。
図8および図9は、このような実施例において、手話映像と表情映像の位置座標を決定した画面の一例のイメージ図を示すものである。
図8の画面81は、文字情報が画面中央に検出されたときに、手話映像を表示する画面例であり、コンテンツ映像を視聴するユーザの手話映像811、812が、文字情報810にもっとも近接する下部の左右の隅に表示されている。図8の画面82は、文字情報が画面中央に検出されたときに、表情映像を表示する画面例であり、コンテンツ映像を視聴するユーザの表情映像821、822が、文字情報820の末尾に表示にされている。
図8の画面83は、文字情報が画面下部に検出されたときに、手話映像を表示する画面例であり、手話映像831、832が、文字情報830に最も近接する下部の左右の隅に表示されている。図8の画面84は、文字情報が画面下部に検出されたときに、表情映像を表示する画面例であり、表情映像841、842が、文字情報840の末尾に表示にされている。
図9の画面91および画面92は、文字情報が画面上部に検出されたときに、手話映像および表情映像をそれぞれ表示する画面例である。また、図9の画面93は、文字情報が複数検出され場合であって、最も下部の文字情報に近接する隅に手話映像を表示する画面例であり、図9の画面94は、文字情報が複数検出され場合であって、最も下部の文字情報の末尾に、表情映像を表示する画面例である。
このように、手話映像および表情映像の画面内での表示位置は、文字情報に重ならないような位置に決定する。なお、上記実施例以外にも、ユーザの任意の位置に手話映像および表情映像を表示することとしてもよい。
そして、映像合成部76は、映像コンテンツ出力装置8から出力されるコンテンツ映像に、ユーザ映像生成部75から出力される手話映像または表情映像を、指定された位置座標の位置に重畳した合成映像を生成し、画面出力インタフェース4を介して画面1に送出する。これにより、画面1には、コンテンツ映像を視聴するユーザの手話映像または表情映像が重畳された合成映像が表示される。
以上説明した本実施形態では、聴覚に障がいがあるユーザが手話をしている間と、ユーザが視聴しているコンテンツ映像がテレビCMに切り替わっている間にのみ、ユーザの手話映像をコンテンツ映像に重畳して表示することで、コンテンツ映像の見易さを考慮しつつ、コンテンツ映像に重畳された手話映像越しにコミュニケーションをとることを可能とし、聴覚に障がいがあるユーザがコンテンツ映像を視聴する際のコミュニケーションをより円滑にすることができる。
具体的には、ユーザの手話の動作を検出して手話をしている間、ユーザの手話映像をコンテンツ映像に重畳して表示するとともに、視聴しているコンテンツ映像がテレビCMに切り替わっている間は、ユーザの会話が発生しやすいタイミングとみなし、手話映像をコンテンツ映像に重畳して表示することで、円滑なコミュニケーションを実現し、コミュニケーションの促進を図ることができる。
また、本実施形態では、ユーザの表情の変化を検出した際に、ユーザの顔部分の表情映像をコンテンツ映像に重畳して表示することで、お互いに画面の方向を向いていてはわからない、お互いの表情変化を相手に知らせ、コミュニケーションをより円滑にすることができる。
また、本実施形態では、手話映像や表情映像の表示を開始する際には、それらの映像を目立たせるようなエフェクトをかけ、ユーザがコンテンツ映像に集中していても、手話映像や表情映像の表示が開始され、相手が手話をし始めたことや、相手の表情が変化したことに気がつきやすくする。これにより、ユーザは、手話映像や表情映像を有効に活用することができ、より円滑なコミュニケーションを実現することができる。
また、本実施形態では、手話映像や表情映像の画面上での表示位置をテロップや字幕等の文字情報に重ならないように決定する。これにより、コンテンツ映像に含まれる文字情報の見やすさを考慮しつつ、映像越しに円滑なコミュニケーションをとることができる。
なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
1 :画面
2 :ビデオカメラ
3 :カメラ入力インタフェース
4 :画面出力インタフェース
5 :リモコン
6 :ユーザ入力インタフェース
7 :制御装置
71:カメラ映像解析部
72:TV内容判断部
73:手話判断部
74:表情変化判断部
75:ユーザ映像生成部
76:映像合成部
8 :映像コンテンツ出力装置

Claims (12)

  1. 視聴者の映像の表示を制御する視聴者映像表示制御装置であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、
    前記カメラ映像を用いて前記視聴者が手話をしているか否かを検出する手話検出部と、
    前記手話検出部が手話を検出したタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備えること
    を特徴とする視聴者映像表示制御装置。
  2. 視聴者の映像の表示を制御する視聴者映像表示制御装置であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、
    前記コンテンツ映像がCMに切り替わったことを検知するTV内容判断部と、
    前記TV内容判断部がCMに切り替わったことを検知したタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備えること
    を特徴とする視聴者映像表示制御装置。
  3. 視聴者の映像の表示を制御する視聴者映像表示制御装置であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、
    前記カメラ映像を用いて前記視聴者の顔の表情変化を検出する表情変化検出部と、
    前記表情変化検出部が前記表情変化を検出したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備えること
    を特徴とする視聴者映像表示制御装置。
  4. 視聴者の映像の表示を制御する視聴者映像表示制御装置であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、
    前記検出された視聴者が手話をしているか否かを検出する手話検出部と、
    前記検出された視聴者の顔の表情変化を検出する表情変化検出部と、
    前記視聴者の映像を用いた手話映像、または前記視聴者の映像を用いた表情映像を強調するための強調処理を、検出してから所定の時間、行う強調部と、
    前記強調処理がなされた手話映像または表情映像を前記コンテンツ映像に重畳して合成する映像合成部と、を備えること
    を特徴とする視聴者映像表示制御装置。
  5. 視聴者の映像の表示を制御する視聴者映像表示制御装置であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析部と、
    前記検出された視聴者が手話をしているか否かを検出する手話検出部と、
    前記検出された視聴者の顔の表情変化を検出する表情変化検出部と、
    前記視聴者の映像を用いた手話映像の表示位置、または前記視聴者の映像を用いた表情映像の表示位置を、前記コンテンツ映像に含まれる文字情報に重ならないように決定する位置決定部と、
    前記手話映像または前記表情映像を、前記決定された表示位置で前記コンテンツ映像に重畳して合成する映像合成部と、を備えること
    を特徴とする視聴者映像表示制御装置。
  6. 請求項2または4に記載の視聴者映像表示制御装置であって、
    前記視聴者の映像を用いた手話映像の表示位置、または前記視聴者の映像を用いた表情映像の位置を、前記コンテンツ映像に含まれる文字情報に重ならないように決定する位置決定部を、さらに備え、
    前記映像合成部は、前記手話映像または前記表情映像を前記決定された表示位置で前記コンテンツ映像に重畳して合成すること
    を特徴とする視聴者映像表示制御装置。
  7. コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、
    前記視聴者が手話を開始したタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行うこと
    を特徴とする視聴者映像表示制御方法。
  8. コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、
    前記コンテンツ映像がCMに切り替わったタイミングで、前記視聴者の映像を用いた手話映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行うこと
    を特徴とする視聴者映像表示制御方法。
  9. コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、
    前記視聴者の顔の表情が変化したタイミングで、前記視聴者の映像を用いた表情映像を前記コンテンツ映像に重畳して合成する映像合成ステップと、を行うこと
    を特徴とする視聴者映像表示制御方法。
  10. コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、
    前記検出された視聴者の映像を用いた手話映像を手話の開始から所定の時間、強調させる処理を行う、または、前記検出された視聴者の映像を用いた表情映像を表情変化から所定の時間、強調させる処理を行う強調ステップと、
    前記強調ステップの処理がなされた手話映像または表情映像を、前記コンテンツ映像に重畳して合成する映像合成ステップと、を行うこと
    を特徴とする視聴者映像表示制御方法。
  11. コンピュータが行う、視聴者の映像の表示を制御する視聴者映像表示制御方法であって、
    コンテンツ映像を視聴している視聴者を撮影するカメラから入力されるカメラ映像を解析し、前記視聴者の映像を検出する映像解析ステップと、
    前記検出された視聴者の映像を用いた手話映像または表情映像のそれぞれの表示位置を、前記コンテンツ映像に含まれる文字情報に重ならないように決定する位置決定ステップと、
    前記手話映像または前記表情映像を、前記決定された表示位置で前記コンテンツ映像に重畳して合成する映像合成ステップと、を行うこと
    を特徴とする視聴者映像表示制御方法。
  12. 請求項1から6のいずれか1項に記載の視聴者映像表示制御装置としてコンピュータを機能させるための視聴者映像表示制御プログラム。
JP2012277959A 2012-12-20 2012-12-20 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム Active JP6030945B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012277959A JP6030945B2 (ja) 2012-12-20 2012-12-20 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012277959A JP6030945B2 (ja) 2012-12-20 2012-12-20 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム

Publications (2)

Publication Number Publication Date
JP2014123818A true JP2014123818A (ja) 2014-07-03
JP6030945B2 JP6030945B2 (ja) 2016-11-24

Family

ID=51403992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012277959A Active JP6030945B2 (ja) 2012-12-20 2012-12-20 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム

Country Status (1)

Country Link
JP (1) JP6030945B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082704A (ja) * 2012-10-18 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> 映像データ制御装置、映像データ制御方法及び映像データ制御プログラム

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8357158B2 (en) 2008-04-22 2013-01-22 Covidien Lp Jaw closure detection system
US8112871B2 (en) 2009-09-28 2012-02-14 Tyco Healthcare Group Lp Method for manufacturing electrosurgical seal plates
US8512371B2 (en) 2009-10-06 2013-08-20 Covidien Lp Jaw, blade and gap manufacturing for surgical instruments with small jaws
US8597295B2 (en) 2010-04-12 2013-12-03 Covidien Lp Surgical instrument with non-contact electrical coupling
US8469991B2 (en) 2010-06-02 2013-06-25 Covidien Lp Apparatus for performing an electrosurgical procedure
US8430877B2 (en) 2010-06-02 2013-04-30 Covidien Lp Apparatus for performing an electrosurgical procedure
US8998061B2 (en) 2010-10-01 2015-04-07 Covidien Lp Surgical fastener applying apparatus
US9750502B2 (en) 2010-10-01 2017-09-05 Covidien Lp Surgical stapling device for performing circular anastomosis and surgical staples for use therewith
US8685009B2 (en) 2011-05-16 2014-04-01 Covidien Lp Thread-like knife for tissue cutting
US8864795B2 (en) 2011-10-03 2014-10-21 Covidien Lp Surgical forceps
US9492221B2 (en) 2011-10-20 2016-11-15 Covidien Lp Dissection scissors on surgical device
US9265565B2 (en) 2011-11-29 2016-02-23 Covidien Lp Open vessel sealing instrument and method of manufacturing the same
US8968310B2 (en) 2011-11-30 2015-03-03 Covidien Lp Electrosurgical instrument with a knife blade lockout mechanism
US9113897B2 (en) 2012-01-23 2015-08-25 Covidien Lp Partitioned surgical instrument
US8968360B2 (en) 2012-01-25 2015-03-03 Covidien Lp Surgical instrument with resilient driving member and related methods of use
US9375282B2 (en) 2012-03-26 2016-06-28 Covidien Lp Light energy sealing, cutting and sensing surgical device
US9265569B2 (en) 2012-03-29 2016-02-23 Covidien Lp Method of manufacturing an electrosurgical forceps
US8968311B2 (en) 2012-05-01 2015-03-03 Covidien Lp Surgical instrument with stamped double-flag jaws and actuation mechanism
US9510891B2 (en) 2012-06-26 2016-12-06 Covidien Lp Surgical instruments with structures to provide access for cleaning
US8939975B2 (en) 2012-07-17 2015-01-27 Covidien Lp Gap control via overmold teeth and hard stops
US10368945B2 (en) 2012-07-17 2019-08-06 Covidien Lp Surgical instrument for energy-based tissue treatment
US9301798B2 (en) 2012-07-19 2016-04-05 Covidien Lp Surgical forceps including reposable end effector assemblies
US9549749B2 (en) 2012-10-08 2017-01-24 Covidien Lp Surgical forceps
US9526564B2 (en) 2012-10-08 2016-12-27 Covidien Lp Electric stapler device
US9681908B2 (en) 2012-10-08 2017-06-20 Covidien Lp Jaw assemblies for electrosurgical instruments and methods of manufacturing jaw assemblies
US10206583B2 (en) 2012-10-31 2019-02-19 Covidien Lp Surgical devices and methods utilizing optical coherence tomography (OCT) to monitor and control tissue sealing
US9498281B2 (en) 2012-11-27 2016-11-22 Covidien Lp Surgical apparatus
US9713491B2 (en) 2013-02-19 2017-07-25 Covidien Lp Method for manufacturing an electrode assembly configured for use with an electrosurigcal instrument
US10070916B2 (en) 2013-03-11 2018-09-11 Covidien Lp Surgical instrument with system and method for springing open jaw members
US9649151B2 (en) 2013-05-31 2017-05-16 Covidien Lp End effector assemblies and methods of manufacturing end effector assemblies for treating and/or cutting tissue
EP3030179B1 (en) 2013-08-07 2019-05-08 Covidien LP Bipolar surgical instrument
US9943357B2 (en) 2013-09-16 2018-04-17 Covidien Lp Split electrode for use in a bipolar electrosurgical instrument
US9445865B2 (en) 2013-09-16 2016-09-20 Covidien Lp Electrosurgical instrument with end-effector assembly including electrically-conductive, tissue-engaging surfaces and switchable bipolar electrodes
US9687295B2 (en) 2014-04-17 2017-06-27 Covidien Lp Methods of manufacturing a pair of jaw members of an end-effector assembly for a surgical instrument
US20150324317A1 (en) 2014-05-07 2015-11-12 Covidien Lp Authentication and information system for reusable surgical instruments
US10080606B2 (en) 2014-09-17 2018-09-25 Covidien Lp Method of forming a member of an end effector
US10653476B2 (en) 2015-03-12 2020-05-19 Covidien Lp Mapping vessels for resecting body tissue
US10226269B2 (en) 2015-05-27 2019-03-12 Covidien Lp Surgical forceps
US10695123B2 (en) 2016-01-29 2020-06-30 Covidien Lp Surgical instrument with sensor
US10631887B2 (en) 2016-08-15 2020-04-28 Covidien Lp Electrosurgical forceps for video assisted thoracoscopic surgery and other surgical procedures
US11207091B2 (en) 2016-11-08 2021-12-28 Covidien Lp Surgical instrument for grasping, treating, and/or dividing tissue
US10813695B2 (en) 2017-01-27 2020-10-27 Covidien Lp Reflectors for optical-based vessel sealing
US10653475B2 (en) 2017-06-08 2020-05-19 Covidien Lp Knife lockout for electrosurgical forceps

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004028163A1 (ja) * 2002-09-17 2004-04-01 Ginganet Corporation 手話対談用映像入力装置、手話対談用映像入出力装置、および手話通訳システム
JP2004112511A (ja) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd 表示制御装置および方法
JP2005109669A (ja) * 2003-09-29 2005-04-21 Casio Comput Co Ltd 表示システム、端末装置及び端末収納用鞄
JP2007300452A (ja) * 2006-05-01 2007-11-15 Mitsubishi Electric Corp 画像及び音声通信機能付テレビジョン放送受像機
JP2010014487A (ja) * 2008-07-02 2010-01-21 Sanyo Electric Co Ltd ナビゲーション装置
JP2010026021A (ja) * 2008-07-16 2010-02-04 Sony Corp 表示装置および表示方法
JP2010239499A (ja) * 2009-03-31 2010-10-21 Brother Ind Ltd 通信端末装置、通信制御装置、通信端末装置の通信制御方法、通信制御プログラム
JP2011135388A (ja) * 2009-12-25 2011-07-07 Asutemu:Kk 手話映像合成装置、手話映像合成方法、手話表示位置設定装置、手話表示位置設定方法、及びプログラム
JP2012085009A (ja) * 2010-10-07 2012-04-26 Sony Corp 情報処理装置および情報処理方法
JP2014082704A (ja) * 2012-10-18 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> 映像データ制御装置、映像データ制御方法及び映像データ制御プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004028163A1 (ja) * 2002-09-17 2004-04-01 Ginganet Corporation 手話対談用映像入力装置、手話対談用映像入出力装置、および手話通訳システム
JP2004112511A (ja) * 2002-09-19 2004-04-08 Fuji Xerox Co Ltd 表示制御装置および方法
JP2005109669A (ja) * 2003-09-29 2005-04-21 Casio Comput Co Ltd 表示システム、端末装置及び端末収納用鞄
JP2007300452A (ja) * 2006-05-01 2007-11-15 Mitsubishi Electric Corp 画像及び音声通信機能付テレビジョン放送受像機
JP2010014487A (ja) * 2008-07-02 2010-01-21 Sanyo Electric Co Ltd ナビゲーション装置
JP2010026021A (ja) * 2008-07-16 2010-02-04 Sony Corp 表示装置および表示方法
JP2010239499A (ja) * 2009-03-31 2010-10-21 Brother Ind Ltd 通信端末装置、通信制御装置、通信端末装置の通信制御方法、通信制御プログラム
JP2011135388A (ja) * 2009-12-25 2011-07-07 Asutemu:Kk 手話映像合成装置、手話映像合成方法、手話表示位置設定装置、手話表示位置設定方法、及びプログラム
JP2012085009A (ja) * 2010-10-07 2012-04-26 Sony Corp 情報処理装置および情報処理方法
JP2014082704A (ja) * 2012-10-18 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> 映像データ制御装置、映像データ制御方法及び映像データ制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082704A (ja) * 2012-10-18 2014-05-08 Nippon Telegr & Teleph Corp <Ntt> 映像データ制御装置、映像データ制御方法及び映像データ制御プログラム

Also Published As

Publication number Publication date
JP6030945B2 (ja) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6030945B2 (ja) 視聴者映像表示制御装置、視聴者映像表示制御方法、および視聴者映像表示制御プログラム
CN109637518B (zh) 虚拟主播实现方法及装置
US10542323B2 (en) Real-time modifiable text captioning
US8330863B2 (en) Information presentation apparatus and information presentation method that display subtitles together with video
US7876978B2 (en) Regions of interest in video frames
US8421823B2 (en) Overlaying camera-derived viewer emotion indication on video display
CN102111601B (zh) 内容可适性的多媒体处理系统与处理方法
US20150381925A1 (en) Smart pause for neutral facial expression
CN109416562B (zh) 用于虚拟现实的装置、方法和计算机可读介质
US20150036050A1 (en) Television control apparatus and associated method
WO2012050029A1 (ja) 電子機器及びその表示言語判定方法
WO2011081036A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7074056B2 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
KR20150011742A (ko) 사용자 단말 장치 및 그 제어 방법
US20180366089A1 (en) Head mounted display cooperative display system, system including dispay apparatus and head mounted display, and display apparatus thereof
JP2000278626A (ja) マルチ画面音声出力制御装置
EP2519022A2 (en) Video processing apparatus and video processing method
KR101862128B1 (ko) 얼굴을 포함하는 영상 처리 방법 및 장치
JP2012173683A (ja) 表示制御装置、情報表示装置、及び表示制御方法
JP2006005418A (ja) 情報受信・再生装置、情報受信・再生方法、情報受信・再生プログラム及びプログラム記録媒体
JP2010258940A (ja) 表示文字自動調整機能付き表示装置
TW201102836A (en) Content adaptive multimedia processing system and method for the same
JP2007515864A (ja) ビデオ画像処理方法
CN112788381A (zh) 显示设备及显示方法
CN105307001A (zh) 在视频节目上实时显示发布信息的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161021

R150 Certificate of patent or registration of utility model

Ref document number: 6030945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150