JP2013125181A - 投影装置 - Google Patents

投影装置 Download PDF

Info

Publication number
JP2013125181A
JP2013125181A JP2011274536A JP2011274536A JP2013125181A JP 2013125181 A JP2013125181 A JP 2013125181A JP 2011274536 A JP2011274536 A JP 2011274536A JP 2011274536 A JP2011274536 A JP 2011274536A JP 2013125181 A JP2013125181 A JP 2013125181A
Authority
JP
Japan
Prior art keywords
projection
image
unit
face
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011274536A
Other languages
English (en)
Inventor
Junji Tanaka
淳史 田中
Kumiko Ishida
久美子 石田
Toru Miyakoshi
徹 宮越
Chiori Saito
チオリ 齋藤
Michiyo Ogawa
倫代 小川
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011274536A priority Critical patent/JP2013125181A/ja
Publication of JP2013125181A publication Critical patent/JP2013125181A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】投影面の前で移動するプレゼンタの目を投影光から保護することのできる投影装置を提供する。
【解決手段】
投影面(4)へ投影画像を投影する投影部(10)と、前記投影面を撮像する撮像部(20)と、前記撮像部の撮像結果から人物(3)の顔の動きに関する情報(v)を取得し、当該取得した情報に基づいて、前記投影部が所定の投影画像を投影するタイミングにおける人物の顔の位置を予測する予測部(35,37)と、前記予測部による予測結果に基づいて、前記所定の投影画像の一部を加工する加工部(37)と、を備える投影装置。
【選択図】図2

Description

本発明は、投影装置に関する。
従来より、投影した画像の一部を撮像し、その撮像した画像に人物が含まれる場合に、人物の顔へ加工画像を投影する投影装置が提案されている(例えば、特許文献1)。
特開2010-34820号公報
ところで、投影装置を利用してプレゼンテーションを行う人物(プレゼンタ)が、説明の最中に投影面の前で動く場合がある。しかしながら、特許文献1の投影装置では、人物が投影面の前で動くことを考慮していないため、移動する人物に対応できず、使い勝手が悪いおそれがある。
そこで、本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい投影装置を提供することを目的とする。
本発明の投影装置は、投影面(4)へ投影画像を投影する投影部(10)と、前記投影面を撮像する撮像部(20)と、前記撮像部の撮像結果から人物(3)の顔の動きに関する情報を取得し、当該取得した情報に基づいて、前記投影部が所定の投影画像を投影するタイミングにおける人物の顔の位置を予測する予測部(35,37)と、前記予測部による予測結果に基づいて、前記所定の投影画像の一部を加工する加工部(37)と、を備えたことを特徴とする投影装置である。
本発明の投影装置では、前記加工部は、前記所定の投影画像のうち、前記予測部により予測された顔の位置に相当する部分の明度を低下させることとしてもよい。さらに、前記加工部は、前記所定の投影画像のうち、前記予測部により予測された顔の位置に相当する部分を黒画像(5)とすることとしてもよい。
本発明の投影装置では、前記予測部は、前記投影部が投影した投影画像と前記撮像部が撮像した撮像画像との差分画像に基づいて、前記顔の動きに関する情報(v)を取得することとしてもよい。さらに、前記予測部は、前記差分画像のうち下端から連続する部分を人物と推定し、当該推定結果に基づいて前記顔の動きに関する情報を取得することとしてもよい。また、本発明の投影装置では、前記予測部は、前記顔の動きに関する情報が、顔の移動速度の減速を示す情報であった場合に、前記人物の顔の位置を予測することとしてもよい。
本発明の投影装置では、前記加工部は、前記所定の投影画像の一部を加工するとともに、当該加工した所定の投影画像の一部を別の位置に再配置することとしてもよい。
本発明の投影装置では、前記加工部は、前記撮像部により撮像される前記投影面の前方に位置する物体の状態に基づいて、前記所定の投影画像のうち前記物体に投影される部分を加工することとしてもよい。
本発明の投影装置では、前記撮像面周辺の音声を取得する音声取得部(110、131)と、前記撮像部による撮像結果から得られる前記人物の口の動きと、前記音声取得部の取得結果とに基づいて、前記人物の発声内容を取得する取得部(132)と、を備え、前記加工部は、前記所定の投影画像に、前記取得部が取得した発声内容を合成することとしてもよい。
なお、本発明をわかりやすく説明するために、上記においては以下の実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。
本発明によれば、使い勝手のよい投影装置を提供することができるという効果を奏する。
第1の実施形態における投影装置の使用の態様を示す図である。 第1の実施形態における投影装置の構成を示すブロック図である。 投影装置に設けられた画像処理エンジンの機能ブロック図である。 画像処理エンジンにより行われる処理を示すフローチャートである。 移動するプレゼンタを便宜的に同一の画面上に示した図である。 図6(a)は、第2の実施形態の加工していない画像をスクリーンへ投影した様子を示す図であり、図6(b)は、加工をした画像をスクリーンへ投影した様子を示す図である。 第3の実施形態における投影装置の構成を示した図である。 第3の実施形態における画像処理エンジンの機能ブロック図である。
《第1の実施形態》
以下、第1の実施形態について、図1〜図5に基づいて、詳細に説明する。図1は本実施形態における投影装置1の使用の態様を示す図である。
本実施形態の投影装置1はパーソナルコンピュータ(以下、パソコンと呼ぶ)2から入力される投影データを投影面(ここでは、スクリーン)4へ投影する装置である。投影装置1は、例えば、図1に示すようなプレゼンタ3によるプレゼンテーションの場面で用いられる。
図2は、投影装置1の構成を示すブロック図である。投影装置1は、図2に示すように、投影部10と、撮像部20と、画像処理エンジン30と、を備えている。
投影部10は、プロジェクタ投影部11と、プロジェクタ制御部12と、を有する。プロジェクタ投影部11は、光源、照明光学系、光変調素子、投射光学系(いずれも図示しない)を有する。光源は、例えば光を出射するランプである。照明光学系は、光源から出射された光束を光変調素子に照明する。光変調素子は、例えば液晶パネルであり、スクリーン4上に投影する画像を生成する。このスクリーン4は、壁等に設けられる白色の(又はほぼ白色の)矩形状の幕である。投射光学系は、光変調素子からの光束をスクリ−ン4に向けて投射する。なお、投射光学系は、投影する像の大きさを調整するズームレンズと、フォーカス位置を調整するフォーカスレンズとを有する。プロジェクタ制御部12は、画像処理エンジン30から出力された投影データを受信し、投影データに従った投影画像を投影するように、プロジェクタ投影部11の各構成を制御する。
撮像部20は、撮影レンズ21、撮像センサ22、及び撮像センサ22を制御するAFE(Analog Front End)23、TG(Timing Generator)24といった制御回路等を備えている。
撮影レンズ21としては、広角レンズが用いられており、撮像部20は、投影部10の投影する投影領域a(図1において実線で囲まれた矩形領域)よりも広い範囲(撮像領域b(図1において破線で囲まれた矩形領域))を撮像できるようになっている。なお、撮影レンズ21は、フォーカスレンズを有していてもよい。この場合、不図示の焦点検出装置の焦点検出結果に応じてフォーカスレンズの位置が調節される。
撮像センサ22は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complimentary Metal Oxide Semiconductor)イメージセンサなどの矩形状の素子である。撮像センサ22は映像信号を光信号から電気信号へ変換する。AFE23は、撮像センサ22にて変換された映像信号に対して、相関二重サンプリングによる雑音除去、信号の振幅調整及びデジタル変換を行い、画像処理エンジン30へ出力する。TG24は、撮像部20全体のタイミング管理を行う。
なお、図1、図2に示した構成では、撮像部20と投影部10は、投影装置1に内蔵されており、撮像部20と投影部10との位置関係が装置定数として画像処理エンジン30に接続されたSDRAM94に記憶されているものとする。
画像処理エンジン30は、図3に示す各部の機能を有する。具体的には、画像処理エンジン30は、投影データ受信部31、撮像センサデータ受信部32、画像処理演算部33、顔検出演算部34、動きベクトル算出部35、スイッチ検出部36、プロジェクタ投影画像作成部37、プロジェクタ投影情報出力部38、SDRAMコントローラ39としての機能を有する。
投影データ受信部31は、パソコン2から投影データを受信する。撮像センサデータ受信部32は、撮像部20が撮像した画像を受信する。画像処理演算部33は、パソコン2から取り込んだ投影用の画像データや、撮像部20で撮像された画像データを処理する。具体的には、画像処理演算部33は、画像データの画像サイズやコントラストを処理する。また、画像処理演算部33は、撮像画像のBayerパターンをYUV方式へ変換する。
顔検出演算部34は、画像処理演算部33で処理された画像を取得し、当該画像からプレゼンタ3の顔を検出する。顔検出演算部34は、例えば、撮像された画像データのうち投影部10により画像が投影された部分(投影領域a)と、投影用の画像データとを比較して、差分を算出し、算出した差分に基づいて、人(プレゼンタ3)の顔を検出する。この場合、予めSDRAM94などに記憶されている顔のテンプレート画像と算出した差分とのパターンマッチングにより顔を検出することとしてもよい。また、算出した差分が人である可能性が高い場合には、当該差分の最上部近傍の部分を顔として検出してもよい。なお、算出した差分が人であるか否かは、当該差分の領域が撮像画像の下端から連続する領域であるか否か(人の場合、床面上に立っていることから、下端から連続する領域となる可能性が高いため)により判断するものとする。また、算出した差分が人であるか否かは、当該差分の領域と、予め用意されている人物のサンプリング画像とのパターンマッチングにより判断することとしてもよい。
動きベクトル算出部35は、顔検出演算部34が検出したプレゼンタ3の顔の動きベクトルを算出する。具体的には、動きベクトル算出部35は、所定時間差で取得した撮像画像から検出されるプレゼンタ3の顔の位置の変化に基づき、当該所定時間におけるプレゼンタ3の顔の移動方向及び移動量を示す動きベクトルを算出する。
スイッチ検出部36は、投影装置1に設けられている各種スイッチ40のオン/オフの状態を検出する。なお、各種スイッチ40には、投影終了スイッチなどが含まれる。
プロジェクタ投影画像作成部37は、顔検出演算部34が特定したプレゼンタ3の顔の位置と、動きベクトル算出部35が算出した動きベクトルの情報とに基づいて画像データを加工し、加工後の画像データを投影する画像データとする。より具体的には、プロジェクタ投影画像作成部37は、プレゼンタ3の顔の位置と動きベクトルとから、次の画像(フレーム)が投影部10によって投影されるタイミングにおける顔の位置を推定する。そして、プロジェクタ投影画像作成部37は、当該推定結果に基づいて、推定された顔の部分を黒色に加工(以下、「黒指定」と呼ぶ)した画像データを作成する。
プロジェクタ投影情報出力部38は、プロジェクタ投影画像作成部37で作成された画像データを投影部10のプロジェクタ制御部12へ送る。SDRAMコントローラ39は、SDRAM94のデータの読み出し、書き出し、リフレッシュ等を行う。SDRAM94には、画像処理エンジン30で用いられる各種データ等が格納される。
次に、本実施形態の投影装置1の動作について、図4、図5に基づいて説明する。図4は、プレゼンタ3が投影装置1を用いたプレゼンテーションを行う際に、画像処理エンジン30により行われる処理を示すフローチャートである。この処理が開始される前提として、投影部10によるスクリーン4に向けた投影が可能な位置に投影装置1が設置されているものとする。また、投影装置1及びパソコン2は既に起動された状態にあるものとする。
図4の処理では、まず、ステップS1において、画像処理エンジン30が、プロジェクタ投影用データを準備する。具体的には、投影データ受信部31が、パソコン2からプロジェクタ投影用データを取り込む。なお、投影データ受信部31は、取り込んだ投影用データをプロジェクタ投影情報出力部38へ送信する。なお、投影用データは、SDRAMコントローラ39を介して、SDRAM94に記憶される。
次いで、ステップS2では、プロジェクタ投影情報出力部38は、投影部10のプロジェクタ制御部12に対し、スクリーン4への投影を指示する。この指示により、プロジェクタ制御部12は、受信した投影用データに基づく画像をプロジェクタ投影部11に投影させる。
次いで、ステップS3では、スイッチ検出部36が、投影を継続するか否かを判断する。この場合、スイッチ検出部36は、投影を継続するか否かを、スイッチ40の投影終了スイッチがプレゼンタ3等により押されたか否かに基づいて判断する。ここでの判断が否定された場合には、図4の全処理が終了するが、判断が肯定された場合には、ステップS4に移行する。
ステップS4に移行すると、撮像センサデータ受信部32は、撮像部20に対し、スクリーン4の投影画像を撮像するよう指示を出す。そして、撮像センサデータ受信部32は、撮像部20により撮像された撮像画像を取り込む(受信する)。なお、取り込んだ撮像画像は、画像処理演算部33において処理された後、顔検出演算部34に送信される。
次いで、ステップS5では、顔検出演算部34が、撮像画像中における投影領域の特定を行う。具体的には、顔検出演算部34は、SDRAM94上に記憶されている投影用データを読み出し、当該投影用データに基づく画像と撮像画像とのマッチング(テンプレートマッチング)を行う。そして、顔検出演算部34は、マッチング結果に基づいて、撮像画像のうち、投影用データに基づく画像が投影されている可能性が高い部分(例えば矩形領域)を抽出し、これを撮像画像中における投影領域として特定する。
次いで、ステップS6では、顔検出演算部34が、撮像画像中の人物(プレゼンタ3)の顔を検出する。この場合、顔検出演算部34は、ステップS5において特定された撮像画像中における投影領域と、投影用データに基づく画像との差分を取るとともに、当該差分を用いてプレゼンタ3の顔を検出する。なお、プレゼンタ3の顔を検出する方法については、上述した種々の方法を採用することができる。
次いで、ステップS7では、動きベクトル算出部35が、撮像画像中に顔が存在していたか否かを判断する。ここでの判断が否定された場合には、ステップS1に戻るが、肯定された場合には、ステップS8に移行する。
ステップS8に移行した場合、動きベクトル算出部35は、顔の動きベクトルを算出する。具体的には、動きベクトル算出部35は、所定の時間差をおいて取得した2つの撮像画像から人物の顔の動きベクトル(動く方向及び移動量)を算出する。図5は、所定の時間差で取得されたプレゼンタ3の位置(符号3a,3b)を示した図である。図5に示すようにプレゼンタ3が移動した場合、動きベクトル算出部35は、例えば顔の重心や顔の特徴部分(目や鼻など)の位置変化から動きベクトルvを算出する。
次いで、ステップS9では、プロジェクタ投影画像作成部37が、動きベクトルの検出結果から、次に投影する画像(フレーム)がスクリーン4上に投影されるタイミングにおけるプレゼンタ3の顔の位置を予測する。この場合、プロジェクタ投影画像作成部37は、動きベクトルを取得した際に用いた2つの撮像画像の取得間隔(所定の時間差)を把握しているものとする。このため、プロジェクタ投影画像作成部37は、当該時間差と動きベクトルとを用いることで、顔の移動速度を算出することができる。したがって、プロジェクタ投影画像作成部37は、顔の移動方向及び移動速度と、次の画像(フレーム)を投影するまでの時間とを用いることで、次画像(フレーム)を投影するときの顔の位置を予測することができる。
次いで、ステップS10では、プロジェクタ投影画像作成部37が、ステップS9における予測の結果、次のフレームが投影されるタイミングにおいてプレゼンタ3の顔が投影画像と重なる位置にあると予測されたか否かを判断する。ここでの判断が否定された場合には、ステップS1に戻るが、肯定された場合には、ステップS11に移行する。
ステップS11に移行した場合、プロジェクタ投影画像作成部37は、次のフレームの投影用データのうち、プレゼンタ3の顔と重なると予測された部分を黒指定する。その後は、ステップS2に戻る。なお、ステップS2に戻った後は、黒指定された画像(加工された画像)が投影部10により投影されることになる(ステップS2)。この場合、投影部10により投影される画像は、プレゼンタ3の顔の部分が黒く加工されているため、プレゼンタ3の目の周辺に明るい画像が投影されることがない。これにより、プレゼンタ3がまぶしく感じるのを抑制することができるとともに、プレゼンタ3の目を保護することが可能となる。
その後は、上記処理を繰返す。すなわち、プレゼンタ3の顔が投影画像と重なっている場合には、当該顔の部分を黒く加工した画像を投影し、顔が投影画像と重なっていない場合には、投影画像を加工せずに投影する。そして、プレゼンタ3等によりスイッチ40に含まれる投影終了スイッチが押された段階(ステップS3が否定された段階)で、図4の全処理が終了する。
以上、詳細に説明したように、本第1の実施形態によると、投影装置1は、スクリーン4へ画像を投影する投影部10と、スクリーン4を撮像する撮像部20と、撮像部20の撮像結果から人物(プレゼンタ3)の顔の動きベクトルを取得し、これに基づいて、投影部10が次の画像を投影するタイミングにおける顔の位置を予測するとともに、当該予測結果に基づいて、次の投影画像の一部を加工(黒指定)する画像処理エンジン30と、を備えている。これにより、本第1の実施形態では、プレゼンタ3が移動している場合でも、次の投影画像を投影するタイミングにおける顔の位置を的確に予測することができるので、次の投影画像中の適切な位置を黒指定することが可能となる。したがって、プレゼンタ3が移動する場合であっても、プレゼンタ3の目周辺への強い(明るい)光の投影を抑制することができ、ひいては、プレゼンタ3の目を保護することも可能となる。また、本第1の実施形態では、画像処理エンジン30は、投影画像の一部を黒指定する加工を行う。このため、人の顔を避けるように投影画像を移動したり、投影画像の大きさを変更するような場合と比較して、視聴者の視認性の低下を抑制することができる。
また、本第1の実施形態では、動きベクトル算出部35は、投影部10が投影した投影画像と撮像部20が撮像した撮像画像との差分画像に基づいて、顔の動きベクトルを取得する。これにより、投影画像の種別、内容にかかわらず、すなわち、投影画像に顔の写真や絵が含まれていたりしていても、プレゼンタ3の顔の動きベクトルを正確に把握することができる。
また、本第1の実施形態では、動きベクトル算出部35は、差分画像のうち下端から連続する部分を人物(プレゼンタ3)と推定し、当該推定結果に基づいて顔の動きベクトルを算出することができる。この場合、人物の推定に画像を用いたパターンマッチング等を行う必要がなくなるので、人物の推定処理を簡素化することが可能となる。
なお、上記第1の実施形態では、投影画像の加工として、画像の一部を黒指定する場合について説明したが、これに限られるものではない。例えば、投影画像のうち顔と重なる部分の明度を低下させることとしてもよい。この場合、人がまぶしいと感じる明度(閾値)を予め測定しておき、顔と重なる部分の明度を測定した閾値よりも低下させるようにしてもよい。
なお、上記第1の実施形態においては、顔の移動速度にかかわらず、顔の位置を予測する(ステップS9)場合について説明したが、これに限られるものではない。例えば、顔の移動速度が遅くなった場合にのみ、顔の位置を予測するようにしてもよい。この場合、顔の移動が行われなくなった、又は顔の移動が遅くなった場合に限り、投影用データの加工が行われることになる。このようにすることで、投影用データの加工に意味がある(黒指定した部分が顔の移動に追従できる)場合にのみ投影用データの加工を行うこととなるため、効率的な処理が可能となる。
なお、上記第1の実施形態では、動きベクトル算出部35は、プレゼンタ3の顔の動きベクトルを算出こととしたが、これに限らず、プレゼンタ3の目の動きベクトルを用いることとしてもよい。この場合、投影画像のうち、目の周辺のみを黒指定するようにしてもよい。
なお、上記第1の実施形態では、投影部10と撮像部20とが一体である場合について説明したが、これに限らず、投影部10と撮像部20は別体であってもよい。ただし、この場合には、投影部10と撮像部20の位置関係を予め測定する必要がある。また、上記第1の実施形態では、撮影レンズ21として、広角レンズを用い、投影部10の投影する投影領域aよりも広い撮像領域bを撮像するようにしたが、これに限られるものではない。例えば、撮像部20を複数用いることで、投影領域aよりも広い範囲を撮像するようにしてもよい。
《第2の実施形態》
次に、第2の実施形態について、図6に基づいて説明する。本第2の実施形態における装置構成等は、上述した第1の実施形態と同一又は同等である。したがって、これらの説明については省略するものとする。
本第2の実施形態では、上記第1の実施形態において黒指定され、スクリーン4上に投影されなくなる部分の画像を別の位置に再配置する。具体的には、図6(a)に示すように、プレゼンタ3が投影画像と重なっていない状態で、図表fがスクリーン4上に投影される場合において、図6(b)に示すように、プレゼンタ3が投影画像と重なる位置に移動したとする。この場合、プロジェクタ投影画像作成部37は、図4のステップS11において、第1の実施形態と同様、投影画像のうち顔と重なる部分を黒指定する(図6(b)の符号5参照)とともに、図6(b)に示すように、顔と重なる部分に位置する図表fを空いているスペースに再配置した画像(画像データ)を作成する。なお、空いているスペースが無い場合には、図表fの再配置を行わなくてもよいし、他の文字や図表の間隔を調整することでスペースを確保し、当該確保したスペースに図表fを再配置してもよい。
以上のように、本第2の実施形態では、プロジェクタ投影画像作成部37が投影画像の一部を加工(黒指定)するとともに、当該加工した投影画像の一部を別の位置に再配置することとしている。これにより、投影画像を加工(黒指定)した場合でも投影画像中の情報量が低下するのを抑制することが可能となる。
なお、上記第2の実施形態では、プロジェクタ投影画像作成部37は、投影画像の一部が服や腕などに投影される場合に、服の模様や形状、腕の形状に基づき、投影画像を加工することとしてもよい。例えば、いわゆるプロジェクションマッピングを行うことにより、服や腕へ投影した画像を、スクリーン4に投影している画像と同等な状態で視聴者に見せるようにしてもよい。
なお、上記第2の実施形態では、黒指定されることにより、スクリーン4上に投影されなくなった部分の画像を別の位置に再配置する場合について説明したが、これに限らず、黒指定をせずに、顔と重なった部分の画像を別の位置に再配置することとしてもよい。
《第3の実施形態》
次に、第3の実施形態について、図7、図8に基づいて説明する。本第3の実施形態の投影装置101では、上記第1、第2の実施形態の投影装置1に図7に示す音声取得部110が追加されているとともに、画像処理エンジン30の機能として、図8に示す音声データ受信部131と発声内容取得部132とが追加されている。
音声取得部110は、マイクを含み、スクリーン4周辺の音声(例えば、プレゼンタ3の音声)を取得する。音声データ受信部131は、音声取得部110から音声データを受信し、取得する。
発声内容取得部132は、音声データ受信部131が取得した音声データと撮像部20による撮像結果から得られるプレゼンタ3の口の動きとをリンクさせることで、音声データの中からプレゼンタ3の音声データのみを抽出する。そして、発声内容取得部132は、抽出したプレゼンタ3の音声データの音声認識を行い、音声データに対応する文字データ(発声内容)を生成する。そして、発声内容取得部132は、プロジェクタ投影画像作成部37に対して、生成した文字データを送信する。プロジェクタ投影画像作成部37は、受信した文字データを投影画像の一部に合成した画像(画像データ)を作成し、プロジェクタ投影情報出力部38に対して送信する。なお、文字データは、投影画像中の空いているスペースに合成してもよいし、例えば、漫画で用いられるふきだしの画像の中に文字データを挿入して、投影画像中に合成してもよい。前者の場合には、発生内容を投影するためのスペース(例えば映画において字幕が表示されるような位置)を予め設けておいてもよい。また、後者の場合には、文字データがなるべくプレゼンタ3の近傍に表示されるようにする。
以上説明したように、本第3の実施形態では、スクリーン4周辺の音声を取得する音声取得部110と、撮像部20の撮像結果から得られるプレゼンタ3の口の動きと、音声取得部110の取得結果とに基づいて、プレゼンタ3の音声データ(発声内容)を取得する発声内容取得部132と、を備えており、プロジェクタ投影画像作成部37は、投影画像に音声データ(発声内容)を合成する。これにより、プレゼンタ3の音声を聞き取りにくい場合(プレゼンタ3の声が届かない場合や、周囲がざわついているような場合、視聴者が難聴の場合など)でも、プレゼンタ3の発生内容が投影画像中に表示されるので、視聴者は、プレゼンタ3の発声内容を正しく認識することができる。
なお、上記第3の実施形態においては、音声取得部110は、投影装置1に内蔵されているものとしたが(図7参照)、これに限らず、音声取得部110は、投影装置1に直接的又は間接的に(例えば、パソコン2を間に介在させて)接続されていればよい。
なお、上記第1〜第3の実施形態では、投影装置1がポインタ表示機能を有していてもよい。ポインタ表示機能は、撮像部20が撮像した画像から例えば指の移動軌跡を取得し、当該指の移動軌跡を投影画像に合成するというものである。投影装置1がこのような機能を有することで、プレゼンタ3の利便性及び視聴者の視認性を向上することができる。なお、指の移動軌跡に代えて、レーザポインタ(スクリーン4上に照射される赤色等の光)の移動軌跡を投影画像に合成することとしてもよい。
なお、上記各実施形態の構成は、一例である。例えば、図2、図7の構成や図3、図8の機能ブロック図は一例であり、種々変更が可能である。例えば、画像処理エンジン30,130の一部機能は、ハードウェアにより実現されてもよい。
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。
1 投影装置
3 プレゼンタ
4 スクリーン
10 投影部
20 撮像部
35 動きベクトル算出部
37 プロジェクタ投影画像作成部
110 音声取得部
131 音声データ受信部
132 発声内容取得部
v 動きベクトル

Claims (9)

  1. 投影面へ投影画像を投影する投影部と、
    前記投影面を撮像する撮像部と、
    前記撮像部の撮像結果から人物の顔の動きに関する情報を取得し、当該取得した情報に基づいて、前記投影部が所定の投影画像を投影するタイミングにおける人物の顔の位置を予測する予測部と、
    前記予測部による予測結果に基づいて、前記所定の投影画像の一部を加工する加工部と、を備えたことを特徴とする投影装置。
  2. 前記加工部は、前記所定の投影画像のうち、前記予測部により予測された顔の位置に相当する部分の明度を低下させることを特徴とする請求項1に記載の投影装置。
  3. 前記加工部は、前記所定の投影画像のうち、前記予測部により予測された顔の位置に相当する部分を黒画像とすることを特徴とする請求項2に記載の投影装置。
  4. 前記予測部は、前記投影部が投影した投影画像と前記撮像部が撮像した撮像画像との差分画像に基づいて、前記顔の動きに関する情報を取得することを特徴とする請求項1〜3のいずれか一項に記載の投影装置。
  5. 前記予測部は、前記差分画像のうち下端から連続する部分を人物と推定し、当該推定結果に基づいて前記顔の動きに関する情報を取得することを特徴とする請求項4に記載の投影装置。
  6. 前記予測部は、前記顔の動きに関する情報が、顔の移動速度の減速を示す情報であった場合に、前記人物の顔の位置を予測することを特徴とする請求項1〜5のいずれか一項に記載の投影装置。
  7. 前記加工部は、前記所定の投影画像の一部を加工するとともに、当該加工した所定の投影画像の一部を別の位置に再配置することを特徴とする請求項1〜6のいずれか一項に記載の投影装置。
  8. 前記加工部は、前記撮像部により撮像される前記投影面の前方に位置する物体の状態に基づいて、前記所定の投影画像のうち前記物体に投影される部分を加工することを特徴とする請求項1〜7のいずれか一項に記載の投影装置。
  9. 前記撮像面周辺の音声を取得する音声取得部と、
    前記撮像部による撮像結果から得られる前記人物の口の動きと、前記音声取得部の取得結果とに基づいて、前記人物の発声内容を取得する取得部と、を備え、
    前記加工部は、前記所定の投影画像に、前記取得部が取得した発声内容を合成することを特徴とする請求項1〜8のいずれか一項に記載の投影装置。

JP2011274536A 2011-12-15 2011-12-15 投影装置 Pending JP2013125181A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011274536A JP2013125181A (ja) 2011-12-15 2011-12-15 投影装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011274536A JP2013125181A (ja) 2011-12-15 2011-12-15 投影装置

Publications (1)

Publication Number Publication Date
JP2013125181A true JP2013125181A (ja) 2013-06-24

Family

ID=48776439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011274536A Pending JP2013125181A (ja) 2011-12-15 2011-12-15 投影装置

Country Status (1)

Country Link
JP (1) JP2013125181A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013186993A1 (ja) * 2012-06-15 2013-12-19 日本電気株式会社 投射型投影装置、光防眩方法、および光防眩用プログラム
JP2015015677A (ja) * 2013-07-08 2015-01-22 株式会社デンソー 投射型表示装置
WO2015008756A1 (ja) * 2013-07-19 2015-01-22 株式会社ニコン 投影装置、制御装置、制御プログラム、および投影制御方法
WO2015151766A1 (ja) * 2014-03-31 2015-10-08 コニカミノルタ株式会社 投影撮影システム、カラオケ装置及びシミュレーション装置
JP2016012203A (ja) * 2014-06-27 2016-01-21 株式会社リコー 表示装置、表示方法およびプログラム
JP2018025809A (ja) * 2017-09-13 2018-02-15 カシオ計算機株式会社 光照射制御装置、及びプログラム
WO2018079446A1 (ja) * 2016-10-27 2018-05-03 日本電気株式会社 情報入力装置および情報入力方法
WO2020250739A1 (ja) * 2019-06-14 2020-12-17 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013186993A1 (ja) * 2012-06-15 2013-12-19 日本電気株式会社 投射型投影装置、光防眩方法、および光防眩用プログラム
JP2015015677A (ja) * 2013-07-08 2015-01-22 株式会社デンソー 投射型表示装置
WO2015008756A1 (ja) * 2013-07-19 2015-01-22 株式会社ニコン 投影装置、制御装置、制御プログラム、および投影制御方法
WO2015151766A1 (ja) * 2014-03-31 2015-10-08 コニカミノルタ株式会社 投影撮影システム、カラオケ装置及びシミュレーション装置
JP2016012203A (ja) * 2014-06-27 2016-01-21 株式会社リコー 表示装置、表示方法およびプログラム
WO2018079446A1 (ja) * 2016-10-27 2018-05-03 日本電気株式会社 情報入力装置および情報入力方法
JPWO2018079446A1 (ja) * 2016-10-27 2019-09-19 日本電気株式会社 情報入力装置および情報入力方法
US10955971B2 (en) 2016-10-27 2021-03-23 Nec Corporation Information input device and information input method
JP2018025809A (ja) * 2017-09-13 2018-02-15 カシオ計算機株式会社 光照射制御装置、及びプログラム
WO2020250739A1 (ja) * 2019-06-14 2020-12-17 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム

Similar Documents

Publication Publication Date Title
JP2013125181A (ja) 投影装置
US10459190B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
JP5136669B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6432130B2 (ja) 表示システム、表示装置、撮影装置、表示方法及びプログラム
KR101772177B1 (ko) 사진을 획득하기 위한 방법 및 장치
US8644559B2 (en) Image processing device and image processing method
US10609273B2 (en) Image pickup device and method of tracking subject thereof
EP2461592B1 (en) A timing solution for projector camera devices and systems
KR20170110505A (ko) 다이나믹 비젼 센서의 이미지 표현 및 처리 방법과 장치
JP4732303B2 (ja) 撮像装置
US10924718B2 (en) Image processing device and method
JP2008035332A (ja) 撮像装置及び出力画像生成方法
US9973687B2 (en) Capturing apparatus and method for capturing images without moire pattern
EP3609175B1 (en) Apparatus and method for generating moving image data including multiple section images in electronic device
US11450131B2 (en) Electronic device
JP2008033718A (ja) 撮像装置及び部位拡大表示方法
KR20170060411A (ko) 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치.
US20210051266A1 (en) Image capture apparatus and control method thereof
JP2004349750A (ja) ディジタル・カメラおよびその制御方法
JP2018093427A (ja) 車載用投影装置
JP5370555B2 (ja) 撮像装置、撮像方法及びプログラム
JP2009089220A (ja) 撮像装置
JP2010034633A (ja) 電子カメラ
US9843715B2 (en) Photographic apparatus, stroboscopic image prediction method, and a non-transitory computer readable storage medium storing stroboscopic image prediction program
JP2008236015A (ja) 画像処理装置、撮像装置及びそのプログラム