JP2013250407A - 照射制御装置および照射制御方法 - Google Patents

照射制御装置および照射制御方法 Download PDF

Info

Publication number
JP2013250407A
JP2013250407A JP2012124565A JP2012124565A JP2013250407A JP 2013250407 A JP2013250407 A JP 2013250407A JP 2012124565 A JP2012124565 A JP 2012124565A JP 2012124565 A JP2012124565 A JP 2012124565A JP 2013250407 A JP2013250407 A JP 2013250407A
Authority
JP
Japan
Prior art keywords
laser
unit
irradiation
image data
laser irradiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012124565A
Other languages
English (en)
Inventor
Takashi Ishihara
崇 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012124565A priority Critical patent/JP2013250407A/ja
Publication of JP2013250407A publication Critical patent/JP2013250407A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】照射領域への物体の侵入を検知する別光源を不要とし、侵入物体が人間である場合のみ、レーザの照射が目の網膜を痛める危険性を回避する安全対策を取ることにより、侵入検知のたびに投影面全体にわたるレーザの照射を中断することのない、レーザプロジェクタの制御を実現する。
【解決手段】レーザの照射領域をカメラにより撮影した画像の顔画像認識に基づいて物体の侵入を検知することにより、別光源を不要とし、侵入物体が人間であるか否かを判断し、侵入物体が人間ならば、目や顔の部分にだけレーザを当てないようにレーザの照射を制御する。
【選択図】図1

Description

この発明は、モバイル機器などの小型電子機器に搭載されたレーザプロジェクタの画像投影時におけるレーザ光の照射を、制御する照射制御装置および照射制御方法に関する。
近年、半導体レーザのレーザ光で2次元走査を行うことにより2次元画像を投影するレーザプロジェクタを備えるモバイル機器(携帯電話、スマートフォンなど)が普及して来ている。このようなモバイル機器では、上記レーザプロジェクタ内の半導体レーザが出射する複数種の波長のレーザ光を2次元走査することにより、カラーの2次元画像をスクリーン上に投影している。
しかしながら、上記レーザ光を人間の目で直接覗き込むと、該レーザ光のエネルギが目の網膜上に小さな点として集中し、レーザ光の出力が大きいと目の網膜を痛めてしまうおそれがある。このため、レーザ光の照射領域に、人間が侵入したかどうかを常に監視し、安全対策をとることが必要となる。
特許文献1には、レーザプロジェクタのレーザの照射部とは独立した別光源を設け、別光源から赤外光などの人体に安全な監視用の光を照射領域に投射し、その反射光の強度変化を監視することにより、人間が侵入したかどうかを常に監視する技術が記載されている。しかし、特許文献1開示の発明では、別光源を設けることにより、レーザプロジェクタの小型化、および低消費電力化が困難になるという問題がある。
特許文献2には、特許文献1に関する上記小型化および低消費電力化の困難性の問題を克服する技術が記載されている。画像をスクリーンに投射している時、レーザ光の投射光出力の変化と画像投影領域全体の光量の変化との間に成り立つ相関は、スクリーンの前に人が侵入する前と後とでは大きくずれる。特許文献2開示の技術においては、この相関のずれが設定した条件を満たす場合、危険と判断し、レーザ光源の通電停止やレーザ光の遮断などの安全対策をとる。これにより、特許文献2は、特許文献1のように別光源を設けること無く、レーザ光の遮断などの安全対策をとることができる。
特開2005−031526号公報 特開2010−127972号公報
特許文献2開示の発明では、別光源を設けたことによる、装置の小型化および低消費電力化の困難性を克服できる一方で、スクリーン内のレーザの照射領域に侵入した物体が人間以外の物体であっても、危険と判断してレーザの照射を中止してしまう。さらに、侵入物体の侵入を検知するたびにスクリーン投影面全体にわたってレーザの照射を完全に中断するのは、利用者にとって不便である。
本発明は、上記問題に鑑みて成されたものであり、照射領域への物体の侵入を検知する別光源を不要とし、しかも、侵入検知のたびに投影面全体にわたるレーザの照射を中断することなく、レーザの照射に対する安全性を確保することができるレーザプロジェクタを実現することを目的とする。
本発明は、照射制御装置であって、レーザプロジェクタから照射されたレーザの照射領域全体をカメラで撮影して得られた画像データに対して、顔画像認識処理を実行する顔画像認識部と、前記顔画像認識処理の結果に基づいて、前記照射領域に人間が侵入したか否かを判断する侵入判断部と、前記侵入判断部が前記照射領域に人間が侵入したと判断した場合、前記画像データ内における前記人間の目の位置に対応する部分のレーザの照射を中断するレーザ照射中断制御部と、を備える構成を採る。
本発明は、カメラにより撮影した画像の画像認識に基づいて照射領域への物体の侵入を検知することにより、特許文献1に開示される別光源を不要とする。加えて、本発明は、カメラ画像の顔画像認識に基づいて照射領域に侵入した物体が人間であるか否かを判断することにより、人間以外の物体である場合には人体への危険性が無いとして、レーザの照射の中断をしないようにすることができる。また、照射領域に人間が侵入した時に、目の部分にだけレーザを当てないようにレーザの照射を制御することにより、レーザの照射が人間の目の網膜を痛める危険性を回避すると同時に、目の部分以外の画像投影領域へのレーザの照射が中断しないようにすることができる。
実施の態様1に係るレーザプロジェクタとカメラを備えたモバイル機器のハードウェア構成図 実施の態様1に係るレーザプロジェクタとカメラを備えたモバイル機器の正面外観図と背面外観図 実施の態様1に係るレーザプロジェクタとカメラを備えたモバイル機器で使用することが可能な3種類の撮影スタイルの図 実施の態様1に係るレーザプロジェクタの利用態様の図 実施の態様1に係るレーザプロジェクタの制御フロー図 実施の態様2に係るレーザプロジェクタとカメラを備えたモバイル機器のハードウェア構成図 実施の態様2に係るレーザプロジェクタの利用態様の図 実施の態様2に係るレーザプロジェクタの制御フロー図 実施の態様3に係るレーザプロジェクタとカメラを備えたモバイル機器のハードウェア構成図 実施の態様3に係るレーザプロジェクタの利用態様の図 実施の態様3に係るレーザプロジェクタの制御フロー図 実施の形態1〜3の変形実施例に係るレーザプロジェクタの制御フロー図
(A. 実施の形態1)
(A1.実施の形態1に係る装置のハードウェア構成)
まず、図1〜図3を使用して、実施の形態1において実施される装置の概要を説明する。図1は、実施の形態1に係るレーザプロジェクタとカメラを備えたモバイル機器100のハードウェア構成を説明する図である。モバイル機器100は、カメラ部110と、CPU120と、メモリ130と、表示部140と、タッチパネル150と、加速度センサ160と、プロジェクタ部170とを有する。
カメラ部110は、景色や被写体を撮影して画像データを生成する。
CPU120は、画像データ供給線を介してカメラ部110と接続され、カメラ部110が撮影した画像データを受け取り、画像データに対する画像認識処理、および画像認識結果に基づく各種の判定処理などを実行する。加えて、CPU120は、タッチパネル150、加速度センサ160およびプロジェクタ部170とも接続され、タッチパネル150からユーザ入力を受け取り、加速度センサ160からセンサ入力信号を受け取り、プロジェクタ部170に制御信号を出力する。CPU120は、画像データの画像認識結果、タッチパネル150からのユーザ入力、および加速度センサ160からのセンサ入力信号に基づいてプロジェクタ部170に出力する制御信号を生成する。
メモリ130は、アドレス・バスとデータ・バス(図示せず)を介してCPU120と接続される。メモリ130は、CPU120から受け取った画像データを記憶すると共に、CPU120の制御に必要な制御プログラム、制御データおよび各種フラグ類を格納する。
表示部140は、CPU120の映像出力線を介してCPU120と接続され、カメラ部110からCPU120が受け取った画像データを画像として表示する。表示部140の例としてはタッチスクリーン・キーボード機能を有する小型の液晶ディスプレイ・パネル等がある。
タッチパネル150は、ユーザが手操作により入力したキー入力、クリック操作、画面操作などのユーザ入力をCPU120に供給する。タッチパネル150は、液晶ディスプレイ・パネルとして実装される表示部140のタッチスクリーン・キーボード機能として実装しても良いし、表示部140とは別個の機械式キーボードとして実装しても良い。
加速度センサ160は、モバイル機器100の向きや位置の変化を、モバイル機器100に外部から加えられる加速度として検知するセンサ・デバイスである。モバイル機器100の向きや位置の変化は、モバイル機器100に加わる物理的な衝撃やユーザ操作によって生じる。そして、加速度センサ160は、検知した加速度をセンサ入力信号としてCPU120に出力する。
プロジェクタ部170は、レーザの照射によりスクリーン等の上に画像を投影するために、水平同期信号に同期したレーザ光の水平走査を、解像度に応じた所定回数だけ垂直方向に向かって繰り返し実行することにより、2次元のレーザの照射を実行する。プロジェクタ部170は、上記した2次元のレーザの照射を垂直同期信号が規定する周期毎に実行することで、動画像を構成する1フレーム分の画像をスクリーン等の上に投影する。プロジェクタ部170が投影する映像コンテンツは、プロジェクタ部170の内部メモリ(図示せず)に記憶されていても良い。または、メモリ130が記憶する映像コンテンツデータを変換回路(図示せず)により映像入力信号に変換し、水平同期信号および垂直同期信号と共に、プロジェクタ部170に入力しても良い。
プロジェクタ部170は、CPU120から受信した制御信号に従って、レーザ光による画像の投影を一時的に中断する。上記制御信号はプロジェクタ制御コマンドと領域パラメータを含む。プロジェクタ制御コマンドは、2次元のレーザの照射の中断や再開をプロジェクタ部170に指示するCPU120からの指令である。領域パラメータとは、2次元のレーザの照射により画像が投影される照射領域の全体を2次元座標系に見立て、この2次元座標系の中でレーザの照射を中断もしくは再開すべき矩形領域を座標値の組で表すものである。
次に、図1を使用して、CPU120の内部構成を説明する。CPU120は、顔画像認識部121と、侵入判断部122と、レーザ照射中断制御部123と、動き検出部124とを備える。
顔画像認識部121は、画像データ供給線を介してカメラ部110と接続され、カメラ部110から画像データを受け取り、人間の顔に特有の画像パターンを認識するための顔画像認識処理を実行する。
侵入判断部122は、顔画像認識部121から顔画像認識処理の結果を受け取り、カメラ部110が撮影した画像データ内に人間が写っているか否かを判定し、判定結果をレーザ照射中断制御部123に出力する。
レーザ照射中断制御部123は、制御線を介してプロジェクタ部170と接続され、プロジェクタ制御コマンドと領域パラメータを含む制御信号をプロジェクタ部170に出力する。その際、レーザ照射中断制御部123は、侵入判断部122から供給される判断結果、および顔画像認識部121から供給される顔画像認識処理の結果に基づいて、プロジェクタ制御コマンドと領域パラメータを生成する。続いて、レーザ照射中断制御部123は、生成したプロジェクタ制御コマンドと領域パラメータを、プロジェクタ部170に供給する。なお、プロジェクタ制御コマンドおよび領域パラメータに関する詳細は後述する。
また、動き検出部124の働きとレーザ照射中断制御部123との間の関係については後述する。
(A2. モバイル機器100の外観デザインと使用スタイル)
次に、図2および図3を使用してモバイル機器100の外観デザインとユーザから見た使用スタイルを説明する。
図2は、モバイル機器100の外から見た外観デザインを図示する六面図であり、(a)は正面図、(b)は背面図、(c)は右側面図、(d)は上側面図、(e)は下側面図、(f)は左側面図である。図2の(a)において、長方形の板状の形状を有するモバイル機器100の正面の中央部には、表示部140の表示画面101が配置されている。ユーザ操作に応じて、表示画面101上には、タッチパネル150として機能するタッチスクリーン・キーボード(図示なし)が表示される。
表示画面101の上部には、可動部102が設けられている。可動部102の表面上には、プロジェクタ部170のレーザの照射口103とカメラ部110の撮影レンズ部104とが、モバイル機器100の正面を向いて横に並ぶように一体化されて組み込まれている。さらに、可動部102は、図2の(c)および(f)に示される点106を通る回転軸であって、図2の(a)および(b)中の破線105で表される回転軸を中心にして回動可能である。上記回転軸を中心にして可動部102をユーザが手で回動させることにより、レーザの照射口103と撮影レンズ部104とを一緒に任意の方向に向けることが可能である。
次に、図3を使用して、モバイル機器100の3種類の使用スタイルについて説明する。
図3の(a)は、「背面スタイル」と呼ばれる使用スタイルを図示している。図3(a)に示す使用スタイルは、可動部102を回動させることにより、レーザの照射口103と撮影レンズ部104をモバイル機器100の背面の方向に向けて使用するスタイルである。「背面スタイル」では、特定の方向に向けて固定することが可能な台座の上にモバイル機器100を据え置きする。そして、プロジェクタ部170がレーザの照射口103から2次元照射するレーザ光により、モバイル機器100の背面方向にあるスクリーン等の上に画像を投影する。同時に、モバイル機器100の背面方向にある該スクリーンとその周辺の状況を、撮影レンズ部104を通してカメラ部110が捉えて表示画面101に表示させたものを、モバイル機器100の正面からユーザが覗き込む。
図3の(b)は、「自分撮りスタイル」と呼ばれる使用スタイルを図示している。図3(b)の使用スタイルは、可動部102を回動させることにより、レーザの照射口103と撮影レンズ部104をモバイル機器100の正面の方向に向けて使用するスタイルである。「自分撮りスタイル」は、正面方向が自分に向くようにモバイル機器100を手に持ったユーザが、自分自身を撮影する使用スタイルである。「自分撮りスタイル」では、ユーザが位置する正面方向を向いた撮影レンズ部104を撮影に使用すると同時に、プロジェクタ部170がレーザの照射口103から正面方向に照射するレーザ光を撮影補助光として使用する。自分撮りスタイルにする場合、画像が180度回転してしまうが、撮影スタイルを検出し、自動で回転する機能や、ユーザーに画像の回転を促すUIがあるとよい。なお、自分撮りスタイルに関する詳細は「実施の形態2」において後述する。
図3の(c)は、「グリップ投射スタイル」と呼ばれる使用スタイルを図示している。図3(c)の使用スタイルは、モバイル機器100を固定して据え置きすることができる台座などが無い場所で使用されるスタイルである。「グリップ投射スタイル」では、ユーザが図2の(d)で示す上側面を前方に向けてモバイル機器100を手で把持し、ユーザの前方にレーザの照射口103と撮影レンズ部104を向け、この方向に向かって2次元のレーザの照射による画像の投影を行う。
(A3. 実施の形態1に係るモバイル機器100の利用態様)
本実施の形態に係るモバイル機器100の利用態様は、基本的には、従来から有る携帯電話搭載型レーザプロジェクタの通常の利用態様と同一である。以下、図4を用いて、本実施の形態に係るモバイル機器100の利用態様を具体的に説明する。図4に示す利用態様に関する以下の説明においては、モバイル機器100は、「背面スタイル」で使用されると仮定するが、モバイル機器100は、「グリップ投射スタイル」で使用することも可能である。
モバイル機器100のレーザの照射口103から2次元照射されるレーザ光は、スクリーン200上に画像を投影する。図4中の照射領域210は、スクリーン200上において、レーザの照射口103からの2次元のレーザの照射により画像が投影される矩形領域である。図4中の侵入者300は、レーザの照射口103からスクリーン200への2次元のレーザの照射の最中に、照射領域210に侵入した人間を表し、侵入者300の侵入後も、スクリーン200への2次元のレーザの照射は継続する。
(A4. 実施の形態1に係るレーザプロジェクタとカメラの制御)
以下、モバイル機器100の利用態様として図4の利用態様を前提とし、図1〜図3に基づいて、実施の形態1に係るレーザプロジェクタとカメラの制御について具体的に説明する。
上記した利用態様において、スクリーン方向を向いているモバイル機器100のカメラ部110は、スクリーン200上の照射領域210とその周辺領域を周期的に撮影し続けている。この撮影の周期は、カメラ部110の動画撮影機能によって規定される1画像フレーム期間に等しい。この1画像フレーム期間を1周期として、以下の処理A〜処理Dが繰り返し周期的に実行される。
(処理A)
まず、照射領域210全体を含む領域をカメラ部110が撮影することにより生成された画像データを、カメラ部110がCPU120の顔画像認識部121に対して供給する。顔画像認識部121は、供給された画像データに対して、顔画像認識の処理を実行する。
(処理B)
顔画像認識部121は、侵入判断部122に対して顔画像認識処理の結果を供給する。侵入判断部122は、照射領域210に対応する画像領域の中で、人間の顔が認識されたかを判定することにより、照射領域210内への侵入者300の有無を判断する。侵入判断部122は、侵入者300が有ったと判断すると、レーザ照射中断制御部123に侵入検知信号を出力する。
(処理C)
レーザ照射中断制御部123は、レーザ照射中断制御部123が侵入検知信号を受け取ると、顔画像認識部121から供給される顔画像認識処理の結果に基づいて侵入者300の目の位置を座標値として数値化する。そして、レーザ照射中断制御部123は、上記数値化した座標値に基づいて、侵入者300の目の位置に対応した照射領域210中の矩形領域を特定する。すなわち、レーザ照射中断制御部123は、照射領域210全体を2次元座標系と見立てた場合の座標値の組として、上記特定された矩形領域を算出する。次に、レーザ照射中断制御部123は、上記した座標値の組で表される領域パラメータ、およびレーザの照射の中断を指示するプロジェクタ制御コマンドを含んだ制御信号をプロジェクタ部170に出力する。
(処理D)
プロジェクタ部170は、上記制御信号を受け取ると、領域パラメータで指定された矩形領域に照射されるレーザ光の色設定を黒色に設定することにより、領域パラメータで指定された矩形領域に対するレーザの照射(図4中の405)を抑制する。これにより、侵入者300の侵入後も、プロジェクタ部170は2次元にわたるレーザ光の照射を継続する(図4中の406)。しかし、侵入者300の目の部分に対してだけは、プロジェクタ部170はレーザの照射を中断する(図4中の405)。
(A5. 実施の形態1に係るモバイル機器100の動作フロー)
図4に示す利用態様において、モバイル機器100のレーザプロジェクタ機能を起動してから終了するまでのモバイル機器100の全体動作フローを、図5を使用して具体的に説明する。
まず、S501では、ユーザは、モバイル機器100の機能としてプロジェクタ機能を選択する。ユーザによる上記選択操作の一例として、ユーザは、モバイル機器100のタッチスクリーン機能を介して、表示画面101上に表示された機能メニューの中からプロジェクタ機能を選択する。
S502では、カメラ部110が起動される。S503では、プロジェクタ部170が起動される。
S504では、プロジェクタ部170に対して、CPU120が初期化コマンドを送信することにより、CPU120は、プロジェクタ部170を黒画像投影状態に初期化する。黒画像投影状態とは、図4の照射領域210の全体にわたってレーザ光の走査を全く行わないことにより、照射領域210全体が黒一色である画像が表示されている状態である。
S505では、CPU120内の顔画像認識部121は、カメラ部110から画像データを受け取る。上記画像データは、図4の照射領域210とその周辺領域をカメラ部110が撮影した画像である。そして、S506以降における顔画像認識処理の周期的な反復実行を開始するために、顔画像認識部121は、初期化される。
S506では、CPU120の顔画像認識部121は顔画像認識処理を実行する。この顔画像認識処理は、上記「A4」で述べた「処理A」と同様の処理である。S507では、CPU120は、上記「A4」で述べた「処理B」〜「処理D」を実行する。図5の繰り返しループL501で示されるとおり、S506とS507は、カメラ部110の動画像撮影機能によって規定される1画像フレーム期間を1周期として、周期的に反復実行される。モバイル機器100に対するユーザ操作(例えば、ユーザによる表示画面101上のメニューの選択など)により、プロジェクタ機能の終了が選択されると、動作はS508に進む。
S508では、CPU120が、プロジェクタ部170に対してプロジェクタ機能の終了を指令する。S509では、CPU120が、プロジェクタ部170に対する通電を停止してプロジェクタ部170の全ての動作を終了する。S510では、CPU120内の顔画像認識部121が動作を終了する。S511では、CPU120が、カメラ部110の動作を終了させる。
(A6. 実施の形態1の効果)
実施の形態1によれば、図4の照射領域210に侵入者300が侵入した時に、目の部分にだけレーザを当てないように図4のレーザの照射405を抑制することにより、レーザの照射405が人間の目の網膜を痛める危険性を回避することができる。同時に、図4において、照射領域210中の目の部分以外の画像投影領域へのレーザの照射406が中断しないようにすることができる。また、カメラ画像の顔画像認識に基づいて照射領域210に侵入した物体が人間であるか否かを判断することにより、人間以外の物体である場合には人体への危険性が無いとして、レーザの照射の中断をしないようにすることができる。
さらに、プロジェクタ部170によりレーザの照射口103から人間の顔に向けてレーザの照射することが可能となったことにより、カメラ部110で人間を撮影する際の撮影補助光(フラッシュなど)として、プロジェクタ部170からのレーザの照射を利用することができるようになる。
(B. 実施の形態2)
本実施の形態では、プロジェクタ部170によりレーザの照射口103から人間の顔に向けてレーザを照射することが可能となったことを利用して、カメラ部110で人間を撮影する際の撮影補助光(フラッシュなど)として、レーザの照射を使用する場合について説明する。
(B1. 実施の形態2に係る装置のハードウェア構成)
図6は、実施の形態2に係るレーザプロジェクタとカメラを備えたモバイル機器100のハードウェア構成を説明する図である。図6は、CPU120に接続される照度センサ180と、CPU120内のフラッシュ強度決定部125が新たに追加されている点を除いて図1のハードウェア構成と同一であるので、図1と同様のハードウェア構成要素については説明を省略する。
照度センサ180は、CPU120内のフラッシュ強度決定部125と接続され、カメラ部110が撮影する被写体を照らしている光の明るさを測定して、測定結果をセンサ入力信号としてフラッシュ強度決定部125に供給する。
フラッシュ強度決定部125は、カメラ110が被写体を撮影する際の撮影補助光(フラッシュ)としてプロジェクタ部170が照射すべきレーザ光の強度を、照度センサ180が測定した被写体の照度に基づいて決定する。そして、フラッシュ強度決定部125は、決定されたレーザ光の強度を表すレーザ強度指示信号を生成してプロジェクタ部170に出力する。最後に、プロジェクタ部170は、受け取ったレーザ強度指示信号に従って、レーザの照射の強度を調節する。
(B2. 実施の形態2に係る装置の利用態様)
実施の形態2に係るモバイル機器100もまた、実施の形態1に関して上記「A4」で述べたのと同様の原理に基づいて、レーザの照射が人間の目の網膜を痛める危険性を回避できるので、プロジェクタ部170が人間の顔に向けてレーザの照射をすることが可能となる。この点に着目し、実施の形態2に係るモバイル機器100の利用態様では、カメラで人間を撮影する際の撮影補助光(フラッシュ)として、プロジェクタ部170からのレーザの照射を利用する。
以下、図7を使用して、実施の形態2に係るモバイル機器100の利用態様を具体的に説明する。図7に示す利用態様では、「グリップ投射スタイル」、「自分撮りスタイル」および「背面スタイル」のいずれでもモバイル機器100を使用することができる。特に、ユーザが自分自身を撮影するいわゆる「自分撮り」の際には、「自分撮りスタイル」でモバイル機器100を使用すると使い勝手が良い。
図7では、「グリップ投射スタイル」でユーザに把持されたモバイル機器100の撮影レンズ部103とレーザの照射口104(図2)が、被写体となる人物701に対して向けられ、プロジェクタ部170がレーザの照射口104からレーザ光を撮影補助光として照射する。その際、被写体となる人物701の目の部分にはレーザの照射口103からのレーザ光が当たらないように、CPU120がプロジェクタ部170を制御する。
(B3. 実施の形態2に係るレーザプロジェクタとカメラの制御)
モバイル機器100の利用態様として図7に示す利用態様を前提とし、図6に基づいて実施の形態2に係るレーザプロジェクタ制御を下記のとおりに説明する。
撮影レンズ部104が被写体(図7の人物701)を捉えると、撮影レンズ部104を通して照度センサ180が測定した被写体を照らす光の明るさを表す数値は、センサ入力信号としてフラッシュ強度決定部125に供給される。フラッシュ強度決定部125は、供給された数値に応じて、撮影補助光としてどの程度の光強度が必要であるかを推定し、その結果に基づいて、プロジェクタ部170による照射口103からのレーザの照射の適切な強度を決定する。そして、フラッシュ強度決定部125は、制御線を介して、プロジェクタ部170に対して、上記決定されたレーザの照射強度を指示する。
プロジェクタ部170がレーザの照射口103から撮影補助光としてレーザ光を人物701に当てている際、モバイル機器100内のCPU120は、実施の形態1に関して上記「A4」で述べた「処理A」〜「処理D」と同様の処理を同様の反復周期で実行する。それにより、レーザの照射が人間の目の網膜を痛める危険性を回避する。
(B4. 実施の形態2に係るモバイル機器100の動作フロー)
図7に示す利用態様において、モバイル機器100のカメラ撮影機能を起動してから終了するまでのモバイル機器100の全体動作フローを、図8を使用して具体的に説明する。
S801では、ユーザは、モバイル機器100の機能としてカメラ機能を選択する。ユーザによる上記選択操作の一例として、ユーザは、モバイル機器100のタッチスクリーン機能を介して、表示画面101上に表示された機能メニューの中からカメラ機能を選択する。
S802では、カメラ部110が起動され、カメラ部110は撮影レンズ部103を通して被写体の人物701(図7)を写した画像データを生成し、これをCPU120内の顔画像検出部121に供給する。
S803では、被写体の人物701を写した画像データを受け取った顔画像認識部121は、顔画像認識処理の実行を開始するために初期化される。
S804では、上記「B3」で述べたように、照度センサ180が測定した人物701の照度を表す数値は、撮影補助光としてどの程度のレーザの照射強度が必要であるかを決定するために使用される。そして、フラッシュ強度決定部125から決定されたレーザの照射強度を指示する信号が、プロジェクタ部170に送信される。
S805では、レーザの照射強度を指示する信号を受信したことに応じて、プロジェクタ部170が電源オンされ、起動される。
S806では、顔画像認識部121による顔画像認識処理が実行され、顔画像認識の完了に続いて、上記「A4」で述べた「処理B」〜「処理D」を実行することにより、被写体の人物701の目の部分に向けたレーザの照射を抑制する制御が行われる。
S807では、撮影レンズ部103を通してカメラ部110による被写体となる人物701の撮影を実行する。
S808では、プロジェクタ部170を通電停止し、プロジェクタ部170を終了させる。
(B5. 実施の形態2の効果)
実施の形態2においては、被写体となる人間の顔に向けてレーザの照射口103からレーザの照射することができるため、フラッシュとして使用する別光源をレーザの照射口103とは別個に設けること無く、レーザの照射を撮影補助光として使用できる。その結果、フラッシュ用の光源を別個に設ける場合と比較して、モバイル機器100の小型化と省電力化を実現することができる。さらに、被写体となる人物に向けて撮影補助光として照射されるレーザ光を使用して、その人物の顔面や背景に任意の画像を投影するようにすれば、デコレーションされた人物の写真を撮影することができる。
(C. 実施の形態3)
上記「実施の形態2」の作用効果として、被写体となる人物に向けて撮影補助光(フラッシュ)として照射されるレーザ光を使用して、その人物の顔面や背景に任意の画像を投影することができることを説明した。本実施の形態では、上記「実施の形態2」をさらに発展させた「実施の形態3」として、プリクラ画像のようなデコレーションされた人物の写真を撮影することができる実施態様を説明する。
(C1. 実施の形態3に係る装置のハードウェア構成)
図9は、実施の形態3に係るレーザプロジェクタとカメラを備えたモバイル機器100のハードウェア構成を説明する図である。図9は、CPU120内にデコレーション編集部126が新たに追加されている点を除いて図6のハードウェア構成と同一であり、さらに図6は、一部の構成が追加されている点を除いて、図1のハードウェア構成と同一である。従って、図9において、図6および図1と重複したハードウェア構成要素については説明を省略する。
デコレーション編集部126は、ユーザインターフェース装置として機能する表示部140およびタッチパネル150と接続される。さらに、デコレーション編集部126は、プロジェクタ部170の動作を制御するために、レーザ照射中断制御部123およびフラッシュ強度決定部125をそれぞれ介してプロジェクタ部170と接続される。また、デコレーション編集部126は、画像データをプロジェクタ部170に供給するために、プロジェクタ部170と直接接続される。
デコレーション編集部126は、カメラ部110によって撮影され、メモリ130内に記憶されている画像データを編集する。そのために、デコレーション編集部126は、該画像データを表示部140により画面に表示させ、画面に表示された画像データを見ながらタッチパネル150を介して、ユーザが画像データを編集する操作を行うことを可能にする。この編集操作の例として、ユーザはカメラの被写体が写った画像データに対してクリップアート画像などをデコレーションとして追加する。
デコレーション編集部126は、画像データのうち、上記編集によりデコレーションとして追加された部分をプロジェクタ部170に出力する。さらに、デコレーション編集部126は、プロジェクタ部170に対して、レーザ照射中断制御部123を介してレーザの照射の中断や再開を指示することができる。同時に、デコレーション編集部126は、フラッシュ強度決定部125を介してレーザの照射の強度を設定することができる。
(C2. 実施の形態3に係る装置の利用態様)
以下、図10を使用して、実施の形態3に係るモバイル機器100の利用態様を説明する。ユーザはまず、カメラ部110を使用して、被写体となる人物1001および1002が写った画像をモバイル機器100内に取り込んで、表示画面101に表示する。
この時点で、ユーザはモバイル機器100のモードを「落書きモード」に設定する。「落書きモード」では、表示画面101のタッチスクリーン操作機能を介したユーザ入力操作に従って、表示画面101に表示された画像データに対して編集処理を実行することが可能である。例えば、図10の(a)では、ユーザは、画面編集操作を介して、画像データ中に写った人物1001の顔を表示画面101上で拡大表示し、これに重ね合わせるようにして、クリップアート画像1003などを貼り付けている。また、図10の(b)では、画像中に写った2人の人物1001と1002を表示画面101上でズームアウト表示して、2人の人物1001と1002の背景に別のクリップアート画像1005を貼り付けている。
次に、ユーザはモバイル機器100を「撮影モード」に設定し、カメラ部110とプロジェクタ部170の両方を起動する。「撮影モード」では、レーザの照射口103から照射するレーザの照射により、プロジェクタ部が、落書きモードで貼り付けたクリップアート画像1003、1004および1005を、被写体となる人物1001と人物1002の顔面上や背景部分に投影する(図10の(c))。この状態で、カメラ部110が2人の人物1001と1002を撮影する。これにより、ユーザは、人物1001および1002の顔面上や背景部分がデコレーションされた写真画像を撮影することができる。
(C3. 実施の態様3に係るレーザプロジェクタとカメラの制御)
以下、モバイル機器100の利用態様として図10の利用態様を前提とし、図9に基づいて、実施の形態3に係るレーザプロジェクタとカメラの制御について具体的に説明する。
(C3−A. 初期状態における制御)
モバイル機器100のカメラ機能が起動されると、カメラ部110は、画像データ供給線を介して、画像データをCPU120に供給する。この画像データは、撮影レンズ部104を通してカメラ部110が撮影した被写体の人物1001、1002およびその背景が写った画像データである。供給された画像データ(以下、「画像データA」と呼ぶ)は、メモリ130内に記憶されると共に、表示部140によって表示画面101に表示される。
(C3−B. 「落書きモード」における制御)
ユーザがモバイル機器100のモードを「落書きモード」に設定すると、CPU120内のデコレーション編集部126が起動される。デコレーション編集部126は、画像データAを編集する。画像データAは、カメラ部110の撮影レンズ部104で写され、メモリ130内に記憶され、かつ表示部140により表示画面101に表示されている画像データである。デコレーション編集部126は、タッチパネル150からユーザによる画像編集操作をドラッグ&ドロップ操作などのGUI操作として受け取り、画像編集操作に応じた画像データAの編集を実行する。これにより、ユーザは画面表示を見ながらタッチパネル150を介して画像データAの編集操作をする。画像編集操作の例として、ユーザは、画像データA内に写った被写体の人物の上に、クリップアート画像1003をドラッグ&ドロップ操作により貼り付けることにより、画像データA内の人物に対してデコレーションを追加する。
画像データ内に写った人物にクリップアート画像1003を追加する画像編集操作をユーザが実行した結果として、デコレーション編集部126は、以下の「動作1」および「動作2」を各画像編集操作毎に実行する。
(動作1)画像データAの画像領域全体を2次元座標系と見立て、当該2次元座標系内でのクリップアート画像1003の貼り付け位置を2次元座標の値で表したデータを生成し、デコレーション座標値としてメモリ130に記憶する。具体的には、矩形領域で表されるクリップアート画像1003の左上隅の点が画像データAの画像領域内のどの座標に配置されるかを表す2次元座標値をデコレーション座標値として計算する。
(動作2)クリップアート画像を表現するGIF形式やJPEG形式の画像データをメモリ130に記憶させる。
(C3−C. 「撮影モード」における制御)
ユーザがモバイル機器100のモードを「撮影モード」に設定すると、デコレーション編集部126は、以下の動作を実行する。まず、フラッシュ強度決定部125を介してプロジェクタ部170によるレーザの照射の強度を設定し、レーザ照射中断制御部123を介してレーザの照射の開始をプロジェクタ部に指示する。これにより、プロジェクタ部170によるレーザの照射が撮影補助光(フラッシュ)として被写体となる人物1001および1002に照射される。
次に、メモリ130に記憶された画像データのうち、被写体に対して上記画像編集操作によりデコレーションとして追加された部分をプロジェクタ部170に出力する。具体的には、デコレーション編集部126が、クリップアート画像の画像データとそのデコレーション座標値を、プロジェクタ部170に出力する。当該クリップアート画像は、複数の画像編集操作の各々に対応付けてメモリ130内に記憶されているデコレーション画像のデータである。
最後に、レーザ照射中断制御部123は、デコレーション編集部126から供給されたクリップアート画像をデコレーション座標値に対応した位置に投影する動作を指示するプロジェクタ制御コマンドを、CPU120からの制御信号としてプロジェクタ部170に出力する。
プロジェクタ部170がレーザの照射口103から撮影補助光としてレーザ光を人物1001および1002に当てている間、モバイル機器100内のCPU120は、実施の形態1に関して上記「A4」で述べた「処理A」〜「処理D」と同様の処理を同様の反復周期で実行する。それにより、レーザの照射が人間の目の網膜を痛める危険性を回避する。
(C4. 実施の形態3に係るモバイル機器100の動作フロー)
図10に示す利用態様において、モバイル機器100のカメラ撮影機能を起動してから終了するまでのモバイル機器100の全体動作フローを、図11を使用して具体的に説明する。
S1101では、ユーザがモバイル機器100の機能としてカメラ機能を選択する。ユーザによる上記選択操作の一例として、ユーザは、モバイル機器100のタッチスクリーン機能を介して、表示画面101上に表示された機能メニューの中からカメラ機能を選択する。
S1102では、カメラ部110が起動され、カメラ部110は撮影レンズ部103を通して被写体の人物1001および1002(図10)を写した画像データを生成し、これをCPU120内の顔画像検出部121に供給する。
S1103では、被写体の人物1001および1002を写した画像データを受け取った顔画像認識部121は、顔画像認識処理の実行を開始するために初期化される。
S1104では、ユーザは、モバイル機器のモードとして落書きモードを選択する。ユーザによる上記選択操作の一例として、ユーザは、モバイル機器100のタッチスクリーン機能を介して、表示画面101上に表示されたモード選択メニューの中から落書きモードを選択する。S1105では、モバイル機器100のモードが落書きモードへと切り替わる。続いて、「C3−B」で述べた処理がモバイル機器100内でCPU120により実行され、画像データの編集結果として生成されるクリップアート画像の画像データとそのデコレーション座標値がメモリに記憶される。
S1106では、ユーザは、GUI操作により画像データの編集操作を終了し、モバイル機器100のモードが落書きモードから撮影モードへと切り替わる。
S1107では、CPU120内のデコレーション編集部が、フラッシュ強度決定部125を介してプロジェクタ部170によるレーザの照射の強度を設定し、レーザ照射中断制御部123を介してレーザの照射の開始をプロジェクタ部に指示する。
S1108では、プロジェクタ部170が電源オンされ、起動される。
S1109では、顔画像認識部121による顔画像認識処理が実行され、顔画像認識の完了に続いて、上記「A4」で述べた「処理B」〜「処理D」を実行することにより、被写体の人物1001および1002の目の部分に向けたレーザの照射を抑制する制御が行われる。これと同時並行して、プロジェクタ部170は、2次元のレーザの照射を制御して、デコレーション編集部126から供給されたクリップアート画像の画像をデコレーション座標値に対応した空間位置に投影する。
S1110では、クリップアート画像がデコレーションとして投影された状態の被写体の人物1001および1002をカメラ部110で撮影し、CPU120が、撮影により生成された画像データをメモリ130に記憶する。
S1111では、プロジェクタ部170の電源が切られ、プロジェクタ部170は終了する。
(C5. 実施の形態3の効果)
以上より、実施の形態3では、撮影前に被写体の人物を画面に表示しながら編集したデコレーション画像を、撮影時にその人物の顔面や背景にリアルタイムに投影しながら撮影できるので、人物の撮影後に画像編集ソフトでデコレーションを付加する装置には無い利点がある。具体的には、デコレーション画像を被写体の人物の顔面や背景にリアルタイムに投影しながら、そのデコレーション画像に合わせた手足のポーズ、表情および仕草などを被写体の人物にアレンジしてもらうことができる。なお、人物の撮影後に事後的にデコレーションを付加する場合には、被写体となる人物にこのようなアレンジをしてもらうことができない。
(D. 実施の形態1〜3の変形実施例)
(D1. 本変形実施例の概要)
実施の形態1に係る利用態様においては、図4の照射領域210に侵入した侵入者300のカメラ部110による検出と侵入者300の顔画像認識はカメラ部110の動画撮影機能によって規定される1画像フレーム期間毎に実行される。
レーザの照射中に、モバイル機器100に加わる物理的衝撃や人間の誤操作等によって、モバイル機器100の向きや位置が急に動かされると、レーザの照射口103と撮影レンズ部104(図2)の向きや位置も突然大きく変化する。この時、直前の画像フレーム期間から後続の画像フレーム期間へと切り替わる前に、照射領域210(図4)が大きくずれる場合がある。その場合、カメラ撮影画像に基づく目の部分へのレーザの照射の抑制機能が、照射領域210の急激なずれに追従しつつ、ずれた先の状況に適応する必要があるにもかかわらず、後続の画像フレーム期間に切り替わるまではそれができない。その結果、ずれた先にある新たな照射領域210にたまたま人間の顔があると、後続のフレーム期間に切り替わるまでの短い期間内にレーザの照射が目に当たってしまう可能性が有る。
そこで、本変形実施例では、モバイル機器100に搭載された加速度センサ160により、レーザの照射口103と撮影レンズ部104(図2)の向きや位置の変化を検知すると、現在のフレーム期間から後続のフレーム期間への切り替えが完了するまでの間、レーザの照射を中断する。
(D2. 本実施の形態に係るモバイル機器100の制御フロー)
本実施の形態は、レーザの照射口103と撮影レンズ部104の向きや位置の変化をモバイル機器100の加速度センサ160により検知して、レーザの照射を一時的に中断する点を除いて、実施の形態1と同様の構成を有し、同様の動作を実行する。以下、図12に示すフローチャートを使用して、本実施の形態に係るモバイル機器100の制御フローを説明する。
S1201では、モバイル機器100は、プロジェクタ部170、カメラ部110および加速度センサ160が起動されており、プロジェクタ部170からの2次元のレーザの照射による画像の投影とカメラ110の撮影動作が継続中の状態である。
S1202では、加速度センサ160が、モバイル機器100に外部から加わる力学的な力を加速度として検知する。これにより、モバイル機器100に加わる物理的衝撃やユーザによるモバイル機器100の持ち運び、誤操作などにより、モバイル機器100が動いて、位置や向きが変化したことを検知する。モバイル機器100の動きを加速度センサ160が検知すると、動作はS1203に進み、検知しなければ、動作はS1204に進む。
S1203では、モバイル機器100が動いたと判断されたことにより、位置や向きが変化したとして、後続のフレーム期間に切り替わるまで、プロジェクタ部からの2次元のレーザの照射による画像の投影を一時停止する。
S1204では、モバイル機器100が動いていないと判断されたことにより、後続のフレーム期間への切り替わりを待ってから、一時停止されていたプロジェクタ部170による2次元のレーザの照射を再開する。
なお、実施の形態1に対する変形として本実施例で説明した変形は、実施の形態2および3に対しても同様に適用することができる。
(D3. 本変形実施例の第1の効果)
以上より、本変形実施例では、レーザの照射口103と撮影レンズ部104の向きや位置の変化が検出されることに応じて、レーザの照射を一時中断することにより、レーザの照射中のモバイル機器100に物理的衝撃等が加わることにより生じる問題を解決することができる。具体的には、モバイル機器100に加わる衝撃などにより、照射領域210(図4)の投影位置が急にずれても、ずれた先にたまたま居た人間の目の部分にレーザの照射が当たる可能性を防止することができる。
(D4. 本変形実施例の第2の効果)
本変形実施例では、モバイル機器100の向きや位置の変化が検出された際に、レーザの照射を一時中断することにより、モバイル機器100が一カ所に固定されずに持ち運ばれている間は、プロジェクタ機能が使用されていないとしてプロジェクタ部170の電源を切ることができる。これにより、プロジェクタ部170が電源オンされているにも拘わらず、モバイル機器100のプロジェクタ機能が実際には使用されていない時には、プロジェクタ部170の電源を切ることにより、無駄な電力消費を抑えることができる。
実施の形態1〜3では、プロジェクタ機能とカメラ機能とを併有する装置としてモバイル機器を例示したが、本発明の実施に当たり、このような機能を有する装置はモバイル機器に限定されない。例えば、プロジェクタ装置のレーザの照射領域の全体がカメラの撮影範囲内に含まれるように、プロジェクタ装置とカメラの位置関係を設定できる装置であれば、ノートPCなどの任意の電子機器であって良い。
本発明は、スマートフォン等のモバイル機器内の映像コンテンツを投影するために、該モバイル機器に組み込んで使用することができるレーザプロジェクタのレーザの照射制御装置として利用することができる。
100 モバイル機器
101 表示画面
102 可動部
103 レーザの照射口
104 撮影レンズ部
110 カメラ部
120 CPU
121 顔画像認識部
122 侵入判断部
123 レーザ照射中断制御部
124 動き検出部
125 フラッシュ強度決定部
126 デコレーション編集部
130 メモリ
140 表示部
150 タッチパネル
160 加速度センサ
170 プロジェクタ部
180 照度センサ
200 スクリーン

Claims (14)

  1. レーザプロジェクタから照射されたレーザの照射領域全体をカメラで撮影して得られた画像データに対して、顔画像認識処理を実行する顔画像認識部と、
    前記顔画像認識処理の結果に基づいて、前記照射領域に人間が侵入したか否かを判断する侵入判断部と、
    前記侵入判断部が前記照射領域に人間が侵入したと判断した場合、前記画像データ内における前記人間の目の位置に対応する部分のレーザの照射を中断するレーザ照射中断制御部と、
    を備える照射制御装置。
  2. 前記レーザ照射中断制御部は、前記目の位置に対応する部分のレーザの投影色の色設定を黒色に設定する、
    請求項1記載の照射制御装置。
  3. 前記照射制御装置は、
    前記カメラが撮影した人間の画像データを記憶する画像データ記憶部と、
    前記人間の画像データを映像として表示する表示部と、
    前記表示部に表示された画像データをユーザ操作に従って編集することにより、前記人間の顔および背景面の上に重畳的に投影すべきデコレーション画像データを生成するデコレーション編集部と、
    前記被写体の人間に前記デコレーション画像データを重畳的に投影するように前記レーザプロジェクタに指示するデコレーション投影指示部と、
    をさらに備える請求項1または2記載の照射制御装置。
  4. 前記デコレーション編集部は、前記デコレーション画像データの投影位置を表す座標値をさらに生成し、前記デコレーション投影指示部は、前記座標値で表される前記投影位置に前記デコレーション画像データを前記重畳的に投影するように前記レーザプロジェクタにさらに指示する、
    請求項3記載の照射制御装置。
  5. レーザプロジェクタと、カメラと、請求項1から4のいずれかに記載の照射制御装置とを備え、
    前記カメラが一度に撮影する範囲が、前記照射領域全体をカバーするように、前記カメラと前記レーザプロジェクタとの間の相対的な位置関係を設定する電子機器。
  6. 前記カメラは1フレーム周期で前記画像データを周期的に撮影し、前記顔画像認識部は前記顔画像認識を前記1フレーム周期で実行し、前記侵入判断部は、前記侵入したか否かを前記1フレーム周期で判断する、
    請求項5記載の電子機器。
  7. 前記カメラは、前記照射領域内の被写体の人間を撮影し、前記レーザの照射は、前記撮影の際に撮影補助光として前記被写体の人間に向けられる、
    請求項5または6記載の電子機器。
  8. 前記カメラと前記レーザプロジェクタとが内部に一体的に組み込まれ、
    前記電子機器の向き及び位置が動いたことを検知する加速度センサと、
    前記加速度センサが、前記電子機器の動きを検知すると、前記レーザ照射中断制御部は、前記照射領域全体にわたってレーザの照射を中断する、
    請求項5から請求項7のいずれかに記載の電子機器。
  9. レーザプロジェクタから照射されたレーザの照射領域全体をカメラで撮影して得られた画像データに対して、顔画像認識処理を実行する顔画像認識ステップと、
    前記顔画像認識処理の結果に基づいて、前記照射領域に人間が侵入したか否かを判断する侵入判断ステップと、
    前記侵入判断ステップにおいて、前記照射領域に人間が侵入したと判断した場合、前記画像データ内における前記人間の目の位置に対応する部分のレーザの照射を中断するレーザ照射中断制御ステップと、
    を備える照射制御方法。
  10. 前記画像データを所定のフレームレートで撮影し、前記顔画像認識ステップにおける前記顔画像認識処理を前記フレームレートによって規定される1フレーム期間毎に反復し、前記侵入判断ステップにおける、前記侵入したか否かの判断を前記1フレーム期間毎に反復する、
    請求項9記載の照射制御方法。
  11. 前記レーザ照射中断制御ステップは、前記目の位置に対応する部分のレーザの投影色の色設定を黒色に設定する、
    請求項9または10記載の照射制御方法。
  12. レーザプロジェクタの制御装置のCPUによって実行されるプログラムであって、
    レーザプロジェクタから照射されたレーザの照射領域全体をカメラで撮影して得られる画像データに対して、顔画像認識処理を実行し、その結果をメモリに記憶するように前記CPUに指示する命令と、
    前記メモリに記憶された前記顔画像認識処理の結果に基づいて、前記照射領域に人間が侵入したか否かを判断するように前記CPUに指示する命令と、
    前記照射領域に人間が侵入したと判断した場合、前記顔画像認識処理の出力データを使用して、前記撮影した画像データ内における前記人間の目の位置に対応する部分のレーザの照射を中断するように前記CPUに指示する命令と、
    を備えるプログラム。
  13. 前記画像データを所定のフレームレートで撮影し、前記顔画像認識を前記フレームレートによって規定される1フレーム期間毎に実行し、前記侵入したか否かを前記1フレーム期間ごとに判断する、
    請求項12記載のプログラム。
  14. 前記レーザの照射を中断するように前記CPUに指示する命令は、前記目の位置に対応する部分のレーザの投影色の色設定を黒色に設定するように前記CPUに指示する命令を含む、
    請求項12または13記載のプログラム。
JP2012124565A 2012-05-31 2012-05-31 照射制御装置および照射制御方法 Pending JP2013250407A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012124565A JP2013250407A (ja) 2012-05-31 2012-05-31 照射制御装置および照射制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012124565A JP2013250407A (ja) 2012-05-31 2012-05-31 照射制御装置および照射制御方法

Publications (1)

Publication Number Publication Date
JP2013250407A true JP2013250407A (ja) 2013-12-12

Family

ID=49849154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012124565A Pending JP2013250407A (ja) 2012-05-31 2012-05-31 照射制御装置および照射制御方法

Country Status (1)

Country Link
JP (1) JP2013250407A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101967266B1 (ko) * 2017-12-22 2019-04-09 주식회사 다원메닥스 선형 양성자 빔 타겟 조립체 및 이를 포함하는 양성자 빔 주사 장치
EP3584672A3 (en) * 2018-05-30 2020-03-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Systems for controlling laser projector and mobile terminals
JP7463165B2 (ja) 2019-04-25 2024-04-08 キヤノン株式会社 表示装置、表示装置の制御方法、制御プログラム、記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101967266B1 (ko) * 2017-12-22 2019-04-09 주식회사 다원메닥스 선형 양성자 빔 타겟 조립체 및 이를 포함하는 양성자 빔 주사 장치
EP3584672A3 (en) * 2018-05-30 2020-03-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Systems for controlling laser projector and mobile terminals
US11300865B2 (en) 2018-05-30 2022-04-12 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Systems for controlling laser projector and mobile terminals
JP7463165B2 (ja) 2019-04-25 2024-04-08 キヤノン株式会社 表示装置、表示装置の制御方法、制御プログラム、記録媒体

Similar Documents

Publication Publication Date Title
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
EP3754459B1 (en) Method and apparatus for controlling camera, device and storage medium
US9571739B2 (en) Camera timer
EP3291061A1 (en) Virtual reality control method, apparatus and electronic equipment
US20130063645A1 (en) Imaging apparatus, control method for the same, and recording medium
US20150109437A1 (en) Method for controlling surveillance camera and system thereof
JP5949501B2 (ja) 作業補助システムおよびプログラム
KR20100027700A (ko) 촬영 방법 및 장치
CN112099618A (zh) 电子设备、电子设备的控制方法和存储介质
US11394862B2 (en) Voice input apparatus, control method thereof, and storage medium for executing processing corresponding to voice instruction
WO2022142388A1 (zh) 特效显示方法及电子设备
WO2015194084A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
US20240062583A1 (en) Electronic apparatus and method for controlling the same
US11610293B2 (en) Image processing apparatus and image processing method
JP2011095985A (ja) 画像表示装置
JP2013250407A (ja) 照射制御装置および照射制御方法
WO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5360406B2 (ja) 画像表示装置
JP5952766B2 (ja) 撮像装置及び撮像方法
JP2011151482A (ja) 撮像装置および撮像装置の制御方法
JP2016148900A (ja) 電子機器
JP2009267467A (ja) 撮影装置
WO2015131483A1 (zh) 一种图像拍摄的处理方法和装置
JP2019054447A (ja) 撮像制御装置、その制御方法、およびプログラム、並びに記憶媒体
US20230082702A1 (en) Control of an electronic contact lens using eye gestures