JP6281409B2 - 表示制御方法、情報処理プログラム、及び情報処理装置 - Google Patents

表示制御方法、情報処理プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP6281409B2
JP6281409B2 JP2014108326A JP2014108326A JP6281409B2 JP 6281409 B2 JP6281409 B2 JP 6281409B2 JP 2014108326 A JP2014108326 A JP 2014108326A JP 2014108326 A JP2014108326 A JP 2014108326A JP 6281409 B2 JP6281409 B2 JP 6281409B2
Authority
JP
Japan
Prior art keywords
marker
recognized
unit
focus
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014108326A
Other languages
English (en)
Other versions
JP2015225121A (ja
Inventor
恭介 今村
恭介 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014108326A priority Critical patent/JP6281409B2/ja
Priority to US14/669,098 priority patent/US9646420B2/en
Priority to EP15162550.6A priority patent/EP2950522B1/en
Publication of JP2015225121A publication Critical patent/JP2015225121A/ja
Application granted granted Critical
Publication of JP6281409B2 publication Critical patent/JP6281409B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)

Description

本発明は、フォーカス調整の制御に関する。
撮像した画像に含まれる基準物(マーカー)を認識し、認識したマーカーに対して所定の情報を付加して提示する技術であるAR(augmented reality)がある。ARにおいては先ず、被写体がカメラを用いて撮影され、撮影された画像データがARに関する処理を行うARアプリケーションに入力される。そしてARアプリケーションは、入力された画像データに含まれるマーカーを認識し、認識したマーカーに対応する所定の情報を付加して表示する。
カメラは、自動的にピントを合わせるオートフォーカス機能を有する。また、カメラの撮影のタイミングは一定のフレーム間隔となる。ARアプリケーションは、カメラの動作の制御は行なわず、カメラの撮影やオートフォーカスは、ARアプリケーションとは独立して動作する。
撮影と撮影画像の処理について、以下の第1と第2の技術がある。
第1の技術の撮像装置は、撮像手段と合焦手段と被写体探索手段を備える。撮像手段は、結像面に結像される光学像を画像データに変換する。合焦手段は、光学像の焦点調整を行うためにフォーカスレンズを移動させて合焦位置を検出し、検出された合焦位置にフォーカスレンズを位置させる。被写体探索手段は、直近の合焦動作で焦点を合わせて得た映像信号領域上の被写体の画像領域が、現在の映像信号領域の所定の探索領域内で所定の閾値を基準にして変化したかどうかを探索し、被写体画像領域が変化した場合にのみ、合焦手段を再起動させる。
第2の技術において、フォーカス制御用マイコンは、フォーカスを合わせた後フォーカス調整を停止する。この後撮像画像を構成する複数のブロック毎にフォーカスが合焦しているか否かを判定する。パン/チルト駆動したときには、フォーカスが合焦していたブロックが撮像画像内から全て外れたとき、或いは所定の個数以下残る状態となったとき、或いは所定の割合で外れたときにフォーカス調整手段のフォーカス調整を起動する。
特開2007−52061号公報 特開2007−52349号公報
カメラのオートフォーカス処理はARアプリケーションとは独立に、所定の時間間隔毎、または所定のタイミングで実行されるが、このオートフォーカスの実行中はピントが大きくずれることになる。そのため、オートフォーカスの実行中に撮影された画像からは、ARアプリケーションはマーカーを認識できない。
ピントが大きくずれている画像からは、ARアプリケーションはマーカーを認識できないが、ピントのズレが少ない画像の場合には、ARアプリケーションはマーカーを認識できる場合がある。すなわち、ピントがずれているか否かは、ARアプリケーションがマーカーを認識できるか否かの結果と一致しないことがある。
ARにおいては、取得した画像にマーカーが映っている場合に、正しくマーカーを認識できればよく、取得した画像のピントが合っているか否かは重要ではない。ARアプリケーションがマーカーを認識できているときに実行されるオートフォーカス処理は、マーカーの認識を不能にさせる。その結果、ARコンテンツが非表示となり、ARの品質が低下する。
ARに関する処理と、オートフォーカス処理とが独立して実行される場合、ARアプリケーションがマーカーを認識できている場合でも、カメラ側でオートフォーカス処理が行われる可能性がある。また、画像内の被写体とカメラとの距離に基づき、オートフォーカス動作の実施要否を決定する場合も、ARアプリケーションがマーカーを認識できている場合に、オートフォーカス処理が行われる可能性がある。
そこで、1つの側面では、本発明は、カメラによるフォーカス調整に起因する基準物の認識への影響を防止する。
一態様の方法は、画像データを取得し、取得した画像データに含まれる基準物の識別情報の認識処理を行い、認識処理の結果、識別情報を認識したとの判定が得られた場合、画像データのフォーカス調整を所定のタイミングで実行する制御処理を行う調整部に制御処理を停止させる停止指示情報を出力し、停止指示情報の出力後に識別情報を認識したとの判定が識別情報を認識しないとの判定に変化した場合、調整部に制御処理を開始させる開始指示情報を出力する。
一態様によれば、カメラによるフォーカス調整に起因する基準物の認識への影響を防止することができる。
実施形態と比較例1について、マーカーに対する合焦状態に応じたオートフォーカスの実行の有無を比較した図である。 マーカーが撮像された角度に応じて、マーカーを認識可能な被写体からの距離の範囲が変化する様子を説明するための図である。 実施形態1に係る情報処理装置の構成の一例を示す。 実施形態1に係る撮像装置の構成の一例を示す。 実施形態1に係る制御部による合焦制御処理の実行の制御を図解したフローチャートの一例である。 実施形態1に係る制御部によるマーカー認識時の処理の動作を図解したフローチャートの一例である。 実施形態に係る撮像装置のハードウェア構成の一例を示す。 実施形態2に係る情報処理装置の構成の一例を示す。 実施形態2に係る撮像装置の構成の一例を示す。 実施形態2に係る制御部による合焦制御処理の実行の制御を図解したフローチャートの一例である。 実施形態2に係る制御部によるマーカーの認識処理の動作を図解したフローチャートの一例である。
実施形態では、マーカーの認識状態、すなわち、マーカーを認識できたか否かに基いて、オートフォーカス動作の実行と停止が制御される。具体的には、マーカーを認識できている場合には、オートフォーカス動作が実行されないように制御され、マーカーを認識できない場合に、オートフォーカス動作が実行されるように制御される。このようにすることで、マーカーを認識しているときには、オートフォーカス動作が実行されないように制御することができ、不要なフォーカス調整を防ぐことができる。その結果、認識しているマーカーが、不要なフォーカス調整のために認識不能になることを防ぐことができる。
先ず、実施形態の処理を説明するために、比較例と動作を比較する。先ず、被写体(マーカー)にピントが合っているか否かに応じて、オートフォーカス動作の実行が制御される比較例1と、実施形態の動作を比較する。
図1は、実施形態と比較例1について、マーカーに対する合焦状態(ピントが合っているか否か)に応じたオートフォーカスの実行の有無を比較した図である。図1(A)は、マーカーにピントが合っている状態(ケースA)を示している。図1(B)は、マーカーに対してピントが若干ずれている状態(ケースB)を示している。図1(C)は、マーカーにピントが全く合っていない状態(ケースC)を示している。図1(D)は、ケースA〜Cのそれぞれにおいて、比較例1と実施形態の、オートフォーカスの実行の有無を示している。尚、図1(A)〜(C)のパイプは図を見やすくするためにマーカーに対するピントのズレを表現するための指標として記載するものであり、マーカーとは異なるレイヤに設置されているものである。
図1(A)の場合、マーカーにピントがあっており、マーカーの認識も可能である。従って、比較例1、実施形態ともに、オートフォーカスは実行されない。
図1(B)の場合、マーカーに対してピントが若干ずれているが、マーカーの認識は可能である。従って、マーカーにピントが合っているか否かに応じてオートフォーカスの実行が制御される比較例1では、オートフォーカスが実行される。一方、ARアプリケーションがマーカーを認識できたか否かに基いて、オートフォーカスの実行が制御される実施形態では、オートフォーカスは実行されない。
図1(C)の場合、マーカーにピントが全く合っておらず、マーカーの認識も不可能である。従って、比較例1、実施形態ともに、オートフォーカスが実行される。
実施形態によると、ケース2のように、マーカーに対してピントが若干ずれているが、マーカーの認識は可能である場合に、オートフォーカスを実行しないように制御することができる。マーカーの認識が可能であるにもかかわらず実行されるオートフォーカスは、認識できていたマーカーの認識を不能にする。このようなオートフォーカスの実行を防ぐことで、マーカー認識の品質を向上させることができる。
次に、被写体とカメラの距離が所定の閾値以内か否かに基いてオートフォーカスの実行を制御する比較例2と、実施形態の動作を比較する。
マーカーを認識可能な被写体からの距離の範囲は、マーカーが撮像された角度に応じて変化する。図2は、マーカーが撮像された角度に応じて、マーカーを認識可能な被写体からの距離の範囲が変化する様子を説明するための図である。図2において、マーカーが撮像された角度と、焦点距離が所定の値のときにマーカーを認識可能な範囲と、の関係が示されている。図2では、カメラの焦点距離はx(一定値)であり、Bは、マーカーにピントが合っているときのマーカーからのカメラの位置を示している。A及びA’は、マーカーの認識限界のマーカーからのカメラの距離を示している。すなわち、A〜A’の範囲は、カメラの焦点距離がxの場合の、マーカーを認識可能なカメラの位置の範囲を示している。a、b、cは、所定の角度毎のBとAの距離を示す。
図2に示すように、マーカーの認識が可能なBからのずれ幅は、識別子に対する角度により異なる。図2においては、「a > b > c」となっている。従って、被写体とカメラの距離が一定の範囲であるか否かは、マーカーを認識可能か否かの判定結果と正確には一致しない。よって、被写体とカメラの距離が所定の閾値以内か否かに基いてオートフォーカスの実行を制御する比較例2においては、角度によっては、マーカーを認識できているにもかかわらず、オートフォーカスが実行される場合がある。
(実施形態1)
図3は、実施形態1に係る情報処理装置の構成の一例を示す。図3において、情報処理装置1は、取得部3、認識部4、出力部5を含む。出力部5は調整部2に接続される。尚、調整部2は、情報処理装置1に含まれてもよい。
調整部2は、画像データのフォーカス調整を所定のタイミングで実行する制御処理を行う。
取得部3は、画像データを取得する。
認識部4は、取得部3が取得した画像データに含まれる基準物の識別情報の認識処理を行う。
出力部5は、認識部4による認識処理の結果、識別情報を認識したとの判定が得られた場合、調整部2に制御処理を停止させる停止指示情報を出力し、停止指示情報の出力後に識別情報を認識したとの判定が識別情報を認識しないとの判定に変化した場合、調整部2に制御処理を開始させる開始指示情報を出力する。
また、調整部2は、画像データのフォーカス調整を第1の時間間隔毎に実行する。
また、出力部5は、認識部4による認識処理の結果、識別情報を認識したとの判定が得られた場合、調整部2に制御処理を停止させる停止指示情報を出力する。次に出力部5は、停止指示情報の出力後に識別情報を認識したとの判定が識別情報を認識しないとの判定に変化した場合、調整部2に画像データのフォーカス調整を、第1の時間間隔よりも短い第2の時間間隔毎に実行する制御処理を開始させる開始指示情報を出力する。そして出力部5は、開始指示情報の出力後に識別情報を認識したとの判定が所定期間得られない場合、調整部2に画像データのフォーカス調整を第1の時間間隔毎に実行する制御処理を開始させる制御指示情報を出力する。
図4は、実施形態1に係る撮像装置の構成の一例を示す。図4において、撮像装置10は、撮像部11、合焦部12、及び制御部13を含む。撮像装置10は、情報処理装置1の一例である。合焦部12は、調整部2の一例である。制御部13は、取得部3、認識部4、及び出力部5の一例である。
撮像部11は、被写体を撮像し、撮像した画像(静止画または動画)を制御部13に出力する。
合焦部12は、所定の時間間隔毎に、自動的に撮像部11の被写体に対するピントを合わせるオートフォーカスを実行する。すなわち合焦部12は、所定の時間間隔毎に、撮像部11が撮像する画像のフォーカスを合わせるフォーカス調整を行う。以下の説明では、所定の時間間隔毎にオートフォーカスが繰り返し実行される所定期間の処理を、合焦制御処理と記す。尚、合焦制御処理において、各オートフォーカスの実行のタイミングは、一定の時間間隔毎でなくともよく、所定のタイミングで繰り返し実行されてもよい。
制御部13は、撮像部11から画像を取得し、所定の時間間隔毎、または所定のタイミングで、取得した画像が有する基準物を認識する処理を行う。基準物は、取得した画像が有する所定の形態(形状、模様若しくは色彩又はこれらの結合)である。基準物は例えばマーカーや特定のパターンの画像であってもよく、QR(Quick Response)コードやバーコードでもよい。ARにおいては、基準物は、付加情報を表示する位置を特定し、付加情報の出現キーとなる。もしくは、制御部13が認識の対象とするものは、現実に存在する特定の物体または図形としてもよい(マーカーレス型のARにおける認識対象でもよい)。以下、説明を簡略にするために、制御部13が認識の対象とする基準物をまとめてマーカーと記す。制御部13はマーカーを認識したら、認識したマーカーに対応する画像をマーカーに重畳させて所定の出力装置へ出力する。尚、マーカーと、そのマーカーに重畳させる画像とを対応付けた対応情報が、撮像装置10の所定の記憶領域に記憶されてもよく、この対応情報を参照することによって、制御部13は、認識したマーカーに対応する画像を特定してもよい。
制御部13は、マーカーの認識処理を所定の時間間隔毎に実行する。そして制御部13は、マーカーの認識処理の認識結果に応じて、合焦制御処理の実行を制御する。すなわち、制御部13はマーカーを認識した場合、合焦制御処理を停止させる停止指示情報を合焦部12に出力する。また制御部13は、合焦制御処理の停止指示情報を出力後、マーカーを認識できなくなった場合に、合焦制御処理を再開(開始)させる再開指示情報を合焦部12に出力する。
制御部13がマーカーを認識できなくなった場合とは、具体的には、認識処理において所定の回数以上連続してマーカーの認識ができなかった場合を指す。例えば、0.1秒毎にマーカーの認識処理を行う場合、連続して5回以上マーカーの認識ができなかった場合、すなわち、0.5秒以上マーカーの認識ができなかった場合に、マーカーの認識ができなくなったと判定してもよい。このような動作により、言い換えると、制御部13は、最後にマーカーを認識してから所定の時間以上マーカーの認識ができない場合に、合焦制御処理を再開させる再開指示情報を出力する。
ここで、例えば、最後にマーカーを認識してから再開指示情報を出力するまでの所定時間を、ARコンテンツの連続表示時間と対応付けることもできる。ARコンテンツの連続表示時間とは、制御部13がマーカーを認識してから、その認識したマーカーに重畳したARコンテンツを連続して表示させる時間を指す。これにより、例えば、ARコンテンツが表示されなくなるタイミングと、合焦制御処理を再開させるタイミングを同期させることができる。
合焦制御処理の再開指示情報を出力した後、その後の認識処理においてマーカーを認識できた場合は、制御部13は、合焦制御処理を停止させる停止指示情報を合焦部12に出力する。
制御部13によるマーカーの認識は例えば以下のように行われる。すなわち、制御部13は先ず、取得した画像からマーカーを探索する。探索の結果、マーカーを発見したら、制御部13は発見したマーカーを解析する。そして制御部13は、解析の結果からマーカーの識別情報などのマーカーに関する情報を取得する。マーカーに関する情報が取得できた場合は、制御部13は、マーカーを認識できたと判定する。一方、マーカーに関する情報が取得できなかった場合は、制御部13は、マーカーを認識できなかったと判定する。
また、制御部13によるマーカーの認識は例えば以下のように行ってもよい。すなわち予め、所定の規則に基いてパターンファイルを所定の記憶部に記憶しておく。パターンファイルに含まれるパターンは、複数のパターンファイルのうちで各々を一意に識別可能なパターンである。そして制御部13は、撮像部11から取得した画像に含まれるマーカーを、例えば、所定の規則に基いて検出し、検出したマーカーとパターンファイルとの一致率を算出する。そして、一致率が所定の閾値以上であれば制御部13は、検出したマーカーが、パターンファイルに対応するマーカーであると認識する。パターンファイルには、マーカーに重畳されるオブジェクトが対応付けられており、マーカーの認識後、制御部13はパターンファイルに対応するオブジェクトをマーカーに重畳させて、所定の出力装置を介して表示する。
制御部13は、合焦制御処理の再開指示において、合焦制御処理の再開から所定の期間の間は、オートフォーカスの間隔が短くなるように(タイミングを早めるように)制御してもよい。すなわち、合焦制御処理の停止前のオートフォーカスの実行間隔をT1とすると、再開後の所定の期間の間は、T1よりも小さいT2の間隔毎にオートフォーカスを実行するように、制御部13は合焦部12に指示してもよい。再開後の所定の期間は、マーカーの認識ができなくなった直後の期間であり、撮像装置10のユーザがマーカーを探索している可能性が高い。よって、オートフォーカスの実行間隔を短くすることで、マーカーを含む被写体へのフォーカスの調整を早めることができ、その結果、再度マーカーを認識するまでの期間を短くすることができる。
尚、合焦制御処理の再開後、所定の期間が経過した場合は、制御部13はオートフォーカスの間隔をT1に戻すように制御する。例えば、再開指示情報を出力後、所定の時間が経過したら、制御部13は再度、オートフォーカスの間隔をT1で実行するように再開指示を合焦部12に出力してもよい。もしくは、制御部13は予め再開指示に、所定の時間経過後にオートフォーカスのタイミングを変更するように制御する内容を含めてもよい。
次に、合焦制御処理の実行制御のフローを、図5及び図6を参照して説明する。図5は、実施形態1に係る制御部13による合焦制御処理の実行の制御を図解したフローチャートの一例である。
図5において、制御部13は先ず、合焦部12に対して、T1毎にオートフォーカスを実行する合焦制御処理の開始命令を出力する(S101)。T1は、予め定められた所定の時間間隔である。この開始命令を受信した合焦部12は、T1毎にオートフォーカスを実行する合焦制御処理を開始する。
次に制御部13は、撮像部11から画像を取得する(S102)。ここで取得する画像は、撮像部11が撮像した画像である。
次に制御部13は、S102で取得した画像に含まれるマーカーの認識処理を行い、その結果、マーカーを認識できたか否かを判定する(S103)。認識処理においてマーカーを認識すると、制御部13は、認識したマーカーに、対応する画像を重畳させてARコンテンツを表示する等の所定の処理を行ってもよい。
S103において、マーカーを認識できなかったと判定した場合(S103でNo)、制御部13は、処理をS102に再度遷移させ、S102とS103の動作を繰り返す。一方、マーカーを認識できたと判定した場合(S103でYes)、制御部13は、マーカー認識時の処理を実行する(S104)。マーカー認識時の処理は、後ほど図6を参照して説明する。そしてマーカー認識時の処理が終了したら、制御部13は処理を再度S101に遷移させ、合焦部12に対して、T1毎にオートフォーカスを実行する合焦制御処理の開始命令を出力する(S101)。尚、S101において、既に合焦制御処理が実行されている場合には、開始命令を受信した合焦部は、オートフォーカスのタイミングをT1に変更して、T1毎にオートフォーカスを実行する合焦制御処理を開始する。
図6は、実施形態1に係る制御部13によるマーカー認識時の処理の動作を図解したフローチャートの一例である。図6のフローにおいては、所定の閾値N、M、及び、所定の変数である、カウンタA、Bが用いられる。Nは、合焦制御処理の実行の開始(再開)命令を発行するタイミングを制御するための変数である。Mは、マーカーが認識できなくなった後に再開された合焦制御処理において、オートフォーカス処理の間隔を短くする期間を制御するための閾値である。
図6において、制御部13は先ず、合焦部12に対して、合焦制御処理の停止指示情報を出力する(S201)。この停止指示情報を受信した合焦部12は、合焦制御処理を停止する。
次に制御部13は、カウンタA及びカウンタBの値をリセットする(S202)。具体的には例えば制御部13は、カウンタA及びカウンタBの値に「0」を代入する。
次に制御部13は、撮像部11から画像を取得する(S203)。ここで取得する画像は、撮像部11が撮像した画像である。
次に制御部13は、S203で取得した画像に含まれるマーカーの認識処理を行い、その結果、マーカーを認識できたか否かを判定する(S204)。認識処理においてマーカーを認識すると、制御部13は、認識したマーカーに、対応する画像を重畳させてARコンテンツを表示する等の所定の処理を行ってもよい。マーカーを認識できたと判定した場合(S204でYes)、制御部13は再度、処理をS202に遷移させ、カウンタA及びカウンタBの値をリセットする(S202)。
一方S204において、マーカーを認識できなかったと判定した場合(S204でNo)、制御部13は、カウンタAの値を1インクリメントする(S205)。
そして制御部13は、カウンタAの値が閾値N以上か否かを判定する(S206)。カウンタAの値が閾値N未満であると判定した場合(S206でNo)、制御部13は再度、処理をS203に遷移させる。
一方、S206において、カウンタAの値が閾値N以上であると判定した場合(S206でYes)、制御部13は、合焦部12に対して、T2毎にオートフォーカスを実行する合焦制御処理の再開指示情報を出力する(S207)。T2は、予め定められた所定の時間間隔であり、例えば、T1よりも短い時間間隔である。この再開指示情報を受信した合焦部12は、T2毎にオートフォーカスを実行する合焦制御処理を開始する。
次に制御部13は、撮像部11から画像を取得する(S208)。ここで取得する画像は、撮像部11が撮像した画像である。
次に制御部13は、S208で取得した画像に含まれるマーカーの認識処理を行い、その結果、マーカーを認識できたか否かを判定する(S209)。認識処理においてマーカーを認識すると、制御部13は、認識したマーカーに、対応する画像を重畳させてARコンテンツを表示する等の所定の処理を行ってもよい。マーカーを認識できたと判定した場合(S209でYes)、制御部13は再度、処理をS201に遷移させる。
一方、S209において、マーカーを認識できなかったと判定した場合(S209でNo)、制御部13は、カウンタBの値を1インクリメントする(S210)。
そして制御部13は、カウンタBの値が閾値M以上か否かを判定する(S211)。カウンタBの値が閾値M未満であると判定した場合(S211でNo)、制御部13は再度、処理をS208に遷移させる。一方、カウンタBの値が閾値M以上であると判定した場合(S211でYes)、処理は終了する。
尚、図5及び図6においては、合焦制御処理においてT1毎にオートフォーカス処理が行われるのは、起動後、または、マーカー認識から一定時間経過している時間帯である。この時間帯は、撮像装置10のユーザがマーカーの認識と関係のない動作をしていると考えられる時間帯である。また、T2毎にオートフォーカス処理が行われるのは、マーカーの認識ができなくなった直後であり、撮像装置10のユーザがマーカーを探索している可能性がある時間帯である。T2をT1よりも短い時間とすることで、ユーザがマーカーを探索している可能性の高い時間帯におけるマーカーの認識間隔を狭めることができる。また、T2毎にオートフォーカス処理が行われる合焦制御処理の間に、少なくとも1回は、実際にオートフォーカスが行われることが望ましい。従って、認識処理の実行間隔をtとすると、T2<(t×M)を満たすように、T2の値を設定してもよい。
尚、S102、S203、及びS208で制御部13が取得する画像は、撮像部11が撮像した画像であって、それぞれ異なる時刻に撮像された画像である。
次に、実施形態に係る撮像装置10のハードウェア構成を説明する。図7は、撮像装置10のハードウェア構成の一例を示す。
図7において、撮像装置10は、CPU(Central Processing Unit)21、メモリ22、記憶装置23、読取装置24、通信インターフェース25、カメラ26、入力装置27、及び出力装置28を含む。CPU21、メモリ22、記憶装置23、読取装置24、通信インターフェース25、カメラ26、入力装置27、及び出力装置28は、バスまたは通信ネットワークを介して接続される。
CPU21は、メモリ22を利用して上述のフローチャートの手順を記述したプログラムを実行することにより、制御部13の一部または全部の機能を提供する。
メモリ22は、例えば半導体メモリであり、RAM(Random Access Memory)領域およびROM(Read Only Memory)領域を含んで構成される。記憶装置23は、例えばハードディスクである。なお、記憶装置23は、フラッシュメモリ等の半導体メモリであってもよい。また、記憶装置23は、外部記録装置であってもよい。尚、記憶装置23の所定の記憶領域に、マーカーに対応するパターンを記憶してもよいし、マーカーに重畳して表示するオブジェクトの情報を、各パターンに対応付けて記憶してもよい。
読取装置24は、CPU21の指示に従って着脱可能記憶媒体80にアクセスする。着脱可能記憶媒体80は、たとえば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD−ROM、DVD等)などにより実現される。尚、読取装置24は撮像装置10に含まれなくてもよい。
通信インターフェース25は、CPU21の指示に従ってネットワークを介して通信をおこなうインターフェースである。通信インターフェース25は、撮像装置10に含まれなくてもよい。
カメラ26は、被写体を撮像し、また、被写体に対してフォーカスの調整を自動で行う装置である。カメラ26は、撮像部11、及び合焦部12の機能の一部または全てを提供する。尚、カメラ26は、撮像装置10の外部に通信ネットワーク又はバスを介して接続されてもよい。
入力装置27は、ユーザから所定の指示を受け付ける。入力装置27は、撮像装置10に含まれなくてもよい。
出力装置28は、CPU21の指示に従い、所定の情報を出力する。出力装置28は、例えば、マーカーに付加情報が重畳された情報を表示する表示装置である。
実施形態のプログラムは、例えば、下記の形態で撮像装置10に提供される。
(1)記憶装置23に予めインストールされている。
(2)着脱可能記憶媒体80により提供される。
(3)プログラムサーバ(図示せず)から通信インターフェース25を介して提供される。
さらに、撮像装置10の一部は、ハードウェアで実現してもよい。或いは、撮像装置10は、ソフトウェアおよびハードウェアの組み合わせで実現してもよい。
(実施形態2)
実施形態2では、制御部は合焦制御処理中に取得された画像をマーカーの認識処理の対象としない。合焦制御処理中に取得された画像は、オートフォーカス実行中である場合にピントが大きくずれている可能性が高く、その場合はマーカーの認識は不可能であるため、合焦制御処理中に取得された画像を認識処理の対象としないことで、制御部にかかる負荷を軽減する。
図8は、実施形態2に係る情報処理装置の構成の一例を示す。図8において、情報処理装置31は、取得部33、認識部34、出力部35を含む。出力部35は調整部32に接続される。尚、調整部32は、情報処理装置31に含まれてもよい。
調整部32は、画像データのフォーカス調整を所定の時間間隔毎に実行する制御処理を行う。
取得部33は、所定の形態を有する対象を撮像した画像データを取得する。
出力部35は、取得部33が取得した画像データに含まれる対象の形態を認識可能な場合、制御処理を停止させる停止指示情報を調整部に出力する。また出力部35は、停止指示情報の出力後に対象の形態が認識不能となった場合、制御処理を開始させる開始指示情報を調整部に出力する。
認識部34は、調整部による制御処理が停止中の場合に、画像データに含まれる対象の形態を認識し、調整部による制御処理が実行中である場合に、対象の形態を認識しない。
図9は、実施形態2に係る撮像装置の構成の一例を示す。図9において、撮像装置40は、撮像部41、合焦部42、及び制御部43を含む。撮像装置40は、情報処理装置31の一例である。合焦部42は、調整部32の一例である。制御部43は、取得部33、認識部34、出力部35の一例である。
実施形態2に係る撮像部41、合焦部42の動作はそれぞれ、実施形態1の撮像部11、合焦部12と同様である。
制御部43は、合焦部42による合焦制御処理が停止中に、所定の時間間隔毎に、撮像部41から取得した画像に含まれるマーカーを認識する処理を行う。一方、合焦部42による合焦制御処理が実行中である場合には、マーカーの認識処理は行わない。
具体的には制御部43は、所定の時間間隔毎にマーカーを認識できるか否かを判定する判定処理を行い、判定処理の結果に基いて、合焦制御処理を停止する制御を行う。具体的には制御部43は、判定処理の結果、マーカーを認識できると判定した場合、合焦制御処理を停止させる停止指示情報を合焦部42に出力する。
また制御部43は、合焦制御処理の停止指示情報を出力後、マーカーの認識処理を所定の時間間隔で行い、マーカーを認識できなくなった場合に、合焦制御処理を再開(開始)させる再開指示情報を合焦部42に出力する。マーカーの認識処理は、実施形態1と同様である。合焦制御処理の再開指示情報を出力した後、制御部43は所定の時間間隔で判定処理を行い、判定処理の結果に基いて、合焦制御処理を停止させる停止指示情報を合焦部42に出力する。
判定処理において具体的には例えば、制御部43は、先ず取得した画像からマーカーを探索する。探索の結果、マーカーを発見したら、制御部43は発見したマーカーを解析する。そして制御部43は、解析の結果からマーカーの識別子などのマーカーに関する情報を取得できるか否かを判定する。解析の結果からマーカーの識別子などのマーカーに関する情報を取得できると判定した場合、制御部43は、マーカーを認識できると判定する。一方、解析の結果からマーカーの識別子などのマーカーに関する情報を取得できないと判定した場合、制御部43は、マーカーを認識できないと判定する。尚、取得した画像からマーカーを発見できなかった場合は、制御部43は、マーカーを認識できないと判定する。
次に、実施形態2に係る合焦制御処理の実行制御のフローを、図10及び図11を参照して説明する。尚、図10及び図11において、T1、T2、N、M、カウンタA、及びカウンタBは、図5、6におけるものと同様である。
図10は、実施形態2に係る制御部43による合焦制御処理の実行の制御を図解したフローチャートの一例である。
図10において、制御部43は先ず、合焦部42に対して、T1毎にオートフォーカスを実行する合焦制御処理の開始命令を出力する(S301)。この開始命令を受信した合焦部42は、T1毎にオートフォーカスを実行する合焦制御処理を開始する。
次に制御部43は、撮像部41から画像を取得する(S302)。
次に制御部43は、S302で取得した画像に対して判定処理を行う(S303)。マーカーを認識できないと判定した場合(S303でNo)、制御部43は、処理をS302に再度遷移させ、S302とS303の動作を繰り返す。一方、マーカーを認識できると判定した場合(S303でYes)、制御部43は、マーカーの認識処理を実行する(S304)。マーカーの認識処理は、後ほど図11を参照して説明する。そしてマーカーの認識処理が終了したら、制御部43は再度、合焦部42に対して、T1毎にオートフォーカスを実行する合焦制御処理の開始命令を出力する(S301)。
図11は、実施形態2に係る制御部43によるマーカーの認識処理の動作を図解したフローチャートの一例である。
図11において、制御部43は先ず、合焦部42に対して、合焦制御処理の停止指示情報を出力する(S401)。この停止指示情報を受信した合焦部42は、合焦制御処理を停止する。
次に制御部43は、カウンタA及びカウンタBの値をリセットする(S402)。具体的には例えば制御部43は、カウンタA及びカウンタBの値に「0」を代入する。
次に制御部43は、撮像部41から画像を取得する(S403)。
次に制御部43は、S403で取得した画像に含まれるマーカーの認識処理を行い、その結果、マーカーを認識できたか否かを判定する(S404)。認識処理においてマーカーを認識すると、制御部43は、認識したマーカーに、対応する画像を重畳させてARコンテンツを表示する等の所定の処理を行ってもよい。マーカーを認識できたと判定した場合(S404でYes)、制御部43は再度、処理をS402に遷移させ、カウンタA及びカウンタBの値をリセットする。
一方S404において、マーカーを認識できなかったと判定した場合(S404でNo)、制御部43は、カウンタAの値を1インクリメントする(S405)。
そして制御部43は、カウンタAの値が閾値N以上か否かを判定する(S406)。カウンタAの値が閾値N未満であると判定した場合(S406でNo)、制御部43は再度、処理をS403に遷移させる。
一方、S406において、カウンタAの値が閾値N以上であると判定した場合(S406でYes)、制御部43は、合焦部42に対して、T2毎にオートフォーカスを実行する合焦制御処理の再開指示情報を出力する(S407)。この再開指示情報を受信した合焦部42は、T2毎にオートフォーカスを実行する合焦制御処理を開始する。
次に制御部43は、撮像部41から画像を取得する(S408)。
次に制御部43は、S408で取得した画像に対して判定処理を行う(S409)。判定処理において、マーカーを認識できると判定した場合(S409でYes)、制御部43は再度、処理をS401に遷移させる。
一方、S409の判定処理において、マーカーを認識できないと判定した場合(S409でNo)、制御部43は、カウンタBの値を1インクリメントする(S410)。
そして制御部43は、カウンタBの値が閾値M以上か否かを判定する(S411)。カウンタBの値が閾値M未満であると判定した場合(S411でNo)、制御部43は再度、処理をS408に遷移させる。一方、カウンタNの値が閾値M以上であると判定した場合(S411でYes)、処理は終了する。
実施形態2に係る撮像装置40のハードウェア構成の一例は、図7に示したものと同様である。図7において、CPU21は、制御部43の機能の一部または全てを提供する。またカメラ26は、撮像部41と合焦部42の機能の一部又は全てを提供する。
実施形態では、マーカーを認識した後、マーカーに対応する画像を重畳して出力する構成としたが、マーカー認識後の動作は、これに限定されない。例えば、マーカーを認識した後、認識したマーカーから所定の情報を抽出し、抽出した情報を他のアプリケーションに出力する等の、種々の構成としてもよい。
尚、本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。
1 情報処理装置
2 調整部
3 取得部
4 認識部
5 出力部
10 撮像装置
11 撮像部
12 合焦部
13 制御部
21 CPU
22 メモリ
23 記憶装置
24 読取装置
25 通信インターフェース
26 カメラ
27 入力装置
28 出力装置
31 情報処理装置
32 調整部
33 取得部
34 認識部
35 出力部
40 撮像装置
41 撮像部
42 合焦部
43 制御部
80 着脱可能記憶媒体

Claims (4)

  1. 画像データを取得し、
    取得した前記画像データに含まれる基準物の識別情報の認識処理を行い、
    前記認識処理の結果、前記識別情報を認識したとの判定が得られた場合、前記画像データのフォーカス調整を第1の時間間隔毎に実行する制御処理を行う調整部に該制御処理を停止させる停止指示情報を出力し、
    前記停止指示情報の出力後に前記識別情報を認識したとの判定が前記識別情報を認識しないとの判定に変化した場合、前記調整部に前記画像データのフォーカス調整を、前記第1の時間間隔よりも短い第2の時間間隔毎に実行する制御処理を開始させる開始指示情報を出力する
    ことを特徴とするフォーカス調整制御方法。
  2. 記画像データのフォーカス調整を、前記開始指示情報の出力後に前記識別情報を認識したとの判定が所定期間得られない場合、前記調整部に前記画像データのフォーカス調整を前記第1の時間間隔毎に実行する制御処理を開始させる制御指示情報を出力する
    ことを特徴とする請求項1に記載のフォーカス調整制御方法。
  3. コンピュータに、
    画像データを取得し、
    取得した前記画像データに含まれる基準物の識別情報の認識処理を行い、
    前記認識処理の結果、前記識別情報を認識したとの判定が得られた場合、前記画像データのフォーカス調整を第1の時間間隔毎に実行する制御処理を行う調整部に該制御処理を停止させる停止指示情報を出力し、
    前記停止指示情報の出力後に前記識別情報を認識したとの判定が前記識別情報を認識しないとの判定に変化した場合、前記調整部に前記前記データのフォーカス調整を、前記第1の時間間隔よりも短い第2の時間間隔毎に実行する制御処理を開始させる開始指示情報を出力する
    処理を実行させることを特徴とする情報処理プログラム。
  4. 画像データを取得する取得部と、
    取得した前記画像データに含まれる基準物の識別情報の認識処理を行う認識部と、
    前記認識処理の結果、前記識別情報を認識したとの判定が得られた場合、前記画像データのフォーカス調整を第1の時間間隔毎に実行する制御処理を行う調整部に該制御処理を停止させる停止指示情報を出力し、前記停止指示情報の出力後に前記識別情報を認識したとの判定が前記識別情報を認識しないとの判定に変化した場合、前記調整部に前記画像データのフォーカス調整を、前記第1の時間間隔よりも短い第2の時間間隔毎に実行する制御処理を開始させる開始指示情報を出力する出力部と、
    を備えることを特徴とする情報処理装置。
JP2014108326A 2014-05-26 2014-05-26 表示制御方法、情報処理プログラム、及び情報処理装置 Active JP6281409B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014108326A JP6281409B2 (ja) 2014-05-26 2014-05-26 表示制御方法、情報処理プログラム、及び情報処理装置
US14/669,098 US9646420B2 (en) 2014-05-26 2015-03-26 Display control method and information processing apparatus
EP15162550.6A EP2950522B1 (en) 2014-05-26 2015-04-07 Display control method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014108326A JP6281409B2 (ja) 2014-05-26 2014-05-26 表示制御方法、情報処理プログラム、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2015225121A JP2015225121A (ja) 2015-12-14
JP6281409B2 true JP6281409B2 (ja) 2018-02-21

Family

ID=53177087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014108326A Active JP6281409B2 (ja) 2014-05-26 2014-05-26 表示制御方法、情報処理プログラム、及び情報処理装置

Country Status (3)

Country Link
US (1) US9646420B2 (ja)
EP (1) EP2950522B1 (ja)
JP (1) JP6281409B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690277B2 (ja) * 2016-02-09 2020-04-28 富士通株式会社 画像処理制御方法、画像処理制御プログラムおよび情報処理装置
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US10375130B2 (en) 2016-12-19 2019-08-06 Ricoh Company, Ltd. Approach for accessing third-party content collaboration services on interactive whiteboard appliances by an application using a wrapper application program interface
US10250592B2 (en) 2016-12-19 2019-04-02 Ricoh Company, Ltd. Approach for accessing third-party content collaboration services on interactive whiteboard appliances using cross-license authentication
US10395405B2 (en) * 2017-02-28 2019-08-27 Ricoh Company, Ltd. Removing identifying information from image data on computing devices using markers
US10798292B1 (en) 2019-05-31 2020-10-06 Microsoft Technology Licensing, Llc Techniques to set focus in camera in a mixed-reality environment with hand gesture interaction
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2774609B2 (ja) * 1989-09-18 1998-07-09 富士通株式会社 ディスク装置及びディスク制御方法
JP2005221602A (ja) * 2004-02-04 2005-08-18 Konica Minolta Photo Imaging Inc 撮像装置
JP2007052061A (ja) 2005-08-15 2007-03-01 Sharp Corp 撮像装置、合焦動作制御方法および電子情報機器
JP2007052349A (ja) 2005-08-19 2007-03-01 Toshiba Corp 撮像装置
JP4926817B2 (ja) * 2006-08-11 2012-05-09 キヤノン株式会社 指標配置情報計測装置および方法
JP5188071B2 (ja) * 2007-02-08 2013-04-24 キヤノン株式会社 焦点調節装置、撮像装置及び、焦点調節方法
JP5332160B2 (ja) * 2007-09-18 2013-11-06 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5931464B2 (ja) * 2012-01-20 2016-06-08 オリンパス株式会社 撮影装置

Also Published As

Publication number Publication date
US20150339856A1 (en) 2015-11-26
US9646420B2 (en) 2017-05-09
EP2950522A1 (en) 2015-12-02
JP2015225121A (ja) 2015-12-14
EP2950522B1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
JP6281409B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP5067418B2 (ja) 被写体追跡プログラム、被写体追跡装置、およびカメラ
JP6103948B2 (ja) 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
KR20160020498A (ko) 트랙커 보조 이미지 캡쳐
JP2009053815A (ja) 被写体追跡プログラム、および被写体追跡装置
EP3018891B1 (en) Tracking device, tracking method, and non-transitory recording medium having tracking program stored therein
JP5210843B2 (ja) 撮像装置
US20170228887A1 (en) Image capturing apparatus, tracking device, control method, and storage medium
JP2009111716A (ja) 撮像装置、プログラムおよびテンプレート生成方法
JP5024116B2 (ja) 被写体追跡プログラム、および被写体追跡装置
JP5968379B2 (ja) 画像処理装置およびその制御方法
JP2010008620A (ja) 撮像装置
US9912858B2 (en) Image capturing apparatus and control method thereof
JP6495451B2 (ja) 方向認識オートフォーカス
US9264603B2 (en) Imaging apparatus and imaging method
US20170018288A1 (en) Video processing apparatus, video processing method, and program
JP2015230515A (ja) 被写体追尾装置およびカメラ
CN112740649A (zh) 拍摄方法、拍摄设备及计算机可读存储介质
US9479701B2 (en) Image reproducing apparatus, image reproducing method, image capturing apparatus, and storage medium
US20230179867A1 (en) Control apparatus, control method, and non-transitory storage medium
JP5562479B2 (ja) 画像処理装置、画像処理方法及びプログラム
US11050923B2 (en) Imaging apparatus and control method
US9100512B2 (en) Reading apparatus and method of controlling the same
JP7325180B2 (ja) 追尾装置および方法
JP2010161573A (ja) 情報処理装置およびその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180108

R150 Certificate of patent or registration of utility model

Ref document number: 6281409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150