JP2011199526A - 被写体の追尾装置およびその動作制御方法 - Google Patents
被写体の追尾装置およびその動作制御方法 Download PDFInfo
- Publication number
- JP2011199526A JP2011199526A JP2010063275A JP2010063275A JP2011199526A JP 2011199526 A JP2011199526 A JP 2011199526A JP 2010063275 A JP2010063275 A JP 2010063275A JP 2010063275 A JP2010063275 A JP 2010063275A JP 2011199526 A JP2011199526 A JP 2011199526A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- subject image
- image
- parallax
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Automatic Focus Adjustment (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Analysis (AREA)
Abstract
【目的】追尾対象の被写体を正確に追尾する。
【構成】立体的な被写体像60から,被写体の視差を画素単位で表す視差マップ画像が生成される。生成された視差マップ画像から,追尾対象の被写体である歩行者61よりも手前にある被写体が除外されるように検出範囲が決定される。決定された検出範囲において,追尾対象である歩行者61が見つけられる。歩行者61よりも手前のバイクの搭乗者62を誤って追尾してしまうことを未然に防止できる。
【選択図】図6
【構成】立体的な被写体像60から,被写体の視差を画素単位で表す視差マップ画像が生成される。生成された視差マップ画像から,追尾対象の被写体である歩行者61よりも手前にある被写体が除外されるように検出範囲が決定される。決定された検出範囲において,追尾対象である歩行者61が見つけられる。歩行者61よりも手前のバイクの搭乗者62を誤って追尾してしまうことを未然に防止できる。
【選択図】図6
Description
この発明は,被写体の追尾装置およびその動作制御方法に関する。
ディジタル・スチル・カメラに代表されるディジタル・カメラにおいては,その機能を生かして三角測量で測距して合焦させるもの(特許文献1),測距手段を用いてフォーカス動作を行うもの(特許文献2)などがある。また,ディジタル・カメラでは,被写体を連続して撮像し,特定の人物,顔などを枠で囲んで表示する追尾機能を有しているものもある。追尾機能を有しているディジタル・カメラなどでは,正確に追尾することが要求される。
この発明は,比較的正確に追尾することを目的とする。
第1の発明は,第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置において,追尾対象の被写体を決定する追尾対象決定手段,上記連続的に入力された第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成する視差マップ生成手段,上記視差マップ生成手段によって生成された視差マップにもとづいて,上記追尾対象決定手段によって決定された追尾対象の被写体よりも手前に存在する被写体を除く部分を追尾対象の検出対象範囲と決定する検出対象範囲決定手段,ならびに上記検出対象範囲決定手段によって決定された検出対象範囲において,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像から追尾対象の被写体を表す被写体像を検出する追尾被写体像検出手段を備えていることを特徴とする。
第1の発明は,上記被写体の追尾装置に適した動作制御方法も提供している。すなわち,この方法は,第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置の動作制御方法において,追尾対象決定手段が,追尾対象の被写体を決定し,視差マップ生成手段が,入力した第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成し,検出対象範囲決定手段が,上記視差マップ生成手段によって生成された視差マップにもとづいて,追尾対象の被写体よりも手前に存在する被写体を除く部分を上記追尾対象決定手段によって決定された追尾対象の検出対象範囲と決定し,追尾被写体像検出手段が,上記検出対象範囲決定手段によって決定された検出対象範囲において,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像から追尾対象の被写体を表す被写体像を検出するものである。
第1の発明によると,第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力する。同じタイミングで撮像された第1の被写体像と第2の被写体像との各部分における視差を表す視差マップが生成される。生成された視差マップのうち,追尾対象の被写体よりも手前に存在する被写体を除く部分が,追尾対象の検出対象範囲と決定される。決定された検出対象範囲において,第1の被写体像および第2の被写体像の少なくとも一方の被写体像から追尾対象の被写体を表す被写体像が検出される。
第1の発明によると,視差マップが生成される。視差マップは,撮影範囲内に含まれる被写体までの距離を実質的に表すものである。そのような視差マップのうち,追尾対象の被写体よりも手前に存在する被写体を除く部分が追尾対象の検出対象範囲と決定され,その検出対象範囲から追尾対象の被写体が検出される。追尾対象の被写体を検出する検出対象範囲は,追尾対象の被写体よりも手前に存在する被写体が除かれているから,追尾対象と第1の撮像装置および第2の撮像装置との間に障害物が入ってしまった場合であっても追尾対象を比較的正確に追尾できる。
上記検出対象範囲決定手段は,たとえば,上記視差マップ生成手段によって生成された視差マップにもとづいて,追尾対象の被写体に対応する画像部分の視差よりも少ない視差を有する画像部分を除く部分を追尾対象の検出範囲と決定するものである。
上記検出対象範囲決定手段は,上記視差マップ生成手段によって生成された視差マップにもとづいて,追尾対象の被写体に対応する画像部分の視差から所定範囲内の視差を有する画像部分を追尾対象の検出範囲と決定するものでもよい。また,追尾対象の検出範囲が限定されているので,追尾に要する時間を短縮できる。
第2の発明は,第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置において,追尾対象の被写体を決定する追尾対象決定手段,入力した第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差に応じて明るさまたは階調が異なる視差マップ画像を生成する視差マップ画像生成手段,上記視差マップ画像生成手段によって生成された視差マップ画像のうち,上記追尾対象決定手段によって決定された追尾対象の被写体に対応する画像部分をテンプレート画像として抽出するテンプレート画像抽出手段,および上記テンプレート画像抽出手段によって抽出されたテンプレート画像と同じ画像部分を,上記テンプレート画像抽出手段によってテンプレート画像が抽出された視差マップ画像の後に上記視差マップ画像生成手段によって生成される視差マップ画像から検出する追尾被写体像検出手段を備えていることを特徴とする。
第2の発明は,上記被写体の追尾装置に適した動作制御方法も提供している。すなわち,この方法は,第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置の動作制御方法において,追尾対象決定手段が,追尾対象の被写体を決定し,視差マップ画像生成手段が,入力した第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差に応じて明るさまたは階調が異なる視差マップ画像を生成し,テンプレート画像抽出手段が,上記視差マップ画像生成手段によって生成された視差マップ画像のうち,上記追尾対象決定手段によって決定された追尾対象の被写体に対応する画像部分をテンプレート画像として抽出し,追尾被写体像検出手段が,上記テンプレート画像抽出手段によって抽出されたテンプレート画像と同じ画像部分を,上記テンプレート画像抽出手段によってテンプレート画像が抽出された視差マップ画像の後に上記視差マップ画像生成手段によって生成される視差マップ画像から検出するものである。
第2の発明によると,同じタイミングで撮像された第1の被写体像と第2の被写体像との各部分における視差に応じて明るさが異なる視差マップ画像が生成される。視差マップ画像の中から,追尾対象の被写体に対応する画像部分がテンプレート画像として抽出される。抽出されたテンプレート画像と同じ画像部分が,そのテンプレート画像が抽出された視差マップ画像の後に生成された視差マップ画像から検出される。
視差マップ画像から追尾対象の被写体に対応する画像部分が検出されるので,コントラストの低い画像を用いて被写体の追尾を行う場合,追尾ができないことがある。第2の発明によると,視差マップ画像を用いて追尾が行われるので,コントラストの低い画像が撮像された場合でも被写体の追尾ができる。
第3の発明は,第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力する被写体の追尾装置において,入力した第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成する視差マップ生成手段,上記視差マップ生成手段によって生成される2つの視差マップの視差の差分を表す差分視差マップを生成する差分視差マップ生成手段,および上記差分視差マップ生成手段によって生成された差分視差マップのうち,視差の差分が所定値以上の部分に対応する上記第1の被写体像または上記第2の被写体像から追尾対象の被写体を表す被写体像を検出する追尾被写体像検出手段を備えていることを特徴とする。
第3の発明は,上記被写体の追尾装置に適した動作制御方法も提供している。すなわち,この方法は,第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置の動作制御方法において,追尾対象決定手段が,追尾対象の被写体を決定し,視差マップ生成手段が,入力した第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成し,差分視差マップ生成手段が,上記視差マップ生成手段によって生成される2つの視差マップの視差の差分を表す差分視差マップを生成し,追尾被写体像検出手段が,上記差分視差マップ生成手段によって生成された差分視差マップのうち,視差の差分が所定値以上の部分に対応する上記第1の被写体像または上記第2の被写体像から上記追尾対象決定手段によって決定された追尾対象の被写体を表す被写体像を検出するものである。
第3の発明によると,視差マップ生成手段によって生成される2つの視差マップの視差の差分を表す差分視差マップが生成される。生成された差分視差マップの中から,視差の差分が所定値以上の部分に対応する上記第1の被写体像または上記第2の被写体像から追尾対象の被写体を表す被写体像が検出される。
第3の発明によると,視差の差分が所定値以上の画像部分は動きのある被写体を示している。追尾対象は一般的には動いていると考えられるので,その動きのある部分から見つけることができるようになる。
図1は,この発明の実施例を示すもので,ディジタル・スチル・カメラの電気的構成を示すブロック図である。ディジタル・スチル・カメラに限らず,ディジタル・ムービ・ビデオ・カメラにも,この発明の実施例を適用できるのはいうまでもない。
ディジタル・スチル・カメラの全体の動作は,CPU1によって統括される。
ディジタル・スチル・カメラには,操作器2が含まれている。この操作器2には,電源ボタン,モード設定ダイアル,二段ストローク・タイプのシャッタ・レリーズ・ボタンなどが含まれている。操作器2から出力される操作信号は,CPU1に入力する。モード設定ダイアルによって設定されるモードには撮像モード,再生モードなどがある。
この実施例によるディジタル・スチル・カメラは,立体的な被写体像を表示するための撮像ができる。このために,ディジタル・スチル・カメラには,観賞者の右目で見る右目用の被写体像を撮像する第1の撮像装置10と鑑賞者の左目で見る左目用の被写体像を撮像する第2の撮像装置20とが含まれている。
第1の撮像装置10には,第1のCCD15が含まれている。第1のCCD15の前方には,光軸方向に移動自在な撮像レンズ11,絞り12,赤外線カット・フィルタ13および光学的ロウ・パス・フィルタ14が設けられている。レンズ駆動回路(図示略)によって撮像レンズ5が位置決めされ,絞り駆動回路(図示略)によって絞り12の開口が制御される。
撮像モードが設定されると,被写体像を表す光線束は,撮像レンズ11によって集光され,絞り12,赤外線カット・フィルタ13および光学的ロウ・パス・フィルタ15を介して第1のCCD15の受光面上に入射する。第1のCCD15の受光面上に被写体像が結像し,右目用の被写体像を表す第1のアナログ映像信号が第1のCCD15から出力する。このように,第1のCCD15によって一定周期で被写体が撮像され,一定周期で右目用の被写体像を表す第1の映像信号が1フレーム分ずつ第1のCCD15から出力される。
第2の撮像装置20には,第2のCCD25が含まれている。第2のCCD25の前方には,光軸方向に移動自在な撮像レンズ21,絞り22,赤外線カット・フィルタ23および光学的ロウ・パス・フィルタ24が設けられている。撮像レンズ21もレンズ駆動回路(図示略)によって位置決めされる。絞り22も絞り駆動回路(図示略)によって開口が制御される。第1の撮像装置10の撮像タイミングと同じタイミングで第2の撮像装置20において被写体が撮像され,左目用の被写体像を表す第2のアナログ映像信号が出力される。
第1の撮像装置10と第2の撮像装置20とは,視角が異なっており,第1の撮像装置によって撮像された右目用の被写体像(第1の被写体像)と第2の撮像装置によって撮像された左目用の被写体像(第2の被写体像)とは視差を有する。
第1の撮像装置10から出力された第1のアナログ映像信号と第2の撮像装置20から出力された第2のアナログ映像信号とは,いずれもアナログ信号処理回路31に入力する。アナログ信号処理回路31には,相関二重サンプリング回路,信号増幅回路などが含まれている。第1の撮像装置10から出力された第1のアナログ映像信号および第2の撮像装置20から出力された第2のアナログ映像信号は,いずれもアナログ信号処理回路31において,相関二重サンプリング,信号増幅などが行われる。アナログ信号処理回路31から出力された第1のアナログ映像信号および第2のアナログ映像信号は,アナログ/ディジタル変換回路32に入力し,第1のディジタル画像データおよび第2のディジタル画像データに変換される。変換された第1のディジタル画像データおよび第2のディジタル画像データは,メモリ制御回路33の制御のもとにメイン・メモリ34に一時的に記憶される。
第1のディジタル画像データおよび第2のディジタル画像データは,メイン・メモリ34から読み出されてディジタル信号処理回路35に入力する。ディジタル信号処理回路35において白バランス調整,ガンマ補正などの所定のディジタル信号処理が行われる。ディジタル信号処理回路35においてディジタル信号処理が行われた第1のディジタル画像データおよび第2のディジタル画像データは,表示制御回路40に与えられる。表示制御回路40によって表示装置41が制御されることにより,表示装置41の表示画面上に撮像により得られた被写体像が立体的に表示される。
シャッタ・レリーズ・ボタンの第一段階の押下があると,上述のようにしてアナログ/ディジタル変換回路32から出力された第1のディジタル画像データおよび第2のディジタル画像データは,メイン・メモリ34に記録される。メイン・メモリ34から読み出された第1のディジタル画像データは,ディジタル信号処理回路35において輝度データに変換される。変換された輝度データが積算回路37に入力し,積算される。積算値を表すデータがCPU1に与えられ,露出量が算出される。算出された露出量となるように,絞り12および22の開口および第1のCCD15および第2のCCD25のシャッタ速度が制御される。
シャッタ・レリーズ・ボタンの第二段階の押下があると,同様にしてアナログ/ディジタル変換回路32から出力された第1の画像データおよび第2の画像データは,メイン・メモリ34に記録される。メイン・メモリ34から読み出された画像データは,上述したのと同様に,ディジタル信号処理回路35において所定のディジタル信号処理が行われる。ディジタル信号処理回路35から出力された第1の画像データおよび第2の画像データは,圧縮伸長処理回路36においてデータ圧縮が行われる。データ圧縮された第1の画像データおよび第2の画像データが外部メモリ制御回路38の制御によりメモリ・カード39に記録される。
さらに,この実施例では,被写体像に含まれるターゲット画像(追尾対象)について自動追尾することができる。自動追尾により,撮像により連続して得られる被写体像(動画)に含まれる追尾対象に枠(追尾枠)を表示しつづけることができる。特定の人物を見失うことなく,撮像を繰り返すことができる。また,そのターゲット画像が適正な明るさとなるように露光調整,そのターゲット画像が合焦するような焦点調整ができる。
追尾対象を追尾する場合,ターゲット画像を設定する必要がある(初期ターゲット設定)。追尾枠の初期位置を決定するために,ディジタル・スチル・カメラには初期ターゲット設定装置42が含まれている。初期ターゲット設定装置42において設定された追尾枠は表示装置41の表示画面に表示される。初期ターゲット設定装置42において設定された追尾枠内の画像(またはその近傍の被写体の画像)がターゲット画像とされて,そのターゲット画像が自動追尾装置43によって追尾される(追尾対象決定手段)。
再生モードが設定されると,メモリ・カード39に記録されている圧縮画像データが読み取られる。読み取られた圧縮画像データは,圧縮伸長処理回路22において伸長される。伸長された画像データが表示制御回路40に与えられることにより,表示装置41の表示画面上に,再生画像が表示される。上述した自動追尾は記録時だけでなく,再生時に行われるようにしてもよい。
この実施例による自動追尾は,視差マップが利用される。視差マップの生成については公知であるが簡単に説明する。
図2から図4は,視差マップの生成の仕方を示している。
図2は,第2の撮像装置20によって撮像された左目用の被写体像51の一例である。図3は,第1の撮像装置10によって撮像された右目用の被写体像52の一例である。
上述したように,左目用の被写体像51と右目用の被写体像52とは視差がある。
左目用画像51を構成する特定の画素P1に注目する(注目画素P1)。この注目画素P1の座標を(x1,y1)とする。次に,左目用画像51における注目画素P1に対応する対応画素P2が右目用画像52から見つけられる。見つけられた対応画素P2における座標を(x2,y2)とする。注目画素P1と対応画素P2との視差dは,d=x2−x1となる。
図4は,視差マップの一例である。
この視差マップは,左目用画像51を基準にしたものであるが,右目用画像52を基準にしたものでもよい。視差マップ53において,左目用画像51の注目画素P1に対応する位置P3(x1,y1)に視差d=x2−x1が格納される。図4において視差マップは画像のように表現されているが,実際にはデータの集合である。図4では視差の違いが階調の違いとして表現されている。図4では,黒い部分ほど視差は小さい。
図2に示す左目用画像51を構成するすべての画素について,上述のように図3に示す右目用画像52において対応する画素が検出され,左目用画像51を構成するすべての画素と,それらのすべての画素のそれぞれに対応する右目用画像52を構成する画素と,の視差が算出されることにより,図4に示す視差マップ53が生成される。
図5は,観賞者の視線方向,観賞者が見ている立体画像の画像部分,立体画像を構成する右目用画像および左目用画像,ならびに視差の関係を示している。
右目用画像54に含まれる被写体部分P11と左目用画像に含まれ,かつ被写体部分P11に対応する被写体部分P21との視差がd1であったものとする。右目用画像54が表示画面56に表示されると,右目用画像54の被写体部分P11は,R1で示す位置に表示される。左目用画像55が表示画面56に表示されると,左目用画像55の被写体部分21は,L1で示す位置に表示される。位置R1に表示された右目用画像54の被写体部分P11を観賞者の右目58で見て,位置L1に表示された左目用画像55の被写体部分P21を観賞者の左目57で見ることにより,被写体部分P11とP21とで立体画像として表現される被写体部分ob1は,表示画面56よりも奥行きがL11の位置に存在するように見える。
これに対して,右目用画像54に含まれる被写体部分P12と左目用画像に含まれ,かつ被写体部分P12に対応する被写体部分P22との視差がd2であったものとする。右目用画像54が表示画面56に表示されると,右目用画像54の被写体部分P12は,R2で示す位置に表示される。左目用画像55が表示画面56に表示されると,左目用画像55の被写体部分P22は,L2で示す位置に表示される。位置R2に表示された右目用画像54の被写体部分P12を観賞者の右目58で見て,位置L2に表示された左目用画像55の被写体部分P22を観賞者の左目57で見ることにより,被写体部分P12とP22とで立体画像として表現される被写体部分ob2は,表示画面56よりも奥行きがL12の位置に存在するように見える。
このように,立体画像において見える位置(奥行き)は視差に依存するから,視差がわかれば,立体画像における被写体同士の相対的な位置関係(手前か奥か)がわかる。
図6(A)から図6(D),図7(A)から図7(D)および図8(A)から図8(D)は,この実施例における自動追尾の第1番目の方法を説明するものである。第1番目の方法は,追尾対象の被写体よりも手前にある被写体を除外した部分を追尾対象の検索範囲とするものである。
図6(A)から図6(D)は,撮像により得られた被写体像を表している。この実施例においては,上述のように同じタイミングで左目用の被写体像と右目用の被写体像との2フレームの画像が得られ,それらの画像を組み合わせることにより立体的な被写体像が表現される。図6(A),(B),(C)および(D)は,それらの立体的な被写体像60,64,65および66を表している。被写体像60,64,65および66の順に撮像されたものとする。
被写体像60,64,65および66のそれぞれに歩行者61およびバイクの搭乗者62が含まれている。歩行者は左から右に歩き,バイクは右から左に走っているものとする。バイクは歩行者よりも手前を走っている。このような状況において,図6(A)に示すように,追尾対象が歩行者61に設定され,自動追尾により追尾対象の歩行者61が検出されることにより追尾枠63が歩行者61上に表示される。
図7(A),図7(B),図7(C)および図7(D)は,図6(A),図6(B),図6(C)および図6(D)の被写体像60,64,65,および66に対応する視差マップが画像化された視差マップ画像70,74,75および76を示している。これらの視差マップ画像70,74,75,および76は,手前にある被写体ほど明るさが明るく,奥にある被写体ほど暗い。明るい部分が白く表現され,暗い部分が黒く表現されている。その逆でもよい。上述したように,視差と被写体同士の相対的距離は互いに依存しているので,視差マップ画像70,74,75および76が被写体までの距離を表現することが理解されよう。視差マップ画像70,74,75および76は明るさでなく,階調で表現してもよい。手前にある被写体ほど白くなり,奥にある被写体ほど黒くなる。その逆でもよい。
図7(A)〜図7(D)において,グレーの画像部分71は歩行者61に対応し,白い画像部分72はバイクの搭乗者62に対応している。図7(A)〜図7(D)を見ると,バイクの搭乗者62が歩行者61よりも手前を入っていることが一見してわかる。
第1番目の方法では,上述したように,追尾対象の被写体よりも手前にある被写体を除外した部分を追尾対象の検索範囲とするものである。具体的には,図7(A)〜図7(D)のそれぞれにおいて,追尾対象である歩行者61に対応するグレーの画像部分71よりも白い画像部分は,歩行者61よりも手前にあるので,それらの白い画像部分は検索範囲から除外される。
図8(A)から図8(D)は,検索範囲から除外された部分が黒くされている被写体像の一例である(図7(A)〜図7(D)においては検索範囲から除外される部分は白であったが,図8(A)から図8(D)においてはわかりやすくするために検索範囲から除外される部分が黒くされている)。
被写体像60,64,65および66に対応する被写体像80,84,85および86において,黒い画像部分を除いた部分が追尾対象の検索範囲とされる。被写体像80,84,85および86のそれぞれから追尾対象である歩行者61のうち,設定された追尾対象部分63が見つけられる。図6(B)または図6(C)に示すように,追尾対象の歩行者61よりも手前の部分を検索範囲から除外しないと,追尾対象の歩行者61の手前に他の被写体(バイクの搭乗者62)が存在すると歩行者61を追尾せずに,追尾対象よりも手前にある被写体を誤って追尾してしまうことがあるが,この方法では追尾対象よりも手前にある被写体を誤って追尾してしまうことを未然に防止できる。
上記の方法では,追尾対象よりも手前の被写体を,追尾対象の検索範囲から除外しているが,被写体までの距離は被写体までの視差に依存するので,追尾対象の視差よりも少ない視差を有する被写体(画像部分)を除く部分を追尾対象の検出範囲と決定するようにしてもよい。
図9(A)〜図9(D)は,自動追尾の第2番目の方法を示すもので,被写体像の一例である。
これらの被写体像90,94,95および96は,上述した被写体像60,64,65および66に対応するもので,追尾対象の歩行者61(追尾枠63内の被写体)の視差から所定範囲外の視差をもつ被写体の部分が黒くされている。第2番目の方法では,追尾対象の視差から所定の範囲の視差をもつ範囲が追尾対象の検出範囲となる。図9(A)〜図9(D)では,黒くされた部分以外の部分が追尾対象の検出範囲となる。第2番目の方法においては,追尾対象から手前側または奥側近辺に存在する被写体が追尾対象の検出範囲に限定されるので,追尾対象以外の被写体を誤って追尾してしまうことを未然に防止できる。
図10は,自動追尾の第3番目の方法を示すものである。
図10は,上述した視差マップ画像70である(図7(A))。追尾対象の歩行者61に対応するグレーの部分71から,テンプレート画像101および102が抽出される。抽出するテンプレート画像は1つでも3つ以上でもよい。抽出されたテンプレート画像101および102が,テンプレート画像101および102が抽出された視差マップ画像70よりも後に生成された視差マップ画像74から見つけられる。視差マップ画像74から見つけられたテンプレート画像101および102の位置が,視差マップ画像74に対応する被写体像64における追尾対象の被写体61の位置となる。輝度や色差では検出できないようなコントラストが低い被写体像であっても追尾できるようになる。
図11は,自動追尾の第4番目の方法を示すものである。第4番目の方法では,2つの視差マップ画像の差分視差マップ画像が生成される。
第1番目の視差マップ画像70と第2番目の視差マップ画像74から,それぞれの視差の差分を表す差分視差マップ画像110が生成される。差分視差マップ画像110は,第2の視差マップ画像74に対応する被写体像64を構成する画素位置の視差から,その画素位置に対応する視差であって,第1の視差マップ画像70に対応する被写体像60を構成する画素位置の視差を,すべての画素位置に対応する視差について,減算(絶対値化)したものである。
差分視差マップ画像110からは,動きのある被写体の部分が動きの無い被写体の部分と区別される。たとえば,差分視差マップ画像110においては,グレーの画像部分111Aおよび111Bは左から右に歩く歩行者61に対応しており,白い部分112は右から左に入るバイクの搭乗者62に対応している。これらのグレーの部分111Aおよび111Bならびに白い部分112から上述のテンプレート画像101および102に対応する画像部分が検出されることにより,自動追尾が実現される。
上述した実施例では,わかりやすくするために視差マップを画像化したものが図示されているが,必ずしも図9に示す方法を除いては必ずしも視差マップを画像化する必要は無い。視差(距離)がわかればよい。
図12から図15は,自動追尾処理手順を示すフローチャートである。この処理は,図6(A)に示す被写体像60が得られており,その被写体像60から追尾対象である歩行者61が指定されているものとする。たとえば,被写体像60が表示されている表示画面にタッチパネルが形成されており,歩行者61上をタッチすることにより,追尾対象である歩行者61が指定される。
同じタイミングで撮像された左目用の被写体像と右目用の被写体像とが入力し,そのタイミングでの今回の視差マップ画像が生成されて記憶される(図12ステップ121)。たとえば,左目用の被写体像と右目用の被写体像によって図6(B)に示す被写体像64が得られる場合には,図7(B)に示す視差マップ画像74が生成される。
前回に生成された視差マップ画像70から追尾対象画像部分の視差dが得られる(図12ステップ122)。
まず,第1番目の方法により自動追尾処理が行われる。すなわち,今回の視差マップ画像74から,追尾対照画像部分の視差である視差d以下の視差をもつ画像部分を除く(上述のように,追尾対象の歩行者61よりも手前の被写体の画像部分を除いてもよい)部分が追尾対象の検出対象範囲と決定される。図7(B)に示す視差マップ画像74では,白い部分72を除く部分が検出対象範囲とされる。また,図8(B)に示す被写体像84では黒い部分を除く部分が検出対象範囲とされる。被写体像64から,決定した検出対象範囲において,追尾対象として指定された歩行者61を検出する自動追尾処理が行われる。
追尾対象が見つかり(図12ステップ124でYES),追尾処理の終了指令がなければ(図13ステップ125でNO),検出された歩行者61の追尾対称位置が更新される(図13ステップ126)。
追尾対象が見つからなければ(図12ステップ124でNO),第2番目の方法により自動追尾処理が行われる。すなわち,今回の視差マップ画像74から追尾対象部分の視差d±α(αは所定の値)の視差をもつ画像部分が追尾対象の検出範囲と決定される(図14ステップ127)。図9(B)に示す被写体像94では黒い部分を除く部分が検出対象範囲とされる。図9(B)に示すように,決定された検出対象範囲において追尾対象である歩行者61が見つけられる。追尾対象が見つかると(図14ステップ128でYES),追尾処理の終了指令がなければ(図13ステップ125でNO),検出された歩行者61の追尾対称位置が更新される(図13ステップ126)。
追尾対象が見つからなければ(図14ステップ128でNO),第3番目の方法により自動追尾が行われる。まず,前回に生成された視差マップ画像70から追尾対象である歩行者に対応するテンプレート画像101および102が抽出される(図14ステップ129)。抽出された0テンプレート画像101および102と同じ画像部分が今回の視差マップ画像74から見つけられる(図14ステップ130)。追尾対象が見つかると(図14ステップ131でYES),追尾処理の終了指令がなければ(図13ステップ125でNO),検出された歩行者61の追尾対称位置が更新される(図13ステップ126)。
追尾対象が見つからなければ(図14ステップ131でNO),第4番目の方法により自動追尾が行われる。すなわち,前回の視差マップ画像70と今回の視差マップ画像74とから差分視差マップ画像110が生成される(図15ステップ132)。生成された差分視差マップ画像110から視差の差分が所定のしきい値以上の画像部分が検出される(図15ステップ133)。検出された画像部分が追尾対象の検出範囲と決定される(図15ステップ134)。追尾対象が見つかると(図15ステップ135でYES),追尾処理の終了指令がなければ(図13ステップ125でNO),検出された歩行者61の追尾対称位置が更新される(図13ステップ126)。
追尾対象が見つからなければ(図15ステップ135でNO),追尾対象位置は更新できずに,図12のステップ121からの処理が繰り返される。
以下,同様にして,順に入力する左目用画像と右目用画像とについて自動追尾処理が繰り返される。このようにして,図6(A)から図6(D)に示すように追尾対象となる歩行者61にマーク63が表示され続ける。
上述の実施例では,第1番目の方法から第4番目の方法が組み合わせられて自動追尾処理が行われているが,それぞれの方法が単独で実施されてよいし,任意の組み合わせにより実施してもよい。
1 CPU
10 第1の撮像装置
20 第2の撮像装置
43 自動追尾装置(視差マップ画像生成手段,検出対象範囲決定手段,追尾被写体像検出手段)
10 第1の撮像装置
20 第2の撮像装置
43 自動追尾装置(視差マップ画像生成手段,検出対象範囲決定手段,追尾被写体像検出手段)
Claims (8)
- 第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置において,
追尾対象の被写体を決定する追尾対象決定手段,
上記連続的に入力された第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成する視差マップ生成手段,
上記視差マップ生成手段によって生成された視差マップにもとづいて,上記追尾対象決定手段によって決定された追尾対象の被写体よりも手前に存在する被写体を除く部分を追尾対象の検出対象範囲と決定する検出対象範囲決定手段,ならびに
上記検出対象範囲決定手段によって決定された検出対象範囲において,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像から追尾対象の被写体を表す被写体像を検出する追尾被写体像検出手段,
を備えた被写体の追尾装置。 - 上記検出対象範囲決定手段は,
上記視差マップ生成手段によって生成された視差マップにもとづいて,追尾対象の被写体に対応する画像部分の視差よりも少ない視差を有する画像部分を除く部分を追尾対象の検出範囲と決定するものである,
請求項1に記載の被写体の追尾装置。 - 上記検出対象範囲決定手段は,
上記視差マップ生成手段によって生成された視差マップにもとづいて,追尾対象の被写体に対応する画像部分の視差から所定範囲内の視差を有する画像部分を追尾対象の検出範囲と決定するものである,
請求項1または2に記載の被写体の追尾装置。 - 第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置において,
追尾対象の被写体を決定する追尾対象決定手段,
上記連続的に入力された第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差に応じて明るさまたは階調が異なる視差マップ画像を生成する視差マップ画像生成手段,
上記視差マップ画像生成手段によって生成された視差マップ画像のうち,上記追尾対象決定手段によって決定された追尾対象の被写体に対応する画像部分をテンプレート画像として抽出するテンプレート画像抽出手段,および
上記テンプレート画像抽出手段によって抽出されたテンプレート画像と同じ画像部分を,上記テンプレート画像抽出手段によってテンプレート画像が抽出された視差マップ画像の後に上記視差マップ画像生成手段によって生成される視差マップ画像から検出する追尾被写体像検出手段,
を備えた被写体の追尾装置。 - 第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置において,
追尾対象の被写体を決定する追尾対象決定手段,
上記連続的に入力された第1の被写体像データと第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成する視差マップ生成手段,
上記視差マップ生成手段によって生成される2つの視差マップの視差の差分を表す差分視差マップを生成する差分視差マップ生成手段,および
上記差分視差マップ生成手段によって生成された差分視差マップのうち,視差の差分が所定値以上の部分に対応する上記第1の被写体像または上記第2の被写体像から上記追尾対象決定手段によって決定された追尾対象の被写体を表す被写体像を検出する追尾被写体像検出手段,
を備えた被写体の追尾装置。 - 第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置の動作制御方法において,
追尾対象決定手段が,追尾対象の被写体を決定し,
視差マップ生成手段が,上記連続的に入力された第1の被写体像データと第2の被写体像データとのうち,上記第1の撮像装置から出力される第1の被写体像データと上記第2の撮像装置から出力される第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成し,
検出対象範囲決定手段が,上記視差マップ生成手段によって生成された視差マップにもとづいて,上記追尾対象決定手段によって決定された追尾対象の被写体よりも手前に存在する被写体を除く部分を追尾対象の検出対象範囲と決定し,
追尾被写体像検出手段が,上記検出対象範囲決定手段によって決定された検出対象範囲において,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像から追尾対象の被写体を表す被写体像を検出する,
被写体の追尾装置の動作制御方法。 - 第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置の動作制御方法において,
追尾対象決定手段が,追尾対象の被写体を決定し,
視差マップ画像生成手段が,上記連続的に入力された第1の被写体像データと第2の被写体像データとのうち,上記第1の撮像装置から出力される第1の被写体像データと上記第2の撮像装置から出力される第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差に応じて明るさまたは階調が異なる視差マップ画像を生成し,
テンプレート画像抽出手段が,上記視差マップ画像生成手段によって生成された視差マップ画像のうち,追尾対象の被写体に対応する画像部分をテンプレート画像として抽出し,
追尾被写体像検出手段が,上記テンプレート画像抽出手段によって抽出されたテンプレート画像と同じ画像部分を,上記テンプレート画像抽出手段によってテンプレート画像が抽出された視差マップ画像の後に上記視差マップ画像生成手段によって生成される視差マップ画像から検出する,
被写体の追尾装置の動作制御方法。 - 第1の被写体像を表す第1の被写体像データと,上記第1の被写体像に対して視差を有し,かつ上記第1の被写体像と同じタイミングで撮像された第2の被写体像を表す第2の被写体像データと,が連続的に入力される被写体の追尾装置の動作制御方法において,
追尾対象決定手段が,追尾対象の被写体を決定し,
視差マップ生成手段が,上記連続的に入力された第1の被写体像データと第2の被写体像データとのうち,上記第1の撮像装置から出力される第1の被写体像データと上記第2の撮像装置から出力される第2の被写体像データとのうち,同じタイミングの撮像により得られた第1の被写体像データと第2の被写体像データとによってそれぞれ表される第1の被写体像と第2の被写体像との各部分における視差を表す視差マップを生成し,
差分視差マップ生成手段が,上記視差マップ生成手段によって生成される2つの視差マップの視差の差分を表す差分視差マップを生成し,
追尾被写体像検出手段が,上記差分視差マップ生成手段によって生成された差分視差マップのうち,視差の差分が所定値以上の部分に対応する上記第1の被写体像または上記第2の被写体像から上記追尾対象決定手段によって決定された追尾対象の被写体を表す被写体像を検出する,
被写体の追尾装置の動作制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010063275A JP2011199526A (ja) | 2010-03-18 | 2010-03-18 | 被写体の追尾装置およびその動作制御方法 |
US13/040,051 US20110228100A1 (en) | 2010-03-18 | 2011-03-03 | Object tracking device and method of controlling operation of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010063275A JP2011199526A (ja) | 2010-03-18 | 2010-03-18 | 被写体の追尾装置およびその動作制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011199526A true JP2011199526A (ja) | 2011-10-06 |
Family
ID=44646941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010063275A Withdrawn JP2011199526A (ja) | 2010-03-18 | 2010-03-18 | 被写体の追尾装置およびその動作制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20110228100A1 (ja) |
JP (1) | JP2011199526A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013140288A (ja) * | 2012-01-06 | 2013-07-18 | Canon Inc | 焦点調節装置 |
JP2014093711A (ja) * | 2012-11-06 | 2014-05-19 | Canon Inc | 追尾装置、追尾方法及びプログラム |
JP2015102602A (ja) * | 2013-11-21 | 2015-06-04 | キヤノン株式会社 | 立体撮像装置、立体撮像システム、立体撮像装置の制御方法、プログラム、および、記憶媒体 |
JP2017139701A (ja) * | 2016-02-05 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
JP6206857B1 (ja) * | 2016-08-24 | 2017-10-04 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
CN107483821A (zh) * | 2017-08-25 | 2017-12-15 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
US10552964B2 (en) | 2015-05-12 | 2020-02-04 | Canon Kabushiki Kaisha | Object tracking device and a control method for object tracking device |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013118468A (ja) * | 2011-12-02 | 2013-06-13 | Sony Corp | 画像処理装置および画像処理方法 |
IN2013CH05313A (ja) * | 2013-11-18 | 2015-05-29 | Nokia Corp |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7965866B2 (en) * | 2007-07-03 | 2011-06-21 | Shoppertrak Rct Corporation | System and process for detecting, tracking and counting human objects of interest |
-
2010
- 2010-03-18 JP JP2010063275A patent/JP2011199526A/ja not_active Withdrawn
-
2011
- 2011-03-03 US US13/040,051 patent/US20110228100A1/en not_active Abandoned
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013140288A (ja) * | 2012-01-06 | 2013-07-18 | Canon Inc | 焦点調節装置 |
JP2014093711A (ja) * | 2012-11-06 | 2014-05-19 | Canon Inc | 追尾装置、追尾方法及びプログラム |
JP2015102602A (ja) * | 2013-11-21 | 2015-06-04 | キヤノン株式会社 | 立体撮像装置、立体撮像システム、立体撮像装置の制御方法、プログラム、および、記憶媒体 |
US10552964B2 (en) | 2015-05-12 | 2020-02-04 | Canon Kabushiki Kaisha | Object tracking device and a control method for object tracking device |
JP2017139701A (ja) * | 2016-02-05 | 2017-08-10 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
JP6206857B1 (ja) * | 2016-08-24 | 2017-10-04 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
WO2018037631A1 (ja) * | 2016-08-24 | 2018-03-01 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
JP2018032994A (ja) * | 2016-08-24 | 2018-03-01 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
GB2566912A (en) * | 2016-08-24 | 2019-03-27 | Panasonic Ip Man Co Ltd | Tracking assistance device, tracking assistance system and tracking assitance method |
CN109644253A (zh) * | 2016-08-24 | 2019-04-16 | 松下知识产权经营株式会社 | 跟踪辅助装置、跟踪辅助系统以及跟踪辅助方法 |
CN107483821A (zh) * | 2017-08-25 | 2017-12-15 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
CN107483821B (zh) * | 2017-08-25 | 2020-08-14 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
US20110228100A1 (en) | 2011-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011199526A (ja) | 被写体の追尾装置およびその動作制御方法 | |
JP4959535B2 (ja) | 撮像装置 | |
JP4657313B2 (ja) | 立体画像表示装置および方法並びにプログラム | |
WO2011162227A1 (ja) | 立体パノラマ画像合成装置、撮像装置並びに立体パノラマ画像合成方法、記録媒体及びコンピュータプログラム | |
JP5526233B2 (ja) | 立体視用画像撮影装置およびその制御方法 | |
US10984550B2 (en) | Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus | |
JP5750551B2 (ja) | 複数被写体の距離計測装置及び方法 | |
JP2012145840A (ja) | 撮像装置 | |
JP3112485B2 (ja) | 立体電子スチルカメラ | |
WO2011125461A1 (ja) | 画像生成装置及び方法並びにプリンタ | |
CN104508551B (zh) | 相机及其动作控制方法 | |
JP5507693B2 (ja) | 撮像装置およびその動作制御方法 | |
US20140327744A1 (en) | Image processing apparatus, method thereof, and non-transitory computer readable storage medium | |
US20110012996A1 (en) | Three-dimensional imaging apparatus and three-dimensional image display method | |
JP2010154311A (ja) | 複眼撮像装置及び立体画像取得方法 | |
JP6257260B2 (ja) | 撮像装置及びその制御方法 | |
JP2016036183A (ja) | 撮像装置 | |
JP2018185576A (ja) | 画像処理装置および画像処理方法 | |
WO2023106118A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2010032669A (ja) | ディジタル・スチル・カメラおよびその制御方法 | |
JP6484682B2 (ja) | 撮像装置、及び撮像装置における映像表示方法 | |
JP2012209872A (ja) | 3d画像生成方法、3d画像生成プログラム、及び3d画像生成装置 | |
WO2012105122A1 (ja) | 立体視用画像撮像装置およびその動作制御方法 | |
JP5851462B2 (ja) | 撮像装置 | |
JP5396501B2 (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130426 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20130501 |