JP2021068929A - 撮像機器及び撮像方法 - Google Patents

撮像機器及び撮像方法 Download PDF

Info

Publication number
JP2021068929A
JP2021068929A JP2019190476A JP2019190476A JP2021068929A JP 2021068929 A JP2021068929 A JP 2021068929A JP 2019190476 A JP2019190476 A JP 2019190476A JP 2019190476 A JP2019190476 A JP 2019190476A JP 2021068929 A JP2021068929 A JP 2021068929A
Authority
JP
Japan
Prior art keywords
depth
camera
subject
coordinate system
depth camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019190476A
Other languages
English (en)
Other versions
JP7369588B2 (ja
Inventor
裕治 竹本
Yuji Takemoto
裕治 竹本
公平 徹
Toru Kimihira
徹 公平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Connected Technologies Ltd
Original Assignee
Fujitsu Connected Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Connected Technologies Ltd filed Critical Fujitsu Connected Technologies Ltd
Priority to JP2019190476A priority Critical patent/JP7369588B2/ja
Publication of JP2021068929A publication Critical patent/JP2021068929A/ja
Application granted granted Critical
Publication of JP7369588B2 publication Critical patent/JP7369588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮像画像に映る被写体の深度を撮像素子とは別体の深度カメラで測定する場合に、被写体の正確な深度をリアルタイムに得ることが可能な技術を提供する。【解決手段】本発明は、被写体を撮像する撮像素子を有するカメラと、被写体に対して撮像素子と並ぶように設けられ、深度カメラ自身が配置される位置を原点とする深度カメラ座標系における位置毎の深度を取得する深度カメラと、深度カメラ座標系における位置を、撮像素子が配置される位置を原点とするカメラ座標系における位置へと移動させる移動量を含むシフトテーブルを記憶する記憶部と、深度カメラ座標系における位置に、シフトテーブルに含まれる移動量を加えることにより、該位置をカメラ座標系における位置へと移動させる移動部と、深度カメラにより取得された深度を、移動部により移動させられたカメラ座標系における位置での深度として出力する出力部と、を備える、撮像機器である。【選択図】図1

Description

本発明は、撮像機器及び撮像方法に関する。
近年、被写体の三次元情報を計測可能な技術や当該技術を利用したアプリケーションが開示されている(例えば特許文献1−2及び非特許文献1)。
特開2012−050013号公報 特開2002−071309号公報
「オッポジャパン 先進的なデザインとテクノロジー搭載のスマートフォン2製品を発表」、[令和1年5月30日検索]、インターネット<URL:https://japan.cnet.com/release/30282613/>
被写体の三次元情報を計測するためには、被写体を撮像する撮像素子と、被写体の深度を測定可能な深度カメラとが必要であると考えられる。しかしながら、撮像素子と、深度カメラとが別体である場合、同一基板上の同一部分に撮像素子と深度カメラとを実装することは困難と考えられる。よって、撮像素子により撮像される画像に映る被写体の位置と、深度カメラによって撮像される画像に映る被写体の位置とに差が生じることが考えられる。よって、被写体の正確な深度が得られないことが考えられる。そこで、被写体の正確な深度を得る方法の一例として、深度カメラが実装される位置を基準とする3D空間座標系から撮像素子が実装される位置を基準とする3D空間座標系への変換マトリクスを事前に生成し、深度カメラにより測定される被写体の深度情報及びその深度に対応する当該被写体の位置情報に、当該変換マトリクスを乗じることにより深度及び深度に対応する位置情報を補正する方法が考えられる。しかしながら、このような方法の場合、乗じられる変換マトリクスは、3D空間全体に対し処理するマトリクスであるため、計算負荷が大きい。よって、演算処理速度の低いCPUを搭載した携帯端末では、被写体の正確な深度をリアルタイムに求めることが困難となる可能性が考えられる。
一つの側面では、本件は、撮像画像に映る被写体の深度を撮像素子とは別体の深度カメラで測定する場合に、被写体の正確な深度をリアルタイムに得ることが可能な技術を提供することを目的とする。
一つの態様では、被写体を撮像する撮像素子を有するカメラと、前記被写体に対して前記撮像素子と並ぶように設けられ、前記被写体の深度を取得する深度カメラであって、前記深度カメラ自身が配置される位置を原点とし、前記撮像素子の撮像面と平行な横軸であって前記撮像素子と前記深度カメラとが並ぶ方向に沿う横軸と、前記撮像面と平行な縦軸であって前記横軸と直交する縦軸と、を座標軸とする深度カメラ座標系における位置毎の前記深度を取得する深度カメラと、前記深度カメラ座標系における位置を、前記撮像素子が配置される位置を原点とし、該横軸に平行な横軸と、該縦軸に平行な縦軸とを座標軸とするカメラ座標系における位置へと移動させる移動量を含むシフトテーブルを記憶する記
憶部と、前記深度カメラによって取得された前記深度に対応する前記深度カメラ座標系における位置に、該位置に対応する移動量であって、前記記憶部に記憶される前記シフトテーブルに含まれる前記移動量を加えることにより、該位置を前記カメラ座標系における位置へと移動させる移動部と、前記深度カメラにより取得された前記深度を、前記移動部により移動させられた前記カメラ座標系における位置での深度として出力する出力部と、を備え、前記シフトテーブルに含まれる前記移動量は、前記被写体の深度毎に設定される、前記横軸方向の移動量及び前記縦軸方向の移動量を含み、前記カメラの画角及び前記深度カメラの画角、並びに前記カメラにより生成される画像の画素数及び前記深度カメラにより生成される画像の画素数を用いて算出される、撮像機器である。
また、前記シフトテーブルは深度と移動量の関係性において非線形をもっており、移動の方向は前記カメラと前記深度カメラのなす方向である。
上記のような撮像機器によれば、深度カメラから撮影シーン毎の深度カメラ座標系における夫々の位置での深度を取得することができる。また、事前に用意した(カメラ配置から得られる)深度と撮像面に平行な方向の座標移動量を示すシフトテーブルにより、深度カメラ座標系における位置毎の撮像面方向の移動量(横軸方向、縦軸方向)を算出することができる。そして、算出された移動量を、深度カメラにより取得された深度カメラ座標系における被写体の位置に加えることにより、被写体の位置を移動させることができる。よって、撮像機器が表示画面を備える場合、各深度カメラ座標系における位置を表示画面内の所定の点を原点とする表示画面座標系における位置に対応させた後、表示画面座標系の各位置に対し、先に取得した被写体の深度を割当てる処理が実行でき、このような処理が実行されることにより表示画面座標系の各位置での正確な深度情報を伴う被写体の像が表示画面にリアルタイムに映すことができる。
また、通常は別処理として行うセンサーのエラー処理が、前記シフトテーブルの深度値表中に0等のNC値を入れ、これとセンサエラーを対応させることで、前記移動処理と同時にできるため、全体の処理の高速化ができるようになる。ここでのエラー処理はセンサディフェクトの発見とその値の補完処理である。
上記の撮像機器は、撮像画像に映る被写体の深度を撮像素子とは別体の深度カメラで測定する場合に、被写体の正確な深度をリアルタイムに得ることが可能となる。また、センサエラー処理を含む処理が高速化される。
図1は、実施形態に係るスマートフォンの概要を例示する。 図2は、撮影用カメラモジュールと、深度カメラモジュールとの位置関係を説明した図である。 図3は、撮影用カメラモジュールから被写体の所定の部分までの距離と、中心軸ズレ量との関係を表したグラフである。 図4は、図3に示される中心軸ズレ量の影響を図式化したものである。 図5は、スマートフォンの機能構成の概要を模式的に例示する。 図6は、画像フレームデータの概要を例示している。 図7は、非線形データテーブルの一例を示している。 図8は、深度−撮影座標変換テーブルの一例を示している。 図9は、画像フレームデータの生成フローの概要を例示した図である。 図10は、上記の画像フレームデータの生成フローを適用したアプリケーションの概要を示している。 図11は、画像フレームデータの生成フローの変形例を示した図である。 図12は、実施形態の第二変形例を例示している。 図13は、撮影用カメラモジュールから被写体の所定の部分までの距離と、中心軸ズレ量との関係をズームレンズの倍率毎に表したグラフである。
以下、本発明の実施形態について説明する。以下に示す実施形態は、本発明の実施形態の一例であり、本発明の技術的範囲を以下の態様に限定するものではない。
図1は、本実施形態に係るスマートフォン10の概要を例示する。(A)はスマートフォン10の正面図を示している。(B)はスマートフォン10の背面図を示している。スマートフォン10は、正面側にタッチパネルディスプレイ11を備える。タッチパネルディスプレイ11に表示される画像の解像度は、例えばFullHD(約800万画素)であってもよい。また、スマートフォン10は、筐体の内部にCPU(Central Processing Unit)12と、記憶装置13と、を備える。また、スマートフォン10は、被写体を撮像可能な撮像素子を含む撮影用カメラモジュール20と、被写体までの距離(以降、深度という)を測定可能な深度カメラモジュール30を背面側に備える。撮影用カメラモジュール20と深度カメラモジュール30とは、筐体の長手方向に並んで配置される。また、深度カメラモジュール30には、その内部の基板表面に、被写体の深度を測定可能なように、被写体へ向けて近赤外光を照射するLED(Light Emitting Diode)14が設けられる。ここで、スマートフォン10は、本発明の「撮像機器」の一例である。また、撮影用カメラモジュール20は、本発明の「カメラ」の一例である。
図2は、撮影用カメラモジュール20と、深度カメラモジュール30との位置関係を説明した図である。撮影用カメラモジュール20と深度カメラモジュール30とは被写体に対して並ぶように配置される。撮影用カメラモジュール20には、被写体を撮像する撮像素子が、撮影用カメラモジュール20が有する基板表面に設けられている。また、当該撮像素子により生成される画像の画素数は、例えば8M(約800万画素)である。
一方、深度カメラモジュール30は、測定した被写体の深度情報に対応する二次元マップ状の画像を出力する。そして、被写体の深度情報の二次元マップ画像の画素数は、例えばVGA(Video Graphic Array,約30万画素)である。
図3は、撮影用カメラモジュール20から被写体の所定の部分までの距離と、中心軸ズレ量との関係を表したグラフである。中心軸ズレ量とは、撮影用カメラモジュール20の基板に実装される撮像素子の実装部分の中心と被写体の所定の部分とを結んだ線と、深度カメラモジュール30のLED14が実装される部分の中心と被写体の当該所定の部分とを結んだ線との間の距離のことである。そして、図3のグラフの縦軸に示される中心軸ズレ量は、深度カメラモジュール30から出力される画像の解像度に換算した量である。また、図3のグラフは、撮影用カメラモジュール20の撮像素子の中心と深度カメラモジュール30のLED14の中心との間の距離毎(例えば1cm、3cm、5cm)に示されている。また、図4は、図3に示される中心軸ズレ量の影響を図式化したものである。
図3及び図4から、撮影用カメラモジュール20によって生成される画像に、深度カメラモジュール30により生成される被写体の深度情報の二次元マップ画像を重ねて表示した場合、その表示される合成画像は、被写体の深度を正確に表していないことになる(被写体の深度が図3に示される中心軸ズレ量の分だけ画像面に平行な方向にズレて合成画像に映る)。よって、図3に示される当該距離と中心軸ズレ量との関係に基づき、被写体の深度を正確に合成画像に映す処理の実行が考えられる。
また、図3及び図4に示されるように、撮影用カメラモジュール20から被写体の所定の部分までの距離と、中心軸ズレ量との関係は、当該距離が近づくにつれて中心軸ズレ量が大きくなる関係となる。また、中心軸ズレ量は、当該距離に対して非線形な関係となる。しかしながら、図3に示されるような当該距離と中心軸ズレ量との関係とは、測定されることなく、撮影用カメラモジュール20の画角及び画素数、並びに深度カメラモジュール30の画角及び画素数より理論的に算出可能である。よって、被写体の深度を正確に合成画像に映す処理は、撮影用カメラモジュール20及び深度カメラモジュール30の画角及び画素数が変更された場合であっても簡易に実行可能である。
(機能構成)
図5は、スマートフォン10の機能構成の概要を模式的に例示する。スマートフォン10は、CPU12等のプロセッサ、RAMやROM等の記憶装置13、ハードディスクドライブ等の補助記憶装置、タッチパネルディスプレイ11を有するコンピュータである。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納され、そこに格納されたプログラムを記憶装置の作業領域にロードして実行し、プログラムの実行を通じて各構成部等が制御されることによって、後述するような、所定の目的に合致した各機能を実現することができる。
スマートフォン10は、画像処理部101を備える。画像処理部101は、撮影用カメラモジュール20によって生成される二次元画像データに対して各種処理を実行する。各種処理とは、例えば画像のホワイトバランス調整、露光調整、フォーカス調整、トリミングなどの処理のことである。
また、スマートフォン10は、ファインダデータ生成部102を備える。ファインダデータ生成部102は、画像処理部101によって処理された二次元画像の各画素(x´,y´)の位置における色彩情報を画像フレームデータPとして生成する。ここで、x´は画像の幅方向、y´は画像の高さ方向を表す値である。
また、スマートフォン10は、深度取得部103を備える。深度取得部103は、深度カメラモジュール30から出力される深度の二次元マップ画像から、画像フレームデータZ(x,y)を生成する。図6は、画像フレームデータの概要を例示している。図6(A)は、画像フレームデータZ(x,y)を示している。図6(B)は、画像フレームデータZ(x,y)から所定の変換処理により生成される画像フレームデータZ´(x´,y´)を示している(詳細は後述する)。ここで、xは画像の幅方向、yは画像の高さ方向を表す値である。図6(A)に示されるように、深度カメラモジュール30を使用することにより、座標に応じた深度情報を取得することができる。
ここで、図3及び図4に示されるように、撮影用カメラモジュール20と深度カメラモジュール30とは異なる場所に配置されているため、夫々のカメラモジュールの中心から被写体を結ぶ線分同士は異なることになる。よって、撮影用カメラモジュール20により生成される画像上の所定の位置の真の深度と深度取得部103により取得された深度とは異なることになる。そこで、スマートフォン10は、ズレ補正処理部104を備える。ズレ補正処理部104は、入力に対して非線形データテーブルA(Z)を参照し、深度取得部103によって生成される画像フレームデータZのx成分およびy成分を、参照した値
だけ所定量シフトさせる。つまり、深度カメラモジュール30が配置される部分を基準とする座標系のx成分及びy成分は、撮影用カメラモジュール20が配置される部分を基準
とする座標系のx成分及びy成分へとシフトさせられる。ここで、ズレ補正処理部104は、本発明の「移動部」の一例である。
図7は、非線形データテーブルA(Z)の一例を示している。ここで、図3に示される
ように、撮影用カメラモジュール20から被写体の所定の部分までの距離と、中心軸ズレ量との関係は、当該距離に応じて中心軸ズレ量が変化する関係である。よって、図7に示されるように、A(Z)は、深度に応じて(x,y)座標の座標移動量が変化するように設定されている。また、A(Z)は、測定されることなく、撮影用カメラモジュール20の画角及び画素数、並びに深度カメラモジュール30の画角及び画素数より理論的に算出可能である。また、A(Z)は、図示しないが、撮影用カメラモジュール20と深度カメラモジュール30との間の距離毎に理論的に設定可能である。ここで、図7に示される座標移動量は、本発明の「移動量」の一例である。また、図7に示される非線形データテーブルA(Z)は、本発明の「テーブル情報」の一例である。
また、本実施形態によれば、撮影用カメラモジュール20によって生成される画像の画素数(8M)と、深度カメラモジュール30によって生成される画像の画素数(VGA)とは異なる。そこで、スマートフォン10は、撮影用カメラ座標変換処理部105を備え、撮影用カメラ座標変換処理部105は、深度カメラモジュール30によって生成される解像度がVGAである画像上の位置を表す座標(x,y)に深度−撮影座標変換テーブルM(Z)を乗ずることにより、撮影用カメラモジュール20によって生成される画素数が8Mである画像上の位置を表す座標(x´,y´)への変換を行う。
図8は、深度−撮影座標変換テーブルM(Z)の一例を示している。図8に示されるように、M(Z)は、深度カメラモジュール30によって生成される画像上の位置を表す座標(x,y)に対応する、撮影用カメラモジュール20によって生成される画像上の位置を表す座標(x´,y´)が記載されている。ここで、M(Z)の各値は、撮影用カメラモジュール20の画角及び画素数、並びに深度カメラモジュール30の画角及び画素数より決定される。
また、本実施形態によれば、撮影用カメラモジュール20によって生成される画像の画素数(8M)と、タッチパネルディスプレイ11に表示される画像の画素数(FullHD)とは異なる。そこで、スマートフォン10は、ディスプレイ座標変換処理部106を備え、ディスプレイ座標変換処理部106は、撮影用カメラモジュール20によって生成される画素数が8Mである画像上の位置を表す座標(x´,y´)に対して、タッチパネルディスプレイ11に表示される解像度がFullHDである画像上の位置を表す座標(x´´,y´´)への変換を行う。
また、スマートフォン10は、表示部107を備える。表示部107は、タッチパネルディスプレイ11を含んで形成される。表示部107は、タッチパネルディスプレイ11に画像を表示させるための処理を行う。ここで、表示部107は、本発明の「出力部」の一例である。また、スマートフォン10は、記憶部108を備える。記憶部108は、前述の記憶装置13を含んで形成される。記憶部108は、非線形データテーブルA(Z)及び深度−撮影座標変換テーブルの情報を記憶装置13に記憶させる。
また、スマートフォン10は、被写体の撮影のために照明部109と、照明駆動部110と、照明制御部111と、を備える。照明部109は、LED14を含んで形成される。照明駆動部110は、LED14から近赤外光を照射するための回路を含む。また、照明制御部111は、LED14から近赤外光を照射するタイミングや照射時間などの制御を行う。
(深度情報の生成フロー)
次にCPU12が実行する被写体の深度情報の生成フローを説明する。図9は、被写体の深度情報に対応する画像フレームデータの生成フローの概要を例示した図である。ステップS101では、深度カメラモジュール30が、例えばToF(Time Of Fl
ight)方式により被写体までの深度を測定し、また被写体の深度の二次元マップ画像を出力する。そして、深度取得部103が、深度カメラモジュール30から出力される深度の二次元マップ画像から、図6(A)に示されるような被写体の画像フレームデータZ(x,y)を生成する(S101)。
ステップS102では、ズレ補正処理部104が、ステップS101において生成された画像フレームデータZ(x,y)に対して非線形データテーブルA(Z)を参照してZ´(x−offset_x,y−offset_y)を生成する。このようにx成分およびy成分が所定量シフトさせられることにより、深度カメラモジュール30が配置される部分を基準とする座標系のx成分及びy成分は、撮影用カメラモジュール20が配置され
る部分を基準とする座標系のx成分及びy成分へとシフトされられる(S102)。
ステップS103では、撮影用カメラ座標変換処理部105が、ステップS102において生成されたZ´(x−offset_x,y−offset_y)に深度−撮影座標変換テーブルM(Z)を乗ずることにより、撮影用カメラモジュール20によって生成される、画素数が8Mである画像上の位置(x´,y´)における画像フレームデータZ´(x´,y´)への変換を行う。このように変換された画像フレームデータZ´(x´,y´)は、例えば図6(B)のように示される(S103)。
ステップS104では、ディスプレイ座標変換処理部106が、ステップS103において生成された画像フレームデータZ´(x´,y´)から、タッチパネルディスプレイ11に表示される、解像度がFullHDである画像の上の位置(x´´,y´´)における画像フレームデータZ´(x´´,y´´)への変換を行う。
(適用例)
図10は、上記の深度情報に対応する画像フレームデータの生成フローを適用したアプリケーションの概要を示している。ステップS201では、ユーザからタッチパネルディスプレイ11を介して被写体を撮影する旨の入力を受け付ける。その後、画像処理部101が、撮影用カメラモジュール20から出力された被写体の二次元画像を受信し、撮像画像に対してホワイトバランス調整、露光調整、フォーカス調整、トリミングなどの処理を行う(S201)。
ステップS202では、ファインダデータ生成部102が、ステップS201において処理された二次元画像の各画素(x´,y´)の位置における色彩情報としての画像フレームデータP(x´,y´)を生成する。ここで、色彩情報は、RGBモデルによって表される数値であってもよい(S202)。
ステップS203では、ディスプレイ座標変換処理部106が、ステップS202において生成された画像フレームデータP(x´,y´)から、タッチパネルディスプレイ11に表示される解像度がFullHDである画像上の位置(x´´,y´´)における、画像フレームデータP(x´´,y´´)への変換を行う。このようにして、タッチパネルディスプレイ11に表示される被写体の二次元画像が生成される(S203)。
また、表示部107は、ステップS203において生成された被写体の二次元画像をタッチパネルディスプレイ11に表示する。そして、ユーザが当該表示される被写体の一部分を選択する入力を行った場合に、ステップS101からステップS104の処理が実行され、画像フレームデータZ´(x´´,y´´)が生成される。そして、表示部107は、生成された画像フレームデータZ´(x´´,y´´)を参照し、タッチパネルディスプレイ11に表示される画像のそれぞれの位置(x´´,y´´)における深度情報をタッチパネルディスプレイ11にテキスト表示する(S204)。
また、表示部107は、ステップS203において生成される被写体の画像フレームデータP(x´´,y´´)に、ステップS104において生成される画像フレームデータZ´(x´´,y´´)に関する情報を、それぞれの位置(x´´,y´´)において割り当てることにより、タッチパネルディスプレイ11に奥行き感のある被写体が映る合成画像を表示してもよい。
(作用効果)
撮影用カメラモジュール20により生成される画像フレームデータPと、深度カメラモジュール30により生成される画像フレームデータZと、を単に重ね合わせた合成画像を表示する場合、画像フレームデータPの位置(x´,y´)の真の深度は、画像フレームデータZにおける位置(x´,y´)の深度とずれているため、合成画像は本来の被写体を映した画像とは異なることになる。しかしながら、上記のようなスマートフォン10によれば、ズレ補正処理部104が、深度カメラモジュール30から取得した画像フレームデータZ(x,y)に対して非線形データテーブルA(Z)を参照することにより、深度カメラモジュール30が配置される部分を基準とする座標系のx成分及びy成分は、撮影
用カメラモジュール20が配置される部分を基準とする座標系のx成分及びy成分へと事前に所定量シフトさせられ、Z´(x−offset_x,y−offset_y)が生成される。また、ステップS103及びステップS104の処理が実行されることにより、画像フレームデータZの各位置(x,y)に対応する、画像フレームデータZ´の各位置(x´´,y´´)が求まっている。そして、このように変換された各位置(x´´,y´´)に先の画像フレームデータZ(x,y)を割り当てている。つまり、タッチパネルディスプレイ11には、本来の被写体の奥行感を正確に反映した合成画像が表示可能となる。
また、深度カメラモジュール30によって得られる画像フレームデータZに、深度カメラモジュール30によって撮影される空間全体を撮影用カメラモジュール20によって撮影される空間全体へと変換する行列を乗じることなく、被写体の深度Z自体は補正されずに、深度Zに対応する位置(x,y)をシフトすることにより、撮影用カメラモジュール20が配置される部分を基準とする座標系における画像フレームデータZ´が生成されている。よって、画像フレームデータZ´を求めるための計算量は抑制される。よって、演算処理速度が低いCPUが搭載されている端末であっても、例えばユーザがタッチパネルディスプレイ11に表示される被写体を選択した場合、選択された部分の正確な深度を映した合成画像、又は深度のテキスト情報をリアルタイムに表示させることができる。つまり、上記のスマートフォン10によれば、ユーザに快適性を提供することができる。
また、図3に示されるように、撮影用カメラモジュール20から被写体の所定の部分までの距離と、中心軸ズレ量との関係は、非線形な関係である。換言すれば、被写体までの撮影距離などの撮影条件が変更される場合、又は奥行き方向の寸法が異なる被写体を撮影するなど撮影対象が変更される場合、当該中心軸ズレ量が非線形に変化すると考えられる。しかしながら、図3に示される関係は、測定することなく、撮影用カメラモジュール20の画角及び画素数、並びに深度カメラモジュール30の画角及び画素数より理論的に算出可能である。よって、非線形データテーブルA(Z)も理論的に算出可能である。よって、被写体までの撮影距離が異なる場合や、奥行き方向の寸法が異なるなど被写体を撮影する撮影環境が変化する場合であっても、測定実験やノウハウによらず、簡易に非線形データテーブルA(Z)を設定することができる。
また、上記のようなスマートフォン10によれば、撮影用カメラモジュール20と深度カメラモジュール30とを物理的に接近して実装させ、深度カメラモジュール30により取得される深度及びその位置(x,y)が、そのまま撮影用カメラモジュール20により
撮影される画像の位置(x,y)における真の深度となるような対応を取らずに済む。よって、撮影用カメラモジュール20及び深度カメラモジュール30の実装面での制限が大きくなることは抑制される。
(変形例1)
図11は、被写体の深度情報に対応する画像フレームデータの生成フローの変形例を示した図である。(A)は、本実施形態に係る被写体の深度情報に対応する画像フレームデータの生成フロー(図9と同等)を示している。(B)及び(C)は、(A)とは異なる被写体の深度情報に対応する画像フレームデータの生成フローの変形例を示している。
図11(B)に示されるフローでは、図11(A)とは異なり、まず撮影用カメラ座標変換処理部105が、画像フレームデータZ(x,y)に対して、深度−撮影座標変換テーブルM(Z)を乗ずることにより、撮影用カメラモジュール20によって生成される画素数が8Mである画像フレームデータZ(x´,y´)へ変換を行う。その後、ズレ補正処理部104が、生成された画像フレームデータZ(x´,y´)に対して非線形データテーブルA(Z)を参照することにより、深度カメラモジュール30が配置される部分を基準とする座標系のx成分及びy成分は、撮影用カメラモジュール20が配置される部分
を基準とする座標系のx成分及びy成分へと所定量シフトさせられ、新たな画像フレームデータZ´(x´,y´)が生成される。その後、ディスプレイ座標変換処理部106が、生成された画像フレームデータZ´(x´,y´)からタッチパネルディスプレイ11によって生成される解像度がFullHDである画像フレームデータZ´(x´´,y´´)への変換を行う。
また、図11(C)に示されるフローでは、まずディスプレイ座標変換処理部106が、深度カメラモジュール30によって生成される解像度がVGAである画像における画像フレームデータZ(x,y)からタッチパネルディスプレイ11によって生成される解像度がFullHDである画像フレームデータZ(x´´,y´´)への変換を行う。ここで、当該変換には、予め変換テーブルが作成されていてもよい。その後、ズレ補正処理部104が、生成された画像フレームデータZ(x´´,y´´)に対して非線形データテーブルA(Z)を参照することにより、深度カメラモジュール30が配置される部分を基準とする座標系のx成分及びy成分は、撮影用カメラモジュール20が配置される部分を
基準とする座標系のx成分及びy成分へと所定量シフトさせられ、新たな画像フレームデータZ´(x´´,y´´)が生成される。これらのような被写体の深度情報に対応する画像フレームデータの生成フローによっても、スマートフォン10は本実施形態の効果と同様の効果を奏することができる。
(変形例2)
図12は、本実施形態の第二変形例を例示している。上記の実施形態では、撮影用カメラモジュール20と深度カメラモジュール30とは、スマートフォン10の背面において長手方向に並んで配置されているが、撮影用カメラモジュール20と深度カメラモジュール30との位置関係は、このような関係に限定されない。例えば、図12(A)に示されるスマートフォン10Aは、撮影用カメラモジュール20と深度カメラモジュール30とが、スマートフォン10の背面において短手方向に並んで配置される。
また、例えば、図12(B)に示されるスマートフォン10Bは、撮影用カメラモジュール20と深度カメラモジュール30とが、スマートフォン10Bの背面において斜め方向に並んで配置される。また、例えば、図12(C)に示されるスマートフォン10Cは、撮影用カメラモジュール20と深度カメラモジュール30とが、スマートフォン10Cの正面上部において短手方向に並んで配置される。また、上記の実施形態では、本発明の「撮像機器」の一例としてスマートフォン10を例示したが、本発明の「撮像機器」の一
例は、タブレット端末であってもよい。図12(D)は、撮影用カメラモジュール20と深度カメラモジュール30とが背面に並んで配置されたタブレット端末10Dの概要を例示している。図12(A)−(D)に示される変形例も本実施形態と同様の効果を奏することができる。
(変形例3)
本変形例に係るスマートフォン10Eは、スマートフォン10の撮影用カメラモジュール20に替え、ズームレンズを有する撮影用カメラモジュール20Aを備えている。ここで、図13は、撮影用カメラモジュール20Aから被写体の所定の部分までの距離と、中心軸ズレ量との関係を表したグラフである。中心軸ズレ量の定義は、図3のグラフと同様である。図13のグラフは、図3のグラフと異なり、ズームレンズによるズーム倍率毎(例えば1倍、2倍、3倍、5倍)に示されている。そして、ズーム倍率毎に当該距離と、中心軸ズレ量との関係は異なる。よって、非線形データテーブルA´(Z)では、図示しないが、深度に応じた座標移動量がズーム倍率毎に理論的に設定される。
このようなスマートフォン10Eによれば、ユーザがズーム倍率を変更した場合であっても、深度カメラモジュール30によって測定される深度に対応する画像フレームデータにA´(Z)を参照することにより、被写体の正確な深度を反映した画像をリアルタイムに表示させることができる。よって、上記のスマートフォン10Eによれば、ユーザに快適性を提供することができる。
(その他変形例)
上記の実施形態において深度カメラモジュール30は、撮影用カメラモジュール20の撮像素子が実装される基板において、当該撮像素子の隣に実装されていてもよい。また、上記の実施形態では、ズレ補正処理部104は、非線形データテーブルAを参照することによりx方向およびy方向の位置のシフトを実現しているが、テーブルに限定されず補正式により位置(x,y)のシフトが実現されてもよい。また、上記の実施形態では、本発明の「撮像機器」の一例としてスマートフォン10を例示したが、撮像機器はスマートフォン10を含む携帯端末に限定されない。例えば、撮像機器は、自動運転車両の一部に搭載される機器であり、自動運転車両が自動運転されている場合に車外の環境を撮影し、撮影された画像に映る障害物までの距離を測定する用途に使用されてもよい。また、出力された被写体の深度情報を利用して被写体がオートフォーカスされて撮像されてもよい。また、撮影用カメラモジュール20により生成される画像の解像度、深度カメラモジュール30により生成される画像の解像度、及びタッチパネルディスプレイ11に表示される画像の解像度は、夫々同じでも異なっていてもよい。そして、解像度が同じである場合、解像度の違いによる座標変換処理は行われなくともよい。また、スマートフォン10は、タッチパネルディスプレイ11の代替部品として、タッチパネルディスプレイ11よりも高解像度のディスプレイ及びマウスポインタを備えてもよい。このようなスマートフォン10によれば、被写体の正確な深度情報が反映された高解像度の合成画像を表示させることができる。また、ユーザがマウスポインタを操作することにより被写体の部分をより細分化して選択することができる。すなわち、被写体の深度情報をより細分化して視認することができる。
以上で開示した実施形態や変形例はそれぞれ組み合わせる事ができる。
10,10A、10B、10C、10D、10E :スマートフォン
11 :タッチパネルディスプレイ
12 :CPU
13 :記憶装置
14 :LED
20、20A :撮影用カメラモジュール
30 :深度カメラモジュール
101 :画像処理部
102 :ファインダデータ生成部
103 :深度取得部
104 :ズレ補正処理部
105 :撮影用カメラ座標変換処理部
106 :ディスプレイ座標変換処理部
107 :表示部
108 :記憶部
109 :照明部
110 :照明駆動部
111 :照明制御部

Claims (5)

  1. 被写体を撮像する撮像素子を有するカメラと、
    前記被写体に対して前記撮像素子と並ぶように設けられ、前記被写体の深度を取得する深度カメラであって、前記深度カメラ自身が配置される位置を原点とし、前記撮像素子の撮像面と平行な横軸であって前記撮像素子と前記深度カメラとが並ぶ方向に沿う横軸と、前記撮像面と平行な縦軸であって前記横軸と直交する縦軸と、を座標軸とする深度カメラ座標系における位置毎の前記深度を取得する深度カメラと、
    前記深度カメラ座標系における位置を、前記撮像素子が配置される位置を原点とし、該横軸に平行な横軸と、該縦軸に平行な縦軸とを座標軸とするカメラ座標系における位置へと移動させる移動量を含むシフトテーブルを記憶する記憶部と、
    前記深度カメラによって取得された前記深度に対応する前記深度カメラ座標系における位置に、該位置に対応する移動量であって、前記記憶部に記憶される前記シフトテーブルに含まれる前記移動量を加えることにより、該位置を前記カメラ座標系における位置へと移動させる移動部と、
    前記深度カメラにより取得された前記深度を、前記移動部により移動させられた前記カメラ座標系における位置での深度として出力する出力部と、を備え、
    前記シフトテーブルに含まれる前記移動量は、
    前記被写体の深度毎に設定される、前記横軸方向の移動量及び前記縦軸方向の移動量を含み、
    前記カメラの画角及び前記深度カメラの画角、並びに前記カメラにより生成される画像の画素数及び前記深度カメラにより生成される画像の画素数を用いて算出される、
    撮像機器。
  2. 前記シフトテーブルに含まれる前記移動量は、前記被写体の複数の深度の範囲毎に設定される移動量を含む、
    請求項1に記載の撮像機器。
  3. 前記シフトテーブルに含まれる前記移動量は、前記撮像素子が実装される部分の中心と前記深度カメラが実装される部分の中心との間の距離毎に設定される、前記横軸方向への移動量及び前記縦軸方向への移動量を含む、
    請求項1又は2に記載の撮像機器。
  4. 前記カメラはズームレンズを有し、
    前記シフトテーブルに含まれる前記移動量は、前記ズームレンズによるズーム倍率毎に設定される、前記横軸方向への移動量及び前記縦軸方向への移動量を含む、
    請求項1から3のうちいずれか一項に記載の撮像機器。
  5. カメラに設けられる撮像素子が被写体を撮像する撮像ステップと、
    前記被写体に対して前記撮像素子と並ぶように設けられる深度カメラが前記被写体の深度を取得する深度取得ステップであって、前記深度カメラ自身が配置される位置を原点とし、前記撮像素子の撮像面と平行な横軸であって前記撮像素子と前記深度カメラとが並ぶ方向に沿う横軸と、前記撮像面と平行な縦軸であって前記横軸と直交する縦軸と、を座標軸とする深度カメラ座標系における位置毎の前記深度を取得する深度取得ステップと、
    前記深度カメラ座標系における位置を、前記撮像素子が配置される位置を原点とし、該横軸に平行な横軸と、該縦軸に平行な縦軸とを座標軸とするカメラ座標系における位置へと移動させる移動量を含むシフトテーブルを記憶する記憶ステップと、
    前記深度カメラによって取得された前記深度に対応する前記深度カメラ座標系における位置に、該位置に対応する移動量であって、前記記憶ステップにおいて記憶される前記シフトテーブルに含まれる前記移動量を加えることにより、該位置を前記カメラ座標系にお
    ける位置へと移動させる移動ステップと、
    前記深度カメラにより取得された前記深度を、前記移動ステップにおいて移動させられた前記カメラ座標系における位置での深度として出力する出力ステップと、を含み、
    前記シフトテーブルに含まれる前記移動量は、
    前記被写体の深度毎に設定される、前記横軸方向の移動量及び前記縦軸方向の移動量を含み、
    前記カメラの画角及び前記深度カメラの画角、並びに前記カメラにより生成される画像の画素数及び前記深度カメラにより生成される画像の画素数を用いて算出される、
    撮像方法。
JP2019190476A 2019-10-17 2019-10-17 撮像機器及び撮像方法 Active JP7369588B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019190476A JP7369588B2 (ja) 2019-10-17 2019-10-17 撮像機器及び撮像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190476A JP7369588B2 (ja) 2019-10-17 2019-10-17 撮像機器及び撮像方法

Publications (2)

Publication Number Publication Date
JP2021068929A true JP2021068929A (ja) 2021-04-30
JP7369588B2 JP7369588B2 (ja) 2023-10-26

Family

ID=75637591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190476A Active JP7369588B2 (ja) 2019-10-17 2019-10-17 撮像機器及び撮像方法

Country Status (1)

Country Link
JP (1) JP7369588B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114038410A (zh) * 2021-11-26 2022-02-11 卡莱特云科技股份有限公司 一种基于步进电机的led显示屏自动校正方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002071309A (ja) 2000-08-24 2002-03-08 Asahi Optical Co Ltd 3次元画像検出装置
JP2012050013A (ja) 2010-08-30 2012-03-08 Team Lab Inc 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114038410A (zh) * 2021-11-26 2022-02-11 卡莱特云科技股份有限公司 一种基于步进电机的led显示屏自动校正方法及装置

Also Published As

Publication number Publication date
JP7369588B2 (ja) 2023-10-26

Similar Documents

Publication Publication Date Title
TWI480832B (zh) 用於三維感測的參考圖像技術
KR102225617B1 (ko) 영상 정합 알고리즘을 설정하는 방법
JP2017118396A (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6735615B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2012088114A (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
WO2019184185A1 (zh) 目标图像获取系统与方法
WO2014171418A1 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JPWO2010055625A1 (ja) 画素位置対応関係特定システム、画素位置対応関係特定方法および画素位置対応関係特定プログラム
WO2018001252A1 (zh) 一种投射单元及包括该单元的拍摄装置、处理器、成像设备
CN114612447A (zh) 一种基于数据标定的图像处理方法及装置、图像处理设备
WO2018154634A1 (ja) 投写型表示装置、投写型表示装置の制御方法、及びプログラム
JP5956296B2 (ja) 形状計測装置及び形状計測方法
JP7369588B2 (ja) 撮像機器及び撮像方法
JP2012075088A (ja) 画像処理システムおよび画像処理方法
US20170142346A1 (en) Electronic device and image processing method thereof
JP5151922B2 (ja) 画素位置対応関係特定システム、画素位置対応関係特定方法および画素位置対応関係特定プログラム
JP2020512536A (ja) モデルベースのピーク選択を使用した3dプロファイル決定のためのシステム及び方法
JP6713622B2 (ja) 3次元計測装置、3次元計測システム、3次元計測方法及びプログラム
JP2018044942A (ja) カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
Biasion et al. A new approach to the Terrestrial Laser Scanner workflow: The RTC360 solution
JP2014154981A (ja) 撮像装置及びその制御方法
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP2011002401A (ja) 輝度測定装置における補正係数算出方法および輝度測定装置
JP2019161278A (ja) 校正基準点取得システム、及び校正基準点取得方法
US20170353682A1 (en) Depth map from multi-focal plane images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7369588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533