JP2021129293A - 画像処理装置、画像処理システム、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理システム、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2021129293A JP2021129293A JP2020212786A JP2020212786A JP2021129293A JP 2021129293 A JP2021129293 A JP 2021129293A JP 2020212786 A JP2020212786 A JP 2020212786A JP 2020212786 A JP2020212786 A JP 2020212786A JP 2021129293 A JP2021129293 A JP 2021129293A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- area
- unit
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 画像処理装置を提供すること。
【解決手段】 画像処理装置10は、撮像画像の入力を受ける画像入力手段15を含む。画像処理装置10は、また、画像入力手段15に入力された撮像画像に示される所定パターンの位置を検出する検出手段16を含む。画像処理装置10は、さらに、検出手段16で検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定する設定手段22を含む。さらに、画像処理装置10は、設定手段22で設定された上記領域に対して画像処理を行う画像処理手段23を含む。
【選択図】 図6
【解決手段】 画像処理装置10は、撮像画像の入力を受ける画像入力手段15を含む。画像処理装置10は、また、画像入力手段15に入力された撮像画像に示される所定パターンの位置を検出する検出手段16を含む。画像処理装置10は、さらに、検出手段16で検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定する設定手段22を含む。さらに、画像処理装置10は、設定手段22で設定された上記領域に対して画像処理を行う画像処理手段23を含む。
【選択図】 図6
Description
本開示は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。
従来、複数の広角レンズまたは魚眼レンズを用いて全方位を撮影する撮影装置が知られている。このような撮影装置を用いて撮影を行う際に、見せたくない箇所が写り込んでしまう場合があり、事後的に、画像処理にて、撮影した画像の該当箇所に黒塗りやぼかしをかけるマスク処理を施すことがある。しかしながら、マスク処理の適用は、全方位を撮影する撮影装置による撮影が終わってから事後的に行われるものである。全方位を撮影する撮影装置による撮影後に、画像の中から該当箇所を探してマスク処理を適用する必要があり、手間がかかり、また、マスク処理の適用漏れなどを発生させる虞も高い。
例えば、特開2016−133908号公報(特許文献1)は、データ量を減らす目的で、全周囲画像から切り出した切り出し範囲について平面画像を生成する画像生成装置を開示する。上記画像生成装置は、全周囲画像を取得する取得手段と、全周囲画像の不要領域を検知する検知手段と、検知手段により検知された不要領域を除外して切り出し範囲を指定する指定手段と、指定手段の領域指定に基づき切り出しを行う切り出し手段と、切り出し手段により切り出された切り出し画像を平面画像に変換する変換手段と、変換手段により変換された平面画像をUIに表示する表示手段とを含む。しかしながら、特許文献1は、マスク処理といった画像処理の処理対象の領域を事前指定するという観点で開示するものではなかった。
本開示は、上記点に鑑みてなされたものであり、ユーザが撮像画像の事前指定された処理対象の領域を認識して撮像画像に対し画像処理を適用することが可能な画像処理装置を提供することを目的とする。
本開示では、上記課題に鑑み、下記特徴を有する画像処理装置を提供する。画像処理装置は、撮像画像の入力を受ける画像入力手段と、画像入力手段に入力された撮像画像に示される所定パターンの位置を検出する検出手段と、検出手段で検出された所定パターンの位置に基づいて、処理対象の領域を設定する設定手段と、設定手段で設定された領域に対して画像処理を行う画像処理手段とを含む。
上記構成により、ユーザは撮像画像の事前指定された処理対象の領域を認識して画像に対し画像処理を適用することが可能となる。
以下、本発明の実施形態について説明するが、本発明の実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下の実施形態では、画像処理装置および画像処理システムの一例として、2つの魚眼レンズを光学系に含む撮像手段を備えるとともに、2つの魚眼レンズで自身が撮像した2つの部分画像に対し歪曲補正および射影変換を行い、画像つなぎ合わせを行って、全天球画像を生成する画像処理機能を備えた、撮像装置を用いて説明する。
●実施形態●
●システム構成
図1は、実施形態に係る画像処理システムの一例を示す図である。図1に示す画像処理システムは、撮像装置10によって撮影空間における被写体が撮像された撮像画像に対する画像処理を行うシステムである。
●システム構成
図1は、実施形態に係る画像処理システムの一例を示す図である。図1に示す画像処理システムは、撮像装置10によって撮影空間における被写体が撮像された撮像画像に対する画像処理を行うシステムである。
撮像装置10は、工場またはサーバールーム等の撮影空間内における被写体を撮影する。この撮影空間には、撮影対象となる被写体と秘匿対象となる対象物が存在する。撮像装置10は、撮影空間の被写体が撮影し、撮影された撮像画像に対して秘匿対象の対象物を秘匿するためのマスク処理を行う画像処理装置である。
撮像装置10は、撮影空間の被写体を撮影して撮像画像を取得することができるデジタルカメラである。撮像装置10は、例えば、全天球(360°)パノラマ画像を得るための特殊なデジタルカメラである。なお、撮像装置10は、一般的なデジタルカメラ(一眼レフカメラ、コンパクトデジタルカメラ等)であってもよい。本実施形態では、撮像装置10が全天球パノラマ画像を得るためのデジタルカメラ(特殊撮像装置)として説明を行う。なお、撮像画像は、動画であっても静止画であってもよく、動画と静止画の両方であってもよい。また、撮像画像は、画像とともに音声を含んでもよい。また、撮像装置10は、固定されていてもよいし、撮影者または移動式のロボットに保持されて移動しながら撮影が行われてもよい。
●概略
ここで、図2および図3を用いて、実施形態に係る画像処理システムにおける画像処理を概略的に説明する。図2は、実施形態に係るマスク処理領域を設定するための構成の一例を説明するための図である。なお、図2は、実施形態に係る画像処理システムにおいてマスク処理領域の設定を簡略的に説明したものであり、画像処理システムが実現する機能等の詳細は、後述する図面等を用いて説明する。
ここで、図2および図3を用いて、実施形態に係る画像処理システムにおける画像処理を概略的に説明する。図2は、実施形態に係るマスク処理領域を設定するための構成の一例を説明するための図である。なお、図2は、実施形態に係る画像処理システムにおいてマスク処理領域の設定を簡略的に説明したものであり、画像処理システムが実現する機能等の詳細は、後述する図面等を用いて説明する。
図2は、LED装置30A〜30Eを用いて、対象物Jを秘匿するための構成を示す。図1に示されているように、撮影空間内には、撮影者が画像中に写り込ませたくないと考えている被写体(対象物J)が存在する。例えば、撮像装置10で撮影された撮像画像を遠隔地に送ることで、工場やサーバールームの現地の映像を遠隔で確認する用途が考えられる。特に、動画で撮影しながら撮影者が現場を歩いて撮影して回るという方法が考えられる。このとき、特定の位置にある設備(例えば、対象物J)は、機密性が高いため、秘匿対象とした場合がある。この場合、図2に示されているように、保護すべき対象物Jの周辺に、三次元的に複数のLED装置30A〜30H(以下区別する必要がないときは、LED装置30と称する。)が配置される。図2に示す例では、八つのLED装置30A〜30Hが配置されている。
LED装置30A〜30Hは、所定パターンとして色の輝点35A〜35Hをそれぞれ発生される。この輝点35A〜35Hは、マスク処理領域を指定するためのパターンとなる。LED装置30は、所定の色の輝点を発生させる発光装置の一例であり、自動マスク処理機能を利用しようとする撮影者等が、マスク処理領域を事前指定するために配置するデバイスである。所定パターンは、種々の電子機器で採用されている赤や緑等の単色のランプと区別できるパターンであることが望ましく、光強度(点滅)パターン、輝点の色、複数の輝点の配置またはこれらの組み合わせで構成され得る。
LED装置30は、撮像装置10の視野内に配置され、所定パターンを発生させるパターン発生手段の一例である。パターン発生手段は、1または複数の輝点を発光する発光装置であればよい。発光装置は、LED装置30のほか、例えば、ワイヤーやメッシュにLED等の発光素子が取り付けられたワイヤーライトおよびメッシュライト等であってもよい。また、パターン発生手段は、図2に示されているようなスタンド型および天吊型であってもよいし、バッチ型であってもよい。
撮像装置10は、撮像画像中の複数のLED装置30A〜30Hの発光部位に対応する輝点35A〜35Hの中心位置の座標値を算出する。撮像画像が動画である場合、連続する画像間で同じ座標の画素値を比較すると、点滅しているLED装置30に対応する座標において、点灯している場合と消灯している場合で画素値に違いが生じる。撮像装置10は、輝点35の光強度(点滅)パターンのように、画素値の変化をチェックすることで、画像上における点滅しているLED装置30に対応する位置を検出できる。
また、撮像装置10は、点灯したLED装置30が写っている画像と消灯したLED装置30が写っている画像の出現パターンからLEDの点滅パターンを識別することができる。撮像装置10は、特定の点滅パターンを撮像装置10に記録しておくことで、特定の点滅パターンをパターン発生手段によって発生された所定パターンであることを検出することができる。
図3は、実施形態に係るマスク処理領域を設定するための構成の別の例を説明するための図である。図3に示す例は、領域を識別するための所定パターンを発生させるパターン発生手段として、LED装置30に変えてQRコード(登録商標)40A〜40H(以下、区別する必要がないときは、QRコード(登録商標)40と称する。)等の画像が印刷または表示された媒体を用いる構成である。撮像装置10は、複数のQRコード(登録商標)40A〜40Hのそれぞれの識別子となる特定の文字情報を登録し、QRコード(登録商標)40A〜40Hを読み取ることで、所定パターンを検出することができる。QRコード(登録商標)40は、印刷または表示された媒体として設置される。なお、撮像装置10が撮影中に移動または向きの変更が行われることも想定されるため、複数の視点から認識可能なようにQRコード(登録商標)40を読み取り可能な面は、複数あることが望ましい。
図3に示されている所定のパターンとしての画像は、QRコード(登録商標)に限られず、一次元コード、二次元コードまたは特定の画像であってもよい。一次元コードは、いわゆるバーコードである。二次元コードは、例えば、マトリックス式およびスタック式のものがあり、QRコード(登録商標)のほか、DataMatrix(DataCode)、MaxiCodeまたはPDF417等である。また、特定の画像は、所定パターンを識別可能な数字、符号、記号またはイラスト等を含む画像である。なお、所定のパターンとして画像を用いる場合、撮像装置10による撮像画像は、動画である必要なく、静止画であってもよい。
このように、画像処理システムにおいて、撮影者または撮影される被写体の管理者(部屋の住人や撮影者による撮影を受け入れる工場等の拠点の責任者)は、上述した所定パターンが撮像画像に映り込むように、自身が隠したいと考えている被写体の周辺に、所定パターンを発生させるパターン発生手段を物理的および立体的に配置する。そして、撮像画像中のこのようなパターン発生手段で囲まれた対象物の画像領域に対して画像処理、より具体的にはマスク処理を施す。これによって、撮影者または管理者等は、撮影前に、自身が撮影対象から除外したい領域を事前に指定することができる。なお、以下の説明において、所定パターンがLED装置30により発生する輝点35である例を説明するが、所定パターンは、図3に示されているような画像であってもよい。
●ハードウエア構成
次に、図4を用いて、撮像装置10のハードウエア構成を説明する。図4は、実施形態に係る撮像装置のハードウエア構成の一例を示す図である。なお、図4に示すハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。以下では、撮像装置10は、二つの撮像素子を使用した全天球(全方位)撮像装置とするが、撮像素子は二つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置10と同じ機能を有するようにしてもよい。
次に、図4を用いて、撮像装置10のハードウエア構成を説明する。図4は、実施形態に係る撮像装置のハードウエア構成の一例を示す図である。なお、図4に示すハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。以下では、撮像装置10は、二つの撮像素子を使用した全天球(全方位)撮像装置とするが、撮像素子は二つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置10と同じ機能を有するようにしてもよい。
図4に示されているように、撮像装置10は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、入出力I/F(Interface)116、近距離通信回路117、近距離通信回路117のアンテナ117a、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121によって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102b(以下区別する必要のないときは、レンズ102と称する。)と、各レンズに対応させて設けられている二つの撮像素子103a,103bを備えている。撮像素子103a,103bは、レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の画像センサ、この画像センサの水平または垂直同期信号や画素クロック等を生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータ等が設定されるレジスタ群等を有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、それぞれ撮像制御ユニット105とシリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104、撮像制御ユニット105および音処理ユニット109は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、入出力I/F116、近距離通信回路117、電子コンパス118、ジャイロセンサ119、加速度センサ120およびネットワークI/F121等も接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒射影画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置10によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置10には表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮像装置10の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113およびDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネル等の総称である。ユーザは操作部115を操作することで、種々の撮影モードや撮影条件等を入力する。
入出力I/F116は、SDカード等の外付けのメディアまたはパーソナルコンピュータ等とのインターフェース回路(USB(Universal Serial Bus)I/F等)の総称である。入出力I/F116は、無線、有線を問わない。DRAM114に記憶された正距円筒射影画像のデータは、入出力I/F116を介して外付けのメディアに記録されたり、必要に応じて入出力I/F116を介して外部端末(装置)に送信されたりする。
近距離通信回路117は、撮像装置10に設けられたアンテナ117aを介して、NFC(Near Field Communication)、Bluetooth(登録商標)またはWi−Fi(登録商標)等の近距離無線通信技術によって、外部端末(装置)と通信を行う。近距離通信回路117は、正距円筒射影画像のデータを、外部端末(装置)に送信することができる。
電子コンパス118は、地球の磁気から撮像装置10の方位を算出し、方位情報を出力する。この方位情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時および画像データのデータ容量の各データも含まれている。また、ジャイロセンサ119は、撮像装置10の移動に伴う角度の変化(Roll角、Pitch角、Yaw角)を検出するセンサである。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。さらに、加速度センサ120は、三軸方向の加速度を検出するセンサである。撮像装置10は、加速度センサ120が検出した加速度に基づいて、自装置(撮像装置10)の姿勢(重力方向に対する角度)を算出する。撮像装置10は、加速度センサ120を設けることによって、画像補正の精度が向上する。ネットワークI/F121は、ルータ等を介して、インターネット等の通信ネットワークを利用したデータ通信を行うためのインターフェースである。
○全天球画像
ここで、図5を用いて、全天球画像の生成および生成される全天球画像について説明する。図5(A)は、全天球画像の生成における各画像のデータ構造および画像処理のデータフローの一例を示す概念図である。まず、撮像素子103a,103b各々で直接撮像される画像は、全天球のうちの概ね半球を視野に収めた画像である。レンズ102に入射した光は、所定の射影方式に従って撮像素子103の受光領域に結像される。ここで撮像される画像は、受光領域が平面エリアを成す二次元の撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また、典型的には、得られる画像は、図5(A)において「部分画像A」および「部分画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む魚眼レンズ画像として構成される。
ここで、図5を用いて、全天球画像の生成および生成される全天球画像について説明する。図5(A)は、全天球画像の生成における各画像のデータ構造および画像処理のデータフローの一例を示す概念図である。まず、撮像素子103a,103b各々で直接撮像される画像は、全天球のうちの概ね半球を視野に収めた画像である。レンズ102に入射した光は、所定の射影方式に従って撮像素子103の受光領域に結像される。ここで撮像される画像は、受光領域が平面エリアを成す二次元の撮像素子で撮像されたものであり、平面座標系で表現された画像データとなる。また、典型的には、得られる画像は、図5(A)において「部分画像A」および「部分画像B」で示されるように、各撮影範囲が投影されたイメージサークル全体を含む魚眼レンズ画像として構成される。
これら複数の撮像素子103a,103bで撮像された複数の部分画像が、歪み補正および合成処理されて、一つの全天球画像が構成される。歪み補正および合成処理では、平面画像として構成される各部分画像から、まず、相補的な各半球部分を含む各画像が生成される。そして、各半球部分を含む二つの画像が、重複領域のマッチングに基づいて位置合わせ(スティッチング処理)され、画像合成され、全天球全体を含む全天球画像が生成される。各半球部分の画像には他の画像との重複領域が含まれるが、画像合成においては、適宜、自然なつなぎ目となるように重複領域についてブレンディングが行われる。
図5(B)は、全天球画像のデータ構造の一例を平面で示した概念図であり、図5(C)は、全天球画像のデータ構造の一例を球面で示した概念図である。図5(B)に示すように、全天球画像の画像データは、所定の軸に対してなされる垂直角度φと、所定の軸周りの回転角に対応する水平角度θとを座標とした画素値の配列として表現される。垂直角度φは、0度〜180度(または−90度〜+90度)の範囲となり、水平角度θは、0度〜360度(または−180度〜+180度)の範囲となる。
全天球フォーマットの各座標値(θ,φ)は、図5(C)に示すように、撮影地点を中心とした全方位を表す球面上の各点と対応付けられており、全方位が全天球画像上に対応付けられる。魚眼レンズで撮影された部分画像の平面座標と、全天球画像の球面上の座標とは、所定の変換テーブルにて対応づけされる。変換テーブルは、それぞれのレンズ光学系の設計データ等に基づいて、所定の投影モデルに従い製造元等で予め作成されたデータであり、部分画像を全天球画像へ変換するデータである。
また、全天球画像に対しては、電子コンパス118、ジャイロセンサ119および加速度センサ120からの情報を利用して、適宜、天頂補正および回転補正のいずれかまたは両方が行われる場合がある。ここで、天頂補正とは、実際には重力方向に対し中心軸が傾いた状態で撮影された全天球画像を、あたかも中心軸が重力方向に一致した状態で撮影されたかのような全天球画像に補正する処理(Roll方向およびPitch方向の補正)をいう。回転補正とは、天頂補正により重力方向に中心軸が一致するように補正された全天球画像において、さらに、重力方向周りの基準から回転をかける処理(Yaw方向の補正)をいう。
以下の説明において、撮像装置10が全天球画像を取得する構成を説明するが、マスク処理機能の対象は、通常のカメラで撮影される画像であってもよい。また、上述した天頂補正および回転補正は、撮像画像が画像入力部15に入力される前に実施されるものとして説明するが、マスク処理を施された後に行われる構成であってもよい。さらに、上述した撮像装置10は、広角画像を取得可能な撮影装置の一例であり、全天球画像は、広角画像の一例である。ここで、広角画像は、一般には広角レンズを用いて撮影された画像であり、人間の目で感じるよりも広い範囲を撮影することができるレンズで撮影されたものである。また、一般的に35mmフィルム換算で35mm以下の焦点距離のレンズで、撮影された画像を意味する。
また、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD−R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、Blu-ray(登録商標)Disc(ブルーレイディスク)、SDカードまたはUSBメモリ等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内または国外へ提供されることができる。例えば、撮像装置10は、本発明に係るプログラムが実行されることで本発明に係る画像処理方法を実現する。
●機能構成
次に、図6および図7を用いて、実施形態に係る撮像装置10の機能構成について説明する。図6は、実施形態に係る撮像装置の機能構成の一例を示す図である。なお、図6では、後述の処理または動作に関連しているものが示されている。
次に、図6および図7を用いて、実施形態に係る撮像装置10の機能構成について説明する。図6は、実施形態に係る撮像装置の機能構成の一例を示す図である。なお、図6では、後述の処理または動作に関連しているものが示されている。
撮像装置10は、通信部11、受付部12、表示制御部13、撮像処理部14、画像入力部15、検出部17、算出部18、推定部21、領域設定部22、画像処理部23、画像出力部24および記憶・読出部29を有している。これら各部は、図4に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能または手段である。また、撮像装置10は、図4に示されているROM112、SRAM113およびDRAM114によって構築される記憶部1000を有している。
通信部11は、主に、CPU111の処理によって実現され、他の装置または端末と各種データまたは情報の通信を行う。通信部11は、例えば、ネットワークI/F121を用いて、他の装置または端末との間で、通信ネットワークを介したデータ通信を行う。また、通信部11は、例えば、入出力I/F116を用いて、他の装置または端末との間で、各種ケーブル等を介したデータ通信を行う。さらに、通信部11は、例えば、近距離通信回路117を用いて、他の装置または端末との間で、近距離無線通信技術によるデータ通信を行う。
受付部12は、主に、操作部115に対するCPU111の処理によって実現され、利用者から各種の選択または入力を受け付ける。表示制御部13は、主に、CPU111の処理によって実現され、各種画像を表示させる。表示制御部13は、例えば、ライブビュー(撮影状態をリアルタイムで確認可能としながら撮影する機能)における画像表示を行う。表示制御部13は、ライブビュー中、HDMI(登録商標)やMiracast(登録商標)等の規格で有線または無線のインターフェースで接続された外部のディスプレイまたは自身の表示手段への表示を制御する。表示制御部13は、ライブビュー画面において、入力される画像の表示に対し、自動で検知されたマスク処理領域を重畳して表示することができる。なお、全天球画像の表示方法は、特に限定されるものではなく、全天球画像をそのまま二次元の平面画像として表示してもよいし、全天球画像を球体オブジェクトに貼り付けて、仮想カメラから球体オブジェクトを観察した場合の投影画像として表示してもよい。撮影者は、保護すべき被写体にマスク処理が施されていることをライブビューの画像上で確認することができる。
撮像処理部14は、主に、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108および音処理ユニット109に対するCPU111の処理によって実現され、風景等の被写体を撮像し、撮像画像データを取得する。撮像処理部14は、撮像処理を実行し、全天球画像(例えば、正距円筒射影画像)のデータを生成し、画像入力部15に全天球画像データを入力する。撮像処理部14によって撮像される全天球画像は、単一フレームの静止画であってもよいし、連続的な複数フレームからなる動画であってもよい。また、撮像処理部14は、シャッターボタン等の操作部115の押下等により撮影指示が行われた後の本番の撮像画像を出力するほか、撮影指示前の映像確認のためのリアルタイム画像を出力することができる。
画像入力部15は、主に、CPU111の処理によって実現され、処理対象となる撮像画像の入力を受け付ける。マスク処理の対象となる撮像画像は、全天球画像である。静止画の場合は、所定の時点で撮像された1フレーム分の画像が画像入力部15に入力される。また、動画の場合は、複数のフレーム各々の画像が画像入力部15に順次入力される。また、静止画撮影の場合に、撮影前の画像確認のために複数のフレーム各々の画像が画像入力部15に順次入力されてもよい。
検出部17は、CPU111の処理によって実現され、画像入力部15によって入力された撮像画像に示される、LED装置30またはQRコード(登録商標)40等のパターン発生手段によって発生された所定パターンを検出する。検出対象としての所定パターンは、例えば、撮像画像が静止画の場合、画像中の一次元コード、二次元コードもしくは特定の画像または輝点のパターンが挙げられる。輝点のパターンは、例えば、輝点の色および複数の輝点の配置を単独でまたは組み合わせで用いることができる。なお、輝点のパターンには、所定の色を有する単一の輝点が含まれるものとする。また、撮像画像が動画の場合、検出対象となる所定パターンは、各フレームの画像中の一次元コード、二次元コードもしくは特定の画像または輝点のパターンのほか、複数のフレームにわたる画像列中の輝点の時間的パターンを含む。ここで、輝点の時間的パターンは、複数のフレームにわたる輝点の所定周波数の光強度(点滅)パターン、輝点の色、複数の輝点の配置またはこれらの組み合わせで構成される。輝点の配置は、例えば、「○」、「×」、「□」、「▽」などの所定の図形に図形化されたものとすることができる。
画像または画像列中の一次元コード、二次元コードおよび特定の画像、並びに輝点およびその輝点の時間的パターンの認識方法は、これまで知られた如何なる技術を用いることができる。また、全天球画像中で画像認識のため、撮像装置10は、前処理として、必要に応じて、画像中の一次元コードおよび二次元コードに対応する領域に対し、歪みを補正する処理を行ってもよい。
算出部18は、CPU111の処理によって実現され、検出部17によって検出された所定パターンの位置を算出する。算出部18は、例えば、画像中の所定パターンの位置を、全天球画像フォーマット上の座標値として算出する。所定パターンの位置は、複数のフレームにわたり追跡されて対応付けが算出されてもよい。
推定部21は、CPU111の処理によって実現され、検出部17によって検出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定する。推定部21は、検出された複数の所定パターンを用いて決定された特定の形状を形成するために、不足する頂点を推定する。例えば、障害物によって、図2に示した配置されたLED装置30のうちの一つが隠されてしまう場合が想定される。LED装置30の一つが隠れてしまうと、隠されたLED装置30により発生される輝点35が検知できなくなり、意図した領域を隠すことができなくなってしまう虞がある。そこで、本実施形態においては、検出された複数の輝点35から、処理対象の領域を形成するために不足する頂点が推定される。そして、検出された複数の輝点35と推定された頂点とによってマスク処理領域が設定される。
領域設定部22は、CPU111の処理によって実現され、検出部17によって検出された所定パターンの算出部18によって算出された位置および必要に応じて推定部21によって推定された頂点に基づいて、対象の画像に対するマスク処理領域(処理対象の領域)を設定する。ここで、マスク処理領域は、少なくとも複数の所定パターンの位置(必要に応じて推定された頂点を含む。)の座標値を結んで画定される多角形を包含する領域、または、少なくとも複数の所定パターンの位置(必要に応じて推定された頂点を含む。)の座標値を点としてこれらの点の凸包(与えられた点をすべて包含する最小の凸多角形)を包含する領域を含み得る。なお、マスク処理領域は、複数の所定パターンの位置および必要に応じて推定された頂点の座標を結ぶ多角形または凸包自体として設定されてもよいし、その多角形領域に対して所定のマージンが設けられた任意の図形(多角形のほかに円や楕円などの任意の閉曲線で構成される図形を含む)であってもよい。マスク処理領域は、例えば、全天球画像フォーマット上の座標値(曲線等の場合はパラメータを含んでいてもよい。)の配列として求められる。
また、領域設定部22は、所定パターンの位置および必要に応じて推定された頂点が画定する「面」として自動認識し、その面に対してマスク処理領域を設定する。なお、検出部17によって検出される所定パターンの数は、少なくとも面を規定することができる三つ以上であることが好ましいが、所定のマージンとともに任意の二次元図形を描くことができる限り、必ずしも三つ以上に限定されるものではない。
全天球画像は、水平方向360度の範囲を含んでおり、全天球画像の両端部は相互に接続されている。そのため、マスク処理領域が端部をまたぐ場合があり、マスク処理領域は、全天球画像の両端部で分離して設定されてもよい。この場合、領域設定部22は、マスク処理領域と端部境界との交点が求め、それぞれの側で求めた交点を含むマスク処理領域を設定する。
ここで、検出部17は、所定パターンの座標値に加えて、検出された所定パターンが属するグループを判別することもできる。この場合、領域設定部22は、識別したグループ構成に基づいて、異なるマスク処理領域を設定することができる。例えば、上述した所定パターンは、一次元コード、二次元コードや輝点のパターン等で情報を符号化できるので、符号化された情報(例えば、識別子)によって複数のグループを表現することができる。そして、領域設定部22は、識別された一以上のグループのそれぞれに対して、一つのマスク処理領域が設定することができる。
画像処理部23は、CPU111の処理によって実現され、画像入力部15により入力された撮像画像中のマスク処理領域に対応する領域に対し画像処理を行う。画像処理は、画像中のマスク処理領域にある画像情報を、復元不可能に削除もしくは劣化させるマスク処理である。マスク処理としては、ぼかし、所定の色もしくは画像パターン(チェッカーパターン、ストライプ、ノイズパターン(砂嵐)、スタンプ等)での塗りつぶし、モザイク処理、および二次元もしくは三次元の図形オブジェクトでの上書きのうちの少なくとも一つの画像エフェクトを含むことができる。マスク処理である。マスク処理は、例えば、全天球画像フォーマット上のマスク処理領域に対応する全天球画像の画像領域に対して適用される。
画像出力部24は、主に、CPU111の処理によって実現され、画像処理部23によって処理された処理画像を出力する。
記憶・読出部29は、主に、CPU111の処理によって実現され、記憶部1000に、各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。また、記憶部1000は、撮像処理部14によって取得された撮像画像データまたは画像処理部23によって処理された処理画像データを記憶している。なお、記憶部1000に記憶されている画像データは、記憶されてから所定の時間経過した場合に削除される構成であってもよいし、他の装置または端末へ送信されたデータが削除される構成であってもよい。
○位置情報管理テーブル
図7は、実施形態に係る位置情報管理テーブルの一例を示す概念図である。位置情報管理テーブルは、検出された所定パターンの位置を示す位置情報を管理するためのテーブルである。記憶部1000には、図7に示されているような位置情報管理テーブルによって構成されている位置情報管理DB1001が構築されている。この位置情報管理テーブルには、過去に画像入力部15に入力された画像(フレーム)において検出された複数の所定パターンの位置が記憶されている。位置情報管理テーブルでは、追跡により同一のものとして認識される領域ごとに、複数の所定パターンの位置を示す座標が管理されている。
図7は、実施形態に係る位置情報管理テーブルの一例を示す概念図である。位置情報管理テーブルは、検出された所定パターンの位置を示す位置情報を管理するためのテーブルである。記憶部1000には、図7に示されているような位置情報管理テーブルによって構成されている位置情報管理DB1001が構築されている。この位置情報管理テーブルには、過去に画像入力部15に入力された画像(フレーム)において検出された複数の所定パターンの位置が記憶されている。位置情報管理テーブルでは、追跡により同一のものとして認識される領域ごとに、複数の所定パターンの位置を示す座標が管理されている。
図8は、実施形態に係る撮像装置10上に実現される自動マスク処理に関連した機能ブロックおよび自動マスク処理の流れを説明する。図8には、撮像装置10の機能ブロックとして、撮像処理部14と、画像入力部15と、領域指定位置検出部16と、領域設定部22と、画像処理部23と、画像出力部24とが示されている。
撮像処理部14は、撮像処理を実行し、全天球画像のデータを生成し、画像入力部15に全天球画像データを入力する。撮像処理部14で生成された全天球画像が、画像入力部15に入力される。なお、説明する実施形態では、撮像処理部14を備える撮像装置10上に、撮像された全天球画像に対してマスク処理を適用する機能を備えるものとして説明する。
しかしながら、この実施形態に限定されるものではなく、詳細を後述するように、外部撮影装置としての撮像装置10と通信するための通信手段や、撮像装置10が画像を保存した着脱可能なメディアのデータを読み取る読取手段を備えた画像処理装置上に、本自動マスク処理機能が実装されてもよい。その場合に、撮像処理部14に代えて、通信手段または読取手段が設けられ、これらの手段から画像入力部15に対し全天球画像が入力される。
また、説明する実施形態では、撮像処理部14が全天球画像の撮像処理を行い、全天球画像が画像入力部15に入力されるものとして説明する。しかしながら、自動マスク処理機能の対象は、特に限定されるものではなく、通常のカメラで撮影される画像が対象となってもよい。また、上述した天頂補正および回転補正は、説明する実施形態では、画像入力部15に入力前に実施されるものとするが、自動マスク処理を施した後に行われることを妨げるものではない。
画像入力部15は、マスク処理の対象となる画像の入力を受ける。説明する実施形態において、マスク処理の対象となる画像は、全天球画像である。画像入力部15に入力された画像は、マスク処理を適用するために後段の画像処理部23に入力されるとともに、マスク処理を適用する領域を決定するために領域指定位置検出部16に入力される。画像入力部15は、本実施形態における画像入力手段を構成する。
領域指定位置検出部16は、入力された画像中の所定パターンの位置を検出する手段であり、図6を参照して説明した、入力された撮像画像に示される所定パターンを検出する検出部17および検出された所定パターンの位置を算出する算出部18を含み構成される。領域指定位置検出部16は、検出した画像中の領域指定位置を示す座標値の配列を領域設定部22に出力する。領域指定位置検出部16は、上述したように、領域指定位置の座標値に加えて、検出した領域指定位置が属するグループを判別することもできる。領域指定位置検出部16は、本実施形態における検出手段を構成する。
領域設定部22は、検出された複数の領域指定位置に基づいて、対象の画像に対してマスク処理領域(処理対象の領域)を設定する。グループが判別される場合、領域設定部22は、識別したグループ構成に基づいて、複数のマスク処理領域を設定することができる。そして、領域指定位置検出部16は、識別された1以上のグループ各々に対して1つのマスク処理領域を設定することもできる。
画像処理部23は、入力された画像中のマスク処理領域に対し、画像処理、より具体的には、マスク処理を適用する。マスク処理は、撮像画像中のマスク処理領域にある画像情報を、復元不可能に削除ないし劣化させる処理である。画像処理部23は、例えば、全天球画像フォーマット上のマスク処理領域に対応する全天球画像の画像部分に対して画像処理を適用する。画像処理部23は、本実施形態における画像処理手段である。
画像出力部24は、画像処理部23によりマスク処理が適用された画像を出力する。画像出力部24は、本実施形態における画像出力手段を構成する。図8には、画像出力部24の出力先として、さらに、記憶・読出部29と、表示制御部13と、通信部11とが示されている。
記憶・読出部29は、マスク処理済みの画像の保存先となる。シャッターボタンの押下に応答して、静止画や動画を撮像し、撮像した画像を保存する場合には、画像出力部24は、生成した静止画または動画を記憶・読出部29により記憶部1000に保存する。
シャッターボタンの押下に応答して、静止画や動画を撮像し、撮像した画像を外部の機器に送信する場合には、画像出力部24は、通信部11を介して、生成した静止画または動画を外部の機器に送信する。
表示制御部13は、上述したように、ライブビュー画面において、入力される画像の表示に対し、自動で検知されたマスク処理領域を重畳して表示することができる。なお、ライブビューは、通信部11を用いて、ネットワークを介して接続された、カメラ制御アプリケーションが動作する情報端末が備えるディスプレイに表示してもよい。
図8には、さらに、機能ブロックとして、受付部12が示されている。なお、図8には、領域修正指示を受け付けるための受付部12が、領域修正指示受付部25として示されている。領域修正指示受付部25は、上述した自動で検知されたマスク処理領域を画定するための点(領域指定点または領域指定位置)の追加、削除、移動およびグルーピングなど修正指示を受け付ける。ここで、グルーピングの修正は、マスク処理領域を画定するための点が属するグループを、現在のグループから別のグループ(新規にグループを定義する場合を含む。)またはグループ外に移動させる操作をいう。領域修正指示受付部25は、本実施形態における修正受付手段を構成する。
上記修正指示は、好ましくは、上述したライブビュー中に受け付けることができる。修正指示は、撮像装置10を制御するためのユーザインタフェース(以下、カメラ制御用ユーザインタフェース)を介して行われる。カメラ制御用ユーザインタフェースは、撮像装置10自身が備える表示部においてライブビューを表示している実施形態においては、撮像装置10が備える表示部および操作部615(タッチパネルなどを含む。)がカメラ制御用ユーザインタフェースを提供する。あるいは、映像インタフェースなどで接続された外部のディスプレイ上でライブビューを行う特定の実施形態では、外部のディスプレイおよび外部ディスプレイ上で各種操作を行うためのデバイス(入力装置)により提供される。あるいは、ネットワークを介して接続された、カメラ制御アプリケーションが実行される情報端末が備えるディスプレイ上にライブビューを表示する他の実施形態においては、情報端末が備えるディスプレイおよびタッチスクリーンやマウス、キーボードなどの入力装置によりカメラ制御用ユーザインタフェースが提供される。例えば、情報端末が備えるディスプレイの画面上を指などで指定することにより手動でマスク処理領域を修正することができる。なお、上記修正指示は、上述したライブビュー中に限定されるものではなく、動画撮影中に受け付けることもできる。
図8には、さらに機能ブロックとして、位置情報DB1001が示されている。位置情報DB1001は、過去に入力された画像で検出された複数の所定パターンの位置(領域指定位置)を記憶する。領域設定部22は、位置情報DB1001に記憶された情報を用いて、領域指定位置検出部16によって検出された複数の所定パターンの位置に基づいて形成される特定の形状を補完する頂点を推定する。
上述したライブビュー中あるいは動画撮影中に、上述した所定パターンを発生させる手段が別の被写体に隠される可能性がある。そうした場合に、マスク処理領域が欠けてしまい、保護すべき領域の一部がマスク対象から外れ、画像中で見えてしまう蓋然性がある。位置情報DB1001は、過去の領域指定位置の座標値を記憶し、領域設定部22は、位置情報DB1001に記憶された領域指定位置の少なくとも一部に基づいて、欠損した範囲指定位置を補完する。これにより、保護すべき領域をより安定的に決定することが可能となる。位置情報DB1001は、本実施形態における記憶手段を構成する。なお、説明する実施形態では、領域設定部22が、位置情報DB1001に記憶された領域指定位置の少なくとも一部に基づいて、欠損した範囲指定位置を補完することとした。しかしながら、他の実施形態では、補完する機能を専ら担う推定部21が、位置情報DB1001に記憶された領域指定位置の少なくとも一部に基づいて、欠損した領域指定位置を補完し、領域設定部22に提供することとしてもよい。この場合、領域設定部22は、欠損した領域指定位置を受け取ることで、記憶された過去の位置の少なくとも一部に基づいて処理対象の領域を設定する。
図8には、さらに、マスク種別指定を受け付けるための受付部12が、マスク種別指定受付部26として示されている。マスク種別指定受付部26は、撮影者から、上述したマスク処理領域に対して適用するマスク処理の種別の指定を受け付ける。マスク種別指定受付部26は、マスク処理の種別の指定は、上述したカメラ制御用ユーザインタフェースを介して受け付けられる。
●実施形態の処理または動作
以下、図9〜図15を参照しながら、実施形態に係る自動マスク処理について、より詳細に説明する。図9は、実施形態に係る撮像装置10が実行する自動マスク処理を示すフローチャートである。なお、図9に示す処理は、処理対象が動画である場合の処理フローであり、先頭のフレームから最終フレームまで各フレームに対し、所定の処理を繰り返す。
以下、図9〜図15を参照しながら、実施形態に係る自動マスク処理について、より詳細に説明する。図9は、実施形態に係る撮像装置10が実行する自動マスク処理を示すフローチャートである。なお、図9に示す処理は、処理対象が動画である場合の処理フローであり、先頭のフレームから最終フレームまで各フレームに対し、所定の処理を繰り返す。
図9に示す処理は、例えば、撮影者からのシャッターボタンの押下による撮影開始の指示に応答して、ステップS100から開始される。
ステップS101では、撮像装置10は、適用するマスク種別を決定する。上述したように、マスク種別は、撮影開始に先立って、適切なカメラ制御用ユーザインタフェースを介して撮影者からマスク種別指定受付部26(受付部12)に指示され、設定値として例えばレジスタなどに保存されているものとする。ステップS101では、設定値が読み出されて、適用するマスク種別が決定される。
ステップS102では、撮像装置10は、画像入力部15への現在のフレームの画像の入力を受けて、処理対象となる画像を取得する。
ステップS103では、撮像装置10は、領域指定位置検出部16により、処理対象となるフレームの画像中の所定パターンの位置(領域指定位置)を検出する。
上述したように、本実施形態においては、全天球画像を撮影しようとする撮影者または撮影される被写体の管理者は、自身が保護すべきと考えている被写体の周辺に、所定パターンを発生させるパターン発生手段を物理的、立体的に配置する作業を実施する。
図10は、撮影者や管理者によるマスク処理領域の指定の仕方およびその場合のマスク処理が適用された画像を説明する図である。図10(A)は、撮影者や管理者によりマスク処理領域が指定された際に撮影される、マスク適用前の全天球画像200を模式的に示す。
全天球画像200には、ある室内空間202が撮影されており、室内空間202には、撮影者が画像中に写り込ませたくないと考えている被写体(図10(A)の例では、デスクおよびその上の紙資料など)204が存在する。この場合、撮影者は、図10(A)に描かれているように、保護すべき被写体204の周辺に、3次元的に、例えばLED装置(発光装置)206を配置する。図10(A)に示す例では、6つのLED装置206a〜206fが撮影範囲に含まれている。
LED装置206は、所定の色の輝点を発生させる発光装置の一例であり、本自動マスク処理機能を利用しようとする撮影者等が、マスク処理領域を事前指定するために配置するデバイスである。なお、説明の便宜上、所定の色の輝点が単独でマスク範囲を指定するパターンとなるものとするが、所定のパターンは、種々の電子機器で採用されている赤や緑などの単色のランプと区別できるパターンであることが望ましく、上述したように、光強度(点滅)パターン、輝点の色、複数の輝点の配置またはこれらの組み合わせで構成され得る。
また、LED装置206は、撮像処理部14の視野内に配置され、所定パターンを発生させるパターン発生手段の一例であるが、パターン発生手段は、特に限定されるものではない。パターン発生手段は、それぞれ、一次元コードまたは二次元コードが印刷された媒体、一次元コードまたは二次元コードを表示する表示装置、1または複数の輝点を発光する発光装置および1または複数の輝点を投影するレーザポインタからなる群から選択され得る。パターン発生手段は、スタンド型であってもよいし、天吊型であってもよいし、バッチ型であってもよい。
上記発光装置としては、上述した1または複数の輝点を発光するLED装置206のほか、ワイヤーやメッシュにLEDなどの発光素子が取り付けられたワイヤーライトおよびメッシュライトなどを例示することができる。また、一次元コードまたは二次元コードが印刷された媒体としては、一次元コードまたは二次元コードが印刷された面を有するパネルやキューブなどとすることができる。撮像装置10が撮影中に移動または向きの変更が行われることも想定されるため、複数の視点から認識可能なようにコードが印刷された面は、複数あることが望ましい。
図10(A)に示すように、領域指定位置検出部16は、全天球画像200中の複数のLED装置206a〜206fの発光部位に対応する輝点208a〜208fの中心位置の座標値を検出する。
なお、時間的パターン(例えば輝点の光強度(点滅)パターン)のように、検出に複数のフレームを要するものであって、まだ十分なフレームが入力されていない場合は、ステップS103の処理で領域指定位置は検出されない場合がある。
ステップS104では、撮像装置10は、検出した領域指定位置を位置情報DB1001に記憶する。ステップS105では、撮像装置10は、過去に検出されていた領域指定位置が消失したか否かを判定する。なお、初回フレームでは、過去の検出位置が記憶されていないため、領域指定位置の消失は無いと判定される。ステップS105で、領域指定位置が消失していないと判定された場合(NO)は、ステップS107へ処理が進められる。
ステップS107では、撮像装置10は、領域設定部22により、検出された領域指定位置に基づいてマスク処理領域を設定する。ステップS108では、撮像装置10は、画像処理部23により、設定されたマスク処理領域の画像部分に対し、指定された種別のマスク処理を適用する。ステップS109では、撮像装置10は、画像出力部24から、マスク処理領域に対しマスク処理が適用された画像を出力する。動画撮影時は、記憶・読出部29を介した記憶部1000が出力先となる。動画撮影中に画像確認を行う場合は、表示制御部122も出力先となる。
図10(B)は、撮影者や管理者によりマスク処理領域が指定されて撮影されたマスク適用後の全天球画像210を模式的に示す。なお、図10(B)の例は、領域指定位置の座標点を結ぶ単一の多角形の領域に対して黒塗りのマスク処理が適用された場合を例示する。図10(B)に示すように、マスク適用後の全天球画像210においては、上述したLED装置206a〜206fの発光部位に対応する輝点208a〜208fの中心位置を結んで画定される多角形領域214が黒塗りされ、本来ならその領域214にある被写体204の画像情報が除去されている。このように、入力された画像中に存在する複数の所定パターンの位置を結んで画定される領域がマスク処理された画像が出力される。
図11(A)は、撮影者や管理者により2つのマスク処理領域が事前指定された場合に撮影されるマスク適用前の全天球画像220を模式的に示す。
全天球画像220には、図10と同様に、ある室内空間222が撮影されており、室内空間222には、撮影者が画像に写したくないと考えている2つの被写体224,234が存在する。図11(A)の例では、保護すべき第1の被写体224は、デスクおよびその上の紙資料であり、保護すべき第2の被写体234は、隣部屋の室内である。
この場合、撮影者は、図11(A)に描かれているように、保護すべき第1の被写体224の周辺に、これを囲むように、第1のパターンを発生する第1グループのLED装置226を配置する。図11(A)に示す例では、6つの第1のLED装置226a〜226fが撮影範囲に含まれている。保護すべき第2の被写体234の周辺には、第2のパターンを発生する第2のLED装置236が配置される。図11(A)に示す例では、4つの第2のLED装置236a〜236dが撮影範囲に含まれている。
第1のLED装置226a〜226fおよび第2のLED装置236a〜236dは、それぞれ、異なるパターンの輝点を発するものであり、本自動マスク処理機能を利用しようとする撮影者等が、マスク処理領域を撮影前に指定するために配置するデバイスである。なお、説明の便宜上、図10と同様に、それぞれ異なる色の輝点が単独で別のパターンと構成し、マスク範囲を指定するものとする。
図11(A)に示すように、領域指定位置検出部16は、全天球画像200中の上記LED装置226a〜226f,236a〜236dの発光部位に対応する輝点228a〜228f,238a〜238dの中心位置の座標値を検出する。第1の輝点228a〜228fおよび第2の輝点238a〜238dは、色が異なることから、別々の識別子を表しており、2つのグループにグルーピングされる。
この場合、ステップS107では、領域設定部22は、それぞれ所定の条件を満たす識別子(本例では同一識別子であることを条件とするが、所定の数値範囲内の識別子を同一グループとしてもよい。)を有する領域指定位置を含んで構成される複数のグループに対して、異なるマスク処理領域を設定する。
図11(B)は、その際のマスク適用後の全天球画像240を模式的に示す。なお、図11(B)の例も、図10と同様に、同一グループの領域指定位置の座標点を結ぶ単一の多角形領域各々に対して黒塗りのマスク処理が適用される場合を例示する。図11(B)に示すように、マスク適用後の全天球画像240においては、上述した第1のLED装置226a〜226fの発光部位に対応する輝点228a〜228fの中心位置で画定される多角形領域244と、上述した第2のLED装置236a〜236fの発光部位に対応する輝点238a〜238dの中心位置で画定される多角形領域246とが黒塗りされる。これにより、本来ならこれらの領域244,246にある被写体224,234の画像情報が除去される。
図12(A)および図12(B)は、異なる種別によるマスク処理を説明する図である。なお、図12(A)のS1および図12(B)のS2は、図11(B)に示した矩形領域Sの範囲を切り出して拡大表示したものである。
図12(A)は、マスク適用後の全天球画像240において、画定された多角形領域252(図11(B)の領域244に対応する。)が、黒塗りに代えて、ぼかし処理された場合の状態を示す。図12(A)に示すように、この領域244にある被写体224の画像情報は、ぼかし処理により、完全に除去されるわけではないが、元の詳細な画像情報が読み取り不可能かつ復元不可能な形で、除去される。図12(B)は、マスク適用後の全天球画像240においては、画定される多角形領域254(図11(B)の領域244に対応する。)が、黒塗りに代えて白塗り処理された場合の状態を示す。
図12(C)は、所定の色の輝点を発生するLED装置に代えて、二次元コードのパネル(立札またはスタンド型)260を用いる場合のマスク適用前の全天球画像の部分を例示する。なお、図12(C)のS3は、図11(B)に示したものと同一の室内空間において、LED装置226に代えてパネル260を配置した状態で撮影した全天球画像の矩形領域Sに対応する範囲を切り出して拡大表示したものである。図12(C)に示すように、LED装置に代えて、二次元コードのパネル260が物理的に配置されてもよい。その場合に、LED装置の輝点の中心位置に代えて、パネル260の2次元コードの中心位置によりマスク対象領域が指定される。なお、図12(C)に示す例では、6つのパネル260a〜260fが撮影範囲に含まれている。
図13(A)は、複数の色の輝点を発生するLED装置を用いて奥行情報を符号化した場合のマスク適用前の全天球画像の部分を例示する。図13(A)に示す全天球画像には、図10と同様に、ある室内空間が撮影されており、室内空間に、撮影者が画像に写したくないと考えている被写体274が存在する。図13(A)の例において、撮影者は、保護すべき被写体274の周辺にLED装置276を配置するが、同一の被写体について、第1の色の輝点を発光する第1のグループのLED装置276a〜276dと、第1の色とは異なる第2の色の輝点を発光する第2のグループのLED装置276e〜276hが配置されている。各グループのLED装置276の輝点の色は、グループ内で同一であり、グループ間では異なるものとし、図10と同様に、説明の便宜上、それぞれ異なる輝点の色でグループが識別されるものとする。
この場合、ステップS103では、領域指定位置検出部16は、図13(A)に示すように、全天球画像中のLED装置276a〜276dの発光部位に対応する輝点278a〜208dの中心位置の座標値と、LED装置276e〜276hの発光部位に対応する輝点278e〜208hの中心位置の座標値とを別々のグループとして検出する。さらに、事前に、各グループは、異なる奥行の面を表すものであることが事前に定められており、第1のグループの輝点278a〜278dの中心位置は、破線で示す手前側の面280を規定する領域指定位置であると認識され、第2のグループの輝点278e〜278hの中心位置は、一点鎖線で示す奥側の面282を規定する領域指定位置として認識される。ステップS107では、領域設定部22は、奥行情報に基づいて、マスク処理領域を設定する。図13(A)に示すように、領域指定位置を複数のグループに分けて、複数のグループで、単一のマスク処理領域を定義することができる。この場合、手前側の面280および奥側の面282は、所定の立体(例えば立方体)の面として取り扱われ、立体の他の面を補完することができる。
なお、色により各奥行き情報を識別するものとして説明するが、LED装置の配置を図形化して奥行き情報を表すことで、好適に多角形化を補助することができる。例えば、「○」型に並べられたLED群で囲まれる領域は手前の面を表し、「×」型に並べられたLED装置群で囲まれる領域は奥の面を表すといった定義を行うことができる。同様に、輝点のパターンに代えて、二次元コードにより奥行き情報を符号化することで多角形化を補助してもよい。例えば第1の識別子を表す二次元コードのグループで囲まれる領域は手前の面を表し、第2の識別子を表す二次元コードのグループで囲まれる領域は奥の面を表すといった定義を行うことができる。あるいは、立方体(例えば立方体や直方体)の各頂点を別々の識別子で表してもよい。
所定パターンに奥行情報を符号化することにより、撮影中の撮像装置10の移動または向きの変更に対し好適に対応することが可能となる。
再び図9を参照すると、ステップS110では、撮像装置10は、本フレームが最終フレームであるか否かを判定する。ステップS110で、未だ最終フレームではないと判定された場合(NO)は、ステップS102へ制御を戻して、次フレーム以降の処理を継続する。一方、ステップS110で、例えば、撮影終了の指示が行われており、本フレームが最終フレームであると判定された場合(YES)は、ステップS111へ処理を進めて、本処理を終了する。
再びステップS105を参照すると、ステップS105で、少なくとも1つの領域指定位置が消失したと判定された場合(YES)は、ステップS106へ処理が進められる。ステップS106では、撮像装置10は、領域設定部22または推定部21により、消失が検知知られた領域指定位置について、過去の値を用いて補完し、ステップS107へ処理を進める。
図13(B)は、過去のフレームで検出された領域指定位置が消失した場合のマスク適用前の天球画像の部分を示す。図7は、位置情報DB1001に格納される位置情報管理テーブルのデータ構造を示す図である。まず、図13(A)のように、一つ前のフレームにおいて、複数の領域指定位置が検出されている場合に、図7で示す位置情報管理テーブルが保存されているものとする。図15は、実施形態に係る、記憶部に格納される位置情報管理テーブルのデータ構造の他の例を示す図である。位置情報管理テーブルは、領域指定位置番号、識別子および全天球画像上の座標値を含み構成され、追跡により同一のものとして認識される各指定位置毎に設けられる。図13(B)に示す例では、当該フレームにおいて、従前検出された手前側のLED装置276dの輝点278dが、遮蔽物290で遮られ、1つの領域指定位置が消失した状態を表している。
この場合、消失していない他のLED装置276a〜276cの輝点278a〜278cの中心位置の変化量が所定の閾値未満であった場合には、消失した輝点278dの位置が、過去のフレームの位置から大きく変化していないとして、過去の位置を領域指定位置の推定位置とし、手前側の面280が規定される。一方、消失していない他のLED装置276a〜276cの輝点278a〜278cの中心位置の変化量が所定の閾値以上であった場合には、撮影視点や向きが移動したとして、フレーム間の消失していない各領域指定位置の座標の移動量に基づいて、撮影視野の向きの変化を推定し、過去のフレームの位置に対して所定の移動量を加味した上で、消失した領域指定位置を推定し、手前側の面280が規定される。
このように、撮像装置10が動いた場合や物体が動いてカメラの視界を遮った場合など、二次元コードやLED装置が一時的に視野内で認識できなくなる場合がある。これに対し、一度認識した位置情報をそのまま保持し、他の領域指定位置の過去の情報を利用して撮影視野の方向の動きを検出し、遮蔽された領域指定位置を演算により推定し続けることで、一時的な所定パターンの消失に対処することが可能となる。
図14は、実施形態に係る所定パターンの検出位置の一例を示す概略図である。図14の例において、図7に示されている位置情報と比較すると、領域指定位置番号「8」のものが欠損しているため、領域設定部22または推定部21は、領域指定位置番号「8」を補完する頂点として推定する。
以上、図9〜図15を参照しながら、動画撮影時の処理フローについて説明した。この場合は、上述したように、動画撮影中、先頭のフレームから最終フレームまで各フレームに対し、ステップS102〜S109までの処理が繰り返される。静止画撮影中のライブビューの場合は、図9に示すステップS109の出力先を表示制御部122に変更すればよい。静止画撮影時は、図9に示すステップS102〜S109までの処理を、単一のフレームに対し行うように変更し、ステップS109の出力先を記憶部1000とすればよい。さらに、撮影時やライブビュー時ではなく、保存済みの静止画または動画を対象としてマスク処理を適用する場合は、ステップS102で、記録媒体から読み出した画像の入力を受ければよい。
以上、撮像機能を備える撮像装置10上に、自動マスク処理機能が備えられた実施形態について説明した。しかしながら、上述したように、上記実施形態に限定されるものではない。他の実施形態では、外部撮影装置としての撮像装置10と通信するための通信手段または撮像装置10が画像を保存した着脱可能なメディアのデータを読み取る読取手段を備えた画像処理装置上に、本自動マスク処理機能が実装されてもよい。
●実施形態の変形例●
次に、実施形態の変形例に係る画像処理システムについて説明する。なお、上記実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。実施形態の変形例に係る画像処理システムは、撮像装置10aによって取得された撮像画像に対するマスク処理を、撮像装置10aに接続されたPC50によって実行するシステムである。
次に、実施形態の変形例に係る画像処理システムについて説明する。なお、上記実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。実施形態の変形例に係る画像処理システムは、撮像装置10aによって取得された撮像画像に対するマスク処理を、撮像装置10aに接続されたPC50によって実行するシステムである。
●システム構成
図16は、実施形態の変形例に係る画像処理システムの概略の一例を説明するための図である。図16に示されているように、実施形態の変形例に係る画像処理システムは、撮像装置10aに接続されたPC50を含んで構成される。
図16は、実施形態の変形例に係る画像処理システムの概略の一例を説明するための図である。図16に示されているように、実施形態の変形例に係る画像処理システムは、撮像装置10aに接続されたPC50を含んで構成される。
PC50は、撮像画像に対する画像処理を行う利用者が使用する画像処理装置である。PC50には、全天球画像等の処理対象の画像を編集するための編集用アプリケーションプログラム、または撮像装置10aを制御するための制御用アプリケーションプログラムがインストールされている。また、PC50は、USB、HDMI(High-Definition Multimedia Interface,HDMIは登録商標である。)等のケーブルを介して撮像装置10に接続される。
撮像装置10aとPC50は、上記ケーブルを用いずに、Bluetooth(登録商標)、NFCまたはWi−Fi(登録商標)等の近距離無線通信技術を利用して無線通信してもよい。また、撮像装置10aとPC50は、インターネット、移動体通信網、LAN(Local Area Network)等の通信ネットワークを介して通信され、PC50は、撮像装置10aと別拠点に位置する構成であってもよい。この場合、通信ネットワークには、有線通信だけでなく、4G(4th Generation)、5G(5th Generation)、LTE(Long Term Evolution)、Wi−Fi(登録商標)またはWiMAX(登録商標)(Worldwide Interoperability for Microwave Access)等の無線通信によって構築される箇所が含まれていてもよい。また、通信ネットワークには、ブロックチェーンによって構築されたネットワークが含まれていてもよい。
なお、PC50は、スマートフォンまたはタブレット端末等であってもよい。また、PC50は、単一のコンピュータによって構築されてもよいし、各部(機能、手段または記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
●ハードウエア構成
図17は、実施形態の変形例に係るPCのハードウエア構成の一例を示す図である。PC50は、コンピュータによって構築されており、図17に示されているように、CPU501、ROM502、RAM(Random Access Memory)503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514、およびメディアI/F516を備えている。
図17は、実施形態の変形例に係るPCのハードウエア構成の一例を示す図である。PC50は、コンピュータによって構築されており、図17に示されているように、CPU501、ROM502、RAM(Random Access Memory)503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、DVD−RW(Digital Versatile Disk Rewritable)ドライブ514、およびメディアI/F516を備えている。
これらのうち、CPU501は、PC50全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出しまたは書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。ディスプレイ506は、表示部の一例である。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、撮像装置10等である。ネットワークI/F509は、通信ネットワークを利用してデータ通信をするためのインターフェースである。バスライン510は、図17に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
また、キーボード511は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。DVD−RWドライブ514は、着脱可能な記録媒体の一例としてのDVD−RW513に対する各種データの読み出しまたは書き込みを制御する。なお、DVD−RWに限らず、DVD−RやBlu-ray Disc等であってもよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出しまたは書き込み(記憶)を制御する。
なお、上記各プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD−R、DVD、Blu-ray Disc、SDカード、USBメモリ等が挙げられる。また、記録媒体は、プログラム製品として、国内または国外へ提供されることができる。例えば、PC50は、本発明に係るプログラムが実行されることで本発明に係る画像処理方法を実現する。
●機能構成
図18は、実施形態の変形例に係る画像処理システムの機能構成の一例を示す図である。撮像装置10aは、通信部11、受付部12、表示制御部13、撮像処理部14および記憶・読出部29を有している。これら各部は、図6に示されている撮像装置10の各部と同様の機能を有する。
図18は、実施形態の変形例に係る画像処理システムの機能構成の一例を示す図である。撮像装置10aは、通信部11、受付部12、表示制御部13、撮像処理部14および記憶・読出部29を有している。これら各部は、図6に示されている撮像装置10の各部と同様の機能を有する。
PC50は、通信部51、受付部52、表示制御部53、検出部55、算出部56、推定部58、領域設定部59、画像処理部61および記憶・読出部69を有している。これら各部は、図17に示されている各構成要素のいずれかが、RAM503上に展開されたPC用プログラムに従ったCPU501からの命令によって動作することで実現される機能、または機能する手段である。また、PC50は、図17に示されているROM502、HD504または記録メディア515によって構築される記憶部5000を有している。記憶部5000には、図7に示されているような位置情報管理テーブルによって構成されている位置情報管理DB5001が構築されている。
通信部51は、主に、主に、CPU501の処理によって実現され、撮像装置10aと各種データまたは情報の通信を行う。通信部51は、例えば、ネットワークI/F509を用いて、撮像装置10aとの間で、通信ネットワークを介したデータ通信を行う。また、通信部51は、例えば、外部機器接続I/F508を用いて、撮像装置10aとの間で、各種ケーブル等を介したデータ通信を行う。
受付部52は、主に、キーボード511またはポインティングデバイス512に対するCPU501の処理によって実現され、利用者から各種の選択または入力を受け付ける。表示制御部53は、主に、CPU501の処理によって実現され、ディスプレイ506に、各種画像を表示させる。受付部52および表示制御部53は、それぞれ図7に示されている撮像装置10の受付部12および表示制御部13と同様の機能を有する。
検出部55、算出部56、推定部58、領域設定部59および画像処理部61は、それぞれCPU501の処理によって実現され、図6に示されている撮像装置10の検出部17、算出部18、推定部21、領域設定部22、画像処理部23と同様の機能を有する。記憶・読出部69は、主に、CPU501の処理によって実現され、記憶部5000に、各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。また、記憶部5000は、撮像装置10aから取得された撮像画像データまたは画像処理部61によって処理された処理画像データを記憶している。なお、記憶部5000に記憶されている画像データは、記憶されてから所定の時間経過した場合に削除される構成であってもよいし、他の装置または端末へ送信されたデータが削除される構成であってもよい。
●実施形態の変形例の処理または動作
次に、図19を用いて、実施形態の変形例に係る画像処理システムの処理または動作について説明する。図19は、実施形態の変形例に係る画像処理システムにおける撮像装置に対するマスク処理の一例を示すシーケンス図である。
次に、図19を用いて、実施形態の変形例に係る画像処理システムの処理または動作について説明する。図19は、実施形態の変形例に係る画像処理システムにおける撮像装置に対するマスク処理の一例を示すシーケンス図である。
まず、撮像装置10aの撮像処理部14は、所定の領域に対する撮像処理を開始する(ステップS51)。具体的には、撮影者がシャッターボタン等の入力手段を押下することで受付部12は、撮影開始要求を受け付ける。そして、撮像処理部14は、受付部12によって受け付けられた撮影開始要求に応答して、撮像処理を開始する。次に、撮像装置10aの通信部11は、ステップS51の撮像処理で取得された撮像画像データを、PC50に対して送信する(ステップS52)。これにより、PC50の通信部51は、撮像装置10aから送信された撮像画像データを受信し、処理対象の画像の入力を受け付ける。
PC50は、通信部51によって入力された画像に対する画像処理を行う(ステップS53)。ステップS53における画像処理は、図9に示されている処理と同様のマスク処理である。特に、PC50の表示制御部53は、ステップS53における画像処理中に、入力された撮像画像をディスプレイ506に表示させることで、PC50の利用者に撮像画像の状態を確認させてもよい。また、PC50の受付部52は、ディスプレイ506に表示された撮像画像または処理画像に対する処理内容の選択が受け付けられてもよい。この場合、受付部52は、例えば、利用者によるマスク種別の選択を受け付けてもよいし、マスク処理が施された処理画像に対するマスク種別の修正の選択が受け付けられてもよい。
このように、実施形態の変形例に係る画像処理システムは、PC50を用いて撮像装置10aにより取得された画像に対する画像処理を行うことで、撮像画像をリアルタイムで確認することができるとともに、撮像画像または処理画像を確認しながらマスク処理の修正等を行うことができる。
なお、撮像素子103a,103bによって得られる画像は部分画像であるが、撮像装置10上の撮像処理部14は、図5で説明した処理を経て、全天球画像を生成し、PC50に入力することができる。他の実施形態では、撮像装置10上の撮像処理部14は、図5で説明した処理により全天球画像を生成する前の2つの部分画像のままとし、2つの部分画像をPC50に入力することができる。PC50は、全天球画像生成前の2つの部分画像が入力される場合は、図7で説明した処理と同等の処理を行って全天球画像を生成する。全天球画像が生成された以降の処理は、上述までの図面を参照して説明したものと同一となる。
●まとめ●
以上説明したように、上述までの実施形態によれば、ユーザが撮像画像の事前指定された処理対象の領域を認識して撮像画像に対し画像処理を適用することが可能な画像処理装置、画像処理システム、画像処理方法およびプログラムを提供することができる。本発明の一実施形態に係る画像処理装置(例えば、撮像装置10またはPC50)は、撮像画像の入力を受け、入力された撮像画像に示される所定パターンの位置を検出する。そして、画像処理装置は、検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定し、設定された領域に対して画像処理を行う。これにより、画像中の事前指定されたマスク処理の適用範囲を認識して画像に対しマスク処理を適用することが可能となる。
以上説明したように、上述までの実施形態によれば、ユーザが撮像画像の事前指定された処理対象の領域を認識して撮像画像に対し画像処理を適用することが可能な画像処理装置、画像処理システム、画像処理方法およびプログラムを提供することができる。本発明の一実施形態に係る画像処理装置(例えば、撮像装置10またはPC50)は、撮像画像の入力を受け、入力された撮像画像に示される所定パターンの位置を検出する。そして、画像処理装置は、検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定し、設定された領域に対して画像処理を行う。これにより、画像中の事前指定されたマスク処理の適用範囲を認識して画像に対しマスク処理を適用することが可能となる。
なお、上述までは、撮像処理部14が全天球画像を撮像し、画像入力部15に対し全天球画像が入力されるものとして説明した。上記自動マスク処理機能は、撮影者が撮影方向を調整することで望ましくないものを撮影範囲から容易に除外できる通常のカメラとは異なる、撮像装置10などのによって撮像された広角画像(全天球画像、半球画像、パノラマ画像)に対して、特に好適に適用することができる。特に撮像装置10による撮影では、広範囲が撮影範囲となり、保護したい被写体を撮影範囲から除外することが容易ではなく、また、保護した被写体も、広範囲に分散し得るためである。全天球画像に対して本自動マスク処理機能を適用することにより、撮影者は安心して、全天球画像の撮影を行うことができるようになる。しかしながら、上述した自動マスク処理機能自体は、通常の画角のカメラで撮影された画像に対しても同様に適用してもよい。
また、マスク処理の対象の観点からは、本実施形態による自動マスク処理機能は、保護したい対象の特徴を事前に定義することが難しい対象に対して特に好適に適用することができる。人の顔や身体のように、事前に保護すべき対象の特徴が明確である場合は、顔認識、身体認識または他の物体認識技術により認識できる。しかしながら、保護したい対象の特徴を事前に定義することが困難な場合がある。例えば、全天球画像を用いたツアーにより工場内の様子を案内するコンテンツの場合、工場内には多種多様な被写体が存在し得るところ、そのような被写体を事前に物体認識器で認識可能とすることは一般に難しい。
さらに、監視カメラのように設置位置が固定されている定点カメラ(カメラの向きが可変な場合も含む。)の場合、画像上の所定の座標範囲に対しマスクを指定することが容易であるところ、本実施形態による自動マスク処理機能は、手持ちカメラや三脚で固定されるカメラのように設置位置が不定の撮影装置により撮像した画像に対して特に好適に適用することができる。
また、本実施形態による自動マスク処理機能は、撮像装置10を用いてリアルタイム配信を行う際にも好適に適用することができる。特に配信している際は、撮像装置10を持って動く可能性があるところ、自動マスク処理機能を用いることで、立体的な領域を隠すことができるようになり、安心してリアルタイム配信を行うことができるようになる。
●補足●
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPUおよび従来の回路モジュール等のデバイスを含むものとする。
上記で説明した実施形態の各機能は、一または複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウエアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPUおよび従来の回路モジュール等のデバイスを含むものとする。
また上記機能は、アセンブラ、C、C++、C#、Java(登録商標)、などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。
また、上記で説明した実施形態の各種テーブルは、機械学習の学習効果によって生成されたものでもよく、関連づけられている各項目のデータを機械学習にて分類付けすることで、テーブルを使用しなくてもよい。ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり,コンピュータが,データ識別等の判断に必要なアルゴリズムを,事前に取り込まれる学習データから自律的に生成し,新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、さらに、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。
これまで本発明の一実施形態に係る画像処理装置、画像処理システム、画像処理方法およびプログラムについて説明してきたが、本発明は上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
1…撮像システム、10…撮像装置、50…画像処理装置(PC)、11,51…通信部、12,52…受付部、13,53…表示制御部、14…撮像処理部、15…画像入力部、16…領域指定位置検出部、17,55…検出部、18,56…算出部、21,58…推定部、22,59…領域設定部、23,61…画像処理部、24…画像出力部、25…領域修正指示受付部、26…マスク種別指定受付部、29,69…記憶・読出部、101…撮像ユニット、104…画像処理ユニット、105…撮像制御ユニット、108…マイク、109…音処理ユニット、111…CPU、112…ROM、113…SRAM、114…DRAM、115…操作部、116…入出力I/F、117…近距離通信回路、117a…アンテナ、118…電子コンパス、119…ジャイロセンサ、120…加速度センサ、121…ネットワークI/F、501…CPU、502…ROM、503…RAM、504…HD、505…HDDコントローラ、506…ディスプレイ、508…外部機器接続I/F、509…ネットワークI/F、510…データバス、511…キーボード、512…ポインティングデバイス、514…DVD−RWドライブ、516…メディアI/F、1000,5000‥‥記憶部、1001,5001…位置情報管理DB
Claims (18)
- 撮像画像の入力を受ける画像入力手段と、
前記画像入力手段に入力された撮像画像に示される所定パターンの位置を検出する検出手段と、
前記検出手段で検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定する設定手段と、
前記設定手段で設定された前記領域に対して画像処理を行う画像処理手段と
を含む、画像処理装置。 - 前記複数の所定パターンは、それぞれ、撮像画像中の一次元コード、撮像画像中の二次元コード、撮像画像中の輝点のパターン、または、複数時点の撮像画像にわたる輝点の時間的パターンである、請求項1に記載の画像処理装置。
- 前記領域は、少なくとも前記複数の所定パターンの位置を結んで画定される多角形を包含する領域、または、少なくとも前記複数の所定パターンの位置の凸包を包含する領域を含む、請求項1または2に記載の画像処理装置。
- 前記画像処理は、ぼかし、所定の色または画像パターンでの塗りつぶし、モザイク処理および図形オブジェクトでの上書きからなる群から選択される少なくとも1つの画像エフェクトを含む、請求項1〜3のいずれか1項に記載の画像処理装置。
- 前記複数の所定パターンは、異なるパターンを含み、前記検出手段は、前記位置とともに、パターンを識別する識別子を検出し、前記設定手段は、それぞれ所定の条件を満たす識別子を有する位置を含んで構成される複数のグループに対して、異なる処理対象の領域を設定することを特徴とする、請求項1〜4のいずれか1項に記載の画像処理装置。
- 前記複数の所定パターンは、異なるパターンを含み、前記検出手段は、前記位置とともに、パターンに応じた奥行情報を検出し、前記設定手段は、前記奥行情報に基づいて、前記領域を設定することを特徴とする、請求項1〜4のいずれか1項に記載の画像処理装置。
- 過去に入力された撮像画像で検出された複数の所定パターンの位置を記憶する記憶手段と、記憶された過去の位置の少なくとも一部に基づいて前記領域を設定する手段とを含む、請求項1〜6のいずれか1項に記載の画像処理装置。
- 入力される撮像画像および設定された前記領域を表示する表示制御手段と、
前記領域を画定するための点の追加、削除、移動およびグルーピングの修正指示を受け付ける修正受付手段と
をさらに含む、請求項1〜7のいずれか1項に記載の画像処理装置。 - 前記領域に対して適用する前記画像処理の種別の指定を受け付ける種別受付手段
をさらに含む、請求項1〜8のいずれか1項に記載の画像処理装置。 - 前記画像処理装置は、
外部撮像装置と通信を行う通信手段を備え、前記通信手段は、前記画像入力手段に対し撮像画像を入力する、請求項1〜9のいずれか1項に記載の画像処理装置。 - 前記処理対象の領域は、マスク処理領域であり、前記画像処理は、マスク処理である、請求項1〜10のいずれか1項に記載の画像処理装置。
- 前記撮像画像は、全天球画像、半球画像および水平360度画像である、請求項1〜11のいずれか1項に記載の画像処理装置。
- 画像処理装置であって、
撮像画像の入力を受ける画像入力手段と、
前記画像入力手段に入力された撮像画像に示される複数の所定パターンの位置を結んで画定される領域が画像処理された画像を出力する画像出力手段と
を含む、画像処理装置。 - 撮像画像を撮像する撮像手段と、
前記撮像手段により撮像された撮像画像に示される所定パターンの位置を検出する検出手段と、
前記検出手段で検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定する設定手段と
前記設定手段で設定された前記領域に対して画像処理を行う画像処理手段と、
を含む、画像処理システム。 - 前記画像処理システムは、さらに、
前記撮像手段の視野内に配置され、それぞれ前記所定パターンを発生させる複数のパターン発生手段
を含む、請求項14に記載の画像処理システム。 - 前記パターン発生手段は、それぞれ、一次元コードまたは二次元コードが印刷された媒体、一次元コードまたは二次元コードを表示する表示装置、1または複数の輝点を発光する発光装置および1または複数の輝点を投影するレーザポインタからなる群から選択される、請求項15に記載の画像処理システム。
- コンピュータが、
撮像画像の入力を受けるステップと、
入力された撮像画像に示される所定パターンの位置を検出するステップと、
検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定するステップと、
設定された前記領域に対して画像処理を行うステップと
を含む、画像処理方法。 - コンピュータを、
入力された撮像画像に示される所定パターンの位置を検出する検出手段、
前記検出手段で検出された複数の所定パターンの位置に基づいて、処理対象の領域を設定する設定手段、および
前記設定手段で設定された前記領域に対し、画像処理を行う画像処理手段
として機能させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024415 | 2020-02-17 | ||
JP2020024415 | 2020-02-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021129293A true JP2021129293A (ja) | 2021-09-02 |
Family
ID=77489220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020212786A Pending JP2021129293A (ja) | 2020-02-17 | 2020-12-22 | 画像処理装置、画像処理システム、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021129293A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023057017A (ja) * | 2021-10-08 | 2023-04-20 | 3アイ インコーポレイテッド | 3次元仮想モデルを提供するためのホールフィリング方法及びそのためのコンピューティング装置 |
-
2020
- 2020-12-22 JP JP2020212786A patent/JP2021129293A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023057017A (ja) * | 2021-10-08 | 2023-04-20 | 3アイ インコーポレイテッド | 3次元仮想モデルを提供するためのホールフィリング方法及びそのためのコンピューティング装置 |
JP7353675B2 (ja) | 2021-10-08 | 2023-10-02 | 3アイ インコーポレイテッド | 3次元仮想モデルを提供するためのホールフィリング方法及びそのためのコンピューティング装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6723512B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6627352B2 (ja) | 画像表示装置、画像表示方法及びプログラム | |
CN111046725B (zh) | 一种基于监控视频的人脸识别和点云融合的空间定位方法 | |
JP2010109783A (ja) | 電子カメラ | |
JP2007072537A (ja) | 360°画像撮影装置 | |
CN109981944A (zh) | 电子装置及其控制方法 | |
US11700348B2 (en) | Systems and methods for tracking objects in a field of view | |
CN112019826A (zh) | 投影方法、系统、装置、电子设备及存储介质 | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
JP2016009266A (ja) | 撮影システム、撮影の方法、およびコンピュータープログラム | |
JP3983624B2 (ja) | 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体 | |
JP2014029566A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
KR20110136018A (ko) | 알에프아이디 리더를 구비한 증강현실 장치 | |
JP2021129293A (ja) | 画像処理装置、画像処理システム、画像処理方法およびプログラム | |
JP2008017386A (ja) | キー画像生成装置 | |
JP2017126942A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7494573B2 (ja) | 画像処理装置、画像処理システム、画像処理方法およびプログラム | |
EP3805899A1 (en) | Head mounted display system and scene scanning method thereof | |
KR101518696B1 (ko) | 증강현실 컨텐츠의 생성 및 재생 시스템과, 이를 이용한 방법 | |
US20200342833A1 (en) | Head mounted display system and scene scanning method thereof | |
WO2021035674A1 (zh) | 一种图像生成方法、设备、可移动平台及存储介质 | |
TW202036369A (zh) | 影像處理裝置及其方法 | |
JP2017184025A (ja) | 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム | |
JP6859763B2 (ja) | プログラム、情報処理装置 | |
JP5623247B2 (ja) | 撮像装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231011 |