JPWO2011114610A1 - 全方位画像処理装置および全方位画像処理方法 - Google Patents

全方位画像処理装置および全方位画像処理方法 Download PDF

Info

Publication number
JPWO2011114610A1
JPWO2011114610A1 JP2011520476A JP2011520476A JPWO2011114610A1 JP WO2011114610 A1 JPWO2011114610 A1 JP WO2011114610A1 JP 2011520476 A JP2011520476 A JP 2011520476A JP 2011520476 A JP2011520476 A JP 2011520476A JP WO2011114610 A1 JPWO2011114610 A1 JP WO2011114610A1
Authority
JP
Japan
Prior art keywords
monitoring target
image
omnidirectional
unit
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011520476A
Other languages
English (en)
Other versions
JP5536060B2 (ja
Inventor
荒井 結子
結子 荒井
勇一郎 竹本
勇一郎 竹本
杉浦 雅貴
雅貴 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011520476A priority Critical patent/JP5536060B2/ja
Publication of JPWO2011114610A1 publication Critical patent/JPWO2011114610A1/ja
Application granted granted Critical
Publication of JP5536060B2 publication Critical patent/JP5536060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/047
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • G06T3/12
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Abstract

全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させることができる全方位画像処理装置。全方位画像処理装置(400)は、全方位画像に対して画像処理を行う装置であって、全方位画像に撮影されている監視対象を指定する監視対象指定部(405)と、指定された監視対象の位置が上側中央となるように、全方位画像を回転させる画像回転部(406)と、画像回転部(406)によって回転された全方位画像の中心位置を、ワーピング処理によって下方向に移動させる中心位置移動部(407)とを有する。

Description

本発明は、全方位画像に対して画像処理を行う全方位画像処理装置および全方位画像処理方法に関する。
全方位カメラは、通常のカメラに魚眼レンズや球面ミラー等の特殊な光学系を組み合わせたカメラを用いることにより、一度の撮影で全方位の画像(以下「全方位画像」という)が得られるようにしたカメラである(例えば非特許文献1参照)。全方位カメラは、監視システム等、広い分野で活用されている。ところが、全方位画像では、人物や物体など個々の被写体(以下「監視対象」という)の画像の歪みが大きいため、個々の監視対象の様子を把握し難い。
そこで、従来、全方位画像に対して画像処理を行う技術が提案されている(例えば、特許文献1および特許文献2参照)。特許文献1に記載の技術は、全方位画像を、環状の画像、具体的には、中心位置が異なる大小2つの楕円に挟まれた領域内に表示される画像に変換する。この技術により、個々の監視対象の位置関係を容易に把握させることが可能である。また、特許文献2に記載の技術は、全方位画像をパノラマ状の横長画像に座標変換し、指定された監視対象の画像を切り出して歪み補正を行う。この技術により、全方位画像から、個々の監視対象の画像の歪みが少ない画像を生成することが可能である。
特開2003−132348号公報 特開2008−48443号公報 特開平11−331654号公報
山澤一誠、八木康史、谷内田正彦、「移動ロボットのナビゲーションのための全方位視覚センサ」、電子情報通信学会誌D−II、社団法人電子情報通信学会、1996年5月25日、Vol.J79−D−II、p.698−707
しかしながら、特許文献1および特許文献2に記載の技術では、広い範囲における監視対象の詳細な状況の把握や、監視対象の周辺の状況についての直感的な把握が、難しい場合がある。
特許文献1に記載の技術では、中心位置が異なる大小2つの楕円に挟まれた領域のうち、狭い方に監視対象が存在する場合には、監視対象と監視対象周辺の画像が縮小されてしまうからである。また、特許文献2に記載の技術では、指定された監視対象の画像部分のみが切り出されて表示され、全方位画像の連続性が失われるからである。
本発明の目的は、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させる全方位画像処理装置およびその方法を提供することである。
本発明の全方位画像処理装置は、全方位画像に対して画像処理を行う全方位画像処理装置であって、前記全方位画像に撮影されている監視対象を指定する監視対象指定部と、前記指定された監視対象の位置が上側中央となるように、前記全方位画像を回転させる画像回転部と、前記画像回転部によって回転された前記全方位画像の中心位置を、ワーピング処理によって下方向に移動させる中心位置移動部とを有する。
本発明の全方位画像処理方法は、全方位画像に対して画像処理を行う全方位画像処理方法であって、前記全方位画像に撮影されている監視対象を指定するステップと、前記指定された監視対象の位置が上側中央となるように、前記全方位画像を回転させるステップと、回転された前記全方位画像の中心位置を、ワーピング処理によって下方向に移動させるステップとを有する。
本発明によれば、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させることができる。
本発明の一実施の形態に係る全方位画像処理装置を含む監視システムの設置例を示すシステム構成図 本実施の形態における全方位画像の一例を示す図 本実施の形態に係る全方位画像処理装置の構成を示すブロック図 本実施の形態におけるフレーム時刻対応表の一例を示す図 本実施の形態における監視対象位置情報の一例を示す図 本実施の形態における監視対象位置管理情報の一例を示す図 本実施の形態における画像処理動作を示すフローチャート 本実施の形態における監視対象指定画面の第1の例を示す図 本実施の形態における監視対象指定画面の第2の例を示す図 本実施の形態における監視対象指定画面の第3の例を示す図 本実施の形態における画像回転処理の一例を示すフローチャート 本実施の形態における初期状態の全方位画像の一例を示す図 本実施の形態における指定監視対象領域の定義の一例を示す図 本実施の形態における監視対象領域情報の一例を示す図 本実施の形態における回転量の算出手法の一例を説明するための図 本実施の形態における回転後画像の一例を示す図 本実施の形態における中心位置移動処理の一例を示すフローチャート 本実施の形態における移動前画像の領域の分割の一例を示す図 本実施の形態における移動後画像の領域の分割の一例を示す図 本実施の形態における楕円化後画像における各位置の状態の一例を示す図 本実施の形態における歪み補正処理の一例を示すフローチャート 本実施の形態における歪み補正前画像の領域分割の一例を示す図 本実施の形態における歪み補正後画像の領域分割の一例を示す図 本実施の形態における指定監視対象領域の定義の他の例を示す図 本実施の形態における初期状態の全方位画像の他の例を示す図 本実施の形態における回転後画像の他の例を示す図
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係る全方位画像処理装置を含む監視システムの設置例である。本実施の形態は、本発明を、工場において作業員を監視するための監視システムに適用した例である。
図1に示すように、監視システム100は、工場内部の監視エリア200の天井等に床面に向けて備え付けられた全方位カメラ300と、全方位カメラ300と通信可能に接続された全方位画像処理装置400とを有する。
全方位カメラ300は、全方位の画像を撮影できるカメラであり、ここでは、非特許文献に記載されているような特殊なミラーを用いたカメラを例にして説明する。全方位カメラ300は、工場が稼動している間、作業員210が作業している監視エリア200を撮影し、撮影した全方位画像の時系列データである動画像データを、全方位画像処理装置400へ送信する。
図2は、全方位カメラ300が撮影する全方位画像の一例を示す図である。
図2に示すように、全方位カメラ300が全方位画像処理装置400へ送信する動画像データの画像501の形状は、矩形であるのに対し、監視エリア200が撮影されている全方位画像502の形状は、正円である。これは、本実施の形態で使用しているミラーの光軸に対する最大断面が正円であるからである。したがって、動画像データの画像501には、四隅に撮影されない部分503が生ずる。また、本実施の形態における全方位カメラ300は入射光軸上に小さな反射鏡が設置されるため、全方位画像502の中心部には、正円の死角領域504が生ずる場合がある。死角が生じる理由については、例えば、非特許文献1および特許文献3に記載されているため、ここでの説明を省略する。
ここでは、全方位カメラ300が撮影する全方位画像は、見下ろし画像、つまり、全方位カメラの真下を中心とする画像となる。したがって、監視エリア200の床面に立っている作業員の画像505は、その頭部が全方位画像502の外周側に向き、その下半身が全方位画像502の中心側に向く。形状が矩形である動画像データの画像501が1フレームに相当するが、以降、死角領域504を含み、形状が正円である全方位画像502を画像処理の対象として説明する。
図1の全方位画像処理装置400は、例えばパーソナルコンピュータである。全方位画像処理装置400は、全方位カメラ300から受信した全方位画像に対して、画像処理を行い、工場内の作業員の作業効率向上を目的とした動線解析等に用いられる画像に変換する。具体的には、全方位画像処理装置400は、全方位画像を回転させる処理と、全方位画像の中心位置を移動させるワーピング処理等を行う。そして、全方位画像処理装置400は、これらの処理が行われた後の全方位画像を表示する。
画像回転処理は、指定された監視対象が全方位画像の上側中央に位置するよう、全方位画像を回転させる処理である。
また、ワーピング処理とは、画像を分割した各分割領域間の隣接関係を崩さないよう、それぞれの分割領域に非線形の幾何学変換を施すことにより、画像を変形させることを指すものとする。ここでのワーピング処理は、例えば、全方位画像の中心位置を移動させる処理である。
本発明の全方位画像処理装置400は、監視エリア200全体の様子を把握することができるような全方位画像を、表示することができる。すなわち、全方位画像処理装置400は、全方位画像を、その画像の連続性を維持した状態で、指定された監視対象の画像領域の歪みが少ない画像に変換して、表示することができる。また、全方位画像処理装置400は、監視対象を含む画像領域を拡大表示することも可能である。これにより、システム管理者等のユーザは、変換された画像を見ることで、指定された監視対象(ここでは作業員210)の詳細な状況とその周辺の状況を認識することができる。
次に、全方位画像処理装置400の構成について説明する。
図3は、全方位画像処理装置400の構成を示すブロック図である。
図3において、全方位画像処理装置400は、動画像入力部401、動画像蓄積部402、監視対象位置情報入力部403、監視対象位置情報蓄積部404、監視対象指定部405、画像回転部406、中心位置移動部407、楕円化部408、歪み補正部409、出力画像蓄積部410、および画像出力部411を有する。
動画像入力部401は、動画像データを入力する。ここでは、動画像入力部401は、全方位カメラ300から、監視エリア200を撮影した全方位画像の動画像データを受信し、受信した動画像データをエンコードする。動画像入力部401は、エンコードを行う際、各動画像データに対して、1ずつ増加する値であるフレームIDを付与すると共に、エンコードした時刻をタイムスタンプとして付与する。動画像入力部401は、エンコードした動画像データを動画像蓄積部402へ出力する。
動画像蓄積部402は、動画像入力部401から入力された動画像データを、H.264フォーマット等、複数のフレームにより構成される動画像フォーマットで蓄積する。そして、動画像蓄積部402は、監視対象指定部405からの指示を受けて、監視対象指定部405が指定したフレームIDのフレーム(全方位画像)を、画像回転部406に出力する。また、動画像蓄積部402は、監視対象位置情報蓄積部404から参照可能な状態で、フレーム時刻対応表を保持する。フレーム時刻対応表は、フレームIDと該当するフレームが撮影された時刻(動画像入力部401から入力された時刻)との対応関係を示す情報である。
監視対象位置情報入力部403は、所定の周期(例えば0.5秒毎)で、各監視対象の監視対象位置情報を入力し、入力した監視対象位置情報を、監視対象位置情報蓄積部404へ出力する。監視対象位置情報は、時刻と、その時刻に監視エリア200内に存在する監視対象の代表点の全方位画像上の二次元位置座標(以下「画面内位置」という)とを、対応付けて示す情報である。なお、監視対象の代表点は、例えば、無線タグを用いて取得される場合は無線タグの位置であり、全方位画像に対する画像認識によって取得される場合には、監視対象の画像領域の中心点である。
監視対象位置情報蓄積部404は、動画像蓄積部402から入力されたフレーム時刻対応表と、監視対象位置情報入力部403から入力された監視対象位置情報とに基づいて、監視対象位置管理情報を生成し、蓄積する。なお、監視対象位置情報蓄積部404は、監視対象指定部405から参照可能な状態で蓄積するものである。
監視対象指定部405は、動画像蓄積部402が蓄積する動画像データの中から表示すべき全方位画像(フレーム)を指定する。また、監視対象指定部405は、全方位画像に撮影されている監視対象の中から、特に見易く表示すべき監視対象を指定する。フレームと監視対象の具体的な指定方法については、後述する。監視対象指定部405は、動画像蓄積部402に対し、指定したフレーム(以下「指定フレーム」という)の全方位画像を、画像回転部406へ出力させる。
また、監視対象指定部405は、指定フレームにおいて、指定した監視対象(以下「指定監視対象」という)の画面内位置を検出する。そして、監視対象指定部405は、検出した指定監視対象の画面内位置(以下「指定監視対象位置」という)を取得し、画像回転部406へ出力する。監視対象指定部405は、ここでは、液晶ディスプレイ等の表示装置およびキーボードやマウス等の入力装置(いずれも図示せず)を用いて、指定フレームおよび指定監視対象の選択を、ユーザから受け付けるものとする。
画像回転部406は、指定監視対象位置に基づいて、動画像蓄積部402から入力された指定フレームの全方位画像に対して、上述の画像回転処理を行う。また、画像回転部406は、全方位画面内で指定監視対象が占める画像領域(以下「指定監視対象領域」という)を抽出する。そして、画像回転部406は、画像回転処理を行った後の全方位画像と、指定監視対象位置および指定監視対象領域(以下、2つを併せた情報を「監視対象位置情報」という)とを、中心位置移動部407へ出力する。
以下、適宜、画像回転処理を行う直前の全方位画像を「回転前画像」といい、画像回転処理を行った直後の全方位画像を「回転後画像」という。
中心位置移動部407は、画像回転部406から入力された回転後画像に対して、回転後画像の中心位置を下方に移動させるワーピング処理(以下「中心位置移動処理」という)を行う。そして、中心位置移動部407は、中心位置移動処理を行った後の回転後画像および監視対象位置情報を、楕円化部408へ出力する。
以下、適宜、中心位置移動処理を行う直前の全方位画像を「移動前画像」といい、中心位置移動処理を行った直後の全方位画像を「移動後画像」という。
楕円化部408は、中心位置移動部407から入力された移動後画像に対して、線形の射影変換により、その形状を正円から楕円形に変形させる処理(以下「楕円化処理」という)を行う。そして、楕円化部408は、楕円化処理を行った後の移動後画像および監視対象位置情報を、歪み補正部409へ出力する。
以下、適宜、楕円化処理を行う直前の全方位画像を「楕円化前画像」といい、楕円化処理を行った直後の全方位画像を「楕円化後画像」という。
歪み補正部409は、楕円化部408から入力された楕円化後画像の指定監視対象領域について、全方位画像特有の歪みを補正する処理(以下「歪み補正処理」という)を行う。そして、歪み補正部409は、歪み補正処理を行った後の楕円化後画像および監視対象位置情報を、出力画像蓄積部410へ出力する。
以下、適宜、歪み補正処理を行う直前の全方位画像を「歪み補正前画像」といい、歪み補正処理を行った直後の全方位画像を「歪み補正後画像」という。
出力画像蓄積部410は、歪み補正部409から入力された歪み補正後画像を蓄積する。
画像出力部411は、出力画像蓄積部410が蓄積する歪み補正後画像を、最終的な全方位画像として読み出し、液晶ディスプレイ等の表示装置へ出力する。
このような全方位画像処理装置400は、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)等の記憶媒体、RAM(random access memory)等の作業用メモリ、各種データを格納するためのハードディスク等の記憶媒体等により実現することができる。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
このような構成を有する全方位画像処理装置400は、全方位画像の連続性を維持しつつ、その全方位画像において、実空間において指定監視対象を真横から見たときの見え方により近い状態で、指定監視対象の画像を表示することができる。また、全方位画像処理装置400は、監視対象を含む画像領域を拡大表示することができる。すなわち、全方位画像処理装置400は、全方位画像の連続性を維持しつつ、その全方位画像におけるユーザが注目したい監視対象の視認性を向上させることができる。
以下、全方位画像処理装置400の全体動作について説明する。
ここでは、全方位画像処理装置400は、情報蓄積動作を行った後に、蓄積された動画像データおよび監視対象位置管理情報に基づいて全方位画像を処理する画像処理動作を行うものとする。ここで、情報蓄積動作とは、動画像データおよび監視対象位置管理情報を蓄積する動作をいうものとする。まず、情報蓄積動作について説明する。
全方位画像処理装置400は、まず、全方位カメラ300が撮影した動画像データを、動画像入力部401において入力し、動画像蓄積部402に蓄積する。動画像蓄積部402は、蓄積する動画像データについてフレーム時刻対応表を生成する。
図4は、フレーム時刻対応表の一例を示す図である。
図4に示すように、フレーム時刻対応表610は、全方位画像の撮影時刻611と、その全方位画像のフレームID612とを対応付けて記述する。撮影周期は一定であり、1つの撮影時刻に1つのフレームが対応する。
ここでは、全方位画像が撮影されてから対応するフレームが動画像蓄積部402に入力されるまでに要する時間は、非常に短いものとする。したがって、動画像蓄積部402は、入力時刻をそのまま撮影時刻611として採用する。なお、全方位画像が撮影されてから対応するフレームが動画像蓄積部402に入力されるまでに要する時間を考慮する場合には、動画像蓄積部402は、入力時刻から当該時間だけ遡った時刻を撮影時刻611とすれば良い。
監視対象位置情報入力部403は、監視エリア200内に存在する監視対象、即ち全方位カメラ300が撮影した全方位画像に対して、撮影されている監視対象の監視対象位置情報を入力する。なお、監視対象位置情報は、時刻および各監視対象の全方位画像上の位置を含む。監視対象位置情報入力部403は、入力した監視対象位置情報を、監視対象位置情報蓄積部404に出力する。
図5は、監視対象位置情報の一例を示す図である。
図5に示すように、監視対象位置情報620は、監視対象の位置の検出が行われた検出時刻621と、監視対象ID622と、検出された監視対象の画面内位置623とを対応付けて記述する。画面内位置623は、動画像データにおける位置を示し、例えば、後述のように、動画像データの左下隅を原点とするxy座標系を定義したときの座標値で表現される。
なお、監視対象位置情報は、無線タグを用いた測位や、全方位画像に対する画像認識等によって得ることができる。
無線タグを用いた測位の場合には、例えば、監視対象位置情報入力部403は、実空間(監視エリア200)における三次元位置と、全方位カメラ300により撮影される全方位画像における二次元位置との対応関係を、予め記憶しておく。そして、監視対象位置情報入力部403は、所定の周期(例えば0.5秒)で、各監視対象に取り付けた無線タグから、各監視対象のID情報(以下「監視対象ID」という)と、各監視対象の代表点の実空間における三次元位置とを取得する。次に、監視対象位置情報入力部403は、取得した三次元位置を全方位画像上の二次元位置に変換する。このとき、監視対象位置情報入力部403は、各無線タグのIDをそのまま監視対象IDとして採用してもよい。
また、画像認識を用いる場合には、例えば、監視対象位置情報入力部403は、各監視対象の、顔特徴量および帽子の色等の画像特徴と監視対象IDとを予め記憶しておく。監視対象位置情報入力部403は、動画像蓄積部402に蓄積された各フレームのうち、所定の周期に対応するフレーム毎に、全方位画像内で各監視対象が占める画像領域を抽出する。そして、監視対象位置情報入力部403は、顔認識および帽子の色の認識等を行って、各画像領域の監視対象IDを取得すると共に、各画像領域の全方位画像上の代表位置を、その監視対象の二次元位置として取得する。
監視対象位置情報蓄積部404は、監視対象位置情報入力部403から入力された監視対象位置情報に基づいて、監視対象位置管理情報を生成し、生成した監視対象位置管理情報を蓄積する。
図6は、監視対象位置管理情報の一例を示す図である。
図6に示すように、監視対象位置管理情報630には、フレームID631に対応付けて、そのフレームの全方位画像に撮影されている可能性のある監視対象の監視対象ID632と、その画面内位置633との組が、記述されている。
監視対象位置情報蓄積部404は、例えば、以下のようにして監視対象位置管理情報630を生成する。監視対象位置情報蓄積部404は、動画像蓄積部402に格納されたフレーム時刻対応表610(図4参照)を参照する。そして、監視対象位置情報蓄積部404は、フレーム時刻対応表610に記述された撮影時刻611の区間のうち、監視対象位置情報620(図5参照)の検出時刻621を包含する区間を検索する。なお、撮影時刻611の区間とは、そのフレームの撮影時刻から次のフレームの撮影時刻までをいう。そして、監視対象位置情報蓄積部404は、監視対象位置管理情報630に示す該当する区間に対応するフレームID612と、図5に示す監視対象位置情報620の監視対象ID622および画面内位置623とを、対応付ける。
例えば、図5に示すように、「2010/1/13 9:34:55 02」という検出時刻621に対して、監視対象ID622が「5」、画面内位置623が「(780,550)」と対応付けられた監視対象位置情報620が入力される。また、図4に示すように、「2010/1/13 9:34:55 02」を包含する区間に対して、フレームID612「10」を対応付けたフレーム時刻対応表610が蓄積されていたとする。
この場合、生成される監視対象位置管理情報630は、図6に示すように、フレームID631「10」に、監視対象ID632「5」および画面内位置633「(780,550)」を対応付けた内容となる。
以上の情報蓄積動作により、動画像データおよび監視対象位置管理情報は、動画像蓄積部402および監視対象位置情報蓄積部404にそれぞれ蓄積された状態となる。この状態において、全方位画像処理装置400は、画像処理動作が可能となる。全方位画像処理装置400は、例えば、監視エリア200の一日分の動画像データおよび監視対象位置管理情報の蓄積が完了すると、次の日に、これらを用いて画像処理動作を行う。
次に、画像処理動作について説明する。
図7は、全方位画像処理装置400の画像処理動作を示すフローチャートである。
まず、ステップS1000において、監視対象指定部405は、監視対象位置情報蓄積部404に格納された監視対象位置管理情報(図6参照)に基づいて、指定監視対象および指定フレームを決定する。指定監視対象および指定フレームは、ユーザにより任意に決定可能としても良いし、所定のルールに基づいて自動で決定されても良い。所定のルールは、例えば、特定の作業員を指定監視対象とし、その作業員が出勤している時間帯のフレームを指定フレームとする内容である。また、所定のルールは、例えば、異常な動きをする監視対象が出現している時間帯のフレームを指定フレームとする内容である。監視対象の動きが異常か否かは、例えば、動画像データに撮影されている監視対象の動作を解析することによって判断すること可能である。
ここでは、監視対象指定部405は、監視対象位置情報蓄積部404に格納された監視対象位置管理情報に基づいて、監視対象指定画面を生成し、液晶ディスプレイに表示する。ここで、監視対象指定画面とは、ユーザが指定監視対象および指定フレームを選択するための画面である。
図8は、監視対象指定画面の第1の例を示す図である。
図8に示すように、監視対象指定部405は、動画像蓄積部402に蓄積された代表的な全方位画像641に重畳して、各監視対象642の監視対象ID643を、監視対象指定画面640に表示する。なお、各監視対象642の監視対象ID643は、その監視対象642の画面内位置に対応付けて、監視対象指定画面640に表示される。また、監視対象指定部405は、ユーザに対して、いずれかの監視対象642に対する選択を促すメッセージ644を、監視対象指定画面640に表示する。
なお、監視対象指定部405は、監視対象IDに対応付けられた監視対象の名称(作業員氏名)等の他の識別情報を、監視対象ID643と共に、または監視対象ID643に代えて、監視対象指定画面640に表示しても良い。
監視対象指定部405は、監視対象指定画面640に表示したいずれかの監視対象642が選択されたとき、その監視対象642の監視対象ID643を、指定監視対象の監視対象IDとして取得する。そして、監視対象指定部405は指定監視対象が撮影されている区間のフレームを、監視対象位置管理情報に基づいて特定し、特定したフレームを、指定フレームとして取得する。
このような監視対象指定画面640により、ユーザは、全方位画像641における各監視対象642の画像および監視対象ID643等を確認して、指定監視対象を任意に選択する。つまり、ユーザは、選択した指定監視対象が撮影されている区間の各フレームを、指定フレームとして選択することができる。
図9は、監視対象指定画面の第2の例を示す図である。
図9に示すように、監視対象指定部405は、監視エリア200の全方位画像651に重畳して、各監視対象の情報を、監視対象指定画面650に表示する。なお、監視対象の情報は、監視対象位置管理情報に基づいて作成される各監視対象の動線652と、各動線652に対応付けた監視対象ID653とを含む。動線652は、例えば、監視対象が監視エリア200に進入した位置を丸状の端部によって示し、監視対象が監視エリア200から退出した位置を矢印状の端部によって示す。また、監視対象指定部405は、ユーザに対して、いずれかの動線652に対する選択を促すメッセージ654を、監視対象指定画面650に表示する。
監視対象指定部405は、監視対象指定画面650に表示したいずれかの動線652が選択されたとき、その動線652の監視対象ID643を、指定監視対象の監視対象IDとして取得する。そして、監視対象指定部405は、指定監視対象が撮影されている区間のフレームを、監視対象位置管理情報に基づいて特定し、特定したフレームを、指定フレームとして選択する。なお、指定監視対象が撮影されている区間は、指定監視対象が監視エリア200に進入してから退出するまでの区間である。
このような監視対象指定画面650により、ユーザは、それぞれの監視対象が通過した場所を確認して、指定監視対象を任意に選択することができる。そして、ユーザは、選択した指定対象が撮影されている区間の各フレームを、指定フレームとして選択することができる。これにより、例えば、監視エリア200内で事故が発生したとき等に、事故現場を通過した作業員やその作業員の行動を、事故発生後に確認することが容易となる。
図10は、監視対象指定画面の第3の例を示す図である。
図10に示すように、監視対象指定部405は、例えば、フレームID661と監視対象ID662との組を監視対象指定画面660に表示する。また監視対象指定部405は、いずれかの組に対する選択を促すメッセージ663を、監視対象指定画面660に表示する。
監視対象指定部405は、監視対象指定画面660に表示したいずれかの組が選択されたとき、その組の監視対象ID662およびフレームID661を、指定監視対象の監視対象IDおよび指定フレームのフレームIDとして取得する。
このような監視対象指定画面660により、ユーザは、指定監視対象および指定フレームを、監視対象IDおよびフレームIDによって直接的に設定することができる。そして、監視対象指定部405は、指定フレーム以降で指定監視対象が撮影されている区間のフレームを、監視対象位置管理情報に基づいて特定し、特定したフレームを、指定フレームとして取得する。ステップS1000が完了した時点で、1つの指定監視対象と指定監視対象が撮影されている指定フレーム(1つ以上の連続したフレーム)とが選択されていることになる。
なお、新たな動画像データの入力されたときでも、ユーザが同じ監視対象を継続的に監視したいと要望する場合がある。このような場合を考慮して、監視対象指定部405は、ステップS1000において、フレームのみの選択を受け付け可能とし、フレームのみの選択を受け付けたときには前回選択された監視対象を指定監視対象としてもよい。
また、逆に、ユーザが同じ指定フレームで監視対象のみを切り換えたいと要望する場合がある。このような場合を考慮して、監視対象指定部405は、ステップS1000において、監視対象のみの選択を受け付け可能とし、監視対象のみの選択を受け付けたときには前回選択されたフレームを指定フレームとしてもよい。
ステップS2000において、監視対象指定部405は、処理を行っていない指定フレームのうち、フレームIDの数字が最も小さいフレームを選択する。そして、監視対象指定部405は、動画像蓄積部402に対し、選択中の指定フレームのフレームID(以下「選択中のフレームID」という)を通知して、1つの指定フレームの全方位画像を画像回転部406へ出力させる。
また、監視対象指定部405は、選択中のフレームIDで示される全方位画面における指定監視対象の画面内位置(指定監視対象位置)を、監視対象位置情報蓄積部404に格納された監視対象位置管理情報(図6参照)から取得する。そして、監視対象指定部405は、画像回転部406に対し、取得した指定監視対象位置を出力する。
以降の説明では、図8に示す監視対象指定画面640において、監視対象ID643「11」の監視対象が指定監視対象として選択されたものとする。
ステップS3000において、画像回転部406は、動画像蓄積部402から入力された全方位画像に対し、監視対象指定部405から入力された指定監視対象位置に基づいて、画像回転処理を行う。ここでは、画像回転部406は、図8に示す対象指定画面640において右上側に斜めに撮影されている監視対象ID「11」の監視対象が、画像上部の中心に位置するように回転させた画像を生成する。
図11は、画像回転処理の一例を示すフローチャートである。
まず、ステップS3100において、画像回転部406は、全方位画像内で指定監視対象(ここでは監視対象ID「11」の監視対象)が占める画像領域を抽出する。例えば、画像回転部406は、指定監視対象の指定監視対象位置付近において、背景差分法により監視対象領域を抽出、監視対象(例えば、人物)の形状をテンプレートとしたテンプレートマッチングにより監視対象の画像領域を抽出する。
なお、監視対象位置情報入力部403が画像認識によって監視対象位置座標を取得する場合、画像回転部406は、その際に抽出された監視対象の画像領域を用いて、指定監視対象領域を定義しても良い。
図12は、指定フレームの初期状態の全方位画像の一例を示す図である。
図12に示すように、指定フレームの初期状態の全方位画像(回転前画像)670は、図8に示す監視対象指定画面640の全方位画像641と同様に、正円の見下ろし画像であり、実空間における全方位カメラの真下を中心とする画像である。したがって、右上側に位置する指定監視対象の画像672の、実空間における鉛直方向に対応する方向673は、斜めに傾いている。
なお、図12において、矩形の動画像データ674は、左下隅をxy座標系の原点(0,0)とし、右方向をx軸方向、上方向をy軸方向として、全方位画像670の大きさおよび全方位画像上の監視対象の位置および画像領域を定義する。
全方位画像670の半径をrとすると、全方位画像の上端点、下端点、右端点、左端点の各座標は、それぞれ、(r,2r)、(r,0)、(2r,r)、(0、r)となる。図12に示す各座標値は、r=500の場合の例である。
そして、ステップS3200において、画像回転部406は、ステップS3100において抽出した画像領域を基にして、指定監視対象領域を定義し、指定監視対象位置と指定監視対象領域とを含む監視対象位置情報を生成する。
図13は、指定監視対象領域の定義の一例を示す図である。また、図14は、監視対象領域情報の一例を示す図である。
図13に示すように、指定監視対象領域680は、例えば、指定監視対象の画像領域681に外接し、平行ではない対辺682、683のそれぞれが全方位画像684の半径方向に一致する等脚台形で囲まれた領域である。
画像回転部406は、図14に示すように、等脚台形の3つの端点ぞれぞれのxy座標によって、指定監視対象領域を表現することができる。監視対象領域座標(左上)701は、等脚台形の平行な対辺685、686のうち長い方(外周に近い方)の左端点687の座標である。監視対象領域座標(右上)702は、等脚台形の平行な対辺685、686のうち長い方の右端点688の座標である。監視対象領域座標(左下)703は、等脚台形の平行な対辺685、686のうち短い方(原点に近い方)の左端点689の座標である。
そして、画像回転部406は、取得した指定監視対象位置690に基づいて、回転前画像から回転後画像を生成するための変換行列を算出する。
具体的には、例えば、以下の通りである。まず、画像回転部406は、回転前画像について指定監視対象位置690を取得し、基準線691と監視対象線692とが成す角度693を、全方位画像684の回転量θとする。ここで、基準線691は、全方位画像684を見たときにその中心694から上向き方向(y軸正方向)に伸びる線である。また、監視対象線692は、全方位画像684の中心694と指定監視対象位置690とを結ぶ線である。監視対象線692は、例えば、全方位画像684の中心694と、監視対象領域座標(左上)687と監視対象領域座標(右上)688との中点とを結ぶ線に一致する。
図15は、回転量の算出手法の一例を説明するための図であり、図14に対応するものである。図14と同一部分には同一符合を付し、これについての説明を省略する。また、以下、中心694に対して反時計回りの回転方向を正として説明を行う。
図15において、監視対象領域座標(左上)687と監視対象領域座標(右上)688との中点695の座標を(x,y)としたとき、中点695と中心694を通る監視対象線692は、以下の式(1)で表される。
Figure 2011114610
ここでは、基準線691と全方位画像684の外周との交点697から監視対象線692への下ろした垂線698と、監視対象線692との交点を、交点699とする。このとき、回転量θは、交点697と交点699との距離をd、中心694と交点699との距離をdとすると、以下の式(2)、(3)から算出することができる。
Figure 2011114610
Figure 2011114610
画像回転部406は、回転前画像における座標を(x,y)とし、回転後画像における座標を(x',y')としたとき、以下の式(4)の右項に示す、回転前画像における座標(x,y)に対する係数部分を、変換行列として算出する。この変換行列を用いることにより、画像回転部406は、指定監視対象が画像上部の中心に位置する回転後画像を生成することができる。
Figure 2011114610
そして、ステップS3400において、画像回転部406は、ステップS3300で算出した変換行列を用いて、回転前画像の各座標を変換し、回転後画像を生成する。そして、画像回転部406は、生成した回転後画像と、回転後画像における指定監視対象位置および指定監視対象領域を示す監視対象位置情報とを、中心位置移動部407へ出力する。
図16は、図11に示す回転前画像670に対して画像回転処理を行った後の、回転後画像の一例を示す図である。
図16に示すように、回転後画像670aでは、指定監視対象の画像672は、上側中央に位置し、その実空間における鉛直方向に対応する方向673は、下向き方向となっている。
次に、図7のステップS4000において、中心位置移動部407は、画像回転部406から入力された回転後画像(移動前画像)に対し、中心位置移動処理を行う。
中心位置移動部407は、回転後画像の中心位置を下方に移動させるワーピング処理を行うとき、指定監視対象領域が特に拡大するようなワーピング処理を行う。
図17は、中心位置移動処理の一例を示すフローチャートである。
まず、ステップS4100において、中心位置移動部407は、移動前画像の領域を分割する。
図18は、移動前画像の領域の分割の一例を示す図である。
中心位置移動部407は、例えば、移動前画像の領域711の中心712から外周713方向に放射状に延びる複数の線714と、移動前画像の外周713と同心である複数の円715とによって、移動前画像領域の領域711を分割する。図16に示す全方位画像が入力された場合、中心712の座標は、(500,500)となる。複数の線714は、少なくとも中心712から上向き方向(y軸正方向)に伸びる線714aを含み、例えば、所定の本数で等間隔に配置される。また、複数の円715は、例えば、所定の本数で、隣接する他の円715との半径の差が一定となるように配置される。
そして、ステップS4200において、中心位置移動部407は、移動前画像の中心の射影先座標を決定する。中心位置移動部407は、中心の射影先座標を下方の座標(より小さいy座標)に決定する。射影先のy座標は、予め定められた値としても良いし、元のy座標に対して予め定められた比率を掛けた値としても良い。図16に示す全方位画像に対しては、例えば、座標(500,270)が決定される。
また、中心位置移動部407は、中心712から上向き方向に伸びる線714aと外周713および各円715との交点720〜724の射影先座標を決定する。中心位置移動部407は、例えば、線714aと外周713との交点720を固定とする。ここで、図18では、交点720と交点721との距離を半径方向間隔725とし、交点721と交点722との距離を半径方向間隔726とし、交点722と交点723との距離を半径方向間隔727とする。また、図18では、交点723と交点724との距離を半径方向間隔728とし、交点724と中心729との距離を半径方向間隔729とする。このとき、中心位置移動部407は、射影後の半径方向間隔725〜729の互いの比率(725:726:727:728:729)を決定する。例えば、中心位置移動部407は、射影後の半径方向間隔725〜729の互いの比率、(725:726:727:728:729)を(1.0:1.5:0.8:0.5:0.2)と決定する。なお、射影後の半径方向間隔725〜729の互いの比率を、以下「射影後間隔比率」という。ここでは、中心位置移動部407は、指定監視対象領域が拡大表示されるように、指定監視対象領域に対応する半径方向間隔(ここでは半径方向間隔726とする)が広くなるように、射影後間隔比率を決定する。また、中心位置移動部407は、中心712と交点721との距離に対する比率(例えば0.3)で、指定監視対象領域に対応する半径方向間隔(ここでは半径方向間隔726とする)を決定してもよい。
射影による中心位置の移動距離および射影後間隔比率は、指定監視対象の詳細な状況やその周辺の状況が十分に視認されるような値であることが望ましく、例えば、実験や経験から決定される。
なお、全方位カメラ300からより遠方(つまり全方位画像の外周713に近い方)に位置する監視対象は、移動前画像においてはより小さく表示される。したがって、中心位置移動部407は、指定監視対象領域に対応する部分の半径方向間隔を広くしつつ、他の半径方向間隔が外周側ほどより大きくなるように、射影後間隔比率を決定しても良い。
また、中心位置移動部407は、全方位カメラ300と指定監視対象との距離が長いほど、指定監視対象領域に対応する部分の比率をより大きくしても良い。この場合、例えば、中心位置移動部407は、予め全方位画像における各位置と、その位置に撮影される監視対象までの距離(その監視対象が立っている床までの距離)との対応関係を格納している。そして、中心位置移動部407は、指定監視対象位置に対する距離を、全方位カメラ300と指定監視対象との距離として取得する。そして、中心位置移動部407は、取得した距離に基づいて、指定監視対象領域に対応する部分の比率を決定する。
そして、ステップS4300において、中心位置移動部407は、移動後画像の領域を分割する。具体的には、中心位置移動部407は、ステップS4200で座標を決定した移動後座標での射影先座標の各点を結ぶ形で、移動後画像の領域を分割する各直線や曲線を決定する。これにより、移動前画像の領域を分割する各直線や曲線を、移動後画像の領域にどのように射影するのかが決定される。
図19は、移動後画像の領域の分割の一例を示す図である。
図19に示すように、例えば、中心位置移動部407は、決定した射影後の中心733を配置する。そして、中心位置移動部407は、中心733から上向き方向に伸びる線734を、決定した射影後間隔比率で分割し、分割点735〜738を配置する。また、中心位置移動部407は、中心733から下向き方向に伸びる線734'についても、決定した射影後間隔比率で分割し、分割点735'〜738'を配置する。
その後、図19に示すように、中心位置移動部407は、移動前画像における各円(図18の円715)のそれぞれに対応し、配置された分割点735'〜738'を通るような楕円739で、移動後画像の領域731を分割する。更に、中心位置移動部407は、移動前画像における各線(図18の線714)のそれぞれに対応し、各楕円739の円周を等間隔で分割するような線740で、移動後画像の領域731を分割する。
そして、ステップS4400において、中心位置移動部407は、移動前画像の各分割領域から、移動後画像の対応する分割領域へと、射影変換を行う。例えば、中心位置移動部407は、移動前画像における分割領域741の画像を、移動後画像において対応する分割領域742に射影変換する。
各分割領域は、曲線を辺として持つ四角形または三角形であるが、中心位置移動部407は、処理の簡便化のため、全ての辺を直線とみなして射影変換を行っても良い。また、移動前画像の分割領域および移動後画像の分割領域の面積が小さいほど、移動後画像は、分割領域間の継ぎ目が目立たないきれいな画像となる。
中心位置移動部407は、生成した移動後画像と、移動後画像における指定監視対象位置および指定監視対象領域を示す監視対象位置情報とを、楕円化部408へ出力する。
次に、図7のステップS5000において、楕円化部408は、中心位置移動部407から入力された移動後画像(楕円化前画像)に対し、楕円化処理を行う。具体的には、楕円化部408は、例えば、以下の式(5)に示す2次元行列変換を、楕円化前画像に施す。ここで、(x',y')は、楕円化前画像における座標を示し、(x”,y”)は、楕円化後画像における座標を示す。Sxは、楕円化する際のx軸方向の拡大率を示す。
Figure 2011114610
拡大率Sxは、固定値でも良いし、指定対象領域の大きさや縦横比に基づいて決定しても良い。例えば、楕円化部408は、指定監視対象領域の縦横比を算出し、その縦横比が、人間を真横から見たときの一般的な縦横比に近くなるような拡大率Sxを採用しても良い。ここでは、拡大率が1.5であるものとする。
図20は、移動後画像において、分割された領域の、楕円化後画像における状態の一例を示す図である。
図20に示すように、楕円化前画像の中心733および中心から上向きに伸びる線734は、そのx座標値が決定された拡大率で拡大され、x軸の正の方向に移動する。また、楕円化前画像の外周732および各楕円739は、決定された拡大率でx軸方向に引き伸ばされる。また、楕円化部408は、これに伴って、各楕円739の円周を等間隔で分割する線740、および分割領域742も、x軸方向に引き伸ばされる。
楕円化部408は、生成した楕円化後画像と、楕円化後画像における指定監視対象位置および指定監視対象領域を示す監視対象位置情報とを、歪み補正部409へ出力する。
次に、図7のステップS6000において、歪み補正部409は、楕円化部408から入力された楕円化後画像(歪み補正前画像)に対し、歪み補正処理を行う。具体的には、歪み補正部409は、全方位カメラ300の撮影画像に特有の、直線が丸みを帯びる等の歪みであって、上述の中心移動処理および楕円化処理では解消が困難な歪みの補正を行う。
図21は、歪み補正処理の一例を示すフローチャートである。
まず、ステップS6100において、歪み補正部409は、楕円化後画像における指定監視対象領域を取得する。具体的には、歪み補正部409は、楕円化部408から入力された、歪み補正前画像(楕円化後画像)における指定監視対象領域を取得する。
そして、ステップS6200において、歪み補正部409は、算出した指定監視対象領域に対して、歪み補正を施す。歪み補正の内容は、全方位カメラ300の光学特性などに応じた内容であり、例えば、実験や経験から定められる。なお、歪み補正部409は、一般的な画像処理ソフトウェアにおける歪み補正機能を用いてもよい。また、歪み補正の内容によっては、指定監視対象領域の大きさも形状も変更されない場合もある
そして、ステップS6300において、歪み補正部409は、指定監視対象領域の大きさおよび形状の少なくともいずれかに変更があるか否かを判断する。歪み補正部409は、指定監視対象領域の大きさおよび形状の少なくともいずれかに変更がある場合(S6300:YES)、ステップS6400へ進む。また、歪み補正部409は、指定監視対象領域の大きさおよび形状のいずれも変更がない場合(S6300:NO)、そのまま図7の処理へ戻る。
ステップS6400において、歪み補正部409は、指定監視対象領域の大きさおよび形状の変更に周囲の領域を合わせる形で、全方位画像の指定監視対象領域以外の領域を射影変換する。
図22は、歪み補正前画像の領域分割の一例を示す図である。また、図23は、図22に示す歪み補正前画像に対する、歪み補正後画像の領域分割の一例を示す図である。
ここでは、歪み補正前画像761における指定監視対象領域762は、図22に示すように、4つの分割領域(図中、斜線部)に対応しているものとする。必ずしも指定管理領域と分割領域の区切りが同じとは限らないが、説明を簡便にするため、ここでは指定監視対象領域が複数の分割領域から成っているものとする。また、全方位カメラ300の光学特性が、歪み補正前画像761において、歪み補正前画像761の中心763により近いほど、左右方向が狭く歪むような光学特性になっているとする。
この場合、歪み補正部409は、指定監視対象領域762のうち歪み補正前画像761の中心763に近い側がより広がるように、歪み補正前画像761に対する補正を行う。更に、歪み補正部409は、歪みが解消された指定監視対象領域がより大きく表示されるように、歪み補正前画像761に対する補正を行う。
この結果、図23に示す歪み補正後画像771の指定監視対象領域772は、図22に示す歪み補正前の指定監視対象領域762に比べて、等脚台形の上辺と下辺との比率が変化して歪みがより解消される。また、なおかつ、歪み補正後画像771の指定監視対象領域772は、歪み補正前の指定監視対象領域762に比べて、より大きい面積となる。
また、歪み補正部409は、分割領域間の隣接関係が維持されるように、指定監視対象領域772に隣接する分割領域の大きさおよび形状を補正する。このとき、歪み補正部409は、指定監視対象領域772に隣接する分割領域774から、その更に周囲の分割領域775へ、段階的に、指定監視対象領域772の変更を吸収するように、各分割領域の大きさおよび形状を補正する。
そして、歪み補正部409は、全方位画像の指定監視対象領域以外の各部分を、補正後の対応する分割領域に射影変換し、歪み補正後の指定監視対象領域と他の領域とにより構成される歪み補正後画像を生成する。そして、歪み補正部409は、生成した歪み補正後画像を、出力画像蓄積部410へ出力する。
これにより、歪み補正の前後で指定監視対象領域の大きさおよび形状が変更になる場合でも、指定監視対象領域と周囲との継ぎ目が目立たないきれいな全方位画像を得ることができる。
出力画像蓄積部410は、歪み補正部409から入力された歪み補正後画像を蓄積し、画像出力部411に歪み補正後画像を出力する。
次に、図7のステップS7000において、画像出力部411は、出力画像蓄積部410から入力された歪み補正後画像を、液晶ディスプレイ等の表示機器によって表示する。
そして、ステップS8000において、監視対象指定部405は、ステップS2000において選択していない指定フレームが存在するか否かを判断する。
監視対象指定部405は、指定フレームの最終フレームでなかった場合、つまり、未選択の指定フレームが存在する場合には(S8000:NO)、ステップS2000に戻る。すなわち、監視対象指定部405は、選択中のフレームIDを1インクリメントして次の指定フレームを選択し、ステップS2000〜S8000を繰り返す。
そして、監視対象指定部405は、指定フレームの最終フレームであった場合、つまり、未選択の指定フレームが存在しない場合には(S8000:YES)、一連の処理を終了する。
このような動作により、全方位画像処理装置400は、全方位画像の映像の中から、ユーザから注目したい監視対象の指定を受け付け、その監視対象が見易くなるように、映像に対する画像処理を行うことができる。また、この画像処理は、画像回転の後は、ワーピング処理や線形の射影変換のみであるため、全方位画像の連続性を維持することができる。
また、指定フレームが複数である場合、全方位画像処理装置400は、ユーザが指定した監視対象の監視エリア200内の移動に追随し、常に全方位画像の上部中央部に当該監視対象を表示し続けることができる。
以上のように、本実施の形態に係る全方位画像処理装置は、指定監視対象の実空間における鉛直方向および左右方向に対応する方向が、全方位画像を見たときの下向き方向および左右方向に近付くように、全方位画像に対して画像処理を行う。これにより、処理後の全方位画像は、指定された監視対象を実際に見たときの状態により近い状態で表示することができ、指定された監視対象の視認性を向上させることができる。すなわち、処理後の全方位画像は、指定監視対象を、その頭部が上となり、その足が下となった状態で、かつ、水平成分の歪曲がより緩和された状態で、表示することができる。また、指定監視対象の周辺が上下方向に引き伸ばされることになるので、指定監視対象およびその周辺の画像をより大きく表示し、指定監視対象およびその周辺の状況をより把握しやすい全方位画像を提示することができる。
また、本実施の形態に係る全方位画像処理装置は、上述の画像処理を、全方位画像の回転と、全方位画像の中心位置を移動させるワーピング処理とによって行うため、全方位画像の連続性を維持することができる。
また、本実施の形態に係る全方位画像処理装置は、全方位画像の中心位置を移動させる際に、指定監視対象領域がより拡大されるようなワーピング処理を行う。更に、本実施の形態に係る全方位画像処理装置は、線形の射影変換により、全方位画像を横に引き伸ばす楕円化処理を行う。これらの処理により、処理後の全方位画像は、指定監視対象およびその周辺の画像を更に大きく表示し、指定監視対象およびその周辺の状況をより把握し易くすることができる。
また、本実施の形態に係る全方位画像処理装置は、指定監視対象領域の歪みを補正し、かつ、その補正に合わせて、周囲の画像領域を補正するようなワーピング処理を行う。これにより、処理後の全方位画像は、指定監視対象の状況を更に把握し易くすることができる。
なお、本実施の形態では、画像処理動作に先立ち、一まとまりの動画像(複数の指定フレーム)についての情報蓄積動作が完了している場合について説明したが、本発明の適用は、これに限定されない。全方位画像処理装置は、例えば、フレーム毎に、情報蓄積動作および画像処理動作を行い、リアルタイムで全方位画像の画像処理および表示を行うようにしても良い。この場合、指定フレームの決定は、フレームIDの指定ではなく、表示中の映像の指定に基づいて、または指定監視対象の有無に基づいて、行う必要がある。
また、全方位画像処理装置は、上述の、画像回転処理、中心位置移動処理、中心位置移動処理における指定対象領域の拡大、楕円化処理、および歪み補正処理の全てを、必ずしも実施しなくても良い。例えば、指定監視対象が全方位カメラに接近しており、画質が良く歪みが少ないような場合がある。このような場合には、全方位画像処理装置は、画像回転処理および中心位置移動処理のみを実施するだけでも、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させることができる。
また、本実施の形態の形態では、指定監視対象領域を、人物の輪郭に外接する枠で囲まれた領域として説明したが、本発明の適用はこれに限定されない。指定監視対象領域は、指定監視対象だけでなく、当該指定監視対象の近傍に位置し当該指定対象の行動に関連する物体(例えば作業台、以下「付属対象」という)等、他の対象をも併せて含む領域であっても良い。
図24は、指定監視対象領域の定義の他の例を示す図である。
図24に示すように、指定監視対象781は、ディスプレイ機器782を見ながら作業をしているものとする。この場合、全方位画像処理装置は、例えば、図示しない視線検出部において、指定監視対象781である作業員の視線方向を、瞳孔の動きに対する追跡等の画像認識によって検出する。そして、全方位画像処理装置は、検出した視線方向から、ディスプレイ機器782を、付属監視対象と判断する。視線検出部は、指定監視対象781が作業する机の上や、壁の低い位置に設置されたカメラなどで実現可能である。そして、画像回転部406は、指定監視対象領域783を、例えば、指定監視対象781の輪郭および付属対象であるディスプレイ機器782の両方を含む輪郭に外接する、等脚台形の形状で囲まれた領域に決定する。このように、指定監視対象と付属監視対象とを含む領域を指定監視対象領域とすることにより、付属対象の状態も見易く表示することができ、指定監視対象の行動をより把握し易くすることができる。
また、指定監視対象領域は、上述の等脚台形ではなく、その全方位画像における位置を適切に定義可能な形状であれば、長方形や楕円形等、他の形状としても良い。また、本実施の形態では、図8の監視対象指定画面において、監視対象の画像領域を歪み補正して表示するようにしてもよい。
また、本実施の形態では、初期状態の全方位画像が見下ろし画像の場合について説明したが、本発明の適用は、これに限定されない。例えば、初期状態の全方位画像が見上げ画像である場合にも、本発明の適用が可能である。見上げ画像とは、例えば、監視エリア200の床面に全方位カメラ300を天井に向けて備え付けて得られる画像である。
上述のように、見下ろし画像においては、監視エリア200の床面に立っている作業員の画像は、その頭部が全方位画像の外周側に向き、その下半身が全方位画像の中心側に向く。これに対し、見上げ画像においては、監視エリア200の床面に立っている作業員の画像は、その頭部が全方位画像の中心側に向き、その下半身が全方位画像の外周側に向く。
したがって、初期状態の全方位画像が見上げ画像である場合、全方位画像処理装置は、画像回転処理において指定監視対象を下側中央に回転させ、中心位置移動処理において全方位画像の中心を上方向に移動させれば良い。
また、本実施の形態では、入射光軸上に小さな反射鏡が設置された全方位カメラを用いた場合について説明したが、本発明は、魚眼レンズを採用した全方位カメラを用いた場合にも適用が可能である。
図25は、魚眼レンズを採用した場合における、指定フレームの初期状態の全方位画像の一例を示す図であり、図12に対応するものである。
図25で示すように、魚眼レンズを採用した全方位カメラを用いた場合、初期状態の全方位画像である回転前画像670の中心部に死角領域は生じない。したがって、回転前画像670の中心点上に位置する監視対象784が存在し得る。
このような監視対象784が存在する場合、全方位画像処理装置は、例えば、監視対象784の実空間における鉛直方向が、全方位画像を見たときの下向き方向に一致するように、画像回転処理を行う。
図26は、図25に示す回転前画像670に対して監視対象784を基準に画像回転処理を行った後の、回転後画像の一例を示す図であり、図16に対応するものである。このような処理により、全方位カメラからの距離が最も近い(全方位カメラの真下の)監視対象を視認し易い回転後画像670aを得ることができる。
なお、全方位画像処理装置は、画像回転処理後に、例えば、次のような処理をすることにより、監視対象の視認性を高めることが可能である。1つ目は、監視対象を全方位画像の中心点上に存在させたまま、監視対象の画像領域を拡大する処理である。2つ目は、全方位画像の中心を上方向に移動させ、その結果得られた全方位画像の中心を、下方向に移動させる処理である。2つ目の処理によれば、監視対象は全方位画像の上部に表示されるので、更に必要に応じて、歪み補正処理を行うことが望ましい。
また、本実施の形態では、工場において作業員を監視するための監視システムについて説明したが、本発明の適用はこれに限定されない。本発明は、例えば、販売店舗の店内を万引き行為の監視のために撮影するシステム等、全方位画像を扱う各種の装置およびシステムに適用することができる。
2010年3月18日出願の特願2010−62560の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る全方位画像処理装置および全方位画像処理方法は、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させることができるので、販売店舗、工場等の広いエリアを監視する監視システムとして有用である。
100 監視システム
200 監視エリア
300 全方位カメラ
400 全方位画像処理装置
401 動画像入力部
402 動画像蓄積部
403 監視対象位置情報入力部
404 監視対象位置情報蓄積部
405 監視対象指定部
406 画像回転部
407 中心位置移動部
408 楕円化部
409 歪み補正部
410 出力画像蓄積部
411 画像出力部
本発明は、全方位画像に対して画像処理を行う全方位画像処理装置および全方位画像処理方法に関する。
全方位カメラは、通常のカメラに魚眼レンズや球面ミラー等の特殊な光学系を組み合わせたカメラを用いることにより、一度の撮影で全方位の画像(以下「全方位画像」という)が得られるようにしたカメラである(例えば非特許文献1参照)。全方位カメラは、監視システム等、広い分野で活用されている。ところが、全方位画像では、人物や物体など個々の被写体(以下「監視対象」という)の画像の歪みが大きいため、個々の監視対象の様子を把握し難い。
そこで、従来、全方位画像に対して画像処理を行う技術が提案されている(例えば、特許文献1および特許文献2参照)。特許文献1に記載の技術は、全方位画像を、環状の画像、具体的には、中心位置が異なる大小2つの楕円に挟まれた領域内に表示される画像に変換する。この技術により、個々の監視対象の位置関係を容易に把握させることが可能である。また、特許文献2に記載の技術は、全方位画像をパノラマ状の横長画像に座標変換し、指定された監視対象の画像を切り出して歪み補正を行う。この技術により、全方位画像から、個々の監視対象の画像の歪みが少ない画像を生成することが可能である。
特開2003−132348号公報 特開2008−48443号公報 特開平11−331654号公報
山澤一誠、八木康史、谷内田正彦、「移動ロボットのナビゲーションのための全方位視覚センサ」、電子情報通信学会誌D−II、社団法人電子情報通信学会、1996年5月25日、Vol.J79−D−II、p.698−707
しかしながら、特許文献1および特許文献2に記載の技術では、広い範囲における監視対象の詳細な状況の把握や、監視対象の周辺の状況についての直感的な把握が、難しい場合がある。
特許文献1に記載の技術では、中心位置が異なる大小2つの楕円に挟まれた領域のうち、狭い方に監視対象が存在する場合には、監視対象と監視対象周辺の画像が縮小されてしまうからである。また、特許文献2に記載の技術では、指定された監視対象の画像部分のみが切り出されて表示され、全方位画像の連続性が失われるからである。
本発明の目的は、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させる全方位画像処理装置およびその方法を提供することである。
本発明の全方位画像処理装置は、全方位画像に対して画像処理を行う全方位画像処理装置であって、前記全方位画像に撮影されている監視対象を指定する監視対象指定部と、前記指定された監視対象の位置が上側中央となるように、前記全方位画像を回転させる画像回転部と、前記画像回転部によって回転された前記全方位画像の中心位置を、ワーピング処理によって下方向に移動させる中心位置移動部とを有する。
本発明の全方位画像処理方法は、全方位画像に対して画像処理を行う全方位画像処理方法であって、前記全方位画像に撮影されている監視対象を指定するステップと、前記指定された監視対象の位置が上側中央となるように、前記全方位画像を回転させるステップと、回転された前記全方位画像の中心位置を、ワーピング処理によって下方向に移動させるステップとを有する。
本発明によれば、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させることができる。
本発明の一実施の形態に係る全方位画像処理装置を含む監視システムの設置例を示すシステム構成図 本実施の形態における全方位画像の一例を示す図 本実施の形態に係る全方位画像処理装置の構成を示すブロック図 本実施の形態におけるフレーム時刻対応表の一例を示す図 本実施の形態における監視対象位置情報の一例を示す図 本実施の形態における監視対象位置管理情報の一例を示す図 本実施の形態における画像処理動作を示すフローチャート 本実施の形態における監視対象指定画面の第1の例を示す図 本実施の形態における監視対象指定画面の第2の例を示す図 本実施の形態における監視対象指定画面の第3の例を示す図 本実施の形態における画像回転処理の一例を示すフローチャート 本実施の形態における初期状態の全方位画像の一例を示す図 本実施の形態における指定監視対象領域の定義の一例を示す図 本実施の形態における監視対象領域情報の一例を示す図 本実施の形態における回転量の算出手法の一例を説明するための図 本実施の形態における回転後画像の一例を示す図 本実施の形態における中心位置移動処理の一例を示すフローチャート 本実施の形態における移動前画像の領域の分割の一例を示す図 本実施の形態における移動後画像の領域の分割の一例を示す図 本実施の形態における楕円化後画像における各位置の状態の一例を示す図 本実施の形態における歪み補正処理の一例を示すフローチャート 本実施の形態における歪み補正前画像の領域分割の一例を示す図 本実施の形態における歪み補正後画像の領域分割の一例を示す図 本実施の形態における指定監視対象領域の定義の他の例を示す図 本実施の形態における初期状態の全方位画像の他の例を示す図 本実施の形態における回転後画像の他の例を示す図
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係る全方位画像処理装置を含む監視システムの設置例である。本実施の形態は、本発明を、工場において作業員を監視するための監視システム
に適用した例である。
図1に示すように、監視システム100は、工場内部の監視エリア200の天井等に床面に向けて備え付けられた全方位カメラ300と、全方位カメラ300と通信可能に接続された全方位画像処理装置400とを有する。
全方位カメラ300は、全方位の画像を撮影できるカメラであり、ここでは、非特許文献に記載されているような特殊なミラーを用いたカメラを例にして説明する。全方位カメラ300は、工場が稼動している間、作業員210が作業している監視エリア200を撮影し、撮影した全方位画像の時系列データである動画像データを、全方位画像処理装置400へ送信する。
図2は、全方位カメラ300が撮影する全方位画像の一例を示す図である。
図2に示すように、全方位カメラ300が全方位画像処理装置400へ送信する動画像データの画像501の形状は、矩形であるのに対し、監視エリア200が撮影されている全方位画像502の形状は、正円である。これは、本実施の形態で使用しているミラーの光軸に対する最大断面が正円であるからである。したがって、動画像データの画像501には、四隅に撮影されない部分503が生ずる。また、本実施の形態における全方位カメラ300は入射光軸上に小さな反射鏡が設置されるため、全方位画像502の中心部には、正円の死角領域504が生ずる場合がある。死角が生じる理由については、例えば、非特許文献1および特許文献3に記載されているため、ここでの説明を省略する。
ここでは、全方位カメラ300が撮影する全方位画像は、見下ろし画像、つまり、全方位カメラの真下を中心とする画像となる。したがって、監視エリア200の床面に立っている作業員の画像505は、その頭部が全方位画像502の外周側に向き、その下半身が全方位画像502の中心側に向く。形状が矩形である動画像データの画像501が1フレームに相当するが、以降、死角領域504を含み、形状が正円である全方位画像502を画像処理の対象として説明する。
図1の全方位画像処理装置400は、例えばパーソナルコンピュータである。全方位画像処理装置400は、全方位カメラ300から受信した全方位画像に対して、画像処理を行い、工場内の作業員の作業効率向上を目的とした動線解析等に用いられる画像に変換する。具体的には、全方位画像処理装置400は、全方位画像を回転させる処理と、全方位画像の中心位置を移動させるワーピング処理等を行う。そして、全方位画像処理装置400は、これらの処理が行われた後の全方位画像を表示する。
画像回転処理は、指定された監視対象が全方位画像の上側中央に位置するよう、全方位画像を回転させる処理である。
また、ワーピング処理とは、画像を分割した各分割領域間の隣接関係を崩さないよう、それぞれの分割領域に非線形の幾何学変換を施すことにより、画像を変形させることを指すものとする。ここでのワーピング処理は、例えば、全方位画像の中心位置を移動させる処理である。
本発明の全方位画像処理装置400は、監視エリア200全体の様子を把握することができるような全方位画像を、表示することができる。すなわち、全方位画像処理装置400は、全方位画像を、その画像の連続性を維持した状態で、指定された監視対象の画像領域の歪みが少ない画像に変換して、表示することができる。また、全方位画像処理装置400は、監視対象を含む画像領域を拡大表示することも可能である。これにより、システ
ム管理者等のユーザは、変換された画像を見ることで、指定された監視対象(ここでは作業員210)の詳細な状況とその周辺の状況を認識することができる。
次に、全方位画像処理装置400の構成について説明する。
図3は、全方位画像処理装置400の構成を示すブロック図である。
図3において、全方位画像処理装置400は、動画像入力部401、動画像蓄積部402、監視対象位置情報入力部403、監視対象位置情報蓄積部404、監視対象指定部405、画像回転部406、中心位置移動部407、楕円化部408、歪み補正部409、出力画像蓄積部410、および画像出力部411を有する。
動画像入力部401は、動画像データを入力する。ここでは、動画像入力部401は、全方位カメラ300から、監視エリア200を撮影した全方位画像の動画像データを受信し、受信した動画像データをエンコードする。動画像入力部401は、エンコードを行う際、各動画像データに対して、1ずつ増加する値であるフレームIDを付与すると共に、エンコードした時刻をタイムスタンプとして付与する。動画像入力部401は、エンコードした動画像データを動画像蓄積部402へ出力する。
動画像蓄積部402は、動画像入力部401から入力された動画像データを、H.264フォーマット等、複数のフレームにより構成される動画像フォーマットで蓄積する。そして、動画像蓄積部402は、監視対象指定部405からの指示を受けて、監視対象指定部405が指定したフレームIDのフレーム(全方位画像)を、画像回転部406に出力する。また、動画像蓄積部402は、監視対象位置情報蓄積部404から参照可能な状態で、フレーム時刻対応表を保持する。フレーム時刻対応表は、フレームIDと該当するフレームが撮影された時刻(動画像入力部401から入力された時刻)との対応関係を示す情報である。
監視対象位置情報入力部403は、所定の周期(例えば0.5秒毎)で、各監視対象の監視対象位置情報を入力し、入力した監視対象位置情報を、監視対象位置情報蓄積部404へ出力する。監視対象位置情報は、時刻と、その時刻に監視エリア200内に存在する監視対象の代表点の全方位画像上の二次元位置座標(以下「画面内位置」という)とを、対応付けて示す情報である。なお、監視対象の代表点は、例えば、無線タグを用いて取得される場合は無線タグの位置であり、全方位画像に対する画像認識によって取得される場合には、監視対象の画像領域の中心点である。
監視対象位置情報蓄積部404は、動画像蓄積部402から入力されたフレーム時刻対応表と、監視対象位置情報入力部403から入力された監視対象位置情報とに基づいて、監視対象位置管理情報を生成し、蓄積する。なお、監視対象位置情報蓄積部404は、監視対象指定部405から参照可能な状態で蓄積するものである。
監視対象指定部405は、動画像蓄積部402が蓄積する動画像データの中から表示すべき全方位画像(フレーム)を指定する。また、監視対象指定部405は、全方位画像に撮影されている監視対象の中から、特に見易く表示すべき監視対象を指定する。フレームと監視対象の具体的な指定方法については、後述する。監視対象指定部405は、動画像蓄積部402に対し、指定したフレーム(以下「指定フレーム」という)の全方位画像を、画像回転部406へ出力させる。
また、監視対象指定部405は、指定フレームにおいて、指定した監視対象(以下「指定監視対象」という)の画面内位置を検出する。そして、監視対象指定部405は、検出
した指定監視対象の画面内位置(以下「指定監視対象位置」という)を取得し、画像回転部406へ出力する。監視対象指定部405は、ここでは、液晶ディスプレイ等の表示装置およびキーボードやマウス等の入力装置(いずれも図示せず)を用いて、指定フレームおよび指定監視対象の選択を、ユーザから受け付けるものとする。
画像回転部406は、指定監視対象位置に基づいて、動画像蓄積部402から入力された指定フレームの全方位画像に対して、上述の画像回転処理を行う。また、画像回転部406は、全方位画面内で指定監視対象が占める画像領域(以下「指定監視対象領域」という)を抽出する。そして、画像回転部406は、画像回転処理を行った後の全方位画像と、指定監視対象位置および指定監視対象領域(以下、2つを併せた情報を「監視対象位置情報」という)とを、中心位置移動部407へ出力する。
以下、適宜、画像回転処理を行う直前の全方位画像を「回転前画像」といい、画像回転処理を行った直後の全方位画像を「回転後画像」という。
中心位置移動部407は、画像回転部406から入力された回転後画像に対して、回転後画像の中心位置を下方に移動させるワーピング処理(以下「中心位置移動処理」という)を行う。そして、中心位置移動部407は、中心位置移動処理を行った後の回転後画像および監視対象位置情報を、楕円化部408へ出力する。
以下、適宜、中心位置移動処理を行う直前の全方位画像を「移動前画像」といい、中心位置移動処理を行った直後の全方位画像を「移動後画像」という。
楕円化部408は、中心位置移動部407から入力された移動後画像に対して、線形の射影変換により、その形状を正円から楕円形に変形させる処理(以下「楕円化処理」という)を行う。そして、楕円化部408は、楕円化処理を行った後の移動後画像および監視対象位置情報を、歪み補正部409へ出力する。
以下、適宜、楕円化処理を行う直前の全方位画像を「楕円化前画像」といい、楕円化処理を行った直後の全方位画像を「楕円化後画像」という。
歪み補正部409は、楕円化部408から入力された楕円化後画像の指定監視対象領域について、全方位画像特有の歪みを補正する処理(以下「歪み補正処理」という)を行う。そして、歪み補正部409は、歪み補正処理を行った後の楕円化後画像および監視対象位置情報を、出力画像蓄積部410へ出力する。
以下、適宜、歪み補正処理を行う直前の全方位画像を「歪み補正前画像」といい、歪み補正処理を行った直後の全方位画像を「歪み補正後画像」という。
出力画像蓄積部410は、歪み補正部409から入力された歪み補正後画像を蓄積する。
画像出力部411は、出力画像蓄積部410が蓄積する歪み補正後画像を、最終的な全方位画像として読み出し、液晶ディスプレイ等の表示装置へ出力する。
このような全方位画像処理装置400は、CPU(central processing unit)、制御プログラムを格納したROM(read only memory)等の記憶媒体、RAM(random access memory)等の作業用メモリ、各種データを格納するためのハードディスク等の記憶媒体等により実現することができる。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。
このような構成を有する全方位画像処理装置400は、全方位画像の連続性を維持しつつ、その全方位画像において、実空間において指定監視対象を真横から見たときの見え方により近い状態で、指定監視対象の画像を表示することができる。また、全方位画像処理装置400は、監視対象を含む画像領域を拡大表示することができる。すなわち、全方位画像処理装置400は、全方位画像の連続性を維持しつつ、その全方位画像におけるユーザが注目したい監視対象の視認性を向上させることができる。
以下、全方位画像処理装置400の全体動作について説明する。
ここでは、全方位画像処理装置400は、情報蓄積動作を行った後に、蓄積された動画像データおよび監視対象位置管理情報に基づいて全方位画像を処理する画像処理動作を行うものとする。ここで、情報蓄積動作とは、動画像データおよび監視対象位置管理情報を蓄積する動作をいうものとする。まず、情報蓄積動作について説明する。
全方位画像処理装置400は、まず、全方位カメラ300が撮影した動画像データを、動画像入力部401において入力し、動画像蓄積部402に蓄積する。動画像蓄積部402は、蓄積する動画像データについてフレーム時刻対応表を生成する。
図4は、フレーム時刻対応表の一例を示す図である。
図4に示すように、フレーム時刻対応表610は、全方位画像の撮影時刻611と、その全方位画像のフレームID612とを対応付けて記述する。撮影周期は一定であり、1つの撮影時刻に1つのフレームが対応する。
ここでは、全方位画像が撮影されてから対応するフレームが動画像蓄積部402に入力されるまでに要する時間は、非常に短いものとする。したがって、動画像蓄積部402は、入力時刻をそのまま撮影時刻611として採用する。なお、全方位画像が撮影されてから対応するフレームが動画像蓄積部402に入力されるまでに要する時間を考慮する場合には、動画像蓄積部402は、入力時刻から当該時間だけ遡った時刻を撮影時刻611とすれば良い。
監視対象位置情報入力部403は、監視エリア200内に存在する監視対象、即ち全方位カメラ300が撮影した全方位画像に対して、撮影されている監視対象の監視対象位置情報を入力する。なお、監視対象位置情報は、時刻および各監視対象の全方位画像上の位置を含む。監視対象位置情報入力部403は、入力した監視対象位置情報を、監視対象位置情報蓄積部404に出力する。
図5は、監視対象位置情報の一例を示す図である。
図5に示すように、監視対象位置情報620は、監視対象の位置の検出が行われた検出時刻621と、監視対象ID622と、検出された監視対象の画面内位置623とを対応付けて記述する。画面内位置623は、動画像データにおける位置を示し、例えば、後述のように、動画像データの左下隅を原点とするxy座標系を定義したときの座標値で表現される。
なお、監視対象位置情報は、無線タグを用いた測位や、全方位画像に対する画像認識等によって得ることができる。
無線タグを用いた測位の場合には、例えば、監視対象位置情報入力部403は、実空間
(監視エリア200)における三次元位置と、全方位カメラ300により撮影される全方位画像における二次元位置との対応関係を、予め記憶しておく。そして、監視対象位置情報入力部403は、所定の周期(例えば0.5秒)で、各監視対象に取り付けた無線タグから、各監視対象のID情報(以下「監視対象ID」という)と、各監視対象の代表点の実空間における三次元位置とを取得する。次に、監視対象位置情報入力部403は、取得した三次元位置を全方位画像上の二次元位置に変換する。このとき、監視対象位置情報入力部403は、各無線タグのIDをそのまま監視対象IDとして採用してもよい。
また、画像認識を用いる場合には、例えば、監視対象位置情報入力部403は、各監視対象の、顔特徴量および帽子の色等の画像特徴と監視対象IDとを予め記憶しておく。監視対象位置情報入力部403は、動画像蓄積部402に蓄積された各フレームのうち、所定の周期に対応するフレーム毎に、全方位画像内で各監視対象が占める画像領域を抽出する。そして、監視対象位置情報入力部403は、顔認識および帽子の色の認識等を行って、各画像領域の監視対象IDを取得すると共に、各画像領域の全方位画像上の代表位置を、その監視対象の二次元位置として取得する。
監視対象位置情報蓄積部404は、監視対象位置情報入力部403から入力された監視対象位置情報に基づいて、監視対象位置管理情報を生成し、生成した監視対象位置管理情報を蓄積する。
図6は、監視対象位置管理情報の一例を示す図である。
図6に示すように、監視対象位置管理情報630には、フレームID631に対応付けて、そのフレームの全方位画像に撮影されている可能性のある監視対象の監視対象ID632と、その画面内位置633との組が、記述されている。
監視対象位置情報蓄積部404は、例えば、以下のようにして監視対象位置管理情報630を生成する。監視対象位置情報蓄積部404は、動画像蓄積部402に格納されたフレーム時刻対応表610(図4参照)を参照する。そして、監視対象位置情報蓄積部404は、フレーム時刻対応表610に記述された撮影時刻611の区間のうち、監視対象位置情報620(図5参照)の検出時刻621を包含する区間を検索する。なお、撮影時刻611の区間とは、そのフレームの撮影時刻から次のフレームの撮影時刻までをいう。そして、監視対象位置情報蓄積部404は、監視対象位置管理情報630に示す該当する区間に対応するフレームID612と、図5に示す監視対象位置情報620の監視対象ID622および画面内位置623とを、対応付ける。
例えば、図5に示すように、「2010/1/13 9:34:55 02」という検出時刻621に対して、監視対象ID622が「5」、画面内位置623が「(780,550)」と対応付けられた監視対象位置情報620が入力される。また、図4に示すように、「2010/1/13 9:34:55 02」を包含する区間に対して、フレームID612「10」を対応付けたフレーム時刻対応表610が蓄積されていたとする。
この場合、生成される監視対象位置管理情報630は、図6に示すように、フレームID631「10」に、監視対象ID632「5」および画面内位置633「(780,550)」を対応付けた内容となる。
以上の情報蓄積動作により、動画像データおよび監視対象位置管理情報は、動画像蓄積部402および監視対象位置情報蓄積部404にそれぞれ蓄積された状態となる。この状態において、全方位画像処理装置400は、画像処理動作が可能となる。全方位画像処理装置400は、例えば、監視エリア200の一日分の動画像データおよび監視対象位置管
理情報の蓄積が完了すると、次の日に、これらを用いて画像処理動作を行う。
次に、画像処理動作について説明する。
図7は、全方位画像処理装置400の画像処理動作を示すフローチャートである。
まず、ステップS1000において、監視対象指定部405は、監視対象位置情報蓄積部404に格納された監視対象位置管理情報(図6参照)に基づいて、指定監視対象および指定フレームを決定する。指定監視対象および指定フレームは、ユーザにより任意に決定可能としても良いし、所定のルールに基づいて自動で決定されても良い。所定のルールは、例えば、特定の作業員を指定監視対象とし、その作業員が出勤している時間帯のフレームを指定フレームとする内容である。また、所定のルールは、例えば、異常な動きをする監視対象が出現している時間帯のフレームを指定フレームとする内容である。監視対象の動きが異常か否かは、例えば、動画像データに撮影されている監視対象の動作を解析することによって判断すること可能である。
ここでは、監視対象指定部405は、監視対象位置情報蓄積部404に格納された監視対象位置管理情報に基づいて、監視対象指定画面を生成し、液晶ディスプレイに表示する。ここで、監視対象指定画面とは、ユーザが指定監視対象および指定フレームを選択するための画面である。
図8は、監視対象指定画面の第1の例を示す図である。
図8に示すように、監視対象指定部405は、動画像蓄積部402に蓄積された代表的な全方位画像641に重畳して、各監視対象642の監視対象ID643を、監視対象指定画面640に表示する。なお、各監視対象642の監視対象ID643は、その監視対象642の画面内位置に対応付けて、監視対象指定画面640に表示される。また、監視対象指定部405は、ユーザに対して、いずれかの監視対象642に対する選択を促すメッセージ644を、監視対象指定画面640に表示する。
なお、監視対象指定部405は、監視対象IDに対応付けられた監視対象の名称(作業員氏名)等の他の識別情報を、監視対象ID643と共に、または監視対象ID643に代えて、監視対象指定画面640に表示しても良い。
監視対象指定部405は、監視対象指定画面640に表示したいずれかの監視対象642が選択されたとき、その監視対象642の監視対象ID643を、指定監視対象の監視対象IDとして取得する。そして、監視対象指定部405は指定監視対象が撮影されている区間のフレームを、監視対象位置管理情報に基づいて特定し、特定したフレームを、指定フレームとして取得する。
このような監視対象指定画面640により、ユーザは、全方位画像641における各監視対象642の画像および監視対象ID643等を確認して、指定監視対象を任意に選択する。つまり、ユーザは、選択した指定監視対象が撮影されている区間の各フレームを、指定フレームとして選択することができる。
図9は、監視対象指定画面の第2の例を示す図である。
図9に示すように、監視対象指定部405は、監視エリア200の全方位画像651に重畳して、各監視対象の情報を、監視対象指定画面650に表示する。なお、監視対象の情報は、監視対象位置管理情報に基づいて作成される各監視対象の動線652と、各動線
652に対応付けた監視対象ID653とを含む。動線652は、例えば、監視対象が監視エリア200に進入した位置を丸状の端部によって示し、監視対象が監視エリア200から退出した位置を矢印状の端部によって示す。また、監視対象指定部405は、ユーザに対して、いずれかの動線652に対する選択を促すメッセージ654を、監視対象指定画面650に表示する。
監視対象指定部405は、監視対象指定画面650に表示したいずれかの動線652が選択されたとき、その動線652の監視対象ID643を、指定監視対象の監視対象IDとして取得する。そして、監視対象指定部405は、指定監視対象が撮影されている区間のフレームを、監視対象位置管理情報に基づいて特定し、特定したフレームを、指定フレームとして選択する。なお、指定監視対象が撮影されている区間は、指定監視対象が監視エリア200に進入してから退出するまでの区間である。
このような監視対象指定画面650により、ユーザは、それぞれの監視対象が通過した場所を確認して、指定監視対象を任意に選択することができる。そして、ユーザは、選択した指定対象が撮影されている区間の各フレームを、指定フレームとして選択することができる。これにより、例えば、監視エリア200内で事故が発生したとき等に、事故現場を通過した作業員やその作業員の行動を、事故発生後に確認することが容易となる。
図10は、監視対象指定画面の第3の例を示す図である。
図10に示すように、監視対象指定部405は、例えば、フレームID661と監視対象ID662との組を監視対象指定画面660に表示する。また監視対象指定部405は、いずれかの組に対する選択を促すメッセージ663を、監視対象指定画面660に表示する。
監視対象指定部405は、監視対象指定画面660に表示したいずれかの組が選択されたとき、その組の監視対象ID662およびフレームID661を、指定監視対象の監視対象IDおよび指定フレームのフレームIDとして取得する。
このような監視対象指定画面660により、ユーザは、指定監視対象および指定フレームを、監視対象IDおよびフレームIDによって直接的に設定することができる。そして、監視対象指定部405は、指定フレーム以降で指定監視対象が撮影されている区間のフレームを、監視対象位置管理情報に基づいて特定し、特定したフレームを、指定フレームとして取得する。ステップS1000が完了した時点で、1つの指定監視対象と指定監視対象が撮影されている指定フレーム(1つ以上の連続したフレーム)とが選択されていることになる。
なお、新たな動画像データの入力されたときでも、ユーザが同じ監視対象を継続的に監視したいと要望する場合がある。このような場合を考慮して、監視対象指定部405は、ステップS1000において、フレームのみの選択を受け付け可能とし、フレームのみの選択を受け付けたときには前回選択された監視対象を指定監視対象としてもよい。
また、逆に、ユーザが同じ指定フレームで監視対象のみを切り換えたいと要望する場合がある。このような場合を考慮して、監視対象指定部405は、ステップS1000において、監視対象のみの選択を受け付け可能とし、監視対象のみの選択を受け付けたときには前回選択されたフレームを指定フレームとしてもよい。
ステップS2000において、監視対象指定部405は、処理を行っていない指定フレームのうち、フレームIDの数字が最も小さいフレームを選択する。そして、監視対象指
定部405は、動画像蓄積部402に対し、選択中の指定フレームのフレームID(以下「選択中のフレームID」という)を通知して、1つの指定フレームの全方位画像を画像回転部406へ出力させる。
また、監視対象指定部405は、選択中のフレームIDで示される全方位画面における指定監視対象の画面内位置(指定監視対象位置)を、監視対象位置情報蓄積部404に格納された監視対象位置管理情報(図6参照)から取得する。そして、監視対象指定部405は、画像回転部406に対し、取得した指定監視対象位置を出力する。
以降の説明では、図8に示す監視対象指定画面640において、監視対象ID643「11」の監視対象が指定監視対象として選択されたものとする。
ステップS3000において、画像回転部406は、動画像蓄積部402から入力された全方位画像に対し、監視対象指定部405から入力された指定監視対象位置に基づいて、画像回転処理を行う。ここでは、画像回転部406は、図8に示す対象指定画面640において右上側に斜めに撮影されている監視対象ID「11」の監視対象が、画像上部の中心に位置するように回転させた画像を生成する。
図11は、画像回転処理の一例を示すフローチャートである。
まず、ステップS3100において、画像回転部406は、全方位画像内で指定監視対象(ここでは監視対象ID「11」の監視対象)が占める画像領域を抽出する。例えば、画像回転部406は、指定監視対象の指定監視対象位置付近において、背景差分法により監視対象領域を抽出、監視対象(例えば、人物)の形状をテンプレートとしたテンプレートマッチングにより監視対象の画像領域を抽出する。
なお、監視対象位置情報入力部403が画像認識によって監視対象位置座標を取得する場合、画像回転部406は、その際に抽出された監視対象の画像領域を用いて、指定監視対象領域を定義しても良い。
図12は、指定フレームの初期状態の全方位画像の一例を示す図である。
図12に示すように、指定フレームの初期状態の全方位画像(回転前画像)670は、図8に示す監視対象指定画面640の全方位画像641と同様に、正円の見下ろし画像であり、実空間における全方位カメラの真下を中心とする画像である。したがって、右上側に位置する指定監視対象の画像672の、実空間における鉛直方向に対応する方向673は、斜めに傾いている。
なお、図12において、矩形の動画像データ674は、左下隅をxy座標系の原点(0,0)とし、右方向をx軸方向、上方向をy軸方向として、全方位画像670の大きさおよび全方位画像上の監視対象の位置および画像領域を定義する。
全方位画像670の半径をrとすると、全方位画像の上端点、下端点、右端点、左端点の各座標は、それぞれ、(r,2r)、(r,0)、(2r,r)、(0、r)となる。図12に示す各座標値は、r=500の場合の例である。
そして、ステップS3200において、画像回転部406は、ステップS3100において抽出した画像領域を基にして、指定監視対象領域を定義し、指定監視対象位置と指定監視対象領域とを含む監視対象位置情報を生成する。
図13は、指定監視対象領域の定義の一例を示す図である。また、図14は、監視対象領域情報の一例を示す図である。
図13に示すように、指定監視対象領域680は、例えば、指定監視対象の画像領域681に外接し、平行ではない対辺682、683のそれぞれが全方位画像684の半径方向に一致する等脚台形で囲まれた領域である。
画像回転部406は、図14に示すように、等脚台形の3つの端点ぞれぞれのxy座標によって、指定監視対象領域を表現することができる。監視対象領域座標(左上)701は、等脚台形の平行な対辺685、686のうち長い方(外周に近い方)の左端点687の座標である。監視対象領域座標(右上)702は、等脚台形の平行な対辺685、686のうち長い方の右端点688の座標である。監視対象領域座標(左下)703は、等脚台形の平行な対辺685、686のうち短い方(原点に近い方)の左端点689の座標である。
そして、画像回転部406は、取得した指定監視対象位置690に基づいて、回転前画像から回転後画像を生成するための変換行列を算出する。
具体的には、例えば、以下の通りである。まず、画像回転部406は、回転前画像について指定監視対象位置690を取得し、基準線691と監視対象線692とが成す角度693を、全方位画像684の回転量θとする。ここで、基準線691は、全方位画像684を見たときにその中心694から上向き方向(y軸正方向)に伸びる線である。また、監視対象線692は、全方位画像684の中心694と指定監視対象位置690とを結ぶ線である。監視対象線692は、例えば、全方位画像684の中心694と、監視対象領域座標(左上)687と監視対象領域座標(右上)688との中点とを結ぶ線に一致する。
図15は、回転量の算出手法の一例を説明するための図であり、図14に対応するものである。図14と同一部分には同一符合を付し、これについての説明を省略する。また、以下、中心694に対して反時計回りの回転方向を正として説明を行う。
図15において、監視対象領域座標(左上)687と監視対象領域座標(右上)688との中点695の座標を(x,y)としたとき、中点695と中心694を通る監視対象線692は、以下の式(1)で表される。
Figure 2011114610
ここでは、基準線691と全方位画像684の外周との交点697から監視対象線692への下ろした垂線698と、監視対象線692との交点を、交点699とする。このとき、回転量θは、交点697と交点699との距離をd、中心694と交点699との距離をdとすると、以下の式(2)、(3)から算出することができる。
Figure 2011114610
Figure 2011114610
画像回転部406は、回転前画像における座標を(x,y)とし、回転後画像における座標を(x',y')としたとき、以下の式(4)の右項に示す、回転前画像における座標(x,y)に対する係数部分を、変換行列として算出する。この変換行列を用いることにより、画像回転部406は、指定監視対象が画像上部の中心に位置する回転後画像を生成することができる。
Figure 2011114610
そして、ステップS3400において、画像回転部406は、ステップS3300で算出した変換行列を用いて、回転前画像の各座標を変換し、回転後画像を生成する。そして、画像回転部406は、生成した回転後画像と、回転後画像における指定監視対象位置および指定監視対象領域を示す監視対象位置情報とを、中心位置移動部407へ出力する。
図16は、図11に示す回転前画像670に対して画像回転処理を行った後の、回転後画像の一例を示す図である。
図16に示すように、回転後画像670aでは、指定監視対象の画像672は、上側中央に位置し、その実空間における鉛直方向に対応する方向673は、下向き方向となっている。
次に、図7のステップS4000において、中心位置移動部407は、画像回転部406から入力された回転後画像(移動前画像)に対し、中心位置移動処理を行う。
中心位置移動部407は、回転後画像の中心位置を下方に移動させるワーピング処理を行うとき、指定監視対象領域が特に拡大するようなワーピング処理を行う。
図17は、中心位置移動処理の一例を示すフローチャートである。
まず、ステップS4100において、中心位置移動部407は、移動前画像の領域を分割する。
図18は、移動前画像の領域の分割の一例を示す図である。
中心位置移動部407は、例えば、移動前画像の領域711の中心712から外周713方向に放射状に延びる複数の線714と、移動前画像の外周713と同心である複数の円715とによって、移動前画像領域の領域711を分割する。図16に示す全方位画像が入力された場合、中心712の座標は、(500,500)となる。複数の線714は、少なくとも中心712から上向き方向(y軸正方向)に伸びる線714aを含み、例えば、所定の本数で等間隔に配置される。また、複数の円715は、例えば、所定の本数で、隣接する他の円715との半径の差が一定となるように配置される。
そして、ステップS4200において、中心位置移動部407は、移動前画像の中心の射影先座標を決定する。中心位置移動部407は、中心の射影先座標を下方の座標(より小さいy座標)に決定する。射影先のy座標は、予め定められた値としても良いし、元のy座標に対して予め定められた比率を掛けた値としても良い。図16に示す全方位画像に対しては、例えば、座標(500,270)が決定される。
また、中心位置移動部407は、中心712から上向き方向に伸びる線714aと外周713および各円715との交点720〜724の射影先座標を決定する。中心位置移動部407は、例えば、線714aと外周713との交点720を固定とする。ここで、図18では、交点720と交点721との距離を半径方向間隔725とし、交点721と交点722との距離を半径方向間隔726とし、交点722と交点723との距離を半径方向間隔727とする。また、図18では、交点723と交点724との距離を半径方向間隔728とし、交点724と中心729との距離を半径方向間隔729とする。このとき、中心位置移動部407は、射影後の半径方向間隔725〜729の互いの比率(725:726:727:728:729)を決定する。例えば、中心位置移動部407は、射影後の半径方向間隔725〜729の互いの比率、(725:726:727:728:729)を(1.0:1.5:0.8:0.5:0.2)と決定する。なお、射影後の半径方向間隔725〜729の互いの比率を、以下「射影後間隔比率」という。ここでは、中心位置移動部407は、指定監視対象領域が拡大表示されるように、指定監視対象領域に対応する半径方向間隔(ここでは半径方向間隔726とする)が広くなるように、射影後間隔比率を決定する。また、中心位置移動部407は、中心712と交点721との距離に対する比率(例えば0.3)で、指定監視対象領域に対応する半径方向間隔(ここでは半径方向間隔726とする)を決定してもよい。
射影による中心位置の移動距離および射影後間隔比率は、指定監視対象の詳細な状況やその周辺の状況が十分に視認されるような値であることが望ましく、例えば、実験や経験から決定される。
なお、全方位カメラ300からより遠方(つまり全方位画像の外周713に近い方)に位置する監視対象は、移動前画像においてはより小さく表示される。したがって、中心位置移動部407は、指定監視対象領域に対応する部分の半径方向間隔を広くしつつ、他の半径方向間隔が外周側ほどより大きくなるように、射影後間隔比率を決定しても良い。
また、中心位置移動部407は、全方位カメラ300と指定監視対象との距離が長いほど、指定監視対象領域に対応する部分の比率をより大きくしても良い。この場合、例えば、中心位置移動部407は、予め全方位画像における各位置と、その位置に撮影される監視対象までの距離(その監視対象が立っている床までの距離)との対応関係を格納している。そして、中心位置移動部407は、指定監視対象位置に対する距離を、全方位カメラ300と指定監視対象との距離として取得する。そして、中心位置移動部407は、取得した距離に基づいて、指定監視対象領域に対応する部分の比率を決定する。
そして、ステップS4300において、中心位置移動部407は、移動後画像の領域を分割する。具体的には、中心位置移動部407は、ステップS4200で座標を決定した移動後座標での射影先座標の各点を結ぶ形で、移動後画像の領域を分割する各直線や曲線を決定する。これにより、移動前画像の領域を分割する各直線や曲線を、移動後画像の領域にどのように射影するのかが決定される。
図19は、移動後画像の領域の分割の一例を示す図である。
図19に示すように、例えば、中心位置移動部407は、決定した射影後の中心733を配置する。そして、中心位置移動部407は、中心733から上向き方向に伸びる線734を、決定した射影後間隔比率で分割し、分割点735〜738を配置する。また、中心位置移動部407は、中心733から下向き方向に伸びる線734'についても、決定した射影後間隔比率で分割し、分割点735'〜738'を配置する。
その後、図19に示すように、中心位置移動部407は、移動前画像における各円(図18の円715)のそれぞれに対応し、配置された分割点735'〜738'を通るような楕円739で、移動後画像の領域731を分割する。更に、中心位置移動部407は、移動前画像における各線(図18の線714)のそれぞれに対応し、各楕円739の円周を等間隔で分割するような線740で、移動後画像の領域731を分割する。
そして、ステップS4400において、中心位置移動部407は、移動前画像の各分割領域から、移動後画像の対応する分割領域へと、射影変換を行う。例えば、中心位置移動部407は、移動前画像における分割領域741の画像を、移動後画像において対応する分割領域742に射影変換する。
各分割領域は、曲線を辺として持つ四角形または三角形であるが、中心位置移動部407は、処理の簡便化のため、全ての辺を直線とみなして射影変換を行っても良い。また、移動前画像の分割領域および移動後画像の分割領域の面積が小さいほど、移動後画像は、分割領域間の継ぎ目が目立たないきれいな画像となる。
中心位置移動部407は、生成した移動後画像と、移動後画像における指定監視対象位置および指定監視対象領域を示す監視対象位置情報とを、楕円化部408へ出力する。
次に、図7のステップS5000において、楕円化部408は、中心位置移動部407から入力された移動後画像(楕円化前画像)に対し、楕円化処理を行う。具体的には、楕円化部408は、例えば、以下の式(5)に示す2次元行列変換を、楕円化前画像に施す。ここで、(x',y')は、楕円化前画像における座標を示し、(x”,y”)は、楕円化後画像における座標を示す。Sxは、楕円化する際のx軸方向の拡大率を示す。
Figure 2011114610
拡大率Sxは、固定値でも良いし、指定対象領域の大きさや縦横比に基づいて決定しても良い。例えば、楕円化部408は、指定監視対象領域の縦横比を算出し、その縦横比が、人間を真横から見たときの一般的な縦横比に近くなるような拡大率Sxを採用しても良い。ここでは、拡大率が1.5であるものとする。
図20は、移動後画像において、分割された領域の、楕円化後画像における状態の一例を示す図である。
図20に示すように、楕円化前画像の中心733および中心から上向きに伸びる線734は、そのx座標値が決定された拡大率で拡大され、x軸の正の方向に移動する。また、楕円化前画像の外周732および各楕円739は、決定された拡大率でx軸方向に引き伸ばされる。また、楕円化部408は、これに伴って、各楕円739の円周を等間隔で分割する線740、および分割領域742も、x軸方向に引き伸ばされる。
楕円化部408は、生成した楕円化後画像と、楕円化後画像における指定監視対象位置および指定監視対象領域を示す監視対象位置情報とを、歪み補正部409へ出力する。
次に、図7のステップS6000において、歪み補正部409は、楕円化部408から入力された楕円化後画像(歪み補正前画像)に対し、歪み補正処理を行う。具体的には、歪み補正部409は、全方位カメラ300の撮影画像に特有の、直線が丸みを帯びる等の歪みであって、上述の中心移動処理および楕円化処理では解消が困難な歪みの補正を行う。
図21は、歪み補正処理の一例を示すフローチャートである。
まず、ステップS6100において、歪み補正部409は、楕円化後画像における指定監視対象領域を取得する。具体的には、歪み補正部409は、楕円化部408から入力された、歪み補正前画像(楕円化後画像)における指定監視対象領域を取得する。
そして、ステップS6200において、歪み補正部409は、算出した指定監視対象領域に対して、歪み補正を施す。歪み補正の内容は、全方位カメラ300の光学特性などに応じた内容であり、例えば、実験や経験から定められる。なお、歪み補正部409は、一般的な画像処理ソフトウェアにおける歪み補正機能を用いてもよい。また、歪み補正の内容によっては、指定監視対象領域の大きさも形状も変更されない場合もある
そして、ステップS6300において、歪み補正部409は、指定監視対象領域の大きさおよび形状の少なくともいずれかに変更があるか否かを判断する。歪み補正部409は、指定監視対象領域の大きさおよび形状の少なくともいずれかに変更がある場合(S6300:YES)、ステップS6400へ進む。また、歪み補正部409は、指定監視対象領域の大きさおよび形状のいずれも変更がない場合(S6300:NO)、そのまま図7の処理へ戻る。
ステップS6400において、歪み補正部409は、指定監視対象領域の大きさおよび形状の変更に周囲の領域を合わせる形で、全方位画像の指定監視対象領域以外の領域を射影変換する。
図22は、歪み補正前画像の領域分割の一例を示す図である。また、図23は、図22に示す歪み補正前画像に対する、歪み補正後画像の領域分割の一例を示す図である。
ここでは、歪み補正前画像761における指定監視対象領域762は、図22に示すように、4つの分割領域(図中、斜線部)に対応しているものとする。必ずしも指定管理領域と分割領域の区切りが同じとは限らないが、説明を簡便にするため、ここでは指定監視対象領域が複数の分割領域から成っているものとする。また、全方位カメラ300の光学特性が、歪み補正前画像761において、歪み補正前画像761の中心763により近いほど、左右方向が狭く歪むような光学特性になっているとする。
この場合、歪み補正部409は、指定監視対象領域762のうち歪み補正前画像761の中心763に近い側がより広がるように、歪み補正前画像761に対する補正を行う。更に、歪み補正部409は、歪みが解消された指定監視対象領域がより大きく表示されるように、歪み補正前画像761に対する補正を行う。
この結果、図23に示す歪み補正後画像771の指定監視対象領域772は、図22に示す歪み補正前の指定監視対象領域762に比べて、等脚台形の上辺と下辺との比率が変化して歪みがより解消される。また、なおかつ、歪み補正後画像771の指定監視対象領域772は、歪み補正前の指定監視対象領域762に比べて、より大きい面積となる。
また、歪み補正部409は、分割領域間の隣接関係が維持されるように、指定監視対象領域772に隣接する分割領域の大きさおよび形状を補正する。このとき、歪み補正部409は、指定監視対象領域772に隣接する分割領域774から、その更に周囲の分割領域775へ、段階的に、指定監視対象領域772の変更を吸収するように、各分割領域の大きさおよび形状を補正する。
そして、歪み補正部409は、全方位画像の指定監視対象領域以外の各部分を、補正後の対応する分割領域に射影変換し、歪み補正後の指定監視対象領域と他の領域とにより構成される歪み補正後画像を生成する。そして、歪み補正部409は、生成した歪み補正後画像を、出力画像蓄積部410へ出力する。
これにより、歪み補正の前後で指定監視対象領域の大きさおよび形状が変更になる場合でも、指定監視対象領域と周囲との継ぎ目が目立たないきれいな全方位画像を得ることができる。
出力画像蓄積部410は、歪み補正部409から入力された歪み補正後画像を蓄積し、画像出力部411に歪み補正後画像を出力する。
次に、図7のステップS7000において、画像出力部411は、出力画像蓄積部410から入力された歪み補正後画像を、液晶ディスプレイ等の表示機器によって表示する。
そして、ステップS8000において、監視対象指定部405は、ステップS2000において選択していない指定フレームが存在するか否かを判断する。
監視対象指定部405は、指定フレームの最終フレームでなかった場合、つまり、未選択の指定フレームが存在する場合には(S8000:NO)、ステップS2000に戻る。すなわち、監視対象指定部405は、選択中のフレームIDを1インクリメントして次の指定フレームを選択し、ステップS2000〜S8000を繰り返す。
そして、監視対象指定部405は、指定フレームの最終フレームであった場合、つまり、未選択の指定フレームが存在しない場合には(S8000:YES)、一連の処理を終了する。
このような動作により、全方位画像処理装置400は、全方位画像の映像の中から、ユーザから注目したい監視対象の指定を受け付け、その監視対象が見易くなるように、映像に対する画像処理を行うことができる。また、この画像処理は、画像回転の後は、ワーピング処理や線形の射影変換のみであるため、全方位画像の連続性を維持することができる。
また、指定フレームが複数である場合、全方位画像処理装置400は、ユーザが指定した監視対象の監視エリア200内の移動に追随し、常に全方位画像の上部中央部に当該監視対象を表示し続けることができる。
以上のように、本実施の形態に係る全方位画像処理装置は、指定監視対象の実空間における鉛直方向および左右方向に対応する方向が、全方位画像を見たときの下向き方向および左右方向に近付くように、全方位画像に対して画像処理を行う。これにより、処理後の全方位画像は、指定された監視対象を実際に見たときの状態により近い状態で表示することができ、指定された監視対象の視認性を向上させることができる。すなわち、処理後の全方位画像は、指定監視対象を、その頭部が上となり、その足が下となった状態で、かつ、水平成分の歪曲がより緩和された状態で、表示することができる。また、指定監視対象の周辺が上下方向に引き伸ばされることになるので、指定監視対象およびその周辺の画像をより大きく表示し、指定監視対象およびその周辺の状況をより把握しやすい全方位画像を提示することができる。
また、本実施の形態に係る全方位画像処理装置は、上述の画像処理を、全方位画像の回転と、全方位画像の中心位置を移動させるワーピング処理とによって行うため、全方位画像の連続性を維持することができる。
また、本実施の形態に係る全方位画像処理装置は、全方位画像の中心位置を移動させる際に、指定監視対象領域がより拡大されるようなワーピング処理を行う。更に、本実施の形態に係る全方位画像処理装置は、線形の射影変換により、全方位画像を横に引き伸ばす楕円化処理を行う。これらの処理により、処理後の全方位画像は、指定監視対象およびその周辺の画像を更に大きく表示し、指定監視対象およびその周辺の状況をより把握し易くすることができる。
また、本実施の形態に係る全方位画像処理装置は、指定監視対象領域の歪みを補正し、かつ、その補正に合わせて、周囲の画像領域を補正するようなワーピング処理を行う。これにより、処理後の全方位画像は、指定監視対象の状況を更に把握し易くすることができる。
なお、本実施の形態では、画像処理動作に先立ち、一まとまりの動画像(複数の指定フレーム)についての情報蓄積動作が完了している場合について説明したが、本発明の適用は、これに限定されない。全方位画像処理装置は、例えば、フレーム毎に、情報蓄積動作および画像処理動作を行い、リアルタイムで全方位画像の画像処理および表示を行うようにしても良い。この場合、指定フレームの決定は、フレームIDの指定ではなく、表示中の映像の指定に基づいて、または指定監視対象の有無に基づいて、行う必要がある。
また、全方位画像処理装置は、上述の、画像回転処理、中心位置移動処理、中心位置移動処理における指定対象領域の拡大、楕円化処理、および歪み補正処理の全てを、必ずしも実施しなくても良い。例えば、指定監視対象が全方位カメラに接近しており、画質が良く歪みが少ないような場合がある。このような場合には、全方位画像処理装置は、画像回転処理および中心位置移動処理のみを実施するだけでも、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させることができる。
また、本実施の形態の形態では、指定監視対象領域を、人物の輪郭に外接する枠で囲まれた領域として説明したが、本発明の適用はこれに限定されない。指定監視対象領域は、指定監視対象だけでなく、当該指定監視対象の近傍に位置し当該指定対象の行動に関連する物体(例えば作業台、以下「付属対象」という)等、他の対象をも併せて含む領域であっても良い。
図24は、指定監視対象領域の定義の他の例を示す図である。
図24に示すように、指定監視対象781は、ディスプレイ機器782を見ながら作業をしているものとする。この場合、全方位画像処理装置は、例えば、図示しない視線検出部において、指定監視対象781である作業員の視線方向を、瞳孔の動きに対する追跡等の画像認識によって検出する。そして、全方位画像処理装置は、検出した視線方向から、ディスプレイ機器782を、付属監視対象と判断する。視線検出部は、指定監視対象781が作業する机の上や、壁の低い位置に設置されたカメラなどで実現可能である。そして、画像回転部406は、指定監視対象領域783を、例えば、指定監視対象781の輪郭および付属対象であるディスプレイ機器782の両方を含む輪郭に外接する、等脚台形の形状で囲まれた領域に決定する。このように、指定監視対象と付属監視対象とを含む領域を指定監視対象領域とすることにより、付属対象の状態も見易く表示することができ、指定監視対象の行動をより把握し易くすることができる。
また、指定監視対象領域は、上述の等脚台形ではなく、その全方位画像における位置を適切に定義可能な形状であれば、長方形や楕円形等、他の形状としても良い。また、本実施の形態では、図8の監視対象指定画面において、監視対象の画像領域を歪み補正して表示するようにしてもよい。
また、本実施の形態では、初期状態の全方位画像が見下ろし画像の場合について説明したが、本発明の適用は、これに限定されない。例えば、初期状態の全方位画像が見上げ画像である場合にも、本発明の適用が可能である。見上げ画像とは、例えば、監視エリア200の床面に全方位カメラ300を天井に向けて備え付けて得られる画像である。
上述のように、見下ろし画像においては、監視エリア200の床面に立っている作業員の画像は、その頭部が全方位画像の外周側に向き、その下半身が全方位画像の中心側に向く。これに対し、見上げ画像においては、監視エリア200の床面に立っている作業員の画像は、その頭部が全方位画像の中心側に向き、その下半身が全方位画像の外周側に向く。
したがって、初期状態の全方位画像が見上げ画像である場合、全方位画像処理装置は、画像回転処理において指定監視対象を下側中央に回転させ、中心位置移動処理において全方位画像の中心を上方向に移動させれば良い。
また、本実施の形態では、入射光軸上に小さな反射鏡が設置された全方位カメラを用いた場合について説明したが、本発明は、魚眼レンズを採用した全方位カメラを用いた場合にも適用が可能である。
図25は、魚眼レンズを採用した場合における、指定フレームの初期状態の全方位画像の一例を示す図であり、図12に対応するものである。
図25で示すように、魚眼レンズを採用した全方位カメラを用いた場合、初期状態の全方位画像である回転前画像670の中心部に死角領域は生じない。したがって、回転前画像670の中心点上に位置する監視対象784が存在し得る。
このような監視対象784が存在する場合、全方位画像処理装置は、例えば、監視対象784の実空間における鉛直方向が、全方位画像を見たときの下向き方向に一致するように、画像回転処理を行う。
図26は、図25に示す回転前画像670に対して監視対象784を基準に画像回転処理を行った後の、回転後画像の一例を示す図であり、図16に対応するものである。このような処理により、全方位カメラからの距離が最も近い(全方位カメラの真下の)監視対象を視認し易い回転後画像670aを得ることができる。
なお、全方位画像処理装置は、画像回転処理後に、例えば、次のような処理をすることにより、監視対象の視認性を高めることが可能である。1つ目は、監視対象を全方位画像の中心点上に存在させたまま、監視対象の画像領域を拡大する処理である。2つ目は、全方位画像の中心を上方向に移動させ、その結果得られた全方位画像の中心を、下方向に移動させる処理である。2つ目の処理によれば、監視対象は全方位画像の上部に表示されるので、更に必要に応じて、歪み補正処理を行うことが望ましい。
また、本実施の形態では、工場において作業員を監視するための監視システムについて説明したが、本発明の適用はこれに限定されない。本発明は、例えば、販売店舗の店内を万引き行為の監視のために撮影するシステム等、全方位画像を扱う各種の装置およびシステムに適用することができる。
2010年3月18日出願の特願2010−62560の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本発明に係る全方位画像処理装置および全方位画像処理方法は、全方位画像の連続性を維持しつつ、その全方位画像における指定された監視対象の視認性を向上させることができるので、販売店舗、工場等の広いエリアを監視する監視システムとして有用である。
100 監視システム
200 監視エリア
300 全方位カメラ
400 全方位画像処理装置
401 動画像入力部
402 動画像蓄積部
403 監視対象位置情報入力部
404 監視対象位置情報蓄積部
405 監視対象指定部
406 画像回転部
407 中心位置移動部
408 楕円化部
409 歪み補正部
410 出力画像蓄積部
411 画像出力部

Claims (7)

  1. 全方位画像に対して画像処理を行う全方位画像処理装置であって、
    前記全方位画像に撮影されている監視対象を指定する監視対象指定部と、
    前記指定された監視対象の位置が上側中央となるように、前記全方位画像を回転させる画像回転部と、
    前記画像回転部によって回転された前記全方位画像の中心位置を、ワーピング処理によって下方向に移動させる中心位置移動部と、を有する、
    全方位画像処理装置。
  2. 初期状態の前記全方位画像における前記指定された監視対象の位置を入力する監視対象位置情報入力部、を更に有し、
    前記画像回転部は、前記指定された監視対象の前記位置に基づいて、前記全方位画像を回転させる、
    請求項1記載の全方位画像処理装置。
  3. 前記中心位置移動部は、前記指定された監視対象の画像領域を拡大する、
    請求項1記載の全方位画像処理装置。
  4. 前記全方位画像を横方向に引き伸ばして楕円形に変形させる画像楕円化部、を更に有する、
    請求項1記載の全方位画像処理装置。
  5. 前記全方位画像に撮影されている監視対象のうち前記指定された監視対象の画像領域を局所的に変形させてその歪みを補正する歪み補正部、を更に有する、
    請求項1記載の全方位画像処理装置。
  6. 前記全方位画像の時系列データである動画像を蓄積する動画像蓄積部と、
    前記監視対象位置情報入力部が入力した各時刻における前記指定された監視対象の位置を蓄積する監視対象位置情報蓄積部と、
    前記画像処理が行われた前記動画像を出力する画像出力部と、を有する、
    請求項2記載の全方位画像処理装置。
  7. 全方位画像に対して画像処理を行う全方位画像処理方法であって、
    前記全方位画像に撮影されている監視対象を指定するステップと、
    前記指定された監視対象の位置が上側中央となるように、前記全方位画像を回転させるステップと、
    回転された前記全方位画像の中心位置を、ワーピング処理によって下方向に移動させるステップと、を有する、
    全方位画像処理方法。
JP2011520476A 2010-03-18 2011-01-26 全方位画像処理装置および全方位画像処理方法 Active JP5536060B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011520476A JP5536060B2 (ja) 2010-03-18 2011-01-26 全方位画像処理装置および全方位画像処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010062560 2010-03-18
JP2010062560 2010-03-18
JP2011520476A JP5536060B2 (ja) 2010-03-18 2011-01-26 全方位画像処理装置および全方位画像処理方法
PCT/JP2011/000422 WO2011114610A1 (ja) 2010-03-18 2011-01-26 全方位画像処理装置および全方位画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2011114610A1 true JPWO2011114610A1 (ja) 2013-06-27
JP5536060B2 JP5536060B2 (ja) 2014-07-02

Family

ID=44648726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011520476A Active JP5536060B2 (ja) 2010-03-18 2011-01-26 全方位画像処理装置および全方位画像処理方法

Country Status (4)

Country Link
US (1) US8744216B2 (ja)
JP (1) JP5536060B2 (ja)
CN (1) CN102395994B (ja)
WO (1) WO2011114610A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330611B1 (en) * 2009-01-15 2012-12-11 AvidaSports, LLC Positional locating system and method
US9767351B2 (en) 2009-01-15 2017-09-19 AvidaSports, LLC Positional locating system and method
CN103163163A (zh) * 2011-12-16 2013-06-19 株式会社岛津制作所 X射线检查装置
JP5919538B2 (ja) * 2012-06-15 2016-05-18 パナソニックIpマネジメント株式会社 物体検出装置及び物体検出方法
CN102833525A (zh) * 2012-07-19 2012-12-19 中国人民解放军国防科学技术大学 一种360度全景视频的浏览操作方法
JP2014112302A (ja) * 2012-12-05 2014-06-19 Ricoh Co Ltd 所定領域管理システム、通信方法、及びプログラム
JP2015118386A (ja) * 2012-12-27 2015-06-25 パナソニックIpマネジメント株式会社 音声処理システム及び音声処理方法
JP2014143678A (ja) * 2012-12-27 2014-08-07 Panasonic Corp 音声処理システム及び音声処理方法
US9836028B2 (en) 2013-02-08 2017-12-05 Chuck Fung Method, system and processor for instantly recognizing and positioning an object
DE112013006627T5 (de) * 2013-02-08 2015-10-22 Chuck Fung Verfahren, System und Prozessor zur sofortigen Erkennung und Positionierung eines Objekts
JP6506507B2 (ja) * 2013-05-15 2019-04-24 キヤノン株式会社 測定装置およびその制御方法
WO2014185169A1 (ja) * 2013-05-16 2014-11-20 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP2014225108A (ja) * 2013-05-16 2014-12-04 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP6271917B2 (ja) * 2013-09-06 2018-01-31 キヤノン株式会社 画像記録装置及び撮像装置
JP2015149600A (ja) * 2014-02-06 2015-08-20 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6541327B2 (ja) * 2014-10-21 2019-07-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2016177393A (ja) * 2015-03-19 2016-10-06 カシオ計算機株式会社 情報処理装置、顔認識方法、及びプログラム
JP5915960B1 (ja) * 2015-04-17 2016-05-11 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
JP5909711B1 (ja) * 2015-06-15 2016-04-27 パナソニックIpマネジメント株式会社 動線分析システム及び動線表示方法
US10909384B2 (en) 2015-07-14 2021-02-02 Panasonic Intellectual Property Management Co., Ltd. Monitoring system and monitoring method
US10043237B2 (en) 2015-08-12 2018-08-07 Gopro, Inc. Equatorial stitching of hemispherical images in a spherical image capture system
CN105335983B (zh) * 2015-11-02 2018-03-02 武汉大学 一种全景遥视成像和钻孔轨迹测量的同时实现方法
JP6597259B2 (ja) * 2015-12-10 2019-10-30 株式会社リコー プログラム、情報処理装置、画像表示方法、画像処理システム
JP6558579B2 (ja) * 2015-12-24 2019-08-14 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法
WO2017154707A1 (ja) * 2016-03-09 2017-09-14 株式会社ニコン 検出装置、検出システム、検出方法、及び検出プログラム
US10839601B2 (en) * 2016-03-31 2020-11-17 Sony Corporation Information processing device, information processing method, and program
US10740934B2 (en) * 2016-03-31 2020-08-11 Nec Corporation Flow line display system, flow line display method, and program recording medium
US10497130B2 (en) 2016-05-10 2019-12-03 Panasonic Intellectual Property Management Co., Ltd. Moving information analyzing system and moving information analyzing method
CN106101626A (zh) * 2016-06-30 2016-11-09 中国航空无线电电子研究所 一种基于反透视变换的360度全景展开方法
KR102522565B1 (ko) * 2016-08-31 2023-04-17 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
CN106530239B (zh) * 2016-09-24 2019-10-11 上海大学 基于大视场仿生鱼眼的小型无人旋翼机移动目标低空跟踪方法
CN106534891B (zh) * 2016-12-06 2019-10-15 讯美科技股份有限公司 一种多通道编码远程传输显示方法和系统
JP6423023B2 (ja) * 2017-01-12 2018-11-14 三菱電機インフォメーションシステムズ株式会社 映像ストリーム処理装置、映像ストリーム処理プログラムおよび映像監視システム
JP6976719B2 (ja) * 2017-05-25 2021-12-08 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
JP6824838B2 (ja) * 2017-07-07 2021-02-03 株式会社日立製作所 作業データ管理システム及び作業データ管理方法
CN107220930B (zh) * 2017-08-02 2020-08-07 珠海全志科技股份有限公司 鱼眼图像处理方法、计算机装置及计算机可读存储介质
JP6472864B1 (ja) * 2017-11-29 2019-02-20 株式会社近江デジタルファブリケーションズ 画像配信システム、及び配信画像生成方法
CN108257086B (zh) * 2017-12-22 2021-04-13 微幻科技(北京)有限公司 一种全景照片处理的方法及装置
TWI698117B (zh) * 2018-08-07 2020-07-01 宏碁股份有限公司 多媒體檔案的產生方法與播放方法、多媒體檔案產生裝置與多媒體檔案播放裝置
CN110929056B (zh) * 2018-09-19 2023-04-07 宏碁股份有限公司 多媒体文件的产生方法与播放方法、产生装置与播放装置
DE102019212978A1 (de) * 2018-09-20 2020-03-26 Robert Bosch Gmbh Überwachungsvorrichtung zur Personenwiedererkennung und Verfahren
CN109151322A (zh) * 2018-09-30 2019-01-04 联想(北京)有限公司 一种图像处理方法和电子设备
JP2020086860A (ja) * 2018-11-22 2020-06-04 株式会社リコー 管理システム、情報処理システム、情報処理方法およびプログラム
CN109840059B (zh) * 2019-01-29 2020-05-15 北京字节跳动网络技术有限公司 用于显示图像的方法和装置
JP7463263B2 (ja) * 2020-12-10 2024-04-08 株式会社日立ビルシステム 保守作業遠隔管理サーバおよび保守作業遠隔管理方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243508A (ja) * 1998-02-25 1999-09-07 Matsushita Electric Ind Co Ltd 画像表示装置
JP2000011166A (ja) * 1998-06-24 2000-01-14 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2000132673A (ja) * 1998-10-28 2000-05-12 Sharp Corp 画像システム
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
JP2003132348A (ja) * 2001-10-23 2003-05-09 Vstone Kk 画像表示方法及び画像表示装置
JP2003259350A (ja) * 2002-02-28 2003-09-12 Sharp Corp 全方位監視制御システム、全方位監視制御方法および全方位監視制御プログラム
JP2004246673A (ja) * 2003-02-14 2004-09-02 Fuji Photo Film Co Ltd 顔画像処理装置及びシステム
JP2006074105A (ja) * 2004-08-31 2006-03-16 Equos Research Co Ltd 車両周辺画像表示装置
JP2007043225A (ja) * 2005-07-29 2007-02-15 Univ Of Electro-Communications 撮像画像処理装置及び撮像画像処理方法
WO2007055336A1 (ja) * 2005-11-11 2007-05-18 Sony Corporation 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体と撮像装置
JP2009303053A (ja) * 2008-06-16 2009-12-24 Fujinon Corp 全方位撮像装置
JP2011114496A (ja) * 2009-11-25 2011-06-09 Olympus Imaging Corp 撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5185667A (en) * 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
US5990941A (en) * 1991-05-13 1999-11-23 Interactive Pictures Corporation Method and apparatus for the interactive display of any portion of a spherical image
JP3523783B2 (ja) 1998-05-14 2004-04-26 康史 八木 全方位視角センサ
FR2827680B1 (fr) 2001-07-20 2003-10-10 Immervision Internat Pte Ltd Procede de capture d'une image panoramique au moyen d'un capteur d'image de forme rectangulaire
FR2847348B1 (fr) * 2002-11-15 2007-10-12 Marc Berdugo Dispositif de prise de vue panoramique
AU2003290208A1 (en) 2002-11-15 2004-06-15 Global Vision Holding S.A. Panoramic surveillance device
US20050062845A1 (en) * 2003-09-12 2005-03-24 Mills Lawrence R. Video user interface system and method
JP4243767B2 (ja) 2007-09-21 2009-03-25 富士通株式会社 魚眼レンズカメラ装置及びその画像抽出方法
CN101854518A (zh) * 2009-03-30 2010-10-06 鸿富锦精密工业(深圳)有限公司 物体侦测系统及方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243508A (ja) * 1998-02-25 1999-09-07 Matsushita Electric Ind Co Ltd 画像表示装置
JP2000011166A (ja) * 1998-06-24 2000-01-14 Sony Corp 画像処理装置および方法、並びに提供媒体
JP2000132673A (ja) * 1998-10-28 2000-05-12 Sharp Corp 画像システム
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
JP2003132348A (ja) * 2001-10-23 2003-05-09 Vstone Kk 画像表示方法及び画像表示装置
JP2003259350A (ja) * 2002-02-28 2003-09-12 Sharp Corp 全方位監視制御システム、全方位監視制御方法および全方位監視制御プログラム
JP2004246673A (ja) * 2003-02-14 2004-09-02 Fuji Photo Film Co Ltd 顔画像処理装置及びシステム
JP2006074105A (ja) * 2004-08-31 2006-03-16 Equos Research Co Ltd 車両周辺画像表示装置
JP2007043225A (ja) * 2005-07-29 2007-02-15 Univ Of Electro-Communications 撮像画像処理装置及び撮像画像処理方法
WO2007055336A1 (ja) * 2005-11-11 2007-05-18 Sony Corporation 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体と撮像装置
JP2009303053A (ja) * 2008-06-16 2009-12-24 Fujinon Corp 全方位撮像装置
JP2011114496A (ja) * 2009-11-25 2011-06-09 Olympus Imaging Corp 撮像装置

Also Published As

Publication number Publication date
US8744216B2 (en) 2014-06-03
CN102395994A (zh) 2012-03-28
CN102395994B (zh) 2015-06-10
WO2011114610A1 (ja) 2011-09-22
JP5536060B2 (ja) 2014-07-02
US20120045149A1 (en) 2012-02-23

Similar Documents

Publication Publication Date Title
JP5536060B2 (ja) 全方位画像処理装置および全方位画像処理方法
US8515130B2 (en) Conference system, monitoring system, image processing apparatus, image processing method and a non-transitory computer-readable storage medium
JP5942270B2 (ja) 撮影システム及びそれに用いるカメラ制御装置、撮影方法及びカメラ制御方法、並びにコンピュータプログラム
JP6786378B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN112217998B (zh) 拍摄装置、信息处理装置及其控制方法、存储介质
JP5233926B2 (ja) 魚眼監視システム
JP6065195B2 (ja) 表示映像形成装置及び表示映像形成方法
JP5906028B2 (ja) 画像処理装置、画像処理方法
JP6299234B2 (ja) 表示制御方法、情報処理装置、および表示制御プログラム
JP5178454B2 (ja) 車両周囲監視装置及び車両周囲監視方法
JP2017163431A (ja) 投影装置
JPWO2018179040A1 (ja) カメラパラメータ推定装置、方法およびプログラム
JP2013218432A (ja) 画像処理装置、画像処理方法、画像処理用プログラム、および、記録媒体
JP2013239986A (ja) 補助情報生成装置、撮影画像表示システム、補助情報生成方法、撮影画像表示方法、及びコンピュータプログラム
US10032249B2 (en) Image generating apparatus, image generating method, and computer program
JP2019009520A (ja) 情報処理装置、情報処理方法及びプログラム
JP2013093673A (ja) 情報処理装置、制御方法、情報処理システム、プログラム
JP2018014583A (ja) 画像処理装置
US20240054598A1 (en) Method and system for defining an outline of a region in an image having distorted lines
JP6227463B2 (ja) 物体透明化システム及び方法
KR20180094743A (ko) 카메라 기능이 구비된 망원경 및 이를 이용한 영상표시방법
WO2022239291A1 (ja) 物体検知装置及び方法
JP2022077221A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP5397245B2 (ja) 情報処理装置および情報処理方法
JP2014183499A (ja) 作業機械用周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140423

R151 Written notification of patent or utility model registration

Ref document number: 5536060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151