JPWO2020059064A1 - 算出装置、情報処理方法およびプログラム - Google Patents

算出装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JPWO2020059064A1
JPWO2020059064A1 JP2020547532A JP2020547532A JPWO2020059064A1 JP WO2020059064 A1 JPWO2020059064 A1 JP WO2020059064A1 JP 2020547532 A JP2020547532 A JP 2020547532A JP 2020547532 A JP2020547532 A JP 2020547532A JP WO2020059064 A1 JPWO2020059064 A1 JP WO2020059064A1
Authority
JP
Japan
Prior art keywords
image
detection target
captured image
acquisition device
image acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020547532A
Other languages
English (en)
Other versions
JP7040627B2 (ja
Inventor
竜一 赤司
竜一 赤司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020059064A1 publication Critical patent/JPWO2020059064A1/ja
Application granted granted Critical
Publication of JP7040627B2 publication Critical patent/JP7040627B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

監視カメラの撮影範囲であって検出対象を視認可能な撮影範囲を簡便にかつ正確に知ることに供する装置等を提供する。算出装置は、所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る画像入力部と、前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する視認性評価部と、前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出する算出部と、前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する出力部と、を備える。

Description

本開示は、対象物を撮影するカメラに関する情報を取得する技術に関する。
監視カメラは、所定の領域内の様子の監視や所定の領域内で生じる事象の検出を目的として、広く利用されている。監視カメラは、好適には、監視すべき領域全体を空間的に網羅するように観測することが求められる。
特許文献1には、カメラの撮影範囲をシミュレーションするためのカメラ設置シミュレータプログラムの発明が記載されている。このカメラ設置シミュレータプログラムを実行するコンピュータは、カメラによって撮影される撮影範囲と、壁や障害物によって死角となり撮影されない死角範囲を特定する。そして、このコンピュータは、所定エリアの上面図の撮影範囲に相当する領域において、死角範囲に相当する領域と、死角範囲以外の部分とを、異なる態様で表示させる処理を行う。
特許文献2、3および4は、本開示に部分的に関連する技術を開示する文献である。
特許文献2は、デジタル画像の変換により得られる周波数分布を用いて、「見づらさ」を評価の指標として視界の状態を評価する、視界不良評価方法を開示している。
特許文献3は、ドライバーの視認性を考慮して、車両前方の領域を小領域ごとに照らす照明手段を制御する照明装置を開示している。
特許文献4は、撮影領域の幅が、監視対象を最小限画素以上で表示できるための上限に一致する場合の、赤外線カメラから監視領域までの距離を算出する処理装置を開示している。この処理装置は、赤外線カメラにより取得された監視画像における、監視対象を最小画素数以上の画素数で表示可能な領域とそれ以外の領域とに区分し、その区分した結果が視認できるような監視画像を生成して、表示画面に表示させる。
特開2009−239821号公報 特開2006−221467号公報 特開2009−090844号公報 特開2009−267627号公報
特許文献1に記載の技術によって算出される撮影範囲は、物が写る範囲であるが、検出対象を視認可能である範囲ではない。言い換えれば、特許文献1に記載の技術によって撮影範囲として判定された範囲内に検出対象があったとしても、その検出対象が十分な解像度で撮影されない位置に存在する場合、その検出対象を視認できない可能性がある。
画像観測者が検出対象を視認できない領域が撮影範囲として判定されることは、監視領域に対するカメラの撮影範囲の網羅性を確認する上で問題となる。
特許文献2から4には、視認性に関する言及があるものの、実世界における、検出対象を視認可能なカメラの撮影範囲についての情報を出力する構成は、開示されていない。
また、特許文献4に開示される、監視対象を最小限画素以上で表示できるための画角または距離を算出する算出方法の実施にあたっては、監視対象を視認するのに必要とされる最小画素数が操作者によって処理装置に入力されることが必要である。監視対象を視認するのに必要とされる最小画素数を操作者が知らなければ、特許文献4に開示される算出方法は実施できない。さらに、監視対象を視認するのに必要とされる最小画素数は絶対不変な情報ではないため、最小画素として誤った値が処理装置に入力された場合、不正確な結果が得られてしまう。
本発明は、監視カメラの撮影範囲であって検出対象を視認可能な撮影範囲を簡便にかつ正確に知ることに供する装置、方法及びプログラム等を提供することを目的の1つとする。
本発明の一態様に係る算出装置は、所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る画像入力手段と、前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する視認性評価手段と、前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出する算出手段と、前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する出力手段と、を備える。
本発明の一態様に係る情報処理方法は、所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取り、前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出し、前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出し、前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する。
本発明の一態様に係るプログラムは、所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る画像入力処理と、前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する視認性評価処理と、前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出する算出処理と、前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する出力処理と、をコンピュータに実行させる。上記プログラムは、例えば、不揮発性の、コンピュータ読み取り可能な記憶媒体に記憶される。
本発明によれば、監視カメラの撮影範囲であって検出対象を視認可能な撮影範囲を簡便にかつ正確に知ることができる。
本発明の第1の実施形態に係る算出装置の構成を示すブロック図である。 評価値を導出するためのルックアップテーブルの一例を示す図である。 評価値を導出するためのルックアップテーブルの一例を示す図である。 実空間におけるカメラと被写体との位置関係の例を示す図である。 撮像画像の例を示す図である。 第1の実施形態に係る算出装置の処理の流れの例を示すフローチャートである。 第1の実施形態に係る算出装置の変形例の構成を示すブロック図である。 本発明の第2の実施形態に係る算出装置の構成を示すブロック図である。 視認可能範囲に基づく出力情報の例を示す図である。 第2の実施形態に係る算出装置の処理の流れの例を示すフローチャートである。 撮像画像の例を示す図である。 視認可能範囲を示す情報が重畳された撮像画像の例を示す図である。 本発明の一実施形態に係る算出装置の構成を示すブロック図である。 本発明の一実施形態に係る情報処理方法の流れを示すフローチャートである。 本発明の各実施形態の各部を構成し得るハードウェアの例を示すブロック図である。
以下、図面を参照しながら、本発明の実施形態を詳細に説明する。
<<第1の実施形態>>
まず、本発明の第1の実施形態について説明する。
<構成>
図1は、第1の実施形態に係る算出装置11の構成を示すブロック図である。
算出装置11は、カメラ20と通信可能に接続される。カメラ20との接続は、有線による接続でも、無線による接続でもよい。
カメラ20は、撮像装置である。カメラ20は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を搭載する。カメラ20は可視光カメラに限らず、近赤外線カメラや赤外線カメラ等でもよい。カメラ20は、所定のエリアを撮像し、それにより画像を生成する。以下、カメラ20による撮像によって生成される画像は、撮像画像とも表記される。撮像画像は、カラー画像でもよいし、グレースケールの画像でもよい。カメラ20は、所定のフレームレートで撮像画像を生成し続けてもよい。カメラ20は、生成した撮像画像を、算出装置11に、随時、または算出装置11からの要求に応じて、送信する。
カメラ20は、所定のエリア内に存在する検出対象についての情報を得るために使用される。本開示において、検出対象とは、ある基準に従って検出される物(有体物に限られず、例えば、物に付された模様または記号が含まれる)または現象である。例えば、検出対象としては、不特定の人、特定の条件を満たす人、不特定の生物、特定の条件を満たす生物、不特定の車、不特定の顔、特定の条件を満たす顔、車のナンバープレートに書かれた数字、特定の条件を満たす人の発生、画像に写る人による所定の条件を満たす行為、および、画像に写る物体による特定の条件を満たす変化、等が挙げられる。
上記「特定の条件を満たす人」の例には、データベースに登録されている人、データベースに登録されていない人、不審な行動として定義された行動をとる人、所定の基準を満たす特性(見かけの身長、見かけの年齢、見かけの性別等)を持つ人、等がある。
何を検出対象とするかは、カメラ20の使用の目的に応じて異なり得る。以下の説明では、例として、検出対象が不特定の人であるとする。画像に写る不特定の人は、例えば、人を検出する方法によって検出され得る。コンピュータが人を検出する方法としては、周知の方法が存在する。
図1に示されるように、算出装置11は、記憶部110と、画像取得部111と、視認性評価部112と、距離算出部113と、出力部119と、を備える。算出装置11は、図1に示された構成要素の他、ユーザからの情報の入力を受け付ける入力インタフェースを有していてもよい。
なお、図1において示される、構成要素どうしをつなぐ線は、データの流れに対する理解を容易にするための例示的な線である。各構成要素が、必ずしも図1に示される線と同様の信号線により接続されることは要求されない。
算出装置11内の各構成要素は、データを生成しまたは取得した場合、そのデータを他の構成要素に使用可能な状態にし得る。例えば、各構成要素は、生成しまたは取得したデータを、そのデータを使用する他の構成要素に送出し得る。あるいは、各構成要素は、生成しまたは取得したデータを、算出装置11内の記憶領域(例えば、記憶部110、または不図示のメモリ等)に記録してもよい。算出装置11の各構成要素は、それぞれの処理を実行する際、使用するデータを、そのデータを生成しまたは取得した構成要素から直接受け取ってもよいし、上記記憶領域から読み出してもよい。
以下、算出装置11内の構成要素のそれぞれの機能について説明する。なお、算出装置11内の各構成要素は、例えば、プログラムに基づいて命令を実行する1つまたは複数のプロセッサとメモリとを含むコンピュータにより実現され得る。ハードウェアの詳細な例については後述する。
===記憶部110===
記憶部110は、算出装置11が扱うデータを一時的に、または非一時的に、記憶する。記憶部110は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、または可搬型記憶装置等によって実現され得る。記憶部110に対して、算出装置11に含まれる他の構成要素は、自由にデータを読み書き可能である。
===画像取得部111===
画像取得部111は、カメラ20から、カメラ20が生成した画像(すなわち、撮像画像)を取得する。画像取得部111が取得する画像のデータ形式は問わない。画像取得部111は、取得した画像を、記憶部110に記憶させてもよい。画像取得部111は、取得した画像を、出力部119に出力させてもよい。
===視認性評価部112===
視認性評価部112は、視認性を評価する。本開示における“視認性”とは、画像取得部111が取得する画像における、検出対象の視認のしやすさである。視認性を評価するとは、視認性の評価を表す情報を導出することである。
以下の説明では、視認性評価部112は、視認性の評価を表す情報として、画像における検出対象の視認可能なサイズの下限を導出するものとする。検出対象の視認可能なサイズの下限が小さいほど、検出対象の視認性が高いことを意味する。
本開示において、“視認する”とは、画像から対象を認知することである。例えば、画像に写る特定の対象を、特定の対象として検出できることを、視認できることであると定義してもよい。あるいは、シーケンシャルな画像(すなわち映像)において、特定の対象の位置をトラッキングできることを、視認できることであると定義してもよい。視認する行為の主体は、例えば、画像を解析する画像解析装置、または画像を観察する人である。視認可能なサイズの下限は、評価を表す情報(あるいは「評価値」)として、後述する評価値算出部1123によって算出される。
図1に示される通り、視認性評価部112は、コントラスト値算出部1121と、ノイズ量特定部1122と、評価値算出部1123とを含む。以下で説明する通り、評価を表す情報である評価値は、評価値算出部1123によって、コントラスト値算出部1121により算出されるコントラスト値と、ノイズ量特定部1122により特定されるノイズ量と、に基づいて算出される。
コントラスト値算出部1121は、コントラスト値を算出する。コントラスト値は、画像における明度の幅の指標となる値である。
コントラスト値算出部1121は、例えば次の算出式に基づいてコントラスト値を算出してもよい。
コントラスト値=(Imax−Imin)/(Imax+Imin
ただし、Imaxは最も明度が高い画素の明度、Iminは最も明度が低い画素の明度である。
画像がグレースケールの画像である場合は、明度としては階調値(例えば0から255の範囲の値)が採用されてよい。画像がカラー画像である場合は、明度は、画素の色を表す複数の階調値を統合することによって算出され得る。例えば、各画素がR、G、およびBのそれぞれの階調値で表される場合、コントラスト値算出部1121は、それぞれの階調値を統合することで各画素の明度を算出すればよい。具体的には、各階調値(R、G、およびB)が0から255の範囲の値で記述される場合、コントラスト値算出部1121は、各画素の明度を、例えば明度=((R×299)+(G×587)+(B×114))÷1000という式を用いて算出してもよい。
なお、コントラスト値の計算に用いられる値(上記の例ではImaxやImin等)は、ノイズが反映されていない画素の画素値である方が、より正確に評価値が算出される。コントラスト値の計算にあたっては、ノイズの影響を低減するための前処理が行われてもよい。
コントラスト値の算出方法は、上記の算出方法に限定されない。算出方法は、明度の幅の指標となる値の算出方法であればよい。例えば、コントラスト値の算出式は、Imax−Iminでもよい。
ノイズ量特定部1122は、ノイズ量を特定する。ノイズ量は、画像におけるノイズの程度を示す情報である。
ノイズ量特定部1122は、画像取得部111により取得された画像に対してノイズ量の推定処理を行うことで、ノイズ量を特定してもよい。
ノイズ量の推定処理の具体例について、以下で説明する。
ノイズ量の推定処理は、一例として、次の工程を含む。
(1)画像を複数のブロックに分割し、ブロック毎に画素値の標準偏差を算出する。
(2)各ブロックから算出された標準偏差のうち十分小さな値を、ノイズ量として決定する。
上記の画素値は、明度のような色の階調値を統合することにより求められた値でもよいし、特定の色の階調値でもよい。
標準偏差が十分小さなブロックは、写っている物が平坦であるようなブロックであるとみなせることから、ノイズの程度が好適に検出できるブロックであると考えられる。したがって、上記のような方法により決定される値は、画像におけるノイズの程度を示す値であるといえる。
上記推定処理は、言い換えれば、画像の輝度が平坦な領域における画素値の標準偏差をノイズ量として決定する処理である。
「十分小さな値」としては、例えば、各ブロックから算出された標準偏差の最小値が定義されてもよく、あるいは、小さい方からN番目(Nは設定される自然数)が定義されてもよい。
ノイズ量の推定処理は、上記の工程を含む処理に限定されない。
また、ノイズ量特定部1122は、ノイズ量の推定処理を行う以外の方法でノイズ量を算出してもよい。例えば、カメラ20がノイズの程度を計測するセンサを備えている場合は、ノイズ量特定部1122は、カメラ20からそのセンサによる計測値を受け取り、その計測値をノイズ量として決定してもよい。カメラ20がノイズ量を算出する機能を有しており、ノイズ量特定部1122はカメラ20により算出されたノイズ量を受け取るだけでもよい。
評価値算出部1123は、コントラスト値算出部1121により算出されたコントラスト値と、ノイズ量特定部1122により特定されたノイズ量とに基づいて、視認性の評価値を算出する。具体的には、評価値算出部1123は、評価値として、画像における検出対象の視認可能なサイズの下限を算出する。
上記サイズは、所定方向の長さである。上記サイズは、例えば、ピクセル数で表され得る。
評価値の算出方法の例を以下に示す。
評価値算出部1123は、例えば、次の式にコントラスト値とノイズ量の値とを代入することにより、評価値Sを算出してもよい。
Figure 2020059064
ただし、k、k、kは所定の係数、Nはノイズ量を表す変数、Cはコントラスト値を表す変数である。
上記の式のように、評価値(すなわち、画像における検出対象の視認可能なサイズの下限)は、ノイズ量とコントラスト値に依存する。ノイズ量が多いほど、評価値は大きくなる(すなわち、検出対象はより大きなサイズで撮影される必要がある)。コントラスト値が高いほど、評価値は小さくなる(すなわち、検出対象のサイズが小さくても視認可能である)。評価値を算出する式は上記の式に必ずしも限定されないが、評価値算出部1123は、このような、ノイズ量とコントラスト値と評価値との関係を示す式に基づき、評価値を算出すればよい。
なお、上記の式は、次のような知見に基づいて導出される。
ノイズ量がN、コントラスト値がCであるような画像において、検出対象が視認可能なサイズ(ある方向のピクセル数)の下限がSであるとわかっているとする。コントラスト値がCからCに変化した場合、視認可能な検出対象のサイズの下限が変化しないようなノイズ量をNとすると、
/N=a×(C/C) (2)
が近似的に成立する。ただし、aは所定の係数である。
また、コントラスト値が不変であり、検出対象のサイズがSであるとき、その検出対象が視認可能であるためのノイズ量の最大値をNとすると、
/N=b×ln(S/S)+d (3)
が近似的に成立する。ただし、bおよびdは所定の係数である。
画像のコントラスト値がCであるとき、サイズがSである検出対象が検出可能であるためのノイズ量の最大値N’は、式(2)より
N’/N=a×(C/C) (4)
を満たす。このとき、N’とNとの関係は、視認可能な検出対象のサイズの下限をSとして、式(3)より
N/N’=b×ln(S/S)+d (5)
を満たす。
式(4)および式(5)より、式(1)に示されるような、ノイズ量とコントラスト値と評価値との関係が導かれる。
なお、上述される種々の係数は、経験的に決定され得る。
一つの態様では、評価値算出部1123は、視認性の評価値を、コントラスト値とノイズ量との組と評価値とが関連づけられたルックアップテーブルを用いて、導出してもよい。
図2は、ルックアップテーブルの第1の例を示す図である。kは所定の値である。図3は、ルックアップテーブルの第2の例を示す図である。kは所定の値である。図2または図3に示されるようなルックアップテーブルを用いることによっても、評価値算出部1123は、視認性の評価値を、コントラスト値とノイズ量とを用いて導出することができる。
なお、評価値算出部1123は、複数の方向のそれぞれについて、視認可能なサイズの下限を算出してもよい。例えば、評価値算出部1123は、撮像画像の縦方向のサイズの下限と、撮像画像の横方向のサイズの下限とを算出してもよい。
===距離算出部113===
距離算出部113は、視認性評価部112により評価された視認性と、検出対象の実際の大きさとして想定される大きさと、カメラ20の画角とを用いて、画像観測者が撮像画像から検出対象を視認できる、画像取得部111から検出対象までの最大距離(以下、「視認可能最大距離」と表記)を算出する。なお、カメラ20の画角の情報は、予め算出装置11にインプットされ、記憶部110に記憶されていればよい。例えば、算出装置11は、画角の情報を、入力インタフェース(不図示)を介してユーザから取得しておけばよい。
検出対象の実際の大きさとして想定される大きさは、検出対象の種類に応じて設定される値である。算出装置11は、検出対象の実際の大きさとして想定される大きさの指定を、入力インタフェース(不図示)を介してユーザから取得してもよい。検出対象が算出装置11の製造の段階で定義されている場合は、予め所定の値が、検出対象の実際の大きさとして想定される大きさとして設定されていてもよい。設定された値は、例えば、記憶部110に記憶されていればよい。
以下、視認性評価部112により生成される視認性の評価を表す情報が、画像における検出対象の視認可能な(縦方向の)ピクセル数の下限であるとして、距離算出部113による視認可能最大距離の算出方法の具体例を説明する。
上記下限の値をSとする。距離算出部113は、例えば、次の式によって視認可能最大距離(Dとする)を算出できる。
=P×L/(2S×tan(θ/2))
ただし、Lは対象の実際の大きさとして想定される(縦方向の)大きさ、Pは画像の(縦方向の)画素数、θは(縦方向の)画角である。
上記の式は、各パラメータの関係が図4および図5に示されるような関係であることから導出される。すなわち、Dは、2D×tan(θ/2):L=P:Sが成立する距離であることから、上記の式は導出される。
距離算出部113は、Dと同様に、撮像画像の横方向のサイズが視認可能なサイズとなるような距離の最大値(Dとする)を算出してもよい。Dの算出にあっては、用いられる情報は、対象の実際の大きさとして想定される(横方向の)大きさL、画像の(横方向の)画素数P、カメラ20の(横方向の)画角θである。
距離算出部113は、複数の方向について視認可能最大距離を算出した場合、算出された複数の視認可能最大距離のうち最も小さい値を、出力部119が扱う視認可能最大距離として決定してもよい。
===出力部119===
出力部119は、算出装置11による処理の結果を示す情報を出力する。処理の結果を示す情報は、言い換えれば、視認可能最大距離に基づく出力情報である。出力部119は、視認可能最大距離に基づく出力情報を生成し、生成した出力情報を出力する。出力情報の具体例については後述する。
例えば、出力部119は、出力情報を、表示装置に出力することで、出力情報を表示装置に表示させてもよい。
出力部119は、算出装置11以外の情報処理装置に出力情報を送信してもよい。
出力部119は、記憶装置に出力情報を出力することで、出力情報を記憶装置に記憶させてもよい。記憶装置は、例えば、HDDやSSD等の非一時的な記憶装置でもよいし、RAM等の一時的な記憶装置でもよい。算出装置11のユーザ等の人物が、当該記憶装置に記憶された情報にアクセスすれば、その人物は算出装置11による処理の結果を知ることが可能となる。
以下は、出力情報の具体例である。
・視認可能最大距離を表すテキストデータ
・カメラ20の識別情報(例えば識別子または設置位置等)と視認可能最大距離とを関連づけた表データ
・カメラ20と所定の位置との間の距離が視認可能最大距離以内であるか否かを示すテキストデータ
・視認可能最大距離に対する評価を示す画像データ
出力部119は、上記のデータを生成するための処理を行うよう構成されていてもよい。例えば、出力部119は、視認可能最大距離をカメラ20の識別情報に関連づけてもよい。出力部119は、カメラ20と所定の位置との間の距離が視認可能最大距離以内であるか否かを判定してもよい。出力部119は、視認可能最大距離に対する評価を行ってもよい。
<動作>
以下、算出装置11による処理の流れの例を、図6のフローチャートを参照しながら説明する。なお、各処理は、各処理がプログラムを実行するプロセッサによって実行される場合においては、プログラムの中の命令の順序に従って実行されればよい。各処理が別個のデバイスによって実行される場合においては、処理を完了したデバイスが次の処理を実行するデバイスに通知を行うことで、処理が順番に実行されればよい。なお、処理を行う各部は、めいめいの処理に必要なデータを、例えば、そのデータを生成した部から受け取り、および/または算出装置11が備える記憶領域(例えば記憶部110)から読み出せばよい。
まず、画像取得部111が、カメラ20から撮像画像を取得する(ステップS11)。
次に、視認性評価部112が、取得された撮像画像を用いて、視認性を評価する。具体的には、次の処理を行う。コントラスト値算出部1121が、撮像画像のコントラスト値を算出する(ステップS12)。ノイズ量特定部1122が、撮像画像のノイズ量を算出する(ステップS13)。ステップS12の処理とステップS13の処理は並行して行われてもよい。そして、評価値算出部1123が、コントラスト値とノイズ量に基づき、視認性の評価値を算出する(ステップS14)。
視認性の評価値が算出されたら、距離算出部113が、その評価値と、検出対象の物理的な大きさと、画像取得装置の画角と、撮像画像の画素数と、に基づいて、視認可能最大距離を算出する(ステップS15)。
そして、出力部119が、算出された視認可能最大距離に基づく出力情報を出力する(ステップS16)。
<効果>
第1の実施形態に係る算出装置11によれば、カメラ20の撮影範囲のうちの検出対象を視認可能な範囲を知ることができる。その理由は、距離算出部113が、カメラ20により生成される撮像画像から導出される視認性の評価値を用いて、視認可能距離の最大値を算出するからである。視認可能距離の最大値がわかれば、カメラ20の撮影範囲のうちの検出対象を視認可能な範囲が特定できる。すなわち、カメラ20の撮影範囲のうち、カメラ20との距離が上記最大値を超えない地点の範囲が、検出対象を視認可能な範囲である。
検出対象を視認可能な範囲の情報は、カメラ20を用いて監視を行おうとする監視者がカメラ20の位置や姿勢等を決定するのにあたり、有用な情報となる。例えば、監視者は、複数のカメラ20を所定のエリアに設置したい場合に、検出対象がその所定のエリア内のどこにいても視認され得るような複数のカメラ20の配置を、検出対象を視認可能な範囲の情報に基づき、検討することができる。
[変形例]
上記第1の実施形態の変形例を以下に記載する。
(1−1)算出装置11はカメラ20に接続されていなくてもよい。図7は、カメラ20に接続されていない算出装置11の構成を示すブロック図である。算出装置11内の構成要素は、既に述べた算出装置11の構成要素と変わらない。画像取得部111は、カメラ20から撮像画像を取得する代わりに、例えば、撮像画像を記憶する記憶媒体から、その画像データを読み込むことによって画像データを取得してもよい。画像取得部111は、外部の情報処理装置から通信ネットワークを介して撮像画像を受信してもよい。
(1−2)画像取得部111がカメラ20の機能を有していてもよい。算出装置11は、ユーザからの指示に応じて、画像取得部111によって撮像画像を生成し、続けてステップS12からの処理を開始してもよい。算出装置11は、画像取得部111によって撮像画像を生成し、その撮像画像を記憶部110に記憶させておいてもよい。そして、算出装置11は、ユーザからの指示に応じて、記憶部110から撮像画像を読み出し、ステップS12からの処理を開始してもよい。
(1−3)視認性評価部112は、コントラスト値を、画像からの算出によって得る代わりに、外部から取得してもよい。視認性評価部112は、入力インタフェース(不図示)を介して、算出装置11のユーザからコントラスト値の情報を取得してもよい。
(1−4)視認性評価部112は、ノイズ量を、画像からの算出によって得る代わりに、外部から取得してもよい。視認性評価部112は、入力インタフェース(不図示)を介して、算出装置11のユーザからノイズ量の情報を取得してもよい。
<<第2の実施形態>>
次に、本発明の第2の実施の形態に係る算出装置12について説明する。算出装置12は、カメラ20の撮影範囲のうち、検出対象を視認可能な範囲を特定し、その範囲に基づく出力情報を出力する。
<構成>
図8は、算出装置12の構成例を示すブロック図である。算出装置12は、第1の実施形態の算出装置11の構成要素と同じ構成要素に加え、範囲特定部124を備える。
第1の実施形態の構成要素と同じ符号を付した構成要素は、第1の実施形態の対応する構成要素の機能と同じ機能を持つ。
===範囲特定部124===
範囲特定部124は、距離算出部113により算出された視認可能最大距離を用いて、カメラ20の撮影範囲のうち、検出対象を視認可能な範囲を特定する。以下、検出対象を視認可能な範囲を、視認可能範囲と表記する。
範囲特定部124が視認可能範囲を特定するに際しては、範囲特定部124は、視認可能最大距離の他、カメラ20の撮影範囲を用いる。カメラ20の撮影範囲の情報は、例えば記憶部110に予め記憶され、範囲特定部124により読み出されればよい。あるいは、算出装置12は、カメラ20の撮影範囲を特定するための情報(例えば、カメラ20の位置座標、姿勢(すなわち、光軸方向と傾き)、および画角、ならびにカメラ20により撮影されるエリア(以下、「対象エリア」)の三次元構造情報、等)を外部から入力として受け付け、その情報に基づき撮影範囲を特定してもよい。カメラ20の撮影範囲を特定するための情報は予め算出装置12内の記憶領域(例えば記憶部110)に記憶されていてもよい。撮影範囲を算出する場合には、範囲特定部124は、対象エリアに存在する物体(すなわち、遮蔽物)の情報も用いて、死角とならない領域を特定してもよい。すなわち、範囲特定部124は、撮影範囲として、例えば、カメラの画角内の領域(形状は四角錐である)のうち、対象エリアの構造および遮蔽物によって死角となる部分を除いた領域を特定すればよい。
範囲特定部124は、カメラ20の撮影範囲と、カメラの位置を中心とした半径の長さが視認可能最大距離である球の領域と、が重なり合う部分を、視認可能範囲として決定すればよい。
範囲特定部124は、撮影範囲を算出してから、撮影範囲と視認可能最大距離に基づく上述の球の領域との重複部分を算出することによって、視認可能範囲を算出してもよい。あるいは、範囲特定部124は、視認可能最大距離を算出してから、視認可能最大距離に基づく上述の球の領域を特定し、その領域内の撮影範囲を算出することによって、視認可能範囲を算出してもよい。
範囲特定部124は、特定した視認可能範囲を記憶部110に記録してもよい。特定される視認可能範囲は、例えば対象エリアの三次元構造を表すデータにおいて視認可能範囲内にある領域が視認可能範囲内であることを表すフラグに関連づけられることで、記録され得る。あるいは、視認可能範囲は、三次元の形状を記述するデータ形式で、視認可能範囲の形状を記述することで保存され得る。
あるいは、視認可能範囲は、特定された視認可能範囲の特定の平面への投影図に変換されて記録されてもよい。上記の特定の平面は、例えば地面である。
===出力部119===
出力部119は、視認可能最大距離に基づく出力情報として、視認可能範囲に基づく出力情報を生成し、その出力情報を出力する。
視認可能範囲に基づく出力情報は、例えば、対象エリアの上面図において視認可能範囲の領域を他の領域と識別できるように示された画像である。図9は、そのような画像の例を示す図である。図9に示す例では、対象エリアの上面図に、カメラ20の位置を示すアイコンと、視認可能範囲の領域(図9では扇形である)を示す半透明の図形とが重畳されている。出力部119は、このような画像を生成してもよい。
<動作>
算出装置12による処理の流れの例を、図10のフローチャートを参照しながら説明する。なお、図10のフローチャートでは、カメラ20の撮影範囲の情報を特定しまたは取得するステップを記載していないが、カメラ20の撮影範囲の情報が特定されまたは取得されるタイミングは問わない。
ステップS21からステップS25の処理は、図6に示されるステップS11からステップS15の処理と同様でよい。
ステップS26において、範囲特定部124が、カメラ20の撮影範囲と視認可能最大距離とを用いて、視認可能範囲を特定する。
そして、出力部119が、視認可能範囲に基づく出力情報を生成する(ステップS27)。そして、出力部119は、視認可能範囲に基づく出力情報を出力する(ステップS28)。
<効果>
第2の実施形態にかかる算出装置12によれば、算出装置12のユーザは、カメラ20の撮影範囲のうち検出対象が可能な範囲、すなわち視認可能範囲を容易に知ることができる。その理由は、範囲特定部124がカメラ20の撮影範囲と視認可能最大距離とを用いて視認可能範囲を特定し、出力部119が視認可能範囲に基づく出力情報を出力するからである。
出力情報が、視認可能範囲が視認可能範囲以外の領域と異なる態様で示された画像であれば、ユーザは視認可能範囲を直感的に理解することができる。このような出力情報が出力されれば、ユーザは、カメラ20の設置状況についての検討を行いやすい。
[変形例]
(2−1)
出力部119は、撮像画像を表示装置に表示させてもよい。
出力部119は、撮像画像に視認可能範囲を示す情報が重畳された画像を、出力情報として生成してもよい。図11は、撮像画像の一例を示す図である。図12は、撮像画像に視認可能範囲を示す情報(この例では透明度のある一色塗りパターン)が重畳された画像の例を示す図である。このように、出力部119は、撮像画像における、撮影範囲に含まれる構造物と視認可能範囲とが重なり合う領域を特定し、特定した領域が他の部分と識別できるような画像を生成してもよい。
(2−2)
算出装置12は、カメラ20の姿勢(すなわち、光軸方向および傾き)および画角の少なくともいずれかを変更する指示をカメラ20に送出できるよう構成されていてもよい。例えば、算出装置12は、ユーザから、カメラ20の画角を変更する指示をカメラ20に送出する指示を受け付けるのに応じて、画角を変更する指示をカメラ20に送出してもよい。カメラ20は、当該指示を受け付けると当該指示に従って画角を変更するよう構成されていてもよい。
さらに、算出装置12は、カメラ20の姿勢および画角のいずれかが変更されたことを契機として、視認可能最大距離の算出および視認可能範囲の特定を再び行ってもよい。例えば、算出装置12は、画角を変更する指示をカメラ20に送出し、さらに画角が変更された後の撮像画像をカメラ20に要求し、その撮像画像をカメラ20から取得してもよい。算出装置12は、その撮像画像に基づいてステップS22からの処理を行い、変更後の画角に基づく視認可能最大距離および視認可能範囲を導出してもよい。
(2−3)
特定された視認可能範囲の特定の平面への投影図が生成される場合において、特定の平面は、検出対象に応じて決定されてもよい。例えば、検出対象が成人の顔である場合、検出対象は地面から離れた位置にあることが想定される。このような場合、上記の特定の平面として、例えば地面から1.4メートル離れた面が設定されてもよい。なお、「1.4メートル」等の値は、算出装置12の利用者からの入力を受け付けることにより特定されてもよい。
地面から離れた面を特定の平面として設定することにより、地面を特定の平面として設定した場合よりも、検出対象が視認可能な領域がより正確に算出され得る。
<<第3の実施形態>>
本発明の一実施形態に係る算出装置10について説明する。
図13は、算出装置10の構成を示すブロック図である。算出装置10は、画像入力部101と、視認性評価部102と、算出部103と、出力部104と、を備える。
画像入力部101は、所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る。
上記各実施形態におけるカメラ20は、画像取得装置の一例である。上記各実施形態における画像取得部111は、画像入力部101の一例である。
視認性評価部102は、画像入力部101により受け取られた撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する。
上記各実施形態における視認性評価部112は、視認性評価部102の一例である。
算出部103は、視認性評価部102により算出された評価値と、撮像画像における所与の検出対象の実際の大きさとして設定される値と、画像取得装置の画角と、に基づき、視認可能最大距離を算出する。視認可能最大距離は、既に述べた通り、撮像画像において所与の検出対象が視認可能な、画像取得装置から所与の検出対象までの、距離の上限である。上記各実施形態における距離算出部113は、算出部103の一例である。
出力部104は、算出部103により算出された視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する。上記各実施形態における出力部119は、出力部104の一例である。
図14は、算出装置10による情報処理方法の処理の流れを示すフローチャートである。まず、画像入力部101が、画像取得装置により取得された撮像画像を入力として受け取る(ステップS101)。次に、視認性評価部102が、撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する(ステップS102)。次に、算出部103が、視認性評価部102により算出された評価値と、撮像画像における所与の検出対象の実際の大きさとして設定される値と、画像取得装置の画角と、に基づき、視認可能最大距離を算出する(ステップS103)。そして、出力部104が、算出部103により算出された視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する(ステップS104)。
算出装置10によれば、監視カメラの撮影範囲であって所与の検出対象を視認可能な撮影範囲を、簡便にかつ正確に知ることができる。その理由は、視認性を表す評価値が画像からコントラストとノイズ情報から算出され、その評価値に基づき視認可能最大距離が算出されるからである。コントラストとノイズ情報が用いられることでより正確に評価値および視認可能最大距離が算出される。また、ユーザは評価値等の情報を入力する必要はないため、ユーザに対する負担は少ない。
<実施形態の各部を実現するハードウェアの構成>
以上で説明された本発明の各実施形態において、各装置の各構成要素を示すブロックは、機能単位で示されている。しかし、構成要素を示すブロックは、各構成要素が別個のモジュールにより構成されることを必ずしも意味していない。
各構成要素の処理は、例えば、コンピュータシステムが、コンピュータ読み取り可能な記憶媒体により記憶された、その処理をコンピュータシステムに実行させるプログラムを、読み出し、実行することによって、実現されてもよい。「コンピュータ読み取り可能な記憶媒体」は、例えば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の可搬媒体、ならびに、コンピュータシステムに内蔵されるROM(Read Only Memory)およびハードディスク等の記憶装置である。「コンピュータ読み取り可能な記憶媒体」は、コンピュータシステム内部の揮発性メモリのようにプログラムを一時的に保持可能なもの、および、ネットワークや電話回線等の通信回線のように、プログラムを伝送するものも含む。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記憶されているプログラムとの組み合わせで実現できるものであってもよい。
「コンピュータシステム」とは、一例として、図15に示されるようなコンピュータ900を含むシステムである。コンピュータ900は、以下のような構成を含む。
・1つまたは複数のCPU(Central Processing Unit)901
・ROM902
・RAM(Random Access Memory)903
・RAM903へロードされるプログラム904Aおよび記憶情報904B
・プログラム904Aおよび記憶情報904Bを格納する記憶装置905
・記憶媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911
例えば、各実施形態における各装置の各構成要素は、その構成要素の機能を実現するプログラム904AをCPU901がRAM903にロードして実行することで実現される。各装置の各構成要素の機能を実現するプログラム904Aは、例えば、予め、記憶装置905やROM902に格納される。そして、必要に応じてCPU901がプログラム904Aを読み出す。記憶装置905は、例えば、ハードディスクである。プログラム904Aは、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記憶媒体906に格納されており、ドライブ装置907に読み出され、CPU901に供給されてもよい。なお、記憶媒体906は、例えば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の、可搬媒体である。
各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個のコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つのコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。
また、各装置の各構成要素の一部または全部は、その他の汎用または専用の回路、コンピュータ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。
各装置の各構成要素の一部または全部が複数のコンピュータや回路等により実現される場合には、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、コンピュータや回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。
<<付記>>
[付記1]
所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る画像入力手段と、
前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する視認性評価手段と、
前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出する算出手段と、
前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する出力手段と、
を備える算出装置。
[付記2]
前記視認性評価手段は、前記評価値として、前記撮像画像において前記所与の検出対象が視認可能な大きさの最小値を、前記コントラストと前記ノイズ情報とに基づいて算出する、
付記1に記載の算出装置。
[付記3]
前記視認可能最大距離と、前記画像取得装置の設置位置と、前記画像取得装置の画角と、前記所定の領域を含む三次元形状情報とに基づき、前記所定の領域のうちの、前記撮像画像において前記所与の検出対象が視認可能な範囲である、視認可能範囲を算出する範囲算出手段をさらに備え、
前記出力手段は、前記視認可能範囲の少なくとも一部を含む実空間の投影図において前記視認可能範囲を示す情報が重畳して示された重畳画像を生成し、当該重畳画像を前記出力情報として出力する、
付記1または2に記載の算出装置。
[付記4]
前記投影図は前記撮像画像であり、前記視認可能範囲を示す情報は、前記画像取得装置の撮影範囲に含まれる構造物と前記視認可能範囲とが重なり合う領域の形状の図形である、
付記3に記載の算出装置。
[付記5]
前記所与の検出対象の地面からの距離を指定する入力を受け付け、
前記出力手段は、前記入力に基づき、前記視認可能範囲の少なくとも一部を含む実空間の上面図において地面から前記指定された距離だけ離れた面と前記視認可能範囲とが重なる領域が重畳して示された、重畳上面画像を、前記重畳画像として生成する、
付記3に記載の算出装置。
[付記6]
前記画像取得装置の姿勢および画角の少なくともいずれかを変更する指示を前記画像取得装置に送出する指示手段をさらに含み、
前記画像取得装置の画角が変更されたことを契機として、前記算出手段は前記視認可能最大距離の算出を再び行い、前記出力手段は再び算出された前記視認可能最大距離に基づく第2の出力情報を生成し、当該第2の出力情報を出力する、
付記1から5のいずれか一つに記載の算出装置。
[付記7]
所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取り、
前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出し、
前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出し、
前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する、
情報処理方法。
[付記8]
前記評価値として、前記撮像画像において前記所与の検出対象が視認可能な大きさの最小値を、前記コントラストと前記ノイズ情報とに基づいて算出する、
付記7に記載の情報処理方法。
[付記9]
前記視認可能最大距離と、前記画像取得装置の設置位置と、前記画像取得装置の画角と、前記所定の領域を含む三次元形状情報とに基づき、前記所定の領域のうちの、前記撮像画像において前記所与の検出対象が視認可能な範囲である、視認可能範囲を算出し、
前記視認可能範囲の少なくとも一部を含む実空間の投影図において前記視認可能範囲を示す情報が重畳して示された重畳画像を生成し、当該重畳画像を前記出力情報として出力する、
付記7または8に記載の情報処理方法。
[付記10]
前記投影図は前記撮像画像であり、前記視認可能範囲を示す情報は、前記画像取得装置の撮影範囲に含まれる構造物と前記視認可能範囲とが重なり合う領域の形状の図形である、
付記9に記載の情報処理方法。
[付記11]
前記所与の検出対象の地面からの距離を指定する入力を受け付け、
前記入力に基づき、前記視認可能範囲の少なくとも一部を含む実空間の上面図において地面から前記指定された距離だけ離れた面と前記視認可能範囲とが重なる領域が重畳して示された、重畳上面画像を、前記重畳画像として生成する、
付記9に記載の情報処理方法。
[付記12]
前記画像取得装置の姿勢および画角の少なくともいずれかを変更する指示を前記画像取得装置に送出し、
前記画像取得装置の画角が変更されたことを契機として、前記視認可能最大距離の算出を再び行い、当該再び算出された前記視認可能最大距離に基づく第2の出力情報を生成し、当該第2の出力情報を出力する、
付記7から11のいずれか一つに記載の情報処理方法。
[付記13]
所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る画像入力処理と、
前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する視認性評価処理と、
前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出する算出処理と、
前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する出力処理と、
をコンピュータに実行させるプログラムを記憶した、コンピュータ読み取り可能な記憶媒体。
[付記14]
前記視認性評価処理は、前記評価値として、前記撮像画像において前記所与の検出対象が視認可能な大きさの最小値を、前記コントラストと前記ノイズ情報とに基づいて算出する、
付記13に記載の記憶媒体。
[付記15]
前記プログラムは、前記視認可能最大距離と、前記画像取得装置の設置位置と、前記画像取得装置の画角と、前記所定の領域を含む三次元形状情報とに基づき、前記所定の領域のうちの、前記撮像画像において前記所与の検出対象が視認可能な範囲である、視認可能範囲を算出する範囲算出処理を前記コンピュータにさらに実行させ、
前記出力処理は、前記視認可能範囲の少なくとも一部を含む実空間の投影図において前記視認可能範囲を示す情報が重畳して示された重畳画像を生成し、当該重畳画像を前記出力情報として出力する、
付記13または14に記載の記憶媒体。
[付記16]
前記投影図は前記撮像画像であり、前記視認可能範囲を示す情報は、前記画像取得装置の撮影範囲に含まれる構造物と前記視認可能範囲とが重なり合う領域の形状の図形である、
付記15に記載の記憶媒体。
[付記17]
前記プログラムは、前記コンピュータに、前記所与の検出対象の地面からの距離を指定する入力を受け付けさせ、
前記出力処理は、前記入力に基づき、前記視認可能範囲の少なくとも一部を含む実空間の上面図において地面から前記指定された距離だけ離れた面と前記視認可能範囲とが重なる領域が重畳して示された、重畳上面画像を、前記重畳画像として生成する、
付記15に記載の記憶媒体。
[付記18]
前記プログラムは、前記画像取得装置の姿勢および画角の少なくともいずれかを変更する指示を前記画像取得装置に送出する指示処理を前記コンピュータにさらに実行させ、
前記画像取得装置の画角が変更されたことを契機として、前記算出処理は前記視認可能最大距離の算出を再び行い、前記出力処理は再び算出された前記視認可能最大距離に基づく第2の出力情報を生成し、当該第2の出力情報を出力する、
付記13から17のいずれか一つに記載の記憶媒体。
本願発明は以上に説明した実施形態に限定されるものではない。以上に説明した実施形態の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10、11、12 算出装置
20 カメラ
101 画像入力部
102 視認性評価部
103 算出部
104 出力部
110 記憶部
111 画像取得部
112 視認性評価部
1121 コントラスト値算出部
1122 ノイズ量特定部
1123 下限算出部
113 距離算出部
119 出力部
124 範囲特定部
900 コンピュータ
901 CPU
902 ROM
903 RAM
904A プログラム
904B 記憶情報
905 記憶装置
906 記憶媒体
907 ドライブ装置
908 通信インタフェース
909 通信ネットワーク
910 入出力インタフェース
911 バス
10、11、12 算出装置
20 カメラ
101 画像入力部
102 視認性評価部
103 算出部
104 出力部
110 記憶部
111 画像取得部
112 視認性評価部
1121 コントラスト値算出部
1122 ノイズ量特定部
1123 評価値算出部
113 距離算出部
119 出力部
124 範囲特定部
900 コンピュータ
901 CPU
902 ROM
903 RAM
904A プログラム
904B 記憶情報
905 記憶装置
906 記憶媒体
907 ドライブ装置
908 通信インタフェース
909 通信ネットワーク
910 入出力インタフェース
911 バス

Claims (18)

  1. 所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る画像入力手段と、
    前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する視認性評価手段と、
    前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出する算出手段と、
    前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する出力手段と、
    を備える算出装置。
  2. 前記視認性評価手段は、前記評価値として、前記撮像画像において前記所与の検出対象が視認可能な大きさの最小値を、前記コントラストと前記ノイズ情報とに基づいて算出する、
    請求項1に記載の算出装置。
  3. 前記視認可能最大距離と、前記画像取得装置の設置位置と、前記画像取得装置の画角と、前記所定の領域を含む三次元形状情報とに基づき、前記所定の領域のうちの、前記撮像画像において前記所与の検出対象が視認可能な範囲である、視認可能範囲を算出する範囲算出手段をさらに備え、
    前記出力手段は、前記視認可能範囲の少なくとも一部を含む実空間の投影図において前記視認可能範囲を示す情報が重畳して示された重畳画像を生成し、当該重畳画像を前記出力情報として出力する、
    請求項1または2に記載の算出装置。
  4. 前記投影図は前記撮像画像であり、前記視認可能範囲を示す情報は、前記画像取得装置の撮影範囲に含まれる構造物と前記視認可能範囲とが重なり合う領域の形状の図形である、
    請求項3に記載の算出装置。
  5. 前記所与の検出対象の地面からの距離を指定する入力を受け付け、
    前記出力手段は、前記入力に基づき、前記視認可能範囲の少なくとも一部を含む実空間の上面図において地面から前記指定された距離だけ離れた面と前記視認可能範囲とが重なる領域が重畳して示された、重畳上面画像を、前記重畳画像として生成する、
    請求項3に記載の算出装置。
  6. 前記画像取得装置の姿勢および画角の少なくともいずれかを変更する指示を前記画像取得装置に送出する指示手段をさらに含み、
    前記画像取得装置の画角が変更されたことを契機として、前記算出手段は前記視認可能最大距離の算出を再び行い、前記出力手段は再び算出された前記視認可能最大距離に基づく第2の出力情報を生成し、当該第2の出力情報を出力する、
    請求項1から5のいずれか一項に記載の算出装置。
  7. 所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取り、
    前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出し、
    前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出し、
    前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する、
    情報処理方法。
  8. 前記評価値として、前記撮像画像において前記所与の検出対象が視認可能な大きさの最小値を、前記コントラストと前記ノイズ情報とに基づいて算出する、
    請求項7に記載の情報処理方法。
  9. 前記視認可能最大距離と、前記画像取得装置の設置位置と、前記画像取得装置の画角と、前記所定の領域を含む三次元形状情報とに基づき、前記所定の領域のうちの、前記撮像画像において前記所与の検出対象が視認可能な範囲である、視認可能範囲を算出し、
    前記視認可能範囲の少なくとも一部を含む実空間の投影図において前記視認可能範囲を示す情報が重畳して示された重畳画像を生成し、当該重畳画像を前記出力情報として出力する、
    請求項7または8に記載の情報処理方法。
  10. 前記投影図は前記撮像画像であり、前記視認可能範囲を示す情報は、前記画像取得装置の撮影範囲に含まれる構造物と前記視認可能範囲とが重なり合う領域の形状の図形である、
    請求項9に記載の情報処理方法。
  11. 前記所与の検出対象の地面からの距離を指定する入力を受け付け、
    前記入力に基づき、前記視認可能範囲の少なくとも一部を含む実空間の上面図において地面から前記指定された距離だけ離れた面と前記視認可能範囲とが重なる領域が重畳して示された、重畳上面画像を、前記重畳画像として生成する、
    請求項9に記載の情報処理方法。
  12. 前記画像取得装置の姿勢および画角の少なくともいずれかを変更する指示を前記画像取得装置に送出し、
    前記画像取得装置の画角が変更されたことを契機として、前記視認可能最大距離の算出を再び行い、当該再び算出された前記視認可能最大距離に基づく第2の出力情報を生成し、当該第2の出力情報を出力する、
    請求項7から11のいずれか一項に記載の情報処理方法。
  13. 所定の領域を撮影する画像取得装置により取得された撮像画像を入力として受け取る画像入力処理と、
    前記撮像画像のコントラストと、当該撮像画像に含まれるノイズの程度を示すノイズ情報とに基づいて、当該撮像画像における所与の検出対象の視認性を表す評価値を算出する視認性評価処理と、
    前記評価値と、前記撮像画像における前記所与の検出対象の実際の大きさとして設定される値と、前記画像取得装置の画角と、に基づき、前記撮像画像において前記所与の検出対象が視認可能な、前記画像取得装置から前記所与の検出対象までの、距離の上限である視認可能最大距離を算出する算出処理と、
    前記視認可能最大距離に基づく出力情報を生成し、当該出力情報を出力する出力処理と、
    をコンピュータに実行させるプログラムを記憶した、コンピュータ読み取り可能な記憶媒体。
  14. 前記視認性評価処理は、前記評価値として、前記撮像画像において前記所与の検出対象が視認可能な大きさの最小値を、前記コントラストと前記ノイズ情報とに基づいて算出する、
    請求項13に記載の記憶媒体。
  15. 前記プログラムは、前記視認可能最大距離と、前記画像取得装置の設置位置と、前記画像取得装置の画角と、前記所定の領域を含む三次元形状情報とに基づき、前記所定の領域のうちの、前記撮像画像において前記所与の検出対象が視認可能な範囲である、視認可能範囲を算出する範囲算出処理を前記コンピュータにさらに実行させ、
    前記出力処理は、前記視認可能範囲の少なくとも一部を含む実空間の投影図において前記視認可能範囲を示す情報が重畳して示された重畳画像を生成し、当該重畳画像を前記出力情報として出力する、
    請求項13または14に記載の記憶媒体。
  16. 前記投影図は前記撮像画像であり、前記視認可能範囲を示す情報は、前記画像取得装置の撮影範囲に含まれる構造物と前記視認可能範囲とが重なり合う領域の形状の図形である、
    請求項15に記載の記憶媒体。
  17. 前記プログラムは、前記コンピュータに、前記所与の検出対象の地面からの距離を指定する入力を受け付けさせ、
    前記出力処理は、前記入力に基づき、前記視認可能範囲の少なくとも一部を含む実空間の上面図において地面から前記指定された距離だけ離れた面と前記視認可能範囲とが重なる領域が重畳して示された、重畳上面画像を、前記重畳画像として生成する、
    請求項15に記載の記憶媒体。
  18. 前記プログラムは、前記画像取得装置の姿勢および画角の少なくともいずれかを変更する指示を前記画像取得装置に送出する指示処理を前記コンピュータにさらに実行させ、
    前記画像取得装置の画角が変更されたことを契機として、前記算出処理は前記視認可能最大距離の算出を再び行い、前記出力処理は再び算出された前記視認可能最大距離に基づく第2の出力情報を生成し、当該第2の出力情報を出力する、
    請求項13から17のいずれか一項に記載の記憶媒体。
JP2020547532A 2018-09-20 2018-09-20 算出装置、情報処理方法およびプログラム Active JP7040627B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/034726 WO2020059064A1 (ja) 2018-09-20 2018-09-20 算出装置、情報処理方法および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2020059064A1 true JPWO2020059064A1 (ja) 2021-08-30
JP7040627B2 JP7040627B2 (ja) 2022-03-23

Family

ID=69887012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020547532A Active JP7040627B2 (ja) 2018-09-20 2018-09-20 算出装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US11481996B2 (ja)
JP (1) JP7040627B2 (ja)
WO (1) WO2020059064A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230338093A1 (en) 2022-04-22 2023-10-26 Mako Surgical Corp. Sterilizable Surgical Device With Battery Switch

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11312216A (ja) * 1998-04-30 1999-11-09 Matsushita Electric Ind Co Ltd 文字認識装置
JP2009217115A (ja) * 2008-03-12 2009-09-24 Toa Corp カメラ映像シミュレータプログラム
JP2013038591A (ja) * 2011-08-08 2013-02-21 Canon Inc 撮像装置、その制御方法およびプログラム
JP2013042386A (ja) * 2011-08-17 2013-02-28 Hitachi Kokusai Electric Inc 監視システム
JP2015050693A (ja) * 2013-09-03 2015-03-16 Toa株式会社 カメラ設置シミュレータ及びそのコンピュータプログラム
JP2016201611A (ja) * 2015-04-08 2016-12-01 三菱電機ビルテクノサービス株式会社 防犯カメラ設置支援装置及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040036892A1 (en) * 2002-02-22 2004-02-26 Tsukasa Ito Image processing method, image processing apparatus, image recording apparatus and recording medium
JP4701383B2 (ja) 2005-02-10 2011-06-15 国立大学法人北海道大学 視界不良評価方法および視界不良評価装置
JP5003398B2 (ja) 2007-10-10 2012-08-15 株式会社豊田中央研究所 照明装置
JP4975673B2 (ja) 2008-03-28 2012-07-11 ティーオーエー株式会社 カメラ設置シミュレータプログラム
JP4981737B2 (ja) 2008-04-23 2012-07-25 三菱重工業株式会社 監視システム
JP5198346B2 (ja) * 2009-04-23 2013-05-15 本田技研工業株式会社 車両周辺監視装置
CN105764405B (zh) * 2013-06-06 2018-12-18 6超越6视觉有限公司 基于主观距离计量测量眼睛屈光不正的系统和方法
US9354488B2 (en) * 2014-05-23 2016-05-31 Howard Preston Methods, apparatuses, systems and software for focusing a camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11312216A (ja) * 1998-04-30 1999-11-09 Matsushita Electric Ind Co Ltd 文字認識装置
JP2009217115A (ja) * 2008-03-12 2009-09-24 Toa Corp カメラ映像シミュレータプログラム
JP2013038591A (ja) * 2011-08-08 2013-02-21 Canon Inc 撮像装置、その制御方法およびプログラム
JP2013042386A (ja) * 2011-08-17 2013-02-28 Hitachi Kokusai Electric Inc 監視システム
JP2015050693A (ja) * 2013-09-03 2015-03-16 Toa株式会社 カメラ設置シミュレータ及びそのコンピュータプログラム
JP2016201611A (ja) * 2015-04-08 2016-12-01 三菱電機ビルテクノサービス株式会社 防犯カメラ設置支援装置及びプログラム

Also Published As

Publication number Publication date
US20220036107A1 (en) 2022-02-03
JP7040627B2 (ja) 2022-03-23
WO2020059064A1 (ja) 2020-03-26
US11481996B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
US10839213B2 (en) Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
JP7018566B2 (ja) 撮像装置、画像処理方法及びプログラム
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
JP4929828B2 (ja) 立体性認証方法、立体性認証装置および立体性認証プログラム
CN106572298A (zh) 显示控制装置以及显示控制方法
JP2019114821A (ja) 監視システム、装置、方法およびプログラム
US20160292888A1 (en) Image measurement device, and recording medium
JP2018156408A (ja) 画像認識撮像装置
JP2007235485A (ja) 映像監視装置及び方法
JP2008226109A (ja) 映像解析システムおよび映像解析方法
JP2019029935A (ja) 画像処理装置およびその制御方法
JP4193342B2 (ja) 3次元データ生成装置
KR20070115000A (ko) 단일 카메라를 이용한 영상의 실제 크기 측정 방법 및 장치
JP7040627B2 (ja) 算出装置、情報処理方法およびプログラム
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
JP2013044597A (ja) 画像処理装置および方法、プログラム
JP2021027584A (ja) 画像処理装置、画像処理方法およびプログラム
JP6960047B2 (ja) 振動解析装置、振動解析装置の制御方法、振動解析プログラムおよび記録媒体
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
JP2013258583A (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
JP7255173B2 (ja) 人検出装置および人検出方法
JP6581280B1 (ja) 監視装置、監視システム、監視方法、監視プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210122

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R151 Written notification of patent or utility model registration

Ref document number: 7040627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151