JP6587253B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP6587253B2 JP6587253B2 JP2016039994A JP2016039994A JP6587253B2 JP 6587253 B2 JP6587253 B2 JP 6587253B2 JP 2016039994 A JP2016039994 A JP 2016039994A JP 2016039994 A JP2016039994 A JP 2016039994A JP 6587253 B2 JP6587253 B2 JP 6587253B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- correction amount
- processing apparatus
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 98
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000012937 correction Methods 0.000 claims description 192
- 238000003702 image correction Methods 0.000 claims description 34
- 238000001514 detection method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000009434 installation Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 206010027146 Melanoderma Diseases 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001154 acute effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置、及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method.
従来から、店舗や住宅、車など様々な用途で、人の動きや周辺の状態を把握する為に、カメラを使用した数多くのシステムが提案されている。そのようなシステムにおいて、シーンに応じてカメラ映像内の特定の領域を詳細に監視したいという要求がある。特に、バスや電車といった旅客車両においては、ホームにおける事故を防止し安全に運航したい、あるいはホームにおける乗降客の混雑度合いを検知したい、といった様々な理由によりホームや乗降口付近の監視を可能とするシステムが求められている。 Conventionally, a number of systems using cameras have been proposed in order to grasp the movements of people and surrounding conditions in various applications such as stores, houses, and cars. In such a system, there is a demand for monitoring a specific area in the camera video in detail according to the scene. Especially for passenger vehicles such as buses and trains, it is possible to monitor the vicinity of the platform and the entrance / exit for various reasons such as preventing accidents at the platform and operating safely or detecting the degree of congestion of passengers at the platform. A system is needed.
このような要望に対応する為、特許文献1には、ホーム側に設置されたカメラから列車など奥行きのある被写体を斜めから監視し、遠近のある被写体を正面から捕えた画像として表示する撮像システムが開示されている。これにより、映像に映る乗客などの大きさがカメラからの距離によって変わるのを補正し、視認性を改善することを可能としている。
また、特許文献2には、旅客車両における複数の乗降口を撮影可能なカメラを用いて、乗降口近傍の領域を示す複数の部分画像を生成し、その部分画像を並べて表示する画像処理装置が開示されている。これにより、少ないカメラで乗降口付近の安全確認を適切に行うことを可能としている。
また、特許文献3においては、同様に旅客車両における複数の乗降口を撮影可能なカメラを用いて、乗降口近傍の領域を示す複数の部分画像を生成するとともに、物体が検出された乗降口付近の画像のみを表示装置に表示する画像処理装置が開示されている。これにより、安全確認が必要な乗降口のみに乗務員の注意を向けることを可能にしている。
In order to meet such a demand, Patent Document 1 discloses an imaging system that monitors a subject having a depth such as a train from a camera installed on the home side from an oblique direction, and displays a subject having a perspective from the front. Is disclosed. As a result, it is possible to correct the change in the size of a passenger or the like reflected in the video depending on the distance from the camera, thereby improving the visibility.
Further, Patent Document 2 discloses an image processing apparatus that generates a plurality of partial images indicating regions near the entrance / exit using a camera capable of photographing a plurality of entrances / exits in a passenger vehicle, and displays the partial images side by side. It is disclosed. As a result, it is possible to appropriately perform safety confirmation near the entrance / exit with a small number of cameras.
Similarly, in Patent Document 3, a plurality of partial images showing regions near the entrance / exit are generated using a camera capable of photographing a plurality of entrances / exits in the passenger vehicle, and the vicinity of the entrance / exit where the object is detected An image processing apparatus that displays only the image on the display device is disclosed. This makes it possible for the crew members to pay attention only to the entrance / exit that requires safety confirmation.
上記のように、ホームや乗降客の監視目的で様々なシステムが提案されている。例えば、旅客車両側にカメラを設置することによって、無人駅のようなカメラの設置が難しい環境においてもホームや乗降客の監視が可能となる為、非常に有用である。
しかしながら、特許文献1に記載の撮像システムにあっては、ホームに設置されたカメラの映像における視認性改善は可能であるが、列車などの旅客車両側に設置されたカメラの映像についての視認性改善については記載されていない。
また、特許文献2に記載の画像処理装置にあっては、旅客車両における複数の乗降口を撮影可能なカメラを用いており、乗降口近傍の領域を示す複数の部分画像を並べて表示することで乗降口付近の安全確保を可能としているが、乗降口近傍のみの画像としている為、ホーム全体の様子を把握することができず、例えば駆け込み乗車しようとする旅客などを視認するのが遅れてしまうことがある。
また、特許文献3に記載の画像処理装置は、乗降口付近の部分画像生成に加えて物体検出を行うことで、注意すべき乗降口のみに注意を払うことを可能としているが、特許文献2と同様、部分画像外を視認することができず、乗降口付近における急激な状態変化に対しては視認するのが遅れてしまうことがある。
このように、従来は、広い範囲に対して視認性のよい撮影画像を得ることが困難な場合があった。
As described above, various systems have been proposed for the purpose of monitoring homes and passengers. For example, by installing a camera on the passenger vehicle side, it is possible to monitor homes and passengers even in an environment where it is difficult to install a camera such as an unmanned station.
However, in the imaging system described in Patent Document 1, it is possible to improve the visibility in the image of the camera installed in the home, but the visibility of the image of the camera installed in the passenger vehicle side such as a train is possible. There is no mention of improvements.
Moreover, in the image processing apparatus described in Patent Document 2, a camera capable of photographing a plurality of entrances and exits in a passenger vehicle is used, and a plurality of partial images showing regions near the entrances and exits are displayed side by side. Although it is possible to ensure safety near the entrance / exit, it is not possible to grasp the entire home because it is an image only near the entrance / exit, for example, it is delayed to visually recognize passengers who are going to get on board Sometimes.
In addition, the image processing apparatus described in Patent Document 3 can detect an object in addition to generating a partial image in the vicinity of the entrance / exit, so that attention can be paid only to the entrance / exit where attention should be paid. Similarly, the outside of the partial image cannot be visually recognized, and the visual recognition may be delayed with respect to a sudden state change near the entrance / exit.
Thus, conventionally, it has been difficult to obtain a captured image with good visibility over a wide range.
本発明は上記の点に鑑みてなされたものであり、広い範囲に対して視認性のよい撮影画像を得ることができる画像処理装置、及び画像処理方法に関する。 The present invention has been made in view of the above points, and relates to an image processing apparatus and an image processing method capable of obtaining a captured image with high visibility over a wide range.
本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、カメラによって撮影された画像を入力する画像入力部と、特定面上の基準物体が撮影された画像において、予め定められた注目領域が前記画像の周辺部に存在する場合、前記注目領域において前記特定面に対する基準物体の前記画像上の角度が所定の角度内に収まるように、画像を補正する為の補正量を決定する補正量決定部と、前記補正量決定部が決定した前記補正量に基づいて、前記画像入力部によって入力される画像を補正する画像補正部と、を備える画像処理装置である。 The present invention has been made to solve the above problems, and one aspect of the present invention is an image input unit that inputs an image captured by a camera and an image in which a reference object on a specific surface is captured. When a predetermined region of interest exists in the periphery of the image, the image for correcting the image so that an angle on the image of the reference object with respect to the specific surface within the region of interest falls within a predetermined angle. An image processing apparatus comprising: a correction amount determination unit that determines a correction amount; and an image correction unit that corrects an image input by the image input unit based on the correction amount determined by the correction amount determination unit. .
また、本発明の一態様は、上記画像処理装置において、前記補正量決定部は、前記注目領域において前記特定面上の基準物体の前記画像上の幅が所定の幅以上の大きさになるように前記補正量を更に決定する。 According to another aspect of the present invention, in the image processing apparatus, the correction amount determination unit is configured such that a width of the reference object on the specific surface on the specific surface is greater than or equal to a predetermined width in the attention area. The correction amount is further determined.
また、本発明の一態様は、上記画像処理装置が、入力された前記画像に基づいて危険度を判定する危険度判定部を更に備え、前記補正量決定部は、前記危険度判定部によって判定される危険度に応じて前記補正量を決定する。 In one aspect of the present invention, the image processing apparatus further includes a risk determination unit that determines a risk based on the input image, and the correction amount determination unit is determined by the risk determination unit. The correction amount is determined according to the degree of risk to be performed.
また、本発明の一態様は、上記画像処理装置が、前記補正量を決定する際に利用される補正補助情報を設定する補正補助情報設定部を更に備え、前記補正量決定部は、前記補正補助情報設定部により設定された前記補正補助情報に基づいて前記補正量を決定する。 According to another aspect of the present invention, the image processing apparatus further includes a correction auxiliary information setting unit that sets correction auxiliary information used when the correction amount is determined, and the correction amount determination unit includes the correction amount determination unit. The correction amount is determined based on the correction auxiliary information set by the auxiliary information setting unit.
また、本発明の一態様は、上記情画像報処理装置において、前記補正量決定部は、前記補正量を決定する際に、前記画像の画像領域内の一部の領域を除外した領域を拡大するように前記補正量を決定する。 According to another aspect of the present invention, in the information image processing apparatus, when the correction amount determination unit determines the correction amount, an area excluding a part of the image area of the image is enlarged. The correction amount is determined as follows.
また、本発明の一態様は、カメラによって撮影された画像を入力する画像入力ステップと、特定面上の基準物体が撮影された画像において、予め定められた注目領域が前記画像の周辺部に存在する場合、前記注目領域において前記特定面に対する基準物体の前記画像上の角度が所定の角度内に収まるように、画像を補正する為の補正量を決定する補正量決定ステップと、前記補正量決定ステップによって決定された前記補正量に基づいて、前記画像入力ステップによって入力される画像を補正する画像補正ステップと、を含む画像処理方法である。 Further, according to one embodiment of the present invention, in the image input step of inputting an image captured by the camera and the image of the reference object on the specific surface, a predetermined attention area exists in the peripheral portion of the image A correction amount determining step for determining a correction amount for correcting the image so that an angle of the reference object with respect to the specific surface on the image within a predetermined angle in the region of interest falls within a predetermined angle; and the correction amount determination And an image correction step of correcting the image input in the image input step based on the correction amount determined in the step.
本発明によれば、広い範囲に対して視認性のよい撮影画像を得ることができる。 According to the present invention, it is possible to obtain a captured image with good visibility over a wide range.
以下、図面を参照して、本発明の実施形態について説明する。なお、各図面における各部の大きさ等は説明を容易とするために大小関係を誇大して記載しており、実際の大きさとは異なる。 Embodiments of the present invention will be described below with reference to the drawings. It should be noted that the size of each part in each drawing is exaggerated in terms of the magnitude relationship for ease of explanation, and is different from the actual size.
(第1の実施形態)
図1は、本発明の第1の実施形態における画像処理装置100の概略構成の一例を示すブロック図である。画像処理装置100は、広角カメラ106で撮影された撮影画像を入力する画像入力部101と、ユーザーによって設定されるパラメータを元に広角カメラ106の取り付け位置や角度などのカメラの位置情報を設定するカメラ位置設定部102と、広角カメラ106のレンズデータや、カメラ位置設定部102で設定されたカメラ位置情報を保持する記憶部103と、画像入力部101に入力された撮影画像を補正する際の補正量を決定する補正量決定部104と、補正量決定部104により決定された補正量に基づいて撮影画像を補正する画像補正部105と、を含んで構成されている。また、画像処理装置100は、撮影画像を画像処理装置100に出力する広角カメラ106と、画像処理装置100から出力される映像出力を表示する画像表示部107とが接続されている。
(First embodiment)
FIG. 1 is a block diagram showing an example of a schematic configuration of an
画像処理装置100は、CPU(Central Processing Unit)と呼ばれる中央処理装置やFPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)と呼ばれる特定用途向けIC(Integrated Circuit)などの半導体部品をはじめ、ハードディスクやフラッシュメモリ、あるいはDRAM(Dynamic Random Access Memory)といった記憶媒体などを組み合わせて構成されており、図1に示す各機能を実現する。
The
また、広角カメラ106はCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子と、画角の広いレンズ(広角レンズ)をはじめとする複数の構成部品によって構成される。レンズや画角について詳しくは後述する。画像表示部107は、液晶や有機EL(Electro-Luminescence)といった表示デバイスを含むディスプレイ装置である。
The wide-
図2は、本実施形態における広角カメラ106の設置環境例を示す図である。旅客車両108の中央付近に広角カメラ106が取り付けられており、旅客車両108には3つの乗降口109、110、111が存在する。なお、広角カメラ106は、光軸方向が乗降口110から一定距離だけ離れた位置を向くように、旅客車両108の側面に対して斜め下方に向けて取り付けられているものとする。すなわち、広角カメラ106の取り付け角度は、光軸方向が旅客車両108の側面(広角カメラ106が取り付けられている面)に対して鋭角となる。また、この図に示すように、広角カメラ106は旅客車両108の乗降口110の上部、もしくはより高い位置に設置される。このように広角カメラ106を設置することにより、乗降口109、110、111付近に加え、視認できることが望ましいホーム領域に関しても広く画像内に収めることが可能となる。また、乗降客が付近に居ても遮られることなく複数ある乗降口周辺を撮影することが可能となる。なお、複数の乗降口を可能な限り撮影する為には図2に示すように旅客車両108の側面の長手方向における中央付近に設置することが望ましい。画像処理装置100は、例えば旅客車両108の内部に設置される。
FIG. 2 is a diagram showing an installation environment example of the wide-
図3は、この旅客車両108に取り付けられた広角カメラ106で撮影された画像例を示す図である。広角カメラ106は、例えば魚眼レンズを搭載した魚眼カメラであり、上下左右方向にそれぞれ約170度の広い画角を持つものとする。図示する撮影画像112には、旅客車両108が撮影されている。撮影画像112には旅客車両108にある乗降口109、110、111のすべてが映っていることからわかるように、広い領域が撮影される一方、レンズに歪が存在することから、歪の影響を受けて旅客車両108が本来の形から変形して撮影されている。黒線113は、ホームと車両の境界(隙間)部分を示している。なお、撮影画像112の4隅の黒い部分はレンズ視野外のため映像が撮影されていない部分である。画像処理装置100は、この広角カメラ106による撮影画像112を入力とし、入力した撮影画像112を補正することによって、ホームを含めた広い範囲を視認でき、かつ乗降口付近の乗客、すなわち旅客車両108に出入りする人物の視認性を高めることを可能とした補正画像を生成する。
FIG. 3 is a view showing an example of an image taken by the wide-
図4は、画像処理装置100によって実行される画像補正処理の一例を示すフローチャートである。以下、この図4を参照して、本実施形態における画像補正処理の動作を説明する。
まず、広角カメラ106で撮影された撮影画像が画像入力部101に入力される(ステップS10)。画像入力部101は、入力された撮影画像を画像補正部105に送る。なお、ここでは、広角カメラ106から直接的に撮影画像が画像入力部101に入力される構成を例としているが、カメラと画像処理装置100とが有線または無線で通信接続されることにより、カメラから直接的に撮影画像が画像入力部101に入力されてもよいし、メモリカード等の記憶媒体を介して撮影画像が画像入力部101に入力されてもよい。また、画像処理装置100の外部に設置されたサーバ装置(不図示)に保存されている撮影画像、または画像処理装置100の内部の記憶部103に保存されている撮影画像が画像入力部101に入力されてもよい。
FIG. 4 is a flowchart illustrating an example of image correction processing executed by the
First, a captured image captured by the wide-
また、補正量決定部104は、広角カメラ106のカメラ位置情報を記憶部103から取得する(ステップS11)。補正量決定部104は、画像補正部105が画像の補正を行う際に用いる補正量を決定する際に、このカメラ位置情報を利用する。
Further, the correction
上述のカメラ位置情報は、カメラ位置設定部102によって設定される。例えば、ユーザーが不図示の操作部からカメラ位置情報、あるいはカメラ位置情報を決めるための情報をパラメータとして入力する。カメラ位置設定部102は、入力されたパラメータに基づいて広角カメラ106の取り付け位置や角度などのカメラ位置情報を設定する。なお、カメラ位置情報は、記憶媒体に記憶されているデータファイルから読み込まれてもよい。例えば、カメラ位置情報としては、基準点に対する地面からの高さのほか、左右、上下それぞれに対する広角カメラ106の光軸方向の角度などが含まれる。カメラ位置設定部102は、取り付けた広角カメラ106に対して各種カメラ位置情報をユーザーが実測した値を受け付け、記憶部103に保存する。
The above-described camera position information is set by the camera
また、補正量決定部104は、カメラ位置情報を取得する他に、記憶部103に予め保存されている車両情報を取得する(ステップS12)。車両情報とは、車両の構造に関する情報であり、例えば、図2に示す旅客車両108の全長、乗降口109、110、111の車両上の位置情報などを含む情報である。また、補正量決定部104は、広角カメラ106のレンズ情報についても記憶部103から取得する(ステップS13)。レンズ情報とは、レンズの光学的歪に関する情報であり、実際に撮影した物体が撮像素子上のどの位置に結像するかを示す情報である。補正量決定部104は、記憶部103から取得した広角カメラ106のカメラ位置情報と、広角カメラ106のレンズ情報と、旅客車両108の車両情報とに基づいて、広角カメラ10により撮影された撮影画像の補正量を決定する(ステップS14)。
Further, the correction
ここで、図5及び図6を参照して、補正量決定部104によって決定される補正量とその決定方法について説明する。
図5は、広角カメラ106により撮影された補正前の撮影画像の一例を示す図である。図示する撮影画像114には、旅客車両108が映っており、乗降口109、110、111が視認できる。また、乗降口109、110、111のそれぞれの前でホームに立っている乗客115、116、117が撮影されている。ここで、乗客116は撮影画像114の中央よりに映っているが、乗客115、117は、撮影画像114の周辺部に映っている。そのため、乗客115、117は、レンズの光学的歪の影響により、撮影画像114の垂直方向に対して傾いて映っている。ここで、撮影画像114の垂直方向とは、図示する撮影画像114の底辺114aに対する垂直方向である。
Here, the correction amount determined by the correction
FIG. 5 is a diagram illustrating an example of a captured image captured by the wide-
各乗降口の前で立っている乗客115、116、117のそれぞれにおいて破線で示す中心線A、B、Cは、各乗客の顔中央から両足の間の中心を結ぶ線であり、水平な地面(ホーム)に対して垂直方向の線である。中心線A、B、Cを比較すると、中心線Bは撮影画像114の垂直方向と平行(同じ方向)であるが、中心線A、Cは撮影画像114の垂直方向に対して傾いており、撮影画像114上の角度が異なっている。つまり、乗客116は撮影画像114の垂直方向と同じ方向にまっすぐの状態で映っているが、乗客115、117は撮影画像114の垂直方向に対して傾いた状態で映っている。また、ここでは、乗客115、116、117のそれぞれの身体の幅がほぼ同じであるものとするが、撮影画像114に映っている乗客115、116、117のそれぞれの幅W1、W2、W3を比較すると、乗客116の幅W2に対し、幅W1、W3の方の幅が狭い。
In each of the
撮影画像114は、広角カメラ106に使用される魚眼レンズの特性からこのような画像となる。画像処理装置100は、この撮影画像114に対し、補正量を決定し、画像の補正を行う。ここでは、乗降口109、110、111周辺の領域を注目領域として定義する。記憶部103から取得した広角カメラ106のカメラ位置情報と、広角カメラ106のレンズ情報、及び旅客車両108の車両情報に基づいて、広角カメラ106による撮影された画像上のどの位置が各乗降口の付近であるかがわかる。補正量決定部104は、広角カメラ106によって最も監視したい注目領域である乗降口付近の、画像上の位置に応じて、記憶部103に保持されている予め定められた複数の補正量の中から最適な補正量を決定する。
The captured
図6は、レンズの光学的歪による影響を補正するための補正量について説明する図である。この図は、複数ある補正量のうちの一例であり、撮影画像114に対する補正量の例を示している。符号(a)に示す太枠は、補正前の撮影画像114を示している。一方、符号(b)に示す太枠は、撮影画像114を補正した後の補正画像118を示している。符号(a)に示す撮影画像114上の代表点として示す各黒点の座標が、符号(b)に示す補正画像118上に表される各黒点の座標に補正により変換される。代表する黒点のいくつかには対応関係がわかりやすいよう矢印を示している。
FIG. 6 is a diagram illustrating a correction amount for correcting the influence of the optical distortion of the lens. This figure is an example of a plurality of correction amounts, and shows an example of correction amounts for the captured
ここで、補正画像118上の各黒点に対応する、補正前の撮影画像114上の各黒点に関する情報を補正量と定義する。この黒点で示す代表点における変換前後の座標の対応関係を元に、黒点以外の座標に関しては線形補完等の補完処理によって対応する座標が算出され、変換されることとなる。ここでは、補正画像118上で予め定められた代表する各黒点の座標に対応する撮影画像114上の座標をテーブルとして持つこととしたが、ここに示す代表点(黒点)の数に限定はなく、より多くても少なくても良く、また、補正画像118の全座標に対応する撮影画像114上の座標を示すテーブルであっても良い。代表点が多い方がデータ量は増加するが、補正後の画像はより意図に沿った画像に補正されることとなる。
Here, information regarding each black spot on the photographed
図4に戻り、画像補正部105は、補正量決定部104によって決定された補正量(例えば、図6を参照して説明した補正量)を用いて、撮影画像114の補正を行う(ステップS15)。例えば、画像補正部105は、図6に示す補正画像118上の各黒点の座標の画素値を、各黒点に対応する、補正前の撮影画像114の座標の画素値に変換する。また、画像補正部105は、補正画像118上の黒点以外の各座標に関しては線形補完等の補完処理によって算出された、補正前の撮影画像114の各座標の画素値に変換する。そして、画像補正部105は、補正した補正画像118を画像表示部107に出力する(ステップS16)。これにより、補正画像118が画像表示部107に表示される。
Returning to FIG. 4, the
図7は、補正後の補正画像118の一例を示す図である。図5に示す補正前の撮影画像114に示す乗客115、116、117の中心線A、B、Cのそれぞれは、図7に示す補正後の補正画像118における中心線A’、B’、C’に対応する。補正前の中心線Bと補正後の中心線B’とは補正の前後で変わらずに画像(撮影画像114、補正画像118)の垂直方向と並行である。一方、補正前の中心線Aと補正後の中心線A’とを比較すると、補正前の中心線Aよりも補正後の中心線A’の方が画像(補正画像118)の垂直方向に近い角度に補正される。補正前の中心線Cと補正後の中心線C’との関係も同様に、補正前の中心線Cよりも補正後の中心線C’の方が画像(補正画像118)の垂直方向に近い角度に補正される。つまり、補正前の撮影画像114の周辺部の注目領域においては、地面(ホーム上面)に対して垂直方向となる乗客115、117の画像上の角度が所定の角度内に収まるように補正される。ここで、所定の角度内に収まるとは、例えば撮影画像114の中央付近に映っている乗客116の画像上の角度(即ち、画像上の垂直方向に対する角度)が所定の角度(±10度、±20度など)の範囲となることを示す。
FIG. 7 is a diagram illustrating an example of the corrected
また、図5に示す補正前の撮影画像114に示す乗客115、116、117の幅W1,W2、W3のそれぞれは、図7に示す補正後の補正画像118における幅W1’、W2’、W3’に対応する。乗客115、117の補正後の幅W1’、W3’は、補正前の幅W1、W3より広くなり、より乗客115、117を視認しやすい画像に補正される。つまり、補正前の撮影画像114の周辺部の注目領域においては、地面(ホーム上面)に対して垂直方向となる乗客115、117の画像上の幅が所定の幅以上の大きさになるように補正される。ここで、所定の幅とは、例えば補正前の撮影画像114の中央付近に映っている乗客116の幅W2よりは小さく、周辺部に映っている乗客115、117の幅W1、W3よりは大きい幅である。なお、このレンズの光学的歪に対する補正を行うことで、乗客116の補正後の幅W2’は、逆に幅W2よりも狭くなっている。しかし、乗客116は元々画像の中央部分に映っており大きさも大きい為、視認性は然程損なわれない。
Further, the widths W1, W2, and W3 of the
以上説明したように、本実施形態における画像処理装置100は、画像入力部101と、補正量決定部104と、画像補正部105とを備えている。例えば、画像入力部101は、カメラによって撮影された画像を入力する。補正量決定部104は、特定面(例えば、地面やホーム)上の基準物体(例えば、乗客)が撮影された撮影画像において、予め定められた注目領域が撮影画像の周辺部に存在する場合、注目領域において上記特定面に対する基準物体の撮影画像上の角度(例えば、垂直)が所定の角度内に収まるように、画像を補正する為の補正量を決定する。そして、画像補正部105は、補正量決定部104が決定した補正量に基づいて、画像入力部101によって入力される撮影画像を補正する。
As described above, the
これにより、画像補正部105は、広い範囲に対して視認性のよい撮影画像を得ることができる。例えば、画像処理装置100は、旅客車両108に設置された広角カメラ106で撮影された撮影画像の周辺部の注目領域において、地面(ホーム)に垂直に立っている乗客がレンズの光学的歪の影響によって傾いて映っている場合、より実際に近い角度で視認できるように撮影画像を補正できる。
なお、上述の基準物体とは、特定面(例えば、地面、ホームなど)に対して垂直方向に所定の大きさを持つ物体であり、人であってもよいし、棒や箱などの物体であってもよい。
As a result, the
The above-mentioned reference object is an object having a predetermined size in a direction perpendicular to a specific surface (for example, the ground, a home, etc.), and may be a person or an object such as a stick or a box. There may be.
また、補正量決定部104は、注目領域において特定面(例えば、地面やホーム)上の基準物体(例えば、乗客)の撮影画像上の幅が所定の幅以上の大きさになるように上記補正量を更に決定してもよい。これにより、画像処理装置100は、旅客車両108に設置された広角カメラ106で撮影された撮影画像の周辺部の注目領域において乗客がレンズの光学的歪の影響によって小さく映っている場合、より実際に近い大きさで視認できるように撮影画像を補正できる。
Further, the correction
このように、本実施形態における画像処理装置100は、例えば、ホームではなく旅客車両108に設置された広角カメラ106で撮影された撮影画像の周辺部の注目領域において、地面(ホーム)に垂直に立っている乗客もしくは物体がレンズの光学的歪の影響によって小さく傾いて映っている場合、より実際に近い角度や大きさで視認できるように補正できる。よって、本実施形態の画像処理装置100によれば、広い範囲が視認可能であって、かつ特定領域(注目領域)の視認性を向上した撮影画を得ることができる。
As described above, the
例えば図6を参照して説明したように、補正量は、撮影画像内の各注目領域の位置に応じて複数用意されているので、撮影画像内の各注目領域において、地面に対して垂直となる基準物体の画像上の角度が予め設定された所定の角度内に収まり、かつ基準物体の幅が所定の大きさ以上になるように設定される。
よって、画像処理装置100は、例えば注目領域だけでなく旅客車両108の周辺全ての領域を視認可能な死角の少ない撮影画像でありながら、撮影画像の周辺部に映っている注目領域における視認性を高めることができる。従って、画像処理装置100は、入力された撮影画像の撮影範囲全体として見たときに、補正前に比べて視認しづらい領域が少なく視認性が高い画像とすることができる。
For example, as described with reference to FIG. 6, a plurality of correction amounts are prepared in accordance with the position of each region of interest in the captured image, so that each region of interest in the captured image is perpendicular to the ground. The reference object is set such that the angle on the image of the reference object falls within a predetermined angle set in advance and the width of the reference object is equal to or larger than a predetermined size.
Therefore, for example, the
なお、本実施形態では、撮影画像114の中央部にある乗降口110付近から周辺部にある乗降口109、111へと周辺に行くほど補正される量が多くなるような補正量とする例を説明したが、必ずしも撮影画像114の周辺部付近の位置に乗降口が映っているとは限らない。複数ある補正量の中から、乗降口の位置を基準として、乗降口付近が最も視認しやすくなるよう補正量を決定することが望ましい。
In the present embodiment, the correction amount is set such that the amount of correction increases as the distance from the vicinity of the entrance /
また、広角カメラ106で使用される魚眼レンズには、一般的に等距離射影や立体射影と呼ばれるようないくつかの射影方式が存在し、立体射影の方がレンズ外周部の解像度が高くなるように設計される。射影方式によって、図5に示す幅W1、W2、W3の幅が変わるが、それぞれの大小関係が変わることはなく、どの射影方式においても本実施形態における画像補正処理を適用可能である。
In addition, the fish-eye lens used in the wide-
本実施形態では、図6を参照して説明したように、撮影画像内の位置に応じて補正量を複数持つ例を説明したが、広角カメラ106の設置情報や注目領域の位置に応じて、広角カメラ106のレンズデータに基づいて補正量を計算しても良い。広角カメラ106のレンズは、レンズの射影方式に応じて歪曲特性式が決まっており、例えば立体射影であればレンズ中心からの角度に応じて、像高yと焦点距離fと入射角θ[radian]を用いて下記の式で表される。
y=2f×tan(θ/2)
In the present embodiment, as described with reference to FIG. 6, an example in which a plurality of correction amounts are provided according to the position in the captured image has been described, but depending on the installation information of the wide-
y = 2f × tan (θ / 2)
画像処理装置100は、上記のような特性式を用いて、各注目領域における基準物体がどのように撮影されるかを判断し、補正量を都度決定するようにしても良い。カメラの設置高さ、向き、角度などに加え、車両情報(注目領域の位置)がわかっていれば、その領域の各点が、どの入射角になるかがわかる為、このような画像補正処理が可能となる。この処理の場合、広角カメラ106の設置時に計算が必要となるが、予めテーブルとして補正量を保持する必要がないため、処理に必要なメモリ容量の低減や、補正における自由度の向上といった効果がある。
The
また、本実施形態では、画像処理装置100は、旅客車両108内に設置されるものとして説明したが、旅客車両108の外部に設置されても良く、例えば無線通信部を広角カメラ106と画像処理装置100とのそれぞれが備え、無線通信規格に沿った無線通信により接続される構成であっても良い。
In the present embodiment, the
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
図8は、本実施形態における画像処理装置200の概略構成の一例を示すブロック図である。なお、この図において、図1に示す第1の実施形態の各部と同様の機能を持つ構成には同一の符号を付しており、適宜説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
FIG. 8 is a block diagram illustrating an example of a schematic configuration of the
画像処理装置200は、画像入力部101と、物体検出部201と、カメラ位置設定部102と、記憶部103と、危険度判定部202と、補正量決定部203と、画像補正部105とを含んで構成されており、図1に示す画像処理装置100とは、物体検出部201、危険度判定部202、及び補正量決定部203の構成が相違する。
The
物体検出部201は、画像入力部101に入力された撮影画像を解析して、撮影画像に映っている物体を検出する。例えば、物体検出部201は、撮影画像の毎フレームごとに、映像と検出した物体の座標を含む物体検出情報を危険度判定部202へ送る。危険度判定部202は、物体検出部201によって検出された物体の状況に応じて危険度を判定する。例えば、危険度判定部202は、物体検出部201から送られてくる物体検出情報と、記憶部103に記憶されているカメラ位置情報及び車両情報とに基づいて、危険度判定エリアを設定し危険度を判定する。補正量決定部203は、危険度判定部202によって判定される危険度に応じて、撮影画像を補正する際の補正量を決定する。また、画像処理装置200には、撮影画像を画像処理装置200に出力する広角カメラ106と、画像処理装置200からの映像出力を表示する画像表示部107が接続されている。
The
図9は、画像処理装置200によって実行される画像補正処理の一例を示すフローチャートである。以下、この図9を参照して、本実施形態における画像補正処理の動作を説明する。
FIG. 9 is a flowchart illustrating an example of image correction processing executed by the
まず、広角カメラ106で撮影された撮影画像が画像入力部101に入力される(ステップS20)。画像入力部101は入力された画像を物体検出部201と、画像補正部105へ送る。
First, a captured image captured by the wide-
物体検出部201は、撮影画像を解析して、撮影画像内に映っている物体を検出する(ステップS21)。物体検出のアルゴリズムとしては様々な手法が知られており、時間的な画像の差分データから動体を検出する背景差分やフレーム間差分手法のほか、パターンマッチングを利用した手法や、HOG(Histograms of Oriented Gradients)特徴量を利用した人検出手法、ニューラルネットワークの一種であるディープラーニングを用いた学習手法など様々な手法がある。
The
次に、物体検出部201は、撮影画像の毎フレームごとに、映像と検出した物体の座標を含む物体検出情報を危険度判定部202へ送る。危険度判定部202は、物体検出部201から送られてくる物体検出情報を取得するとともに、記憶部103からカメラ位置情報と車両情報を取得し、危険度判定エリアを設定し危険度を判定する(ステップS22、S23、S24)。
Next, the
図10は、撮影画像内の物体の検出と危険度の判定について説明する図である。図示する撮影画像204には、乗客205と乗客206が映っており、乗客205の周囲の破線205aと乗客206の周囲の破線206aとは動体として物体検出されていることを示している。ホームと旅客車両108の境界を示す黒線113と、その境界から所定の一定の距離を示す黒線207とで挟まれた領域を危険度判定エリアと定義する。危険度判定エリアは、予めカメラ位置設定部102を介してユーザーにより設定されているカメラ位置情報と車両情報を元に設定され、旅客車両108から一定距離の範囲、すなわち黒線113から予め定められた距離範囲であるものとする。この一定の距離範囲を示す実際の距離に関する情報は記憶部103や危険度判定部202の内部で保持されている。危険度判定部202は、物体検出部201から受け取る検出情報に基づいて、物体の位置及び移動の速度を算出し、危険度判定エリアに入ったか否かを判定する。なお、ここでの速度とは実際の物体の移動速度、あるいは所定の単位時間当たりの画像上の位置変化量とする。そして、危険度判定部202は、物体検出部201により検出された物体が危険度判定エリアに入ったと判定した場合、かつ、その物体の移動速度が一定の速度以上の場合には、駆け込み乗車と判断し危険度が高い(危険度高)と判定する。それ以外の場合には、危険度判定部202は、危険度が低い(危険度低)と判定する。危険度高と判定された場合、その物体が存在する領域が注目領域となり、その物体に注目しやすいよう撮影画像が補正される。ここで、注目しやすいような補正とは、例えば、乗客の幅や大きさがより大きくなるような補正などである。
FIG. 10 is a diagram for explaining detection of an object in a captured image and determination of the degree of risk. The photographed
例えば、危険度判定部202は、検出された物体が危険度高であるか否かを判定し(ステップS25)、危険度高と判定した場合(ステップS25:YES)、その情報と危険度高と判定した物体の位置に関する情報を補正量決定部203に送る。補正量決定部203は、危険度高と判定された物体が含まれる領域に注目しやすいよう撮影画像の補正量を決定する(ステップS26)。すなわち、危険度の高い領域に対して、他の領域より乗客の幅が大きく、あるいは画像に対する乗客の中心線の角度がより垂直方向に近い角度になるように補正量を決定する。一方、危険度判定部202は、危険度低と判定した場合(ステップS25:NO)、第1の実施形態と同様に、カメラ位置情報と、レンズ情報と、旅客車両108の車両情報とに基づいて、撮影画像の補正量を決定する(ステップS27)。
For example, the
画像補正部105は、補正量決定部203によって決定された補正量に基づいて、撮影画像の補正を行う(ステップS28)。そして、画像補正部105は、補正した補正画像を画像表示部107に出力する(ステップS29)。これにより、補正画像が画像表示部107に表示される。
The
図11は、本実施形態における画像補正処理による補正後の補正画像の一例を示す図である。図示する補正画像208では、乗客205が駆け込み乗車をしようとしており危険度高と判定されている場合を想定する。乗客205、206のそれぞれにおいて破線で示す中心線A、Bは、地面(ホーム)に対して垂直な方向を示しており、補正後では補正前に比べ画像上の垂直方向に近い角度に補正されている。また、乗客205、206の画像上の身体の幅を比較すると、乗客205の幅W1の方が乗客206の幅W2よりも広くなるように補正されており、危険度の高い部分がより視認しやすくなっている。
FIG. 11 is a diagram illustrating an example of a corrected image after correction by the image correction processing in the present embodiment. In the corrected
以上説明したように、本実施形態における画像処理装置200は、入力された撮影画像に基づいて危険度を判定する危険度判定部202を備えており、危険度判定部202によって判定される危険度に応じて撮影画像を補正する補正量を決定する。
これにより、画像処理装置200は、危険度の高い物体をより視認しやすいように撮影画像を補正することができる。例えば、画像処理装置200は、撮影画像内の旅客車両108の周辺において物体検出を行い、危険度を判定し、判定した危険度に応じて補正量を変えることにより、旅客車両108の周辺の広い範囲を見やすい画像で監視することを可能にしつつ、危険な領域について特に視認しやすく、注目しやすくすることができる。従って、旅客車両108の周辺の監視人は、危険な状況をいち早く正確に把握することが可能となる。
As described above, the
As a result, the
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
図12は、本実施形態における画像処理装置300の概略構成の一例を示すブロック図である。なお、この図において、図1、8に示す第1、2の実施形態の各部と同様の機能を持つ構成には同一の符号を付しており、適宜説明を省略する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
FIG. 12 is a block diagram illustrating an example of a schematic configuration of the
画像処理装置300は、画像入力部101と、注目領域設定部301と、記憶部103と、補正補助情報設定部302と、補正量決定部303と、画像補正部105とを含んで構成されており、図1に示す画像処理装置100及び図8に示す画像処理装置200とは、注目領域設定部301、補正補助情報設定部302、及び補正量決定部303の構成が相違する。
The
注目領域設定部301は、ユーザーからの指示に従って注目領域を設定し、注目領域に関する情報を記憶部103に記憶させる。補正補助情報設定部302は、補正時の補正量を決定する際に利用される補正補助情報を設定して記憶部103に記憶させる。補正補助情報について詳しくは後述する。補正量決定部303は、注目領域設定部301によって設定された注目領域に関する情報と、補正補助情報設定部302によって設定された補正補助情報とに基づいて、撮影画像を補正する際の補正量を決定する。また、画像処理装置300には、撮影画像を画像処理装置300に出力する広角カメラ106と、画像処理装置300からの映像出力を表示する画像表示部107が接続されている。
The attention
図13は、画像処理装置300によって実行される画像補正処理の一例を示すフローチャートである。以下、この図13を参照して、本実施形態における画像補正処理の動作を説明する。
FIG. 13 is a flowchart illustrating an example of image correction processing executed by the
まず、広角カメラ106で撮影された撮影画像が画像入力部101に入力される(ステップS30)。画像入力部101は入力された画像を画像補正部105へ送る。補正量決定部303は、記憶部103から注目領域に関する情報と、補正補助情報を取得する(ステップS31、S32)。
First, a captured image captured by the wide-
ここで、注目領域について説明する。注目領域は、旅客車両108の車掌など監視を行うユーザーが、予め旅客車両108に設置した広角カメラ106で撮影された撮影画像を元に、撮影画像を画像表示部107で見ながら画像上の位置で指定され、注目領域設定部301を介して設定されているものとする。図14は、撮影画像においてユーザーにより設定された注目領域の一例を示す図である。図示する撮影画像304において、斜線で示す領域305、306、307が注目領域である。ここでは、乗降口付近が注目領域として設定されている。
Here, the attention area will be described. The attention area is a position on the image while the user who monitors the conductor of the
このように、第1、2の実施形態で説明したように車両情報を元に乗降口周辺を注目領域として特定し、補正量を決定する方法以外に、広角カメラ106で撮影された撮影画像から注目領域を指定して補正量を決定することも可能である。このようにすることで、旅客車両108への広角カメラ106の取り付け位置などの情報を予め測定して記憶することなく、注目領域の特定が可能になる。
In this way, as described in the first and second embodiments, in addition to the method of identifying the vicinity of the entrance / exit as the attention area based on the vehicle information and determining the correction amount, from the captured image captured by the wide-
次に、補正補助情報について説明する。補正補助情報とは、補正量を決定する際に参照される情報であり、例えば、旅客車両108の運行情報である。運行情報とは、旅客車両108の現在の状況を特定する為の情報である。例えば、運行情報は、「走行中」、「乗降口閉鎖」、「乗降口開放」、「乗降口開閉前後」などの情報である。「走行中」は、旅客車両108が通常の走行(所定の速度以上で走行)をしている状況と定義する。「乗降口閉鎖」は、乗降口が閉じている状況と定義する。「乗降口開放」は駅のホームや停留所等で乗降口が開けられ、乗客が乗り降りする状況と定義する。「乗降口開閉前後」は、駅のホーム等に旅客車両108が停車する直前から停車後乗降口を開けるまで、もしくは乗降口を閉じる一定時間前から乗降口を閉じ、車両が通常走行の速度に達するまでと定義する。
Next, correction auxiliary information will be described. The correction auxiliary information is information that is referred to when determining the correction amount, for example, operation information of the
なお、これらの運行情報の定義は一例であり、走行状態や乗降口の開閉状態等と関連する情報であればどのような情報であっても良い。また、補正補助情報は、運行情報に限らず他の情報であってもよい。例えば、補正補助情報は、通勤時間帯であるか否かの情報や、平日または土日や祝日であるかの情報、単に時刻や時間帯の情報、季節の情報、旅客車両108の編成車両数や車両の仕様などの情報が含まれてもよい。
In addition, the definition of these operation information is an example, and what kind of information may be sufficient if it is information relevant to a driving | running | working state, the opening / closing state of a boarding / alighting gate, etc. Further, the correction auxiliary information is not limited to the operation information, and may be other information. For example, the correction auxiliary information includes information on whether or not it is a commuting time zone, information on whether it is a weekday, weekend or public holiday, simply time or time zone information, season information, the number of trained vehicles of the
補正補助情報設定部302は、事前にユーザーからの指示によって、時刻と対応づけて運行情報を記憶部103に保存する。なお、補正補助情報設定部302は、旅客車両108に搭載された各種センサの状態により運行情報を判定し、記憶部103に保持してもよい。
The correction auxiliary
補正量決定部303は、上述の注目領域と運行情報とに基づいて、撮影画像の補正量を決定する(図13のステップS33)。例えば、記憶部103には、注目領域に関して、撮影画像内の各領域において地面に垂直に立つ基準物体の画像上の角度が所定の角度内に収まり、かつ所定の大きさ以上になるような補正量が定義された複数の補正テーブルが予め保持されており、補正量決定部303は、記憶部103に予め保持されている複数の補正テーブルを抽出する。更に、補正量決定部303は、運行情報に基づいて、複数の補正テーブルの中から1つの補正テーブルを選択する。例えば、運行情報が「乗降口開放」であった場合、乗客が安全に乗降しているかどうかを確認するため、乗降口周辺が良く見えることが重要である。そのため、運行情報が「乗降口開放」であった場合、例えば図15に示すような補正量とする。
The correction
図15は、本実施形態における補正量について説明する図である。符号(a)に示す撮影画像304と、符号(b)に示す補正画像308は、前述の図6と同じく補正前後の画像であり、各黒点は補正前後の対応関係を示している。撮影画像304において画像上部の符号Lで示す領域には、図6に示す撮影画像114の例とは異なり、対応する黒点が存在しない。この為、補正後の補正画像308では補正前の撮影画像304の画像上部が削除されることになる。
FIG. 15 is a diagram for explaining the correction amount in the present embodiment. The captured
図16は、旅客車両108における広角カメラ106の設置環境例を示す図であり、旅客車両108の正面から見た図である。図示する破線106aと破線106bとのなす角106cは、広角カメラ106における画像上下方向の画角(垂直画角)を示している。また、実線309、310は、それぞれ広角カメラ106の画角内において上下方向の2種類の角度範囲を示している。広角カメラ106の取り付け角度は、光軸方向が車両の側面に対して鋭角となっている。実線309で示す角度範囲は、駅のホームであれば天井付近等を撮影する範囲であり、ホームの監視用途としては不要な場合が多い。また実線310で示す角度範囲は、ホームの遠方に対応する範囲であり、状況によっては不要なこともある。そのため、広角カメラ106で撮影した撮影画像のうち実線309や実線310で示す範囲は除いた画像を表示した方が、ホームの監視には適する場合がある。このようにすることで、限られた表示領域において、視認したい領域をより効果的に視認可能にすることができる。
FIG. 16 is a diagram illustrating an installation environment example of the wide-
図15に示す符号Lで示す領域、即ち補正後に削除される領域は、図16における実線309と実線310に相当する領域であるとする。これは、前述のように「乗降口開放」の場合は乗降口付近が最も重要である為である。これにより、乗降口付近が拡大表示されるので、乗降口付近の視認性がより高くなる。なお、運行情報が「乗降口開放」以外の場合には、補正量は第1の実施形態で図6を参照して説明した補正量と同様であるとしてもよい。これにより、画像処理装置300は、ホーム全体の監視ができ、乗降口から離れた部分からの駆け込みなども視認可能である。
The area indicated by the symbol L shown in FIG. 15, that is, the area deleted after correction, is assumed to be an area corresponding to the
図14に戻り、補正量が決定した後の処理を説明する。画像補正部105は、補正量決定部303によって決定された補正量を取得する(ステップS34)。そして、画像補正部105は、取得した補正量に基づいて撮影画像の補正を行った後(ステップS35)、画像表示部107に出力する(ステップS36)。これにより、補正画像が画像表示部107に表示される。
Returning to FIG. 14, the processing after the correction amount is determined will be described. The
以上説明したように、本実施形態における画像処理装置300は、補正量を決定する際に利用される補正補助情報を設定する補正補助情報設定部302を更に備えている。そして、補正量決定部303は、補正補助情報設定部302により設定された補正補助情報(例えば、運行情報)に基づいて撮影画像に対する補正量を決定する。
As described above, the
これにより、画像処理装置300は、例えば、運行情報に基づいて補正することにより、「走行中」、「乗降口閉鎖」、「乗降口開放」、「乗降口開閉前後」などの旅客車両108の状態に応じて撮影画像を適切に補正することができる。例えば、画像処理装置300は、運行情報に基づいて撮影画像の画像領域のうち上下方向についての表示範囲も補正によって制御することにより、状況に応じて視認したい領域をより拡大表示することも可能であるため、視認性の高い映像を提供することが可能となる。すなわち、画像処理装置300は、例えばホームで旅客車両108に乗客が安全に乗降しているかどうかを確認するための撮影画像において、視認したい領域をより効果的に視認可能にすることができる。
As a result, the
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。本実施形態では、第1〜第3の実施形態の画像処理装置100、200、300を旅客車両以外へ適用した例を説明する。本実施形態における画像処理装置の構成及び動作については、前述の画像処理装置100、200、300と同様であるものとし、詳細についての説明を省略する。画像処理装置100、200、300のいずれも適用することができるが、本実施形態における画像処理装置のことを、以下では代表して画像処理装置100と記述する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In the present embodiment, an example in which the
図17は、本実施形態における画像処理装置の適用例を説明する図であり、店舗向けとして適用する場合の例を示す。図示する店舗400には、店舗400を利用する人物(以下、「利用客」ともいう)が出入り可能な複数の出入口401、402がある。広角カメラ106は、そのうちのひとつの出入口402の上方に設置されている。出入口401、402のそれぞれの外側付近において破線403で囲まれた領域と破線404で囲まれた領域とは、ユーザーである店舗400の店員によって設定された注目領域を示している。
FIG. 17 is a diagram for explaining an application example of the image processing apparatus in the present embodiment, and shows an example of application to a store. The illustrated
このように、例えば出入口が複数あるような店舗400においても、旅客車両108の場合と同様に出入口をすべて撮影出来るように広角カメラ106を設置し、画像処理装置100、200、300が広角カメラ106により撮影された撮影画像を補正することで、広い範囲に対して視認性のよい撮影画像を得ることができる。
As described above, for example, in the
なお、上記第3の実施形態のように補正補助情報を用いる場合、店舗400における補正補助情報とは、例えば時間ごとの出入口の利用客数に関する統計データなどである。この場合、例えば、画像処理装置300は、時間帯に応じ、より利用客の多い出入口付近の注目領域を拡大するように補正することができる。このようにすることで、利用客の多い出入口付近をより鮮明に視認可能とすることができる。
In addition, when using correction | amendment auxiliary information like the said 3rd Embodiment, the correction | amendment auxiliary information in the
なお、本実施形態において、広角カメラ106の設置位置は出入口402の上方としたが、例えば出入りが多いメインの入り口付近にすることで、その出入口付近は画像の左右方向において中央付近に映り、鮮明に視認しやすい。また、すべての出入口の視認性を考慮するのであれば、両端に位置する出入口の中央付近にすることが望ましい。このようにすると、すべての出入口に対する視認性を確保しやすい。
In the present embodiment, the installation position of the wide-
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の第1〜4の実施形態において説明した各構成は、任意に組み合わせることができる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiment, and includes a design and the like within a scope not departing from the gist of the present invention. For example, the configurations described in the first to fourth embodiments can be arbitrarily combined.
なお、上述した実施形態における画像処理装置100、200、300の少なくとも一部の機能をコンピュータで実現するようにしても良い。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、画像処理装置100、200、300に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Note that at least some of the functions of the
また、上述した実施形態における画像処理装置100、200、300の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。また、画像処理装置100、200、300の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Further, part or all of the
100 画像処理装置、101 画像入力部、102 カメラ位置設定部、103 記憶部、104,203,303 補正量決定部、105 画像補正部、106 広角カメラ、107 画像表示部、201 物体検出部、202 危険度判定部、301 注目領域設定部、302 補正補助情報設定部
DESCRIPTION OF
Claims (6)
特定面上の基準物体が撮影された画像において、予め定められた注目領域が前記画像の周辺部に存在する場合、前記注目領域において前記特定面に対する基準物体の前記画像上の角度が所定の角度内に収まるように、画像を補正する為の補正量を決定する補正量決定部と、
前記補正量決定部が決定した前記補正量に基づいて、前記画像入力部によって入力される画像を補正する画像補正部と、
を備える画像処理装置。 An image input unit for inputting an image taken by the camera;
In an image in which a reference object on a specific surface is captured, when a predetermined attention area exists in the periphery of the image, an angle on the image of the reference object with respect to the specific surface in the attention area is a predetermined angle. A correction amount determination unit that determines a correction amount for correcting the image so as to be within the range,
An image correction unit that corrects an image input by the image input unit based on the correction amount determined by the correction amount determination unit;
An image processing apparatus comprising:
前記注目領域において前記特定面上の基準物体の前記画像上の幅が所定の幅以上の大きさになるように前記補正量を更に決定する、
請求項1に記載の画像処理装置。 The correction amount determination unit
Further determining the correction amount such that a width of the reference object on the specific surface on the specific area in the region of interest is greater than or equal to a predetermined width;
The image processing apparatus according to claim 1.
前記補正量決定部は、
前記危険度判定部によって判定される危険度に応じて前記補正量を決定する、
請求項1または請求項2に記載の画像処理装置。 A risk determination unit that determines a risk based on the input image;
The correction amount determination unit
Determining the correction amount according to the risk determined by the risk determination unit;
The image processing apparatus according to claim 1.
前記補正量決定部は、
前記補正補助情報設定部により設定された前記補正補助情報に基づいて前記補正量を決定する、
請求項1または請求項2に記載の画像処理装置。 A correction auxiliary information setting unit for setting correction auxiliary information used when determining the correction amount;
The correction amount determination unit
Determining the correction amount based on the correction auxiliary information set by the correction auxiliary information setting unit;
The image processing apparatus according to claim 1.
前記補正量を決定する際に、前記画像の画像領域内の一部の領域を除外した領域を拡大するように前記補正量を決定する、
請求項1から請求項4のいずれか一項に記載の画像処理装置。 The correction amount determination unit
When determining the correction amount, the correction amount is determined so as to enlarge an area excluding a part of the image area of the image;
The image processing apparatus according to any one of claims 1 to 4.
特定面上の基準物体が撮影された画像において、予め定められた注目領域が前記画像の周辺部に存在する場合、前記注目領域において前記特定面に対する基準物体の前記画像上の角度が所定の角度内に収まるように、画像を補正する為の補正量を決定する補正量決定ステップと、
前記補正量決定ステップによって決定された前記補正量に基づいて、前記画像入力ステップによって入力される画像を補正する画像補正ステップと、
を含む画像処理方法。 An image input step for inputting an image taken by the camera;
In an image in which a reference object on a specific surface is captured, when a predetermined attention area exists in the periphery of the image, an angle on the image of the reference object with respect to the specific surface in the attention area is a predetermined angle. A correction amount determining step for determining a correction amount for correcting the image so as to be within the range,
An image correction step for correcting the image input by the image input step based on the correction amount determined by the correction amount determination step;
An image processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016039994A JP6587253B2 (en) | 2016-03-02 | 2016-03-02 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016039994A JP6587253B2 (en) | 2016-03-02 | 2016-03-02 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017158048A JP2017158048A (en) | 2017-09-07 |
JP6587253B2 true JP6587253B2 (en) | 2019-10-09 |
Family
ID=59810804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016039994A Expired - Fee Related JP6587253B2 (en) | 2016-03-02 | 2016-03-02 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6587253B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4853434B2 (en) * | 2007-09-07 | 2012-01-11 | 株式会社デンソー | Image processing device |
JP2011118482A (en) * | 2009-11-30 | 2011-06-16 | Fujitsu Ten Ltd | In-vehicle device and recognition support system |
JP5520142B2 (en) * | 2010-06-21 | 2014-06-11 | 株式会社日立製作所 | Railway vehicle status monitoring device |
JP5678324B2 (en) * | 2011-02-10 | 2015-03-04 | パナソニックIpマネジメント株式会社 | Display device, computer program, and display method |
JPWO2013001941A1 (en) * | 2011-06-27 | 2015-02-23 | 日本電気株式会社 | Object detection apparatus, object detection method, and object detection program |
JP5958082B2 (en) * | 2011-12-28 | 2016-07-27 | 株式会社リコー | Image processing apparatus and image processing method |
JP5930806B2 (en) * | 2012-03-30 | 2016-06-08 | 富士通テン株式会社 | Detection device and detection method |
-
2016
- 2016-03-02 JP JP2016039994A patent/JP6587253B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017158048A (en) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7140580B2 (en) | stereo imager | |
US8547441B2 (en) | System and methods for de-blurring motion blurred images | |
KR101449160B1 (en) | Apparatus and method for providing information of blind spot | |
US10127456B2 (en) | Information processing apparatus that corrects image distortion to set a passage detection line, information processing method, and medium | |
JP4926766B2 (en) | Shooting range adjusting device, shooting range adjusting method, and computer program | |
WO2020237565A1 (en) | Target tracking method and device, movable platform and storage medium | |
US10200607B2 (en) | Image capturing apparatus, method of controlling the same, monitoring camera system, and storage medium | |
JP2019004424A (en) | Processing device, processing system, method, and program | |
JP2009244946A (en) | Traffic light recognizing apparatus, traffic light recognizing method, and traffic light recognizing program | |
JPWO2013114862A1 (en) | Optimal camera setting device and optimal camera setting method | |
EP3661186B1 (en) | Control apparatus, imaging apparatus, and program | |
KR20170111504A (en) | Method and Apparatus for Assessing an Image Match of an Around View Image for an Around View Monitor System | |
JP5034623B2 (en) | Image processing method, image processing apparatus, image processing system, and computer program | |
JP2018503195A (en) | Object detection method and object detection apparatus | |
US20170364765A1 (en) | Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method | |
JP4756357B2 (en) | Video surveillance device | |
JP6587253B2 (en) | Image processing apparatus and image processing method | |
JP6699179B2 (en) | Image processing device | |
JP2019027882A (en) | Object distance detector | |
JP7021036B2 (en) | Electronic devices and notification methods | |
JP6940906B1 (en) | Peripheral monitoring device for work machines | |
KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
WO2021128314A1 (en) | Image processing method and device, image processing system and storage medium | |
JP6940907B1 (en) | Peripheral monitoring device for work machines | |
JP5782870B2 (en) | Detection apparatus and detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190813 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6587253 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |