JP2019219804A - Object detection device and object detection method - Google Patents
Object detection device and object detection method Download PDFInfo
- Publication number
- JP2019219804A JP2019219804A JP2018115379A JP2018115379A JP2019219804A JP 2019219804 A JP2019219804 A JP 2019219804A JP 2018115379 A JP2018115379 A JP 2018115379A JP 2018115379 A JP2018115379 A JP 2018115379A JP 2019219804 A JP2019219804 A JP 2019219804A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- preprocessing
- size
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、カメラ等を用いて人物等の物体を検出する物体検出装置及び物体検出方法に関する。 The present invention relates to an object detection device and an object detection method for detecting an object such as a person using a camera or the like.
監視カメラにて人物等の物体を検出する際、撮影画像内での物体のサイズや向きに関わらず、物体を正しく検出できることが要求される。その手法の1つとして、特許文献1には、撮影画像に射影変換を施した後で、機械学習などの手段により物体検出を行うことが開示されている。すなわち、人物等の物体の姿勢を判定するために、特定方向から撮影した学習画像を用いて特定姿勢の所定物体の特徴を学習しておき、所定物体がとり得る複数通りの姿勢を仮定して、仮定した姿勢ごとに当該姿勢の所定物体の像を特定姿勢の像に変換する射影変換を入力画像に施す。そして、射影変換を施した入力画像に窓領域を設定し、窓領域に特定姿勢の所定物体の特徴が現れている度合いであるスコアを算出することで、スコアが最も高い姿勢の所定物体が入力画像に撮影されていると判定する構成となっている。
When an object such as a person is detected by a surveillance camera, it is required that the object can be correctly detected regardless of the size and orientation of the object in a captured image. As one of the techniques,
近年、監視カメラの解像度が向上し、畳み込みニューラルネットワーク(CNN:Convolutional Numeral Network)を代表とする深層学習を用いて、物体検出を高精度に行うことが可能になっている。CNNでは基本的に矩形画像を入力し、画像内から所定の物体の検出を行う。その際計算が複雑になるため、よく利用される深層学習のモデルでは小さい画像で学習及び検出を行う。また物体検出アルゴリズムであるSSD(Single Shot Multibox Detector)では、検出できる物体のサイズは学習時のモデルに依存し、一定サイズ以上の物体しか検出できない。つまり、検出できる物体の画像内サイズは、学習時の画像内モデルサイズに依存する(以下、最小検出サイズと呼ぶ)。 In recent years, the resolution of surveillance cameras has been improved, and it has become possible to perform object detection with high accuracy using deep learning represented by a convolutional neural network (CNN). The CNN basically inputs a rectangular image and detects a predetermined object from the image. At that time, the calculation becomes complicated, and the learning and detection are performed with a small image in a deep learning model that is often used. In an SSD (Single Shot Multibox Detector) which is an object detection algorithm, the size of an object that can be detected depends on a model at the time of learning, and only an object having a certain size or more can be detected. That is, the size of the detectable object in the image depends on the model size in the image at the time of learning (hereinafter, referred to as a minimum detection size).
高解像度で大きな画像の場合には、撮影空間の奥の物体まで検出できるが、処理負荷(以下、検出コスト)が増大する。このため、画像を縮小してから物体検出を行うことになるが、奥にある物体は画像内サイズが最小検出サイズに近づき、検出精度が低下する。一方、撮影空間の手前にある物体は、画面内サイズが最小検出サイズに比べて非常に大きくなるので、無駄なコストを費やすことになる。このように、奥行きのある撮影空間においては、物体の検出コストの低減と検出精度の向上を両立させることは困難であった。 In the case of a large image with a high resolution, it is possible to detect an object deep in the shooting space, but the processing load (hereinafter, detection cost) increases. Therefore, the object detection is performed after the image is reduced. However, the size of the object at the back approaches the minimum detection size, and the detection accuracy is reduced. On the other hand, since the size of the object in front of the shooting space is very large compared to the minimum detection size, unnecessary cost is consumed. As described above, in a deep imaging space, it has been difficult to achieve both reduction in the cost of detecting an object and improvement in the detection accuracy.
前記特許文献1に記載される技術は、物体の姿勢の変化に対しては有効であるものの、物体の画像内サイズの変化については特に考慮されていない。すなわち、同じ物体であっても撮影空間においてカメラからの距離に応じて画像内サイズが変化することについて、考慮されていない。また、前記特許文献1では、複数通りの姿勢を仮定してそれぞれに対応した射影変換を繰り返して行う必要があり、深層学習を用いる物体検出ではコストが増大するという課題がある。
The technique described in
本発明の目的は、物体検出のコスト増加を抑えつつ撮影空間の奥にある物体の検出精度を向上させる物体検出装置及び物体検出方法を提供することである。 An object of the present invention is to provide an object detection device and an object detection method that improve the detection accuracy of an object located deep in an imaging space while suppressing an increase in the cost of object detection.
本発明の物体検出装置は、入力画像に対し物体を検出する検出領域を設定する検出領域設定部と、入力画像に対し射影変換を含む前処理を施す前処理部と、前処理の際に用いるパラメータを生成する前処理パラメータ算出部と、所定の検出モデルを用いて前処理を施した画像から物体を検出する物体検出部と、を備える。ここに前処理パラメータ算出部は、物体を一定のサイズと仮定してカメラの撮影時のカメラパラメータから算出される物体の画像上のサイズと、検出モデルを用いて検出可能な物体の画像上の推奨サイズに基づき、射影変換を含む前処理のパラメータを生成する。 The object detection device of the present invention includes a detection area setting unit that sets a detection area for detecting an object in an input image, a preprocessing unit that performs preprocessing including projective transformation on the input image, and a preprocessing unit. The apparatus includes a preprocessing parameter calculation unit that generates a parameter, and an object detection unit that detects an object from an image that has been preprocessed using a predetermined detection model. Here, the pre-processing parameter calculation unit estimates the size of the object on the image of the object calculated from the camera parameters at the time of photographing the camera, assuming that the object has a certain size, and the size of the image of the object that can be detected using the detection model. Based on the recommended size, parameters for preprocessing including projective transformation are generated.
また本発明の物体検出方法は、入力画像に対し前記物体を検出する検出領域を設定するステップと、入力画像に対し射影変換を含む前処理を施すステップと、前処理の際に用いるパラメータを生成する前処理パラメータの算出ステップと、所定の検出モデルを用いて前処理を施した画像から物体を検出するステップと、を備える。ここに前処理パラメータの算出ステップでは、物体を一定のサイズと仮定してカメラの撮影時のカメラパラメータから物体の画像上のサイズを算出し、検出モデルを用いて検出可能な物体の画像上の推奨サイズと比較して、射影変換を含む前処理のパラメータを生成する。 Further, the object detection method of the present invention includes a step of setting a detection area for detecting the object in an input image, a step of performing preprocessing including projective transformation on the input image, and generating a parameter used in the preprocessing. And a step of detecting an object from an image pre-processed using a predetermined detection model. Here, in the pre-processing parameter calculation step, the size of the object on the image of the object is calculated from the camera parameters at the time of photographing the camera, assuming that the object has a fixed size, Generate parameters for preprocessing including projective transformation in comparison with the recommended size.
本発明によれば、物体検出のコスト増加を抑えつつ撮影空間の奥にある物体の検出精度を向上させることが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to improve the detection precision of the object in the back of imaging space, suppressing the increase in the cost of object detection.
以下、本発明の物体検出装置の実施形態として、人物の頭部を検出する人物頭部検出装置と、これを用いて道路等を通行する人物の数を計測する人数計測システムについて説明する。 Hereinafter, as an embodiment of the object detection device of the present invention, a person head detection device that detects a person's head and a number measurement system that uses the device to measure the number of people traveling on a road or the like will be described.
図1は、人数計測システムの全体の構成を示す図である。人数計測システム1は、道路等の特定の領域2を通行する人物3を検出し、検出した人数の結果を時刻順に保存するシステムである。人数計測システム1は、特定の領域2を撮影する監視カメラ4と、LAN(Local Area Network)、WAN(Wide Area Network)、VPN(Virtual Private Network)などのネットワーク5と、ネットワーク5を介して監視カメラ4の画像を受信し、画像内に写っている人物3の頭部を検出し、検出した人数を計測する人物頭部検出装置6と、を有する。さらに、監視カメラ4の画像及び人物頭部検出装置6による検出結果をリアルタイムに表示する映像表示装置7と、検出した人数情報を時刻ごとに蓄積する人数履歴蓄積装置8と、を備えて構成される。このシステムでは人数の計測を目的としているため、人物頭部検出装置6では人物3の頭部を検出する方式として処理効率を上げている。以下、人物頭部検出装置6の詳細を説明する。
FIG. 1 is a diagram showing the overall configuration of the number measurement system. The
図2は、人物頭部検出装置6のハードウェア構成を示す図である。人物頭部検出装置6は、CPU(Central Processing Unit)11、ストレージ部12、メモリ20、入出力部21、通信部22と、これらを接続するバス19を含んで構成される。
FIG. 2 is a diagram illustrating a hardware configuration of the human
CPU11は、各種演算を実行するユニットである。CPU11は、ストレージ部12からメモリ20にロードした所定のプログラムを実行することにより、各種処理を実行する。メモリ20には、CPU11により実行されるプログラムや、プログラムの実行に必要なデータが一時保存される。
The CPU 11 is a unit that executes various calculations. The CPU 11 executes various processes by executing a predetermined program loaded from the storage unit 12 to the
ストレージ部12は、デジタル情報を記憶可能なハードディスク(Hard Disk Drive)やSSD(Solid State Drive)、あるいはフラッシュメモリなどの不揮発性記憶装置である。ストレージ部12には、以下のプログラムやデータが格納されている。
人数計測プログラム13は、人数計測に係わる全てのコンピュータに対する命令を記述したものである。CPU11は人数計測プログラム13をメモリ20に展開して、人数計測の各種処理を行う。
The storage unit 12 is a nonvolatile storage device such as a hard disk (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory capable of storing digital information. The storage unit 12 stores the following programs and data.
The number-of-
検出モデルDB(データベース)14は、物体を識別するためのパラメータを格納する。例えば、SVM(Support Vector Machine)識別器を用いて物体検出を行う場合、検出モデルDB14には、当該物体と他の物体の特徴量を区別するサポートベクターが格納されている。CNNを用いて物体検出を行う場合、検出モデルDB14には、CNNネットワークの構造を示すパラメータ及びCNNネットワークの学習済みモデルの初期化数値が格納されている。本実施例では、CNNネットワークのモデル情報が蓄積されている場合を想定して説明する。
検出モデル属性DB15は、検出モデルDB14に格納されているモデルについての、入力可能な画像サイズや検出可能な頭部サイズなどの属性を格納する。
The detection model DB (database) 14 stores parameters for identifying an object. For example, when an object is detected using an SVM (Support Vector Machine) identifier, the detection model DB 14 stores a support vector for distinguishing the feature amount between the object and another object. When performing object detection using the CNN, the detection model DB 14 stores parameters indicating the structure of the CNN network and initialization values of the learned model of the CNN network. In the present embodiment, description will be made on the assumption that model information of the CNN network is stored.
The detection
カメラパラメータDB16は、監視カメラ4の高さ、俯角などの設置情報、及び画角や焦点距離などのカメラの撮影パラメータを格納する。
検出領域設定DB17は、特定領域2において人物3を検出したい領域を設定するための情報を格納する。
The
The detection
前処理パラメータDB18は、監視カメラ4からの入力画像に対して、検出精度を向上させるために射影変換などの前処理を行うためのパラメータを格納する。
入出力部21は、ユーザの操作を入力したり、外部装置と送受信する画像やデータの信号変換を行う。例えば入出力部21には、グラフィックボードやビデオカードなどが含まれ、監視カメラ4の画像や人数計測の結果などを映像表示装置7で表示可能な信号に変換する。
通信部22は、ネットワーク5を介して監視カメラ4の画像を受信し、人物検出結果を映像表示装置7や人数履歴蓄積装置8に送信する。
The
The input /
The
図3は、人物頭部検出装置6のシステム構成を示す図である。人物頭部検出装置6は、画像入力部31、前処理部32、特徴量抽出部33、人物頭部検出部34、検出領域設定部35、画面上頭部サイズ算出部36、前処理パラメータ算出部37、検出結果統合部38、操作入力部39、出力制御部40、及びプログラム動作用データ41からなる。
FIG. 3 is a diagram illustrating a system configuration of the human
まず、プログラム動作用データ41から説明すると、CPU11によりストレージ部12からロードされたもので、以下のデータが含まれる。検出モデル42は検出モデルDB14のデータであり、検出モデル属性43は検出モデル属性DB15のデータである。カメラパラメータ44はカメラパラメータDB16のデータであり、検出領域情報45は検出領域設定DB17のデータである。前処理パラメータ46は前処理パラメータDB18のデータである。
First, the
画像入力部31は、ネットワーク5を介して監視カメラ4から符号化された画像データを受信し、これを復号化してフレーム単位の画像に変換する。
前処理部32は、画像入力部31のカメラ画像(入力画像とも呼ぶ)に対して、前処理パラメータ46を用いて、画像の切出しや縮小と射影変換などの前処理を実施する。前処理は、撮影空間の奥にいる人物を精度良く検出するために行う。
The
The
特徴量抽出部33は、前処理部32による処理後の画像に対して、CNNネットワークなどを用いて特徴量の抽出を行う。
人物頭部検出部34は、検出モデル42と特徴量抽出部33で抽出した特徴量を用いて、人物頭部の有無を判定し、頭部ありの場合、さらに頭部の中心位置と頭部サイズ(幅と高さ)を算出する。
The feature
The human
検出領域設定部35は、画像入力部31からのカメラ画像に対して、どの領域の人物を検出すべきかを設定する。カメラ画像のサイズ(横×縦)が大きい場合、CNNを用いて検出を行うために適切な画像サイズに縮小する。その際、検出領域を設定しないと、カメラ画像全体を所定サイズに縮小する結果、人物の頭部サイズが小さすぎて検出精度が低下することになる。そこで、検出領域を設定することで画像の縮小率を抑え、検出精度の低下を回避することができる。また、検出領域を設定することで、重視すべき領域が分かり、その領域に特化した前処理パラメータを算出することが可能になる。
The detection
画面上頭部サイズ算出部36は、所定のサイズ(身長、頭部サイズなど)の人物が画面上の各位置の地面に立っていると仮定して、画面上の各位置における人物頭部の画面上サイズを算出する。この計算では、監視カメラ4のカメラパラメータ44を用いる。すなわち、画面内に見える人物頭部の大きさは、カメラと人物の位置の幾何学関係から決定され、カメラから距離が遠くなるほど小さく見えるからである。
The on-screen head
前処理パラメータ算出部37は、画面上頭部サイズ算出部36の算出結果に基づき、前処理部32にて射影変換などの前処理を行うときに用いる前処理パラメータ46を算出する。前処理パラメータ46には、画像の切出し領域や縮小率の情報も含む。
検出結果統合部38は、人物頭部検出部34の検出結果をもとに、人物の有無の情報と、検出した人物の座標(中心座標及び人物頭部に重畳する矩形マークの座標であって、前処理の前の画像における座標)を算出して、これらを統合して人物検出結果を出力する。
The preprocessing
Based on the detection result of the human
操作入力部39は、キーボードやマウスなどのデバイスであり、ユーザの操作を識別して操作命令に変換する。
出力制御部40は、検出結果統合部38からの人物検出結果と画像入力部31からのカメラ画像を、ユーザが視認可能な形式に変換して映像表示装置7にて表示させる。また、人物検出結果を人数履歴蓄積装置8へ出力して蓄積させる。
The
The
次に、人物頭部検出装置6の動作を説明する。
図4は、人物頭部検出装置6の全体の動作フローを示す図である。動作フローは大きく4段階に分かれ、事前設定(S1)、前処理パラメータ生成(S2)、前処理(S3)、人数計測(S4)の順に行う。その概要は次の通りである。
Next, the operation of the human
FIG. 4 is a diagram illustrating an overall operation flow of the human
事前設定(S1)では、人物検出で使用する検出モデルやカメラパラメータなどの条件を設定する。
前処理パラメータ生成(S2)では、カメラパラメータから人物頭部の画面上のサイズを算出し、それに基づき射影変換を含む前処理パラメータを生成する。
前処理(S3)では、前処理パラメータを用いて、入力画像に対し射影変換を含む前処理を実施する。
人数計測(S4)では、検出モデルを用いて前処理を施した画像から人物頭部を検出し、検出した人数と位置の情報を出力する。
以下、各段階の処理について詳細に説明する。
In the preliminary setting (S1), conditions such as a detection model and camera parameters used for human detection are set.
In the pre-processing parameter generation (S2), the size of the human head on the screen is calculated from the camera parameters, and the pre-processing parameters including the projective transformation are generated based on the size.
In the preprocessing (S3), preprocessing including projective transformation is performed on the input image using the preprocessing parameters.
In the number of people measurement (S4), a human head is detected from an image that has been subjected to preprocessing using a detection model, and information on the detected number of people and the position is output.
Hereinafter, the processing of each stage will be described in detail.
(S1)事前設定(ステップS101〜S104)
図5は、事前設定の流れを示す図である。事前設定では、人物検出を行うための様々な条件を入力・設定する。
(S1) Prior setting (steps S101 to S104)
FIG. 5 is a diagram showing the flow of the advance setting. In the preliminary setting, various conditions for performing person detection are input and set.
ステップS101では、カメラパラメータ44を設定する。カメラパラメータ44は、監視カメラ4の仕様書や設置情報をもとに手動入力する。あるいは、カメラパラメータの推定手段による自動入力でも可能である。
In step S101,
図6は、カメラパラメータ44の設定例を示す図である。設定項目は、カメラの設置高さ、俯角、ロール角、焦点距離、イメージセンサーの横サイズCx、イメージセンサーの縦サイズCy、カメラ画像の横幅Wcam、カメラ画像の縦幅Hcamなどである。
FIG. 6 is a diagram showing a setting example of the
ステップS102では、検出モデル42の指定として、人物頭部検出で利用すべき学習済みモデルを指定する。学習済みモデルとは、例えばCNNなどのニューラルネットワークを採用し、大量の同じサイズの人物頭部が含まれる画像を使ってネットワークの構造パラメータを算出したものである。
In step S102, a learned model to be used in human head detection is specified as the
ステップS103では、検出モデル属性43を指定する。
図7は、検出モデル属性43のデータ構造を示す図である。検出モデル属性43の項目は、検出モデル42における推奨画像横幅Wopt、推奨画像縦幅Hopt、及び推奨頭部サイズVopt(幅×高さ)からなる。
In step S103, the
FIG. 7 is a diagram illustrating a data structure of the
推奨画像サイズWopt,Hoptは、検出モデル42が受付可能となる入力画像のサイズを指定する。もしも、入力画像のサイズが推奨画像サイズと異なる場合は、入力画像のサイズを変更(縮小/拡大)する。
The recommended image sizes Wopt and Hopt specify the size of the input image that the
推奨頭部サイズVoptは、検出モデル42にて頭部として検出可能となる頭部画像のサイズである。カメラ画像においてカメラからの距離が遠い人物は、頭部の画面上サイズが小さくなるため検出ができない場合がある。そこで、検出モデル42の学習時の頭部サイズに基づいて推奨頭部サイズVoptを指定する。例えば、学習データの中で頭部画像の平均サイズを推奨頭部サイズとして指定する。
The recommended head size Vopt is the size of a head image that can be detected as a head by the
ステップS104では、検出領域設定部35により検出領域を設定する。カメラ画像の中で、人物頭部を検出すべき領域を設定する。
In step S104, the detection area is set by the detection
図8は、検出領域設定の画面を示す図である。映像表示装置7の画面70には、監視カメラ4からの画像が表示されている。ここには、道路71や人物72が表示されている。検出領域の設定では、ユーザがマウス等を操作して操作入力部39が受付し、4つの画面上位置を連結して1つのポリゴンを生成する。このポリゴンの中の領域を検出領域とし、その境界線を画面上に表示する。図8の例ではポリゴンABCDの領域(破線で示す)が検出領域73であり、これに含まれる人物72が検出対象となる。なお、上記の操作を複数回行うことで複数の検出領域を設定することができる。ユーザはリセットボタン78を押すことで、設定した領域をリセットし再設定することができる。また、保存ボタン79を押すことで、設定した検出領域73は検出領域情報45として保存される。
FIG. 8 is a diagram showing a screen for setting a detection area. An image from the
図9は、検出領域情報45のデータ構造を示す図である。検出領域情報45において、領域IDは、複数のポリゴンがある場合に各ポリゴンを区別するための番号である。ポリゴン座標は、ポリゴンを構成する複数(4点)の画面上座標が記述されている。
FIG. 9 is a diagram showing the data structure of the
(S2)前処理パラメータの生成(ステップS201−S213)
図10は、前処理パラメータ生成の流れを示す図である。前処理パラメータの生成は、画面上頭部サイズ算出部36と前処理パラメータ算出部37が中心となって行う。ここでは、検出領域の中で、画面上に表示される頭部画像のサイズを算出し、それに基づき、前処理パラメータを生成する。
(S2) Generation of pre-processing parameters (steps S201 to S213)
FIG. 10 is a diagram showing a flow of the preprocessing parameter generation. The generation of the preprocessing parameters is performed mainly by the on-screen head
ステップS201では、画面上頭部サイズ算出部36は、カメラパラメータDB16からカメラパラメータ44を読み出す。
In step S201, the on-screen head
ステップS202では、全ての画面上位置において、人物が平面の地面に立っていると仮定して、人物の座標と頭部のサイズの関係を算出する。人物頭部のサイズ算出では、例えば以下の前提条件を用いるが、この前提条件は利用環境によって値を変更する。
・人物身長は160cmである。
・人物頭部は直径40cmの球である。
・人物の活動範囲は平坦な地面上である。
In step S202, the relationship between the coordinates of the person and the size of the head is calculated on the assumption that the person stands on the flat ground at all positions on the screen. In calculating the size of a person's head, for example, the following preconditions are used, and the values of these preconditions change depending on the usage environment.
-The person's height is 160 cm.
-The human head is a sphere with a diameter of 40 cm.
・ The person's activity range is on flat ground.
具体的な頭部サイズの算出方法は、監視カメラ4をピンホール・カメラとみなし、カメラパラメータ44を用いて、画面上の任意の画素位置に上記前提条件の人物頭部の中心が存在すると仮定し、人物頭部の世界座標を算出する。さらに、人物頭部の世界座標から人物頭部の画面上のサイズ(幅と高さ)を算出する。算出の結果、画面上頭部サイズ一覧を生成する。
The specific method of calculating the head size assumes that the
図11は、画面上頭部サイズ一覧のデータ構造を示す図である。画面上頭部サイズ一覧80は、画面上座標及び頭部サイズからなる。画面上座標として、カメラからの入力画像のサイズ(図6のカメラ画像横幅Wcam、画像縦幅Hcam)内の全ての画像点を仮定する。各画像点に人物が立っている場合、表示される頭部のサイズ(横と縦)を画素数で記述する。図11から分かるように、カメラから遠い画面上座標では、頭部サイズが小さく算出され、カメラから近い画面上座標では、頭部サイズが大きく算出されている。 FIG. 11 is a diagram showing the data structure of the head size list on the screen. The on-screen head size list 80 includes on-screen coordinates and head size. It is assumed that all image points within the size of the input image from the camera (camera image width Wcam, image height Hcam in FIG. 6) are used as the coordinates on the screen. When a person stands at each image point, the size (horizontal and vertical) of the displayed head is described by the number of pixels. As can be seen from FIG. 11, the head size is calculated to be small at coordinates on the screen far from the camera, and the head size is calculated large at coordinates on the screen near the camera.
ステップS203では、ユーザが設定した検出領域情報45を用いて、検出領域の中における頭部サイズを抽出する。つまり、ステップS202ではカメラ画像の全領域における頭部サイズを算出したが、これから検出領域内の頭部サイズに絞り込む訳である。
In step S203, the head size in the detection area is extracted using the
次に前処理パラメータ算出部37は、検出領域内の頭部サイズの情報を用いて、前処理部32で利用する前処理パラメータ46の算出を行う。
ステップS204では、検出モデル属性DB15から該当する検出モデル属性43を読み出す。
Next, the preprocessing
In step S204, the corresponding
ステップS205では、検出モデル属性43の推奨画像横幅Woptと推奨画像縦幅Hopt、カメラパラメータ44のカメラ画像横幅Wcam、カメラ画像縦幅Hcamを用いて、画像の縮小率を算出する。
横方向の縮小率=推奨画像横幅Wopt/カメラ画像横幅Wcam
縦方向の縮小率=推奨画像縦幅Hopt/カメラ画像縦幅Hcam
なお、カメラ画像サイズが推奨画像サイズよりも小さい場合は、縮小率が1より大きくなり、画像を拡大することになるが、ここでは画像を縮小する(縮小率<1)の場合について説明する。
In step S205, the image reduction ratio is calculated using the recommended image width Wopt and the recommended image height Hopt of the
Horizontal reduction ratio = Recommended image width Wopt / camera image width Wcam
Vertical reduction ratio = Recommended image vertical width Hopt / camera image vertical width Hcam
If the camera image size is smaller than the recommended image size, the reduction ratio becomes larger than 1 and the image is enlarged. Here, the case where the image is reduced (reduction ratio <1) will be described.
ステップ206では、前記画像縮小率を用いて、検出領域の頭部サイズから縮小後画像における頭部サイズを計算し、検出領域内で最小の頭部サイズVminを算出する。一般に、カメラ画像内では奥方向になるほど頭部サイズが小さい。例えば図8の場合、検出領域73内ではCD直線が最も奥に位置するため、点Cと点Dにおける縮小後頭部サイズを最小頭部サイズVminとする。
In step 206, the head size in the reduced image is calculated from the head size of the detection area using the image reduction rate, and the minimum head size Vmin in the detection area is calculated. Generally, in a camera image, the head size is smaller in the depth direction. For example, in the case of FIG. 8, since the CD straight line is located at the deepest position in the
ステップS207では、ステップS206で求めた最小頭部サイズVminを検出モデル属性43に指定された推奨頭部サイズVoptに拡大するための、理想拡大率Goptを算出する。つまり、Gopt=Vopt/Vminで求める。なお、この拡大率Goptは検出領域73のCD位置での値であって、他の位置での拡大率はこれよりも小さく直線的に変化する。
In step S207, an ideal enlargement ratio Gopt for enlarging the minimum head size Vmin obtained in step S206 to the recommended head size Vopt specified in the
ステップS208では、ステップS207で求めた理想拡大率Goptについて、画像の歪みが一定閾値を超えないように拡大率を修正する。これは、画像の歪みが大きくなると検出精度が低下するからである。具体的には、人物頭部の場合、拡大後の頭部の形状における上部幅と下部幅の比率が一定閾値、例えば1.2以下になるように拡大率を修正する。修正後の拡大率を有効拡大率Geffとする。画像の歪みが一定閾値以下であれば、理想拡大率Goptがそのまま有効拡大率Geffとなる。 In step S208, with respect to the ideal enlargement ratio Gopt obtained in step S207, the enlargement ratio is corrected so that the image distortion does not exceed a certain threshold. This is because the detection accuracy decreases as the image distortion increases. Specifically, in the case of a person's head, the enlargement ratio is corrected so that the ratio of the upper width to the lower width in the shape of the enlarged head becomes a certain threshold, for example, 1.2 or less. The corrected enlargement ratio is defined as an effective enlargement ratio Geff. If the image distortion is equal to or less than a certain threshold, the ideal enlargement ratio Gopt becomes the effective enlargement ratio Geff as it is.
ステップS209では、図8の検出領域73の場合、ポリゴンABCDが含まれる矩形を切り出し画像とし、切り出し画像内の点Cと点Dの座標を算出する。ここで点Cと点Dは画像拡大(射影変換)するときの頂点座標となるので、参考点と呼ぶことにする。
In step S209, in the case of the
ステップS210では、参考点CとDについて、前記有効拡大率Geffにて拡大した後の参考点C’とD’(図13に示す)の座標を算出する。なお、点Aと点Bは画像拡大では固定される点とし、座標は変わらない。 In step S210, the coordinates of the reference points C 'and D' (shown in FIG. 13) after the enlargement at the effective enlargement ratio Geff are calculated for the reference points C and D. The points A and B are fixed points in the image enlargement, and the coordinates do not change.
ステップS211では、ポリゴンABCDと拡大後のポリゴンABC’D’の各点の座標を用いて、射影変換のパラメータを算出する。射影変換のパラメータの算出方法は下記の通りである。 In step S211, projection transformation parameters are calculated using the coordinates of each point of the polygon ABCD and the polygon ABC'D 'after the enlargement. The method of calculating the parameters of the projective transformation is as follows.
数式1において、x、yは拡大前の座標、u,vは拡大後の座標、a,b,c,d,e,f,g,hは変換係数である。ABCDの4点の座標(x,y)と拡大後のABC’D’の4点の座標(u,v)の値を数式1に代入すると、8個の変換式が得られる。これより8個の変換係数a〜hを求め、これらを次の数式2の行列形式で記述したものが、射影変換パラメータである。
In
ステップS212では、上記射影変換パラメータを用いて、前処理パラメータ46を生成する。
図12は、前処理パラメータ46のデータ構造を示す図である。前処理パラメータ46の項目は、切り出し領域、画像縮小率、射影変換パラメータ、出力画像サイズからなる。切り出し領域は、検出領域73のポリゴンABCDが含まれる矩形領域(図13のABC’D’)で、その対角点の座標値で示す。画像縮小率は、ステップS205にて算出した横方向と縦方向の縮小率である。射影変換パラメータは、ステップS211にて算出した値であり、変換係数a〜hを行列で示している。出力画像サイズは画像縮小後のサイズで、検出モデル属性43の推奨画像横幅Wopt及び推奨画像縦幅Hoptと同じ値になる。
In step S212, a
FIG. 12 is a diagram illustrating a data structure of the
ステップS213では、ユーザによる前処理パラメータの確認動作を行う。
図13は、前処理パラメータの確認画面を示す図である。映像表示装置7の画面70には、カメラ画像とともに前処理による効果のプレビューを表示する。すなわち、現在設定されている検出領域73(ABCD、破線で示す)を表示するとともに、前処理において切り出される画像領域83(ABC’D’、一点鎖線で示す)、及び射影変換により検出可能となる領域85(ドットパターンで示す)を表示する。ここで、検出領域73が全て検出可能領域85とならないのは、射影変換により画像歪みが閾値を超える領域が生じるからである。
In step S213, the user performs a pre-processing parameter confirmation operation.
FIG. 13 is a diagram illustrating a confirmation screen of a preprocessing parameter. On the
ユーザはこの結果を確認し、問題ないと判断した場合は保存ボタン89を押すことで、前処理パラメータ46が前処理パラメータDB18に格納される。もしユーザが検出領域73を変更したい場合には、リセットボタン88を押すことで図5における検出領域の設定(ステップS104)に戻る。そして検出領域を変更し、再度前処理パラメータを算出することが可能である。
The user confirms this result, and if there is no problem, presses the
(S3)前処理(ステップS301−S305)
図14は、前処理の流れを示す図である。画像入力部31がカメラ画像を前処理部32に送ると、前処理部32はカメラ画像に対して前処理を実施する。
(S3) Pre-processing (Steps S301-S305)
FIG. 14 is a diagram showing the flow of the pre-processing. When the
ステップS301では、検出領域設定DB17から検出領域情報45(検出領域座標)を読み出す。図13では、ポリゴンABCDで示す検出領域73が相当する。
In step S301, the detection area information 45 (detection area coordinates) is read from the detection area setting DB17. In FIG. 13, a
ステップS302では、前処理パラメータDB18から前処理パラメータ46を読み出す。
In step S302, the
ステップS303では、前処理パラメータ46の切り出し領域の情報を用いて、検出すべき領域の画像を切り出す。図13では、ポリゴンABC’D’で示す矩形領域83を切り出す。
In step S303, the image of the region to be detected is cut out using the information of the cutout region of the preprocessing
ステップS304では、前処理パラメータ46の射影変換パラメータを用いて、切り出し画像に対して射影変換を実施する。射影変換では、前記数式2を用いて画像内の各画素位置を変換する。図13では、点C,Dの画像が点C’,D’の位置に拡大変換される。射影変換を実施することで、撮影空間の奥にいる人物の頭部画像を拡大することができる。
In step S304, projective transformation is performed on the cut-out image using the projective transformation parameter of the preprocessing
ステップS305では、前処理パラメータ46の画像縮小率に従い、射影変換後の画像を縮小する。これで、前処理を終了する。
In step S305, the image after the projective transformation is reduced according to the image reduction ratio of the preprocessing
(S4)人数計測(ステップS401−S411)
図15は、人数計測処理の流れを示す図である。前処理部32が前処理後の画像を特徴量抽出部33に送ると、人物検出と人数計測の処理に進む。ここでは、特徴量抽出部33による特徴量抽出、人物頭部検出部34による人物頭部の検出、検出結果統合部38による人物位置統合処理を行う。
(S4) Number of people measurement (steps S401-S411)
FIG. 15 is a diagram showing the flow of the number-of-people measurement process. When the
ステップS401では、特徴量抽出部33は画像から特徴量の抽出を行う。CNNネットワークの場合、畳み込み演算またはプーリング層などの深層学習の手法により画像特徴量の抽出を行う。
In step S401, the feature
ステップS402では、抽出された特徴量を用いて、人物頭部検出部34は人物頭部の有無、及び人物頭部の中心座標、頭部サイズの計算を行う。人物頭部検出の結果、人物頭部の座標情報を含むリストが生成される。
In step S402, the human
ただし、ここで生成される座標情報は前処理後の座標情報であり、画像入力部31で入力した画像の座標と異なる。そこで検出結果統合部38は、ステップS403において、前処理前の入力画像の座標に変換する人物位置統合処理を行う。
However, the coordinate information generated here is coordinate information after preprocessing, and is different from the coordinates of the image input by the
ステップS403に示す人物位置統合処理は、ステップS404〜S409の工程からなる。
ステップS404では、前処理パラメータDB18から前処理パラメータ46を読み出す。
The person position integration processing shown in step S403 includes steps S404 to S409.
In step S404, the
ステップS405では、検出領域設定DB17から検出領域情報45を読み出す。
ステップS406では、カメラパラメータDB16からカメラパラメータ44を読み出す。
In step S405, the
In step S406, the
ステップS407では、前処理パラメータ46の画像縮小率を用いて、S402で生成した人物頭部座標情報から縮小前の座標に変換する。
ステップS408では、人物頭部座標情報を射影変換前の座標に変換するために、逆射影変換を行う。逆射影変換時のパラメータには、前処理パラメータ46の射影変換パラメータ(数式2)の転置行列を用いればよい。
In step S407, using the image reduction ratio of the
In step S408, inverse projective transformation is performed to transform the human head coordinate information into coordinates before projective transformation. What is necessary is just to use the transpose of the projective transformation parameter (Formula 2) of the
ステップS409では、前処理パラメータ46の切り出し領域の情報を用いて、切り出し前の画像における人物頭部の座標に変換する。
以上により、人物位置統合処理を完了し、前処理前の座標で記述された人物位置の情報が出力制御部40へ送られる。
In step S409, using the information of the cut-out area of the preprocessing
As described above, the person position integration processing is completed, and information on the person position described by the coordinates before the pre-processing is sent to the
ステップS410では、出力制御部40は人物検出情報を映像表示装置7へ出力し、人物検出結果が表示される。
図16は、人物検出結果の表示例を示す図である。映像表示装置7の画面70には、監視カメラ4からの画像とともに、設定した検出領域73が表示されている。また現在の人物検出結果をもとに、検出された人物頭部位置に矩形の検出マーク90を重ねて表示し、検出人数欄91には最新の検出された人数を表示する。
In step S410, the
FIG. 16 is a diagram illustrating a display example of a person detection result. The
ステップS411では、出力制御部40は人物検出情報を人数履歴蓄積装置8へ出力し、人物検出結果が蓄積される。
図17は、人物検出結果のデータ構造を示す図である。人物検出結果92には、検出領域73における検出時刻ごとの人物頭部の数、すなわち人数を記述する。また、人数の他に検出した人物の座標や頭部座標を記述してもよい。
In step S411, the
FIG. 17 is a diagram illustrating a data structure of a person detection result. The person detection result 92 describes the number of person heads at each detection time in the
以上、本実施例の人物頭部検出装置6の動作を説明したが、所定の領域の人物を検出する場合、カメラパラメータを用いて撮影画像の射影変換を含む適切な前処理を行うことで、検出処理のコスト増加を抑えつつ、人物の検出精度、ひいては人数計測の精度を向上させる効果が得られる。すなわち本実施例では、検出領域の中でカメラから見て奥にいる人物の画像を手前にある画像よりも拡大率が大きくなるように射影変換を行うことで、検出時の処理負荷を抑えつつ奥にいる人物を含めて検出精度を向上させることができる。また、前処理において入力画像のサイズを推奨画像サイズに縮小することで、畳み込みニューラルネットワークによる人物検出の処理負荷を低減させることができる。
As described above, the operation of the human
上記実施例においては、検出する物体として人物の頭部を例に説明したが、これに限らず学習済みの検出モデルを用いることで任意の物体を検出できることは言うまでもない。また、監視カメラ4の台数は複数台であってもよく、さらに、人物頭部検出装置6と人数履歴蓄積装置8を複数台備え、装置間で連携しながら、人数計測を行うシステムであってもよい。
In the above-described embodiment, the head of a person has been described as an example of an object to be detected. However, it is needless to say that an arbitrary object can be detected by using a learned detection model. In addition, the number of
本発明は上記実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成の追加・削除・置換をすることも可能である。 The present invention is not limited to the above embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to one having all the described configurations. Further, for a part of the configuration of the embodiment, it is also possible to add / delete / replace another configuration.
また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記した実施例の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。 In addition, each of the above-described configurations, functions, processing units, and the like may be partially or entirely realized by hardware, for example, by designing an integrated circuit. Further, the technical elements of the above-described embodiments may be applied independently, or may be applied by being divided into a plurality of parts such as a program component and a hardware component.
1:人数計測システム、3,72:人物、4:監視カメラ、6:人物頭部検出装置、7:映像表示装置、8:人数履歴蓄積装置、11:CPU、12:ストレージ部、32:前処理部、33:特徴量抽出部、34:人物頭部検出部、35:検出領域設定部、36:画面上頭部サイズ算出部、37:前処理パラメータ算出部、38:検出結果統合部、40:出力制御部、42:検出モデル、43:検出モデル属性、44:カメラパラメータ、45:検出領域情報、46:前処理パラメータ、73:検出領域、80:画面上頭部サイズ一覧、83:切り出し画像領域、85:検出可能領域、90:検出マーク、91:検出人数欄、92:人物検出結果。 1: person counting system, 3:72: person, 4: surveillance camera, 6: person head detecting device, 7: video display device, 8: person history storage device, 11: CPU, 12: storage unit, 32: before Processing unit, 33: feature amount extraction unit, 34: human head detection unit, 35: detection area setting unit, 36: on-screen head size calculation unit, 37: pre-processing parameter calculation unit, 38: detection result integration unit, 40: output control unit, 42: detection model, 43: detection model attribute, 44: camera parameter, 45: detection area information, 46: pre-processing parameter, 73: detection area, 80: screen head size list, 83: Cutout image area, 85: detectable area, 90: detection mark, 91: number of detected persons column, 92: result of person detection.
Claims (8)
入力画像に対し前記物体を検出する検出領域を設定する検出領域設定部と、
前記入力画像に対し射影変換を含む前処理を施す前処理部と、
前記前処理の際に用いるパラメータを生成する前処理パラメータ算出部と、
所定の検出モデルを用いて前記前処理を施した画像から前記物体を検出する物体検出部と、を備え、
前記前処理パラメータ算出部は、前記物体を一定のサイズと仮定して前記カメラの撮影時のカメラパラメータから算出される前記物体の画像上のサイズと、前記検出モデルを用いて検出可能な前記物体の画像上の推奨サイズに基づき、前記射影変換を含む前記前処理のパラメータを生成することを特徴とする物体検出装置。 In an object detection device that detects a predetermined object from an image captured by a camera,
A detection region setting unit that sets a detection region for detecting the object with respect to the input image,
A preprocessing unit that performs preprocessing including projective transformation on the input image,
A preprocessing parameter calculation unit that generates a parameter used in the preprocessing,
An object detection unit that detects the object from the image that has been subjected to the preprocessing using a predetermined detection model,
The pre-processing parameter calculation unit, the size of the object on the image calculated from camera parameters at the time of shooting of the camera, assuming the object has a fixed size, and the object detectable using the detection model An object detection device that generates the parameters of the preprocessing including the projective transformation based on a recommended size on the image of (1).
前記前処理パラメータ算出部は、前記カメラパラメータから算出した前記物体のサイズの前記検出領域における最小値が、前記検出モデルを用いて検出可能な前記物体の推奨サイズ以上となるように、前記射影変換のパラメータを算出することを特徴とする物体検出装置。 The object detection device according to claim 1,
The pre-processing parameter calculation unit, the projective transformation so that the minimum value of the size of the object calculated from the camera parameters in the detection area is equal to or more than the recommended size of the object that can be detected using the detection model. An object detection device, which calculates the following parameters:
前記前処理パラメータ算出部は、前記検出領域の中で前記カメラから見て奥にある画像を手前にある画像よりも拡大率が大きくなるように前記射影変換のパラメータを算出することを特徴とする物体検出装置。 The object detection device according to claim 2,
The pre-processing parameter calculation unit may calculate the projective transformation parameters such that an enlargement ratio of an image located in the back as viewed from the camera is larger than an image located in the foreground in the detection area. Object detection device.
前記前処理パラメータ算出部は、前記射影変換により前記画像を拡大するとき、拡大後の前記物体の形状の歪みが閾値を超えないように前記射影変換のパラメータを修正することを特徴とする物体検出装置。 The object detection device according to claim 3,
The object detection method, wherein the preprocessing parameter calculation unit corrects the parameters of the projective transformation so that distortion of the shape of the object after the enlargement does not exceed a threshold when the image is enlarged by the projective transformation. apparatus.
前記前処理には、さらに、前記検出領域に基づく前記入力画像からの画像切出しと、前記検出モデルが受付可能となる推奨画像サイズに前記入力画像を縮小する処理とが含まれていることを特徴とする物体検出装置。 The object detection device according to claim 1,
The pre-processing further includes an image cutout from the input image based on the detection area, and a process of reducing the input image to a recommended image size that allows the detection model to be accepted. Object detection device.
前記物体検出部による物体の検出結果と、前記前処理のパラメータをもとに検出した前記物体の位置を前記入力画像の座標に変換して統合する検出結果統合部と、
前記統合された物体検出情報を外部の装置に出力する出力制御部と、
を備えることを特徴とする物体検出装置。 The object detection device according to claim 5,
The detection result of the object by the object detection unit, a detection result integration unit that converts the position of the object detected based on the parameters of the preprocessing into coordinates of the input image and integrates them,
An output control unit that outputs the integrated object detection information to an external device,
An object detection device comprising:
入力画像に対し前記物体を検出する検出領域を設定するステップと、
前記入力画像に対し射影変換を含む前処理を施すステップと、
前記前処理の際に用いるパラメータを生成する前処理パラメータの算出ステップと、
所定の検出モデルを用いて前記前処理を施した画像から前記物体を検出するステップと、を備え、
前記前処理パラメータの算出ステップでは、前記物体を一定のサイズと仮定して前記カメラの撮影時のカメラパラメータから前記物体の画像上のサイズを算出し、前記検出モデルを用いて検出可能な前記物体の画像上の推奨サイズと比較して、前記射影変換を含む前記前処理のパラメータを生成することを特徴とする物体検出方法。 In an object detection method for detecting a predetermined object from an image captured by a camera,
Setting a detection area for detecting the object in the input image,
Performing preprocessing including projective transformation on the input image;
Calculating a pre-processing parameter to generate a parameter used in the pre-processing,
Detecting the object from the pre-processed image using a predetermined detection model,
In the pre-processing parameter calculation step, the size of the object on the image of the object is calculated from camera parameters at the time of shooting by the camera, assuming that the object has a fixed size, and the object detectable using the detection model. Generating a parameter for the preprocessing including the projective transformation in comparison with a recommended size on the image.
前記前処理のステップには、さらに、前記検出領域に基づく前記入力画像からの画像切出しと、前記検出モデルが受付可能となる推奨画像サイズに前記入力画像を縮小する処理とが含まれ、
前記物体を検出するステップでは、前記前処理を施した画像に対し、畳み込みニューラルネットワークにより前記物体を検出することを特徴とする物体検出方法。 The object detection method according to claim 7, wherein
The pre-processing step further includes an image cutout from the input image based on the detection region, and a process of reducing the input image to a recommended image size that allows the detection model to be accepted,
In the step of detecting the object, an object is detected by using a convolutional neural network for the image on which the preprocessing has been performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018115379A JP2019219804A (en) | 2018-06-18 | 2018-06-18 | Object detection device and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018115379A JP2019219804A (en) | 2018-06-18 | 2018-06-18 | Object detection device and object detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019219804A true JP2019219804A (en) | 2019-12-26 |
Family
ID=69096563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018115379A Pending JP2019219804A (en) | 2018-06-18 | 2018-06-18 | Object detection device and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019219804A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021149327A1 (en) * | 2020-01-22 | 2021-07-29 | 三菱電機株式会社 | Object detecting device, object detecting method, and object detecting program |
CN116758488A (en) * | 2023-08-16 | 2023-09-15 | 启迪数字科技(深圳)有限公司 | Stadium crowd positioning method, device, equipment and medium |
-
2018
- 2018-06-18 JP JP2018115379A patent/JP2019219804A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021149327A1 (en) * | 2020-01-22 | 2021-07-29 | 三菱電機株式会社 | Object detecting device, object detecting method, and object detecting program |
JP2021117533A (en) * | 2020-01-22 | 2021-08-10 | 三菱電機インフォメーションシステムズ株式会社 | Object detection device, object detection method, and object detection program |
CN116758488A (en) * | 2023-08-16 | 2023-09-15 | 启迪数字科技(深圳)有限公司 | Stadium crowd positioning method, device, equipment and medium |
CN116758488B (en) * | 2023-08-16 | 2023-11-10 | 启迪数字科技(深圳)有限公司 | Stadium crowd positioning method, device, equipment and medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6330987B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US9367734B2 (en) | Apparatus, control method, and storage medium for setting object detection region in an image | |
CN105700138B (en) | Head-mounted display device and its bearing calibration | |
WO2020215283A1 (en) | Facial recognition method, processing chip and electronic device | |
JP5525495B2 (en) | Image monitoring apparatus, image monitoring method and program | |
JP2014025748A (en) | Dimension measuring program, dimension measuring instrument, and dimension measuring method | |
CN108074237B (en) | Image definition detection method and device, storage medium and electronic equipment | |
US20240071016A1 (en) | Mixed reality system, program, mobile terminal device, and method | |
JP2019219804A (en) | Object detection device and object detection method | |
CN112465911A (en) | Image processing method and device | |
CN108550167A (en) | Depth image generation method, device and electronic equipment | |
JP6991045B2 (en) | Image processing device, control method of image processing device | |
WO2022041953A1 (en) | Behavior recognition method and apparatus, and storage medium | |
CN110852934A (en) | Image processing method and apparatus, image device, and storage medium | |
CN115361497B (en) | Method, device, equipment and storage medium for measuring inclination angle of camera module | |
CN113327228B (en) | Image processing method and device, terminal and readable storage medium | |
JP6452738B2 (en) | Image processing apparatus, image processing method, and program | |
US20220138458A1 (en) | Estimation device, estimation system, estimation method and program | |
US11568557B2 (en) | Person counting image processing apparatus, method, and storage medium | |
WO2021084972A1 (en) | Object tracking device and object tracking method | |
JP2022123391A (en) | Information processing apparatus, information processing method, and program | |
US9159118B2 (en) | Image processing apparatus, image processing system, and non-transitory computer-readable medium | |
EP4403872A1 (en) | Dimension measurement device, dimension measurement method, and program | |
CN111179332A (en) | Image processing method and device, electronic device and storage medium | |
CN113312979B (en) | Image processing method and device, electronic equipment, road side equipment and cloud control platform |