JP2021192224A - Method and device, electronic device, computer-readable storage medium, and computer program for detecting pedestrian - Google Patents
Method and device, electronic device, computer-readable storage medium, and computer program for detecting pedestrian Download PDFInfo
- Publication number
- JP2021192224A JP2021192224A JP2021054113A JP2021054113A JP2021192224A JP 2021192224 A JP2021192224 A JP 2021192224A JP 2021054113 A JP2021054113 A JP 2021054113A JP 2021054113 A JP2021054113 A JP 2021054113A JP 2021192224 A JP2021192224 A JP 2021192224A
- Authority
- JP
- Japan
- Prior art keywords
- image
- trimming
- pedestrian
- feature map
- trimmed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施例は、コンピュータ技術の分野に関し、特に画像処理の分野に関し、具体的には歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。 Examples of the present invention relate to the field of computer technology, particularly to the field of image processing, specifically to methods and devices for detecting pedestrians, electronic devices, computer readable storage media and computer programs.
歩行者の検出アルゴリズムの正確さの継続的な進歩、及びトリップコンピュータ側での計算量の少ない歩行者検出に対する切実なニーズに伴い、ますます多くの歩行者の検出アルゴリズムをモバイル端末に置く。これらのモバイル端末はハードウェアレベルが低く、計算能力が低い。現在、効果の良い歩行者の検出アルゴリズムがディープラーニング技術を使用するが、ディープラーニングアルゴリズムは多くの計算リソースを必要とする。これらのディープラーニングアルゴリズムがハードウェアレベルの低いモバイル端末では動作できないことが多い。 With continued advances in the accuracy of pedestrian detection algorithms and the urgent need for low-complexity pedestrian detection on the trip computer side, more and more pedestrian detection algorithms are being placed on mobile terminals. These mobile devices have low hardware levels and low computing power. Currently, effective pedestrian detection algorithms use deep learning techniques, but deep learning algorithms require a lot of computational resources. These deep learning algorithms often do not work on mobile devices with low hardware levels.
本発明の実施例では、歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムを提案する。 In the embodiments of the present invention, there are proposed methods and devices for detecting pedestrians, electronic devices, computer-readable storage media and computer programs.
第1態様において、ターゲット画像を取得することと、上記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得ることと、上記第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることと、上記特徴マップをトリミング処理することにより、第2のトリミング画像を得ることと、上記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得ることとを含む、歩行者を検出するための方法に関する。 In the first aspect, a feature map is obtained by acquiring a target image, obtaining a first trimmed image by trimming the target image, and extracting features of the first trimmed image. It includes obtaining, obtaining a second trimmed image by trimming the feature map, and obtaining a pedestrian detection result by identifying a pedestrian in the second trimmed image. , Concerning methods for detecting pedestrians.
第2態様において、ターゲット画像を取得するように構成される画像取得ユニットと、上記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得るように構成される第1のトリミングユニットと、上記第1のトリミング画像の特徴を抽出することにより、特徴マップを得るように構成される特徴抽出ユニットと、上記特徴マップをトリミング処理することにより、第2のトリミング画像を得るように構成される第2のトリミングユニットと、上記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得るように構成される歩行者検出ユニットとを含む、歩行者を検出するための装置に関する。 In the second aspect, an image acquisition unit configured to acquire a target image, a first trimming unit configured to obtain a first trimmed image by trimming the target image, and the above. A feature extraction unit configured to obtain a feature map by extracting the features of the first trimmed image, and a first configured to obtain a second trimmed image by trimming the feature map. 2. A device for detecting a pedestrian, including a trimming unit 2 and a pedestrian detection unit configured to obtain a pedestrian detection result by identifying the pedestrian in the second trimmed image. ..
第3態様において、本発明の実施例は、1つ以上のプロセッサと、1つ以上のプログラムが記憶された記憶装置とを含み、上記1つ以上のプログラムが上記1つ以上のプロセッサによって実行されるとき、第1態様のいずれかの実施例で説明された方法を上記1つ以上のプロセッサに実行させる電子デバイスに関する。 In a third aspect, an embodiment of the present invention includes one or more processors and a storage device in which one or more programs are stored, and the one or more programs are executed by the one or more processors. The present invention relates to an electronic device that causes one or more processors to perform the method described in any embodiment of the first aspect.
第4態様において、本発明の実施例は、コンピュータプログラムが記憶されたコンピュータ可読媒体であって、上記コンピュータプログラムがプロセッサによって実行されるとき、第1態様のいずれかの実施例で説明された方法を実現するコンピュータ可読媒体に関する。 In a fourth aspect, the embodiment of the present invention is a computer-readable medium in which a computer program is stored, and the method described in any of the first embodiments when the computer program is executed by a processor. Regarding computer-readable media that realizes.
第5態様において、本発明の実施例は、コンピュータプログラムであって、上記コンピュータプログラムがプロセッサによって実行されるとき、第1態様のいずれかの実施例で説明された方法を実現するコンピュータプログラムに関する。 In a fifth aspect, an embodiment of the invention relates to a computer program that, when the computer program is executed by a processor, realizes the method described in any of the first embodiments.
本発明の技術によると、既存の歩行者の検出アルゴリズムの計算量が大きいという問題が解決され、ターゲット画像をトリミング処理することにより、画像の計算量を低減し、計算リソースの使用量を低減し、ハードウェアレベルが低いモバイル端末に、より便利に適用することができる。 According to the technique of the present invention, the problem that the calculation amount of the existing pedestrian detection algorithm is large is solved, and the calculation amount of the image is reduced and the usage amount of the calculation resource is reduced by trimming the target image. , Can be applied more conveniently to mobile terminals with low hardware level.
本明細書で記載された内容は、本開示の実施例のキーまたは重要な特徴を特定することを意図したものではなく、本開示の範囲を制限するものでもないことを理解すべきである。本開示の他の特徴は、以下の説明によって容易に理解される。 It should be understood that the content described herein is not intended to identify the key or important features of the embodiments of the present disclosure and is not intended to limit the scope of the present disclosure. Other features of the present disclosure are readily understood by the following description.
本発明のその他の特徴、目的および利点をより明確にするために、以下の図面を参照してなされた非限定的な実施例の詳細な説明を参照する。 In order to further clarify the other features, purposes and advantages of the present invention, reference is made to the detailed description of the non-limiting examples made with reference to the following drawings.
以下、図面及び実施例を参照して本発明をさらに詳細に説明する。ここで説明された具体的な実施例は、単に関連発明を説明するためのものであって、当該発明を限定するものではないことが理解される。なお、説明を容易にするために、図面には、関連発明に関する部分のみが示されている。 Hereinafter, the present invention will be described in more detail with reference to the drawings and examples. It is understood that the specific examples described herein are merely for explaining the related invention and not limiting the invention. For ease of explanation, the drawings show only the parts relating to the related invention.
なお、矛盾しない場合には、本発明の実施例及び実施例における特徴を互いに組み合わせることができる。以下、図面を参照して、実施例に合わせて本発明を詳細に説明する。 If there is no contradiction, the embodiments of the present invention and the features of the embodiments can be combined with each other. Hereinafter, the present invention will be described in detail according to examples with reference to the drawings.
図1には、本発明が適用され得る、歩行者を検出するための方法又は歩行者を検出するための装置の実施例の例示的なシステムアーキテクチャ100が示されている。
FIG. 1 shows an
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103および画像収集装置104を含むことができる。画像収集装置104と端末装置101、102、104との間は、ネットワーク通信によって接続され、ネットワークは、例えば有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
As shown in FIG. 1, the
端末装置101、102、103は、ネットワークを介して画像収集装置104によって収集された画像を受信し、画像を処理することができる。画像収集装置104は、端末装置101、102、103に取り付けられることができる。
The
なお、端末装置101、102、103は、ハードウェアでもソフトウェアでもよい。端末装置101、102、103がハードウェアである場合、ディスプレイを有し、画像処理をサポートする様々な電子デバイスであってもよく、スマートフォン、タブレットコンピューター、ラップトップコンピューター、デスクトップコンピューターなどが含まれるが、これらに限定されない。端末装置101、102、103がソフトウェアである場合、上述した電子デバイスに取り付けられることができる。複数のソフトウェアまたはソフトウェアモジュール(例えば分散型サービスを提供する)として実現されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここで、具体的に限定しない。
The
画像収集装置104は、カメラ、ビデオカメラなどの画像を収集するための様々な装置であってもよい。画像収集装置104は、収集した画像をリアルタイムで端末装置101、102、103に送信することができる。
The
なお、本発明の実施例による歩行者を検出するための方法は、端末装置101、102、103によって実行されてもよいし、画像収集装置104によって実行されてもよい。これに対応して、歩行者を検出するための装置は、一般的に端末装置101、102、103に配置されてもよいし、画像収集装置104に配置されてもよい。
The method for detecting a pedestrian according to the embodiment of the present invention may be executed by the
図1の端末装置および画像収集装置の数は単なる例示であることを理解すべきである。必要に応じて、任意の数の端末装置および画像収集装置を備えることができる。 It should be understood that the number of terminal devices and image acquisition devices in FIG. 1 is merely exemplary. If necessary, any number of terminal devices and image acquisition devices can be provided.
続けて図2を参照すると、本発明による歩行者を検出するための方法の一実施例のフロー200が示されている。本実施例の歩行者を検出するための方法は、以下のステップを含む。
Subsequently, with reference to FIG. 2, a
ステップ201において、ターゲット画像を取得する。
In
本実施例において、歩行者を検出するための方法の実行主体(例えば図1に示された端末装置101、102、103または画像収集装置104)は、有線接続または無線接続によってターゲット画像を取得することができる。ここで、ターゲット画像は、歩行者を含む任意の画像であることができる。
In this embodiment, the executing subject of the method for detecting a pedestrian (for example, the
ステップ202において、ターゲット画像をトリミング処理することにより、第1のトリミング画像を得る。
In
実行主体は、ターゲット画像を得た後、画像をトリミング処理することにより、第1のトリミング画像を得ることができる。具体的には、実行主体は、上方の一部の領域をトリミングすることにより、第1のトリミング画像を得ることができる。または、実行主体は、ターゲット画像をプリセットサイズにトリミングすることにより、第1のトリミング画像を得ることもできる。実行主体によってトリミングされた部分には有効な歩行者情報が含まれなくてもよく、すなわち、トリミングされた部分には歩道橋を歩く歩行者が含まれることが理解できる。第1のトリミング画像には有効な歩行者情報が含まれる。 The execution subject can obtain the first trimmed image by trimming the image after obtaining the target image. Specifically, the executing subject can obtain the first cropped image by trimming a part of the upper region. Alternatively, the execution subject can also obtain the first cropped image by trimming the target image to a preset size. It can be understood that the portion trimmed by the performer does not have to contain valid pedestrian information, that is, the trimmed portion includes pedestrians walking on the pedestrian bridge. The first cropped image contains valid pedestrian information.
ステップ203において、第1のトリミング画像の特徴を抽出することにより、特徴マップを得る。
In
実行主体は、第1のトリミング画像を得た後、第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることができる。具体的には、実行主体は、様々な特徴抽出アルゴリズムを用いて、第1のトリミング画像に対し特徴抽出を行うことにより、特徴マップを得ることができる。上記特徴抽出アルゴリズムは、畳み込みニューラルネットワークなどを含むことができる。上記特徴マップには、例えば歩行者の輪郭、位置、中心などの有効な歩行者の情報が含まれてもよい。 The execution subject can obtain a feature map by extracting the features of the first trimmed image after obtaining the first trimmed image. Specifically, the execution subject can obtain a feature map by performing feature extraction on the first trimmed image using various feature extraction algorithms. The feature extraction algorithm may include a convolutional neural network or the like. The feature map may include valid pedestrian information such as the contour, position, and center of the pedestrian.
ステップ204において、特徴マップをトリミング処理することにより、第2のトリミング画像を得る。
In
実行主体は、特徴マップを得た後、特徴マップをトリミング処理することにより、第2のトリミング画像を得ることができる。ステップ203の特徴抽出の後、特徴マップには、歩行者の一部の情報が含まれ、すなわち歩行者検出に必要な情報が含まれていることが理解できる。これに加えて、計算量をさらに減らすために、特徴マップをさらにトリミング処理することにより、第2のトリミング画像を得ることができる。ここで、実行主体は、特徴マップの上方の一部の領域をトリミングすることができる。または、実行主体は、特徴マップをプリセットサイズにトリミングすることもできる。
The execution subject can obtain a second trimmed image by trimming the feature map after obtaining the feature map. After the feature extraction in
ステップ205において、第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得る。
In
第2のトリミング画像を得た後、実行主体は、第2のトリミング画像に対して歩行者検出を行うことにより、歩行者の検出結果を得る。具体的には、実行主体は、様々な歩行者検出アルゴリズムを用いて、第2のトリミング画像を処理することにより、歩行者の検出結果を得ることができる。上記歩行者検出アルゴリズムは、様々なニューラルネットワークを含むことができる。 After obtaining the second trimmed image, the executing subject obtains a pedestrian detection result by performing pedestrian detection on the second trimmed image. Specifically, the executing subject can obtain a pedestrian detection result by processing the second trimmed image using various pedestrian detection algorithms. The pedestrian detection algorithm can include various neural networks.
本発明の上記実施例による歩行者を検出するための方法では、ターゲット画像を複数回トリミングしながら歩行者の特徴を抽出することができ、計算量を減らすとともに、歩行者検出の正確性も確保できる。 In the method for detecting a pedestrian according to the above embodiment of the present invention, the characteristics of the pedestrian can be extracted while trimming the target image multiple times, reducing the amount of calculation and ensuring the accuracy of pedestrian detection. can.
続けて図3を参照すると、本発明による歩行者を検出するための方法の別の実施例のフロー300が示されている。図3に示すように、本実施例の方法は、以下のステップを含む。
Subsequently referring to FIG. 3, a
ステップ301において、車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とする。
In
実行主体は、車両に取り付けられたドライブレコーダーで収集された画像を取得し、上記画像をターゲット画像とすることができる。上記画像には、車両の走行環境の情報が含まれることができる。ドライブレコーダーの取り付け位置が比較的低く、収集された画像には歩道橋情報が含まれることができ、上記歩道橋には歩行者がいる可能性があることは理解できる。上記歩行者は車両の走行に影響しないので、上記歩行者を検出する必要はない。 The executing subject can acquire an image collected by a drive recorder attached to the vehicle and use the above image as a target image. The above image may include information on the traveling environment of the vehicle. It is understandable that the mounting position of the drive recorder is relatively low, the collected images can contain pedestrian bridge information, and there may be pedestrians on the pedestrian bridge. Since the pedestrian does not affect the running of the vehicle, it is not necessary to detect the pedestrian.
ステップ302において、ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、第1のトリミング画像を得る。
In
本実施例において、実行主体は、ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、第1のトリミング画像を得ることができる。上記プリセット比率は、画像に含まれるコンテンツによって確定されることができる。具体的には、実行主体は、ターゲット画像における各オブジェクトを識別し、車両からプリセット距離以外の領域に含まれるオブジェクトをトリミングすることができる。例を挙げると、実行主体は、車両の前方50メートル先の領域をトリミングすることができる。上記領域は、ターゲット画像の上方にある。いくつかの具体的な適用例では、上記プリセット比率は、1/4であってもよい。 In this embodiment, the execution subject can obtain the first cropped image by trimming the region of the preset ratio above the target image. The preset ratio can be determined by the content contained in the image. Specifically, the execution subject can identify each object in the target image and crop the object included in the area other than the preset distance from the vehicle. For example, the executing subject can trim an area 50 meters ahead of the vehicle. The area is above the target image. In some specific applications, the preset ratio may be 1/4.
ステップ303において、第1のトリミング画像の特徴を抽出し、抽出プロセスにおいて第1のトリミング画像をトリミング処理することにより、特徴マップを得る。
In
本実施例において、実行主体は、第1のトリミング画像を得た後、第1のトリミング画像を抽出し特徴抽出を行い、抽出プロセスにおいて第1のトリミング画像をトリミング処理することにより、特徴マップを得る。具体的には、実行主体は、特徴抽出アルゴリズムを用いて、第1のトリミング画像に対し特徴抽出を行った後、中間特徴マップを得ることができる。そして、実行主体は、得られた中間特徴マップをトリミングすることができる。そして、実行主体は、特徴抽出アルゴリズムを用いて、トリミングされた後の中間特徴マップに対して再度特徴抽出を行うことにより、再度中間特徴マップを得る。実行主体は、得られた中間特徴マップを再度トリミングすることにより、特徴マップを得ることができる。実行主体は、第1のトリミング画像の特徴を複数回抽出することにより、特徴マップを得ることができ、得られた特徴マップを複数回トリミングすることにより、特徴マップを得ることもできることが理解できる。このようにすると、歩行者の有効な特徴をトリミングしないことが保証される。 In this embodiment, the execution subject obtains the first trimmed image, then extracts the first trimmed image, performs feature extraction, and trims the first trimmed image in the extraction process to obtain a feature map. obtain. Specifically, the execution subject can obtain an intermediate feature map after performing feature extraction on the first trimmed image by using the feature extraction algorithm. Then, the executing subject can trim the obtained intermediate feature map. Then, the execution subject obtains the intermediate feature map again by performing feature extraction again on the trimmed intermediate feature map using the feature extraction algorithm. The execution subject can obtain the feature map by trimming the obtained intermediate feature map again. It can be understood that the execution subject can obtain the feature map by extracting the features of the first trimmed image multiple times, and can also obtain the feature map by trimming the obtained feature map multiple times. .. This ensures that the effective features of the pedestrian are not trimmed.
本実施例のいくつかの選択可能な実施形態において、実行主体は、図3に示されない以下のステップによって特徴マップを得ることができ、即ち、第1のトリミング画像に対して少なくとも2回の畳み込み演算を行い、少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行うことにより、特徴マップを得る。 In some selectable embodiments of this embodiment, the performer can obtain a feature map by the following steps not shown in FIG. 3, i.e., at least two convolutions with respect to the first cropped image. A feature map is obtained by performing an operation, performing at least one convolution operation, and then performing a trimming process at least once on the obtained feature map.
本実施例において、実行主体は、少なくとも2つの畳み込み層を用いて、第1のトリミング画像に対して特徴抽出を行うことができる。実行主体は、上記少なくとも2つの畳み込み層を用いて、第1のトリミング画像に対して少なくとも2回の畳み込み演算を行うことができる。畳み込み演算を行うたびに、中間特徴マップが得られることが理解できる。少なくとも1回の畳み込み演算の後、得られた中間特徴マップに対して少なくとも1回のトリミング処理を行う。具体的には、実行主体は、2回の畳み込み演算を行った後、得られた中間特徴マップに対して1回のトリミング処理を行うことができる。例えば、中間特徴マップの上方の1/9の領域をトリミングする。または、実行主体は、1回の畳み込み演算を行った後、中間特徴マップの上方の1/18の領域をトリミングする。この後、トリミングされた中間特徴マップに対して畳み込み演算を再度行うことにより、中間特徴マップを再度得る。上記中間特徴マップを再度トリミングし、即ち、中間特徴マップの上方の1/18の領域を再度トリミングする。 In this embodiment, the execution subject can perform feature extraction on the first cropped image using at least two convolution layers. The execution subject can perform at least two convolution operations on the first cropped image using the at least two convolution layers. It can be understood that an intermediate feature map is obtained each time the convolution operation is performed. After at least one convolution operation, the obtained intermediate feature map is subjected to at least one trimming process. Specifically, the execution subject can perform one trimming process on the obtained intermediate feature map after performing two convolution operations. For example, trim the upper 1/9 area of the intermediate feature map. Alternatively, the execution subject trims the upper 1/18 area of the intermediate feature map after performing one convolution operation. After that, the convolution operation is performed again on the trimmed intermediate feature map to obtain the intermediate feature map again. The intermediate feature map is trimmed again, that is, the area above 1/18 of the intermediate feature map is trimmed again.
歩行者の中心が一般的にターゲット画像の中下に位置し、歩行者の特徴を抽出するので、得られた中間特徴マップの上方の領域をトリミングすることができる。このようにすると、歩行者の有効な特徴をトリミングしないことが保証される。 Since the center of the pedestrian is generally located in the lower middle of the target image and the features of the pedestrian are extracted, the upper area of the obtained intermediate feature map can be trimmed. This ensures that the effective features of the pedestrian are not trimmed.
ステップ304において、特徴マップをトリミング処理することにより、第2のトリミング画像を得る。
In
特徴マップを得た後、実行主体は、得られた特徴マップをトリミング処理することができる。特徴マップには歩行者の中心位置情報が含まれる。したがって、この場合、特徴マップを再度トリミング処理しても、歩行者の検出結果に影響を与えない。計算量を減らすために、特徴マップの上方の一部の領域をトリミングすることができる。いくつかの具体的な適用例では、上記の一部の領域は、1/4の領域であってもよい。 After obtaining the feature map, the execution subject can trim the obtained feature map. The feature map contains pedestrian center position information. Therefore, in this case, even if the feature map is trimmed again, the detection result of the pedestrian is not affected. Some areas above the feature map can be trimmed to reduce the amount of computation. In some specific applications, some of the above regions may be 1/4 regions.
本実施例のいくつかの選択可能な実施形態において、上記第2のトリミング画像のサイズは、ターゲット画像のサイズの1/2以上である。 In some selectable embodiments of this embodiment, the size of the second cropped image is greater than or equal to 1/2 the size of the target image.
本実施形態では、歩行者検出の計算量を低減しながら、歩行者検出の正確性を確保するために、第2のトリミング画像のサイズをターゲット画像のサイズの1/2以上とする。 In the present embodiment, the size of the second trimmed image is set to ½ or more of the size of the target image in order to ensure the accuracy of pedestrian detection while reducing the calculation amount of pedestrian detection.
ステップ305において、第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得る。
In
続けて図4を参照すると、図4は、本実施例による歩行者を検出するための方法の一応用シーンを示す概略図である。図4の応用シーンでは、自動運転車にはドライブレコーダー401が取り付けられ、ドライブレコーダー401は、収集した画像を自動運転車の車載コンピュータ402に送信することができる。上記車載コンピュータ402は、上記実施例によって歩行者検出を行うことにより、歩行者の検出結果を得ることができる。
With reference to FIG. 4, FIG. 4 is a schematic diagram showing an application scene of the method for detecting a pedestrian according to the present embodiment. In the application scene of FIG. 4, a
本発明の上記実施例による歩行者を検出するための方法では、ドライブレコーダーで収集された画像を複数回トリミング処理し、且つ有効な歩行者情報を含む特徴をできるだけ抽出することができるため、歩行者検出の正確性を確保するとともに、歩行者検出の計算量を低減することができる。 In the method for detecting a pedestrian according to the above embodiment of the present invention, the image collected by the drive recorder can be trimmed a plurality of times, and features including valid pedestrian information can be extracted as much as possible. It is possible to ensure the accuracy of pedestrian detection and reduce the amount of calculation for pedestrian detection.
さらに図5を参照して、上記の各図に示された方法の実現として、本発明は歩行者を検出するための装置の一実施例を提供し、当該装置の実施例は、図2に示す方法実施例に対応し、当該装置は、具体的に様々な電子デバイスに適用できる。 Further, with reference to FIG. 5, as an embodiment of the method shown in each of the above figures, the present invention provides an embodiment of an apparatus for detecting a pedestrian, and an embodiment of the apparatus is shown in FIG. Corresponding to the method embodiment shown, the apparatus can be specifically applied to various electronic devices.
図5に示すように、本実施例に係る歩行者を検出するための装置500は、画像取得ユニット501と、第1のトリミングユニット502と、特徴抽出ユニット503と、第2のトリミングユニット504と、歩行者検出ユニット505とを含む。
As shown in FIG. 5, the
画像取得ユニット501は、ターゲット画像を取得するように構成される。
The
第1のトリミングユニット502は、ターゲット画像をトリミング処理することにより、第1のトリミング画像を得るように構成される。
The
特徴抽出ユニット503は、第1のトリミング画像の特徴を抽出することにより、特徴マップを得るように構成される。
The
第2のトリミングユニット504は、特徴マップをトリミング処理することにより、第2のトリミング画像を得るように構成される。
The
歩行者検出ユニット505は、第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得る。
The
本実施例のいくつかの選択可能な実施形態において、特徴抽出ユニット503は、さらに、第1のトリミング画像の特徴を抽出し、抽出プロセスにおいて第1のトリミング画像をトリミング処理することにより、特徴マップを得るように構成される。
In some selectable embodiments of this embodiment, the
本実施例のいくつかの選択可能な実施形態において、特徴抽出ユニット503は、さらに、第1のトリミング画像に対して少なくとも2回の畳み込み演算を行い、少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行うことにより、特徴マップを得るように構成される。
In some selectable embodiments of this embodiment, the
本実施例のいくつかの選択可能な実施形態において、画像取得ユニット501は、さらに、車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とするように構成される。
In some selectable embodiments of this embodiment, the
本実施例のいくつかの選択可能な実施形態において、第1のトリミングユニット502は、さらに、ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、第1のトリミング画像を得るように構成される。
In some selectable embodiments of this embodiment, the
本実施例のいくつかの選択可能な実施形態において、第2のトリミング画像のサイズは、ターゲット画像のサイズの1/2以上である。 In some selectable embodiments of this embodiment, the size of the second cropped image is greater than or equal to 1/2 the size of the target image.
歩行者を検出するための装置500に記載されたユニット501〜ユニット505は、それぞれ図2を参照して説明された方法における各ステップに対応することを理解すべきである。したがって、上記の歩行者を検出するための方法について説明された動作および特徴は、装置500およびその中に含まれるユニットにも同様に適用され、ここでは説明を省略する。
It should be understood that the
本発明の実施例によると、本発明は、電子デバイス及び可読記憶媒体をさらに提供する。 According to the embodiments of the present invention, the present invention further provides electronic devices and readable storage media.
図6に示すように、本発明の実施例の歩行者を検出するための方法による電子デバイスのブロック図である。電子デバイスは、ラップトップコンピュータ、デスクトップコンピュータ、作業台、パーソナルデジタルアシスタント、サーバー、ブレードサーバ、大型コンピュータ、および他の適切なコンピュータのような様々な形態のデジタルコンピュータを表すことを意図している。電子デバイスは、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、および他の類似のコンピューティングデバイスのような様々な形態のモバイルデバイスを表すこともできる。本明細書に示された部品、それらの接続および関係、およびそれらの機能は、単なる例にすぎず、本明細書で説明されおよび/または要求されている本発明の実現を制限することを意図しない。 As shown in FIG. 6, it is a block diagram of an electronic device by the method for detecting a pedestrian of the embodiment of this invention. Electronic devices are intended to represent various forms of digital computers such as laptop computers, desktop computers, workbench, personal digital assistants, servers, blade servers, large computers, and other suitable computers. Electronic devices can also represent various forms of mobile devices such as personal digital processing, mobile phones, smartphones, wearable devices, and other similar computing devices. The parts, their connections and relationships, and their functions set forth herein are merely examples and are intended to limit the realization of the invention as described and / or required herein. do not do.
図6に示すように、当該電子デバイスは、少なくとも1つのプロセッサ601と、メモリ602と、高速インターフェースと低速インターフェースを含む各部品を接続するためのインターフェースとを含む。各部品は、異なるバス603を利用して互いに接続され、共通マザーボードに取り付けられてもよいし、必要に応じて他の方法で取り付けられてもよい。プロセッサは、GUIのグラフィカル情報を外部入力/出力装置(例えば、インタフェースにカップリングされた表示装置)に表示するためのメモリ内またはメモリ上に記憶された命令を含む、電子デバイス内で実行された指令を処理することができる。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバス603を複数のメモリおよび複数のメモリとともに使用することができる。同様に、複数の電子デバイスを接続してもよく、各機器は、部分的に必要な動作(例えば、サーバアレイ、1組のブレードサーバ、またはマルチプロセッサシステムとして)を提供する。図6では、1つのプロセッサ601を例にとる。
As shown in FIG. 6, the electronic device includes at least one
メモリ602は、本発明による非一時的コンピュータ可読記憶媒体である。ここで、メモリ602は、少なくとも1つのプロセッサによって実行され得る指令を記憶することにより、本発明による歩行者を検出するための方法を少なくとも1つのプロセッサに実行させる。本発明の非一時的コンピュータ可読記憶媒体は、コンピュータ指令を記憶し、当該コンピュータ指令は、本発明による歩行者を検出するための方法をコンピュータに実行させるために使用される。
The
メモリ602は、非一時的コンピュータ可読記憶媒体として、本発明の実施例における歩行者を検出するための方法に対応するプログラム指令/ユニット(例えば、図5に示された画像取得ユニット501、第1のトリミングユニット502、特徴抽出ユニット503、第2のトリミングユニット504および歩行者検出ユニット505)のような、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能プログラム、およびモジュールを記憶するために使用されることができる。プロセッサ601は、メモリ602に記憶された非一時的ソフトウェアプログラム、指令およびモジュールを実行することにより、サーバーの様々な機能アプリケーションおよびデータ処理を実行し、すなわち、上述した方法の実施例における歩行者を検出するための方法が実現される。
The
メモリ602は、プログラム記憶領域およびデータ記憶領域を含むことができ、ここで、プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶領域は、歩行者を検出するための方法を実行する電子デバイスの使用によって作成されたデータなどを記憶することができる。また、メモリ602は、高速ランダムアクセスメモリを含むことができ、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュメモリ装置、または他の非一時的固体記憶装置などの非一時的メモリを含むこともできる。いくつかの実施例では、選択肢の一つとして、メモリ602は、プロセッサ601に対して遠隔的に配置されたメモリを含むことができ、これらの遠隔メモリは、ネットワークを介して歩行者を検出するための方法を実行する電子デバイスに接続されることができる。上記のネットワークの例は、インターネット、企業内ネットワーク、ローカルエリアネットワーク、モバイル通信ネットワークおよびその組み合わせを含むが、これらに限定されない。
The
歩行者を検出するための方法を実行する電子デバイスは、入力装置604および出力装置605をさらに含むことができる。プロセッサ601、メモリ602、入力装置604および出力装置605は、バス603または他の方法で接続されることができ、図6では、バス603で接続されることを例にとる。
Electronic devices that perform the method for detecting pedestrians can further include
入力装置604は、入力された数字または文字メッセージを受信し、歩行者を検出するための方法を実行する電子デバイスのユーザ設定および機能制御に関するキー信号入力を生成することができ、例えばタッチスクリーン、キーパッド、マウス、トラックボード、タッチパッド、指示棒、1つ以上のマウスボタン、トラックボール、ジョイスティックなどの入力装置が挙げられる。出力装置605は、表示装置、補助照明装置(例えば、LED)、および触覚フィードバック装置(例えば、振動モータ)などを含むことができる。当該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、およびプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施例では、表示装置は、タッチスクリーンであってもよい。
The
ここで説明されたシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組み合わせにおいて実現されることができる。これらの様々な実施形態は、以下の内容を含むことができ、即ち、1つ以上のコンピュータプログラムに実施され、当該1つ以上のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行および/または解釈されることができ、当該プログラマブルプロセッサは、専用または汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび指令を受信し、且つデータおよび指令を当該記憶システム、当該少なくとも1つの入力装置、および当該少なくとも1つの出力装置に送信することができる。 Various embodiments of the systems and techniques described herein are realized in digital electronic circuit systems, integrated circuit systems, dedicated ASICs (dedicated integrated circuits), computer hardware, firmware, software, and / or combinations thereof. be able to. These various embodiments may include the following content, i.e., implemented in one or more computer programs, the one or more computer programs running on a programmable system including at least one programmable processor. And / or can be interpreted, the programmable processor may be a dedicated or general purpose programmable processor, receiving data and commands from a storage system, at least one input device, and at least one output device, and. Data and commands can be transmitted to the storage system, the at least one input device, and the at least one output device.
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとも呼ばれる)は、プログラマブルプロセッサのマシン指令を含み、高度なプロセスおよび/またはオブジェクトに向けたプログラミング言語、および/またはアセンブリ/マシン言語を利用してこれらの計算プログラムを実行することができる。本明細書で使用されたような用語「機械可読媒体」および「コンピュータ可読媒体」とは、機械指令および/またはデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、デバイス、および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械可読信号である機械指令を受信する機械可読媒体を含む。用語「機械可読信号」とは、機械指令および/またはデータをプログラマブルプロセッサに提供するための任意の信号を指す。 These computational programs (also called programs, software, software applications, or codes) include machine instructions for programmable processors, utilize programming languages for advanced processes and / or objects, and / or assembly / machine languages. You can run these calculators. As used herein, the terms "machine readable medium" and "computer readable medium" are any computer program product, device, and / or device for providing machine instructions and / or data to a programmable processor. (For example, a magnetic disk, an optical disk, a memory, a programmable logic device (PLD)), and includes a machine-readable medium that receives a machine-readable signal, which is a machine-readable signal. The term "machine readable signal" refers to any signal for providing machine commands and / or data to a programmable processor.
ユーザとのインタラクティブを提供するために、ここで説明されたシステムおよび技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、キーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)を備え、ユーザーは、当該キーボードおよび当該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクティブを提供するために使用されることもできる。例えば、ユーザに提供されたフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、任意の形態(声入力、音声入力、または触覚入力を含む)でユーザからの入力を受信してもよい。 In order to provide interaction with the user, the systems and techniques described herein can be implemented on a computer, which is a display device for displaying information to the user (eg, a CRT). Alternatively, it comprises an LCD (Liquid Crystal Display) monitor), a keyboard and a pointing device (eg, a mouse or trackball), and the user can provide input to the computer via the keyboard and the pointing device. Other types of devices can also be used to provide interactivity with the user. For example, the feedback provided to the user may be any form of sensing feedback (eg, visual feedback, auditory feedback, or tactile feedback), including any form (voice input, voice input, or tactile input). ) May receive input from the user.
ここで説明されたシステムおよび技術を、バックグラウンド部品を含む計算システム(例えば、データサーバー)、またはミドルウエア部品を含む計算システム(例えば、アプリケーションサーバー)、またはフロントエンド部品を含む計算システム(例えば、グラフィカルユーザインタフェースまたはネットワークブラウザを有するユーザコンピュータが挙げられ、ユーザーは、当該グラフィカルユーザインタフェースまたは当該ネットワークブラウザを介してここで説明されたシステムおよび技術の実施形態とインタラクティブに動作することができ)、またはこのようなバックグラウンド部品、ミドルウエア部品、またはフロントエンド部品の任意の組合せを含む計算システム上で実施することができる。システムの部品は、任意の形態またはメディアのデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されてもよい。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、およびインターネットを含む。 The systems and techniques described herein can be a computing system that includes background components (eg, a data server), or a computing system that includes middleware components (eg, an application server), or a computing system that includes front-end components (eg,). A user computer having a graphical user interface or network browser may be mentioned, and the user may interact with embodiments of the systems and techniques described herein via the graphical user interface or network browser), or. It can be implemented on a computing system that includes any combination of such background components, middleware components, or front-end components. The components of the system may be interconnected by any form or media digital data communication (eg, a communication network). Examples of communication networks include local area networks (LANs), wide area networks (WANs), and the Internet.
コンピュータシステムは、クライアントとサーバーとを含むことができる。クライアントとサーバーは、一般に互いに離れ、通常は通信ネットワークを介してインタラクティブに動作する。クライアントとサーバーとの関係は、対応するコンピュータ上で実行され、且つ互いにクライアントーサーバー関係を有するコンピュータプログラムによって生成される。 A computer system can include a client and a server. Clients and servers are generally separated from each other and usually operate interactively over a communication network. The client-server relationship is generated by a computer program that runs on the corresponding computer and has a client-server relationship with each other.
以上で示された様々な形態のフローを用いて、ステップを並べ替え、追加、または削除できることを理解すべきである。例えば、本発明に記載された各ステップは、並列的に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよく、本発明に開示された技術案の所望の結果が達成される限り、本明細書では制限しない。 It should be understood that steps can be sorted, added, or deleted using the various forms of flow shown above. For example, each step described in the present invention may be performed in parallel, sequentially, or in a different order, as desired by the proposed technology disclosed in the present invention. As long as the results are achieved, no limitation is made herein.
上記具体的な実施形態は、本発明の保護範囲に対する制限を構成するものではない。当業者は、設計要件とその他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、および代替を行うことが可能であることを理解すべきである。本発明の精神及び原則内でなされたいかなる修正、均等置換及び改善等は、いずれも本発明の保護範囲に含まれるべきである。
The specific embodiment does not constitute a limitation on the scope of protection of the present invention. Those skilled in the art should understand that various modifications, combinations, sub-combinations, and alternatives can be made, depending on design requirements and other factors. Any modifications, equal substitutions, improvements, etc. made within the spirit and principles of the invention should be included in the scope of protection of the invention.
Claims (15)
前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得ることと、
前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることと、
前記特徴マップをトリミング処理することにより、第2のトリミング画像を得ることと、
前記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得ることと
を含む、歩行者を検出するための方法。 To get the target image and
By trimming the target image, a first trimmed image can be obtained.
By extracting the features of the first trimmed image, a feature map can be obtained.
By trimming the feature map, a second trimmed image can be obtained.
A method for detecting a pedestrian, which comprises obtaining a pedestrian detection result by identifying the pedestrian in the second cropped image.
前記第1のトリミング画像に対して少なくとも2回の畳み込み演算を行うことと、
少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行うことにより、前記特徴マップを得ることと
を含む、請求項2に記載の方法。 Obtaining the feature map by extracting the features of the first trimmed image and trimming the first trimmed image in the extraction process is possible.
Performing the convolution operation at least twice for the first cropped image,
The method according to claim 2, wherein the feature map is obtained by performing a trimming process at least once on the obtained feature map after at least one convolution operation.
前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得るように構成される第1のトリミングユニットと、
前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得るように構成される特徴抽出ユニットと、
前記特徴マップをトリミング処理することにより、第2のトリミング画像を得るように構成される第2のトリミングユニットと、
前記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得るように構成される歩行者検出ユニットと
を含む、歩行者を検出するための装置。 An image acquisition unit configured to acquire the target image, and
A first trimming unit configured to obtain a first trimmed image by trimming the target image, and a first trimming unit.
A feature extraction unit configured to obtain a feature map by extracting features of the first trimmed image, and a feature extraction unit.
A second trimming unit configured to obtain a second trimmed image by trimming the feature map, and a second trimming unit.
A device for detecting a pedestrian, including a pedestrian detection unit configured to obtain a pedestrian detection result by identifying the pedestrian in the second cropped image.
前記第1のトリミング画像に対して少なくとも2回の畳み込み演算を行い、
少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行う
ことにより前記特徴マップを得るようにさらに構成される、請求項8に記載の装置。 The feature extraction unit is
The first cropped image is subjected to at least two convolution operations.
The apparatus according to claim 8, further configured to obtain the feature map by performing at least one trimming process on the obtained feature map after at least one convolution operation.
車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とするように構成される、請求項7に記載の装置。 The image acquisition unit further
The device according to claim 7, wherein an image collected by a drive recorder attached to a vehicle is used as a target image.
1つ以上のプログラムが記憶された記憶装置と
を含み、
前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1〜6のいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、電子デバイス。 With one or more processors
Including a storage device in which one or more programs are stored.
An electronic device that, when the one or more programs are executed by the one or more processors, realizes the method according to any one of claims 1 to 6 on the one or more processors.
A computer program that realizes the method according to any one of claims 1 to 6, when the computer program is executed by a processor.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010523215.7 | 2020-06-10 | ||
CN202010523215.7A CN111695491B (en) | 2020-06-10 | 2020-06-10 | Method and device for detecting pedestrians |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021192224A true JP2021192224A (en) | 2021-12-16 |
JP7269979B2 JP7269979B2 (en) | 2023-05-09 |
Family
ID=72480066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021054113A Active JP7269979B2 (en) | 2020-06-10 | 2021-03-26 | Method and apparatus, electronic device, computer readable storage medium and computer program for detecting pedestrians |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7269979B2 (en) |
KR (1) | KR20210042859A (en) |
CN (1) | CN111695491B (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183431A (en) * | 2020-10-12 | 2021-01-05 | 上海汉时信息科技有限公司 | Real-time pedestrian number statistical method and device, camera and server |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191369A (en) * | 2014-03-27 | 2015-11-02 | 株式会社メガチップス | object detection apparatus |
JP2019008460A (en) * | 2017-06-22 | 2019-01-17 | 株式会社東芝 | Object detection device and object detection method and program |
WO2019102796A1 (en) * | 2017-11-21 | 2019-05-31 | 富士フイルム株式会社 | Recognition device, recognition method, and program |
WO2020107510A1 (en) * | 2018-11-27 | 2020-06-04 | Beijing Didi Infinity Technology And Development Co., Ltd. | Ai systems and methods for objection detection |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5580233B2 (en) * | 2011-03-22 | 2014-08-27 | 富士重工業株式会社 | Outside vehicle monitoring apparatus and outside vehicle monitoring method |
KR101503788B1 (en) * | 2013-12-27 | 2015-03-19 | 숭실대학교산학협력단 | Pedestrian detection method using estimation of feature information based on integral image, recording medium and terminal for performing the method |
US9563808B2 (en) * | 2015-01-14 | 2017-02-07 | GM Global Technology Operations LLC | Target grouping techniques for object fusion |
WO2017173605A1 (en) * | 2016-04-06 | 2017-10-12 | Xiaogang Wang | Method and system for person recognition |
CN105976698B (en) * | 2016-04-29 | 2019-07-19 | 百度在线网络技术(北京)有限公司 | Road rendering method and device in a kind of electronic map |
CN109784129A (en) * | 2017-11-14 | 2019-05-21 | 北京京东尚科信息技术有限公司 | Information output method and device |
CN108133217B (en) * | 2017-11-22 | 2018-10-30 | 北京达佳互联信息技术有限公司 | Characteristics of image determines method, apparatus and terminal |
CN108776970B (en) * | 2018-06-12 | 2021-01-12 | 北京字节跳动网络技术有限公司 | Image processing method and device |
CN109657643A (en) * | 2018-12-29 | 2019-04-19 | 百度在线网络技术(北京)有限公司 | A kind of image processing method and device |
CN109871792B (en) * | 2019-01-31 | 2020-12-29 | 清华大学 | Pedestrian detection method and device |
CN110175595B (en) * | 2019-05-31 | 2021-03-02 | 北京金山云网络技术有限公司 | Human body attribute recognition method, recognition model training method and device |
CN110555420B (en) * | 2019-09-09 | 2022-04-12 | 电子科技大学 | Fusion model network and method based on pedestrian regional feature extraction and re-identification |
CN110580678B (en) * | 2019-09-10 | 2023-06-20 | 北京百度网讯科技有限公司 | Image processing method and device |
-
2020
- 2020-06-10 CN CN202010523215.7A patent/CN111695491B/en active Active
-
2021
- 2021-03-26 JP JP2021054113A patent/JP7269979B2/en active Active
- 2021-03-31 KR KR1020210041761A patent/KR20210042859A/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015191369A (en) * | 2014-03-27 | 2015-11-02 | 株式会社メガチップス | object detection apparatus |
JP2019008460A (en) * | 2017-06-22 | 2019-01-17 | 株式会社東芝 | Object detection device and object detection method and program |
WO2019102796A1 (en) * | 2017-11-21 | 2019-05-31 | 富士フイルム株式会社 | Recognition device, recognition method, and program |
WO2020107510A1 (en) * | 2018-11-27 | 2020-06-04 | Beijing Didi Infinity Technology And Development Co., Ltd. | Ai systems and methods for objection detection |
Also Published As
Publication number | Publication date |
---|---|
CN111695491A (en) | 2020-09-22 |
KR20210042859A (en) | 2021-04-20 |
JP7269979B2 (en) | 2023-05-09 |
CN111695491B (en) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11790553B2 (en) | Method and apparatus for detecting target object, electronic device and storage medium | |
JP7189270B2 (en) | Three-dimensional object detection method, three-dimensional object detection device, electronic device, storage medium, and computer program | |
CN111967297B (en) | Image semantic segmentation method and device, electronic equipment and medium | |
JP2021197157A (en) | Key point specification method, device, apparatus, and storage media | |
JP2021101365A (en) | Positioning method, positioning device, and electronic device | |
CN110675635B (en) | Method and device for acquiring external parameters of camera, electronic equipment and storage medium | |
KR20210036319A (en) | Method, apparatus and electronic device for identifying text content | |
US11557047B2 (en) | Method and apparatus for image processing and computer storage medium | |
EP3901908B1 (en) | Method and apparatus for tracking target, device, medium and computer program product | |
JP2021108186A (en) | Method for recognizing image, device, electronic device, storage medium, and program | |
CN112631947B (en) | Test control method and device for application program, electronic equipment and storage medium | |
US11423650B2 (en) | Visual positioning method and apparatus, and computer-readable storage medium | |
JP2021103558A (en) | Image processing method, image processing apparatus, electronic device, and storage medium | |
JP2021152901A (en) | Method and apparatus for creating image | |
CN111695516B (en) | Thermodynamic diagram generation method, device and equipment | |
JP2021192224A (en) | Method and device, electronic device, computer-readable storage medium, and computer program for detecting pedestrian | |
CN113297973A (en) | Key point detection method, device, equipment and computer readable medium | |
CN111696134A (en) | Target detection method and device and electronic equipment | |
CN110633595B (en) | Target detection method and device by utilizing bilinear interpolation | |
CN111522837B (en) | Method and apparatus for determining time consumption of deep neural network | |
CN112053280B (en) | Panoramic map display method, device, equipment and storage medium | |
CN111753960B (en) | Model training and image processing method and device, electronic equipment and storage medium | |
CN112541934B (en) | Image processing method and device | |
KR20210132719A (en) | Adaptation methods, devices and electronics of deep learning models | |
CN112101284A (en) | Image recognition method, training method, device and system of image recognition model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210913 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211101 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20220915 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7269979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |