JP7269979B2 - 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents

歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP7269979B2
JP7269979B2 JP2021054113A JP2021054113A JP7269979B2 JP 7269979 B2 JP7269979 B2 JP 7269979B2 JP 2021054113 A JP2021054113 A JP 2021054113A JP 2021054113 A JP2021054113 A JP 2021054113A JP 7269979 B2 JP7269979 B2 JP 7269979B2
Authority
JP
Japan
Prior art keywords
image
feature map
target image
cropping
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021054113A
Other languages
English (en)
Other versions
JP2021192224A (ja
Inventor
ヂァン・シァンシィン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2021192224A publication Critical patent/JP2021192224A/ja
Application granted granted Critical
Publication of JP7269979B2 publication Critical patent/JP7269979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明の実施例は、コンピュータ技術の分野に関し、特に画像処理の分野に関し、具体的には歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
歩行者の検出アルゴリズムの正確さの継続的な進歩、及びトリップコンピュータ側での計算量の少ない歩行者検出に対する切実なニーズに伴い、ますます多くの歩行者の検出アルゴリズムをモバイル端末に置く。これらのモバイル端末はハードウェアレベルが低く、計算能力が低い。現在、効果の良い歩行者の検出アルゴリズムがディープラーニング技術を使用するが、ディープラーニングアルゴリズムは多くの計算リソースを必要とする。これらのディープラーニングアルゴリズムがハードウェアレベルの低いモバイル端末では動作できないことが多い。
本発明の実施例では、歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラムを提案する。
第1態様において、ターゲット画像を取得することと、上記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得ることと、上記第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることと、上記特徴マップをトリミング処理することにより、第2のトリミング画像を得ることと、上記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得ることとを含む、歩行者を検出するための方法に関する。
第2態様において、ターゲット画像を取得するように構成される画像取得ユニットと、上記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得るように構成される第1のトリミングユニットと、上記第1のトリミング画像の特徴を抽出することにより、特徴マップを得るように構成される特徴抽出ユニットと、上記特徴マップをトリミング処理することにより、第2のトリミング画像を得るように構成される第2のトリミングユニットと、上記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得るように構成される歩行者検出ユニットとを含む、歩行者を検出するための装置に関する。
第3態様において、本発明の実施例は、1つ以上のプロセッサと、1つ以上のプログラムが記憶された記憶装置とを含み、上記1つ以上のプログラムが上記1つ以上のプロセッサによって実行されるとき、第1態様のいずれかの実施例で説明された方法を上記1つ以上のプロセッサに実行させる電子デバイスに関する。
第4態様において、本発明の実施例は、コンピュータプログラムが記憶されたコンピュータ可読媒体であって、上記コンピュータプログラムがプロセッサによって実行されるとき、第1態様のいずれかの実施例で説明された方法を実現するコンピュータ可読媒体に関する。
第5態様において、本発明の実施例は、コンピュータプログラムであって、上記コンピュータプログラムがプロセッサによって実行されるとき、第1態様のいずれかの実施例で説明された方法を実現するコンピュータプログラムに関する。
本発明の技術によると、既存の歩行者の検出アルゴリズムの計算量が大きいという問題が解決され、ターゲット画像をトリミング処理することにより、画像の計算量を低減し、計算リソースの使用量を低減し、ハードウェアレベルが低いモバイル端末に、より便利に適用することができる。
本明細書で記載された内容は、本開示の実施例のキーまたは重要な特徴を特定することを意図したものではなく、本開示の範囲を制限するものでもないことを理解すべきである。本開示の他の特徴は、以下の説明によって容易に理解される。
本発明のその他の特徴、目的および利点をより明確にするために、以下の図面を参照してなされた非限定的な実施例の詳細な説明を参照する。
本発明の一実施例が適用可能な例示的なシステムアーキテクチャ図である。 本発明による歩行者を検出するための方法の一実施例のフローチャートである。 図2に示された第1の実施例による応用シーンを示す概略図である。 本発明による歩行者を検出するための方法の一実施例のフローチャートである。 本発明による歩行者を検出するための装置の一実施例の概略構成図である。 本発明の実施例を実現するために適用される電子デバイスのコンピュータシステムの概略構成図である。
以下、図面及び実施例を参照して本発明をさらに詳細に説明する。ここで説明された具体的な実施例は、単に関連発明を説明するためのものであって、当該発明を限定するものではないことが理解される。なお、説明を容易にするために、図面には、関連発明に関する部分のみが示されている。
なお、矛盾しない場合には、本発明の実施例及び実施例における特徴を互いに組み合わせることができる。以下、図面を参照して、実施例に合わせて本発明を詳細に説明する。
図1には、本発明が適用され得る、歩行者を検出するための方法又は歩行者を検出するための装置の実施例の例示的なシステムアーキテクチャ100が示されている。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103および画像収集装置104を含むことができる。画像収集装置104と端末装置101、102、104との間は、ネットワーク通信によって接続され、ネットワークは、例えば有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
端末装置101、102、103は、ネットワークを介して画像収集装置104によって収集された画像を受信し、画像を処理することができる。画像収集装置104は、端末装置101、102、103に取り付けられることができる。
なお、端末装置101、102、103は、ハードウェアでもソフトウェアでもよい。端末装置101、102、103がハードウェアである場合、ディスプレイを有し、画像処理をサポートする様々な電子デバイスであってもよく、スマートフォン、タブレットコンピューター、ラップトップコンピューター、デスクトップコンピューターなどが含まれるが、これらに限定されない。端末装置101、102、103がソフトウェアである場合、上述した電子デバイスに取り付けられることができる。複数のソフトウェアまたはソフトウェアモジュール(例えば分散型サービスを提供する)として実現されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここで、具体的に限定しない。
画像収集装置104は、カメラ、ビデオカメラなどの画像を収集するための様々な装置であってもよい。画像収集装置104は、収集した画像をリアルタイムで端末装置101、102、103に送信することができる。
なお、本発明の実施例による歩行者を検出するための方法は、端末装置101、102、103によって実行されてもよいし、画像収集装置104によって実行されてもよい。これに対応して、歩行者を検出するための装置は、一般的に端末装置101、102、103に配置されてもよいし、画像収集装置104に配置されてもよい。
図1の端末装置および画像収集装置の数は単なる例示であることを理解すべきである。必要に応じて、任意の数の端末装置および画像収集装置を備えることができる。
続けて図2を参照すると、本発明による歩行者を検出するための方法の一実施例のフロー200が示されている。本実施例の歩行者を検出するための方法は、以下のステップを含む。
ステップ201において、ターゲット画像を取得する。
本実施例において、歩行者を検出するための方法の実行主体(例えば図1に示された端末装置101、102、103または画像収集装置104)は、有線接続または無線接続によってターゲット画像を取得することができる。ここで、ターゲット画像は、歩行者を含む任意の画像であることができる。
ステップ202において、ターゲット画像をトリミング処理することにより、第1のトリミング画像を得る。
実行主体は、ターゲット画像を得た後、画像をトリミング処理することにより、第1のトリミング画像を得ることができる。具体的には、実行主体は、上方の一部の領域をトリミングすることにより、第1のトリミング画像を得ることができる。または、実行主体は、ターゲット画像をプリセットサイズにトリミングすることにより、第1のトリミング画像を得ることもできる。実行主体によってトリミングされた部分には有効な歩行者情報が含まれなくてもよく、すなわち、トリミングされた部分には歩道橋を歩く歩行者が含まれることが理解できる。第1のトリミング画像には有効な歩行者情報が含まれる。
ステップ203において、第1のトリミング画像の特徴を抽出することにより、特徴マップを得る。
実行主体は、第1のトリミング画像を得た後、第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることができる。具体的には、実行主体は、様々な特徴抽出アルゴリズムを用いて、第1のトリミング画像に対し特徴抽出を行うことにより、特徴マップを得ることができる。上記特徴抽出アルゴリズムは、畳み込みニューラルネットワークなどを含むことができる。上記特徴マップには、例えば歩行者の輪郭、位置、中心などの有効な歩行者の情報が含まれてもよい。
ステップ204において、特徴マップをトリミング処理することにより、第2のトリミング画像を得る。
実行主体は、特徴マップを得た後、特徴マップをトリミング処理することにより、第2のトリミング画像を得ることができる。ステップ203の特徴抽出の後、特徴マップには、歩行者の一部の情報が含まれ、すなわち歩行者検出に必要な情報が含まれていることが理解できる。これに加えて、計算量をさらに減らすために、特徴マップをさらにトリミング処理することにより、第2のトリミング画像を得ることができる。ここで、実行主体は、特徴マップの上方の一部の領域をトリミングすることができる。または、実行主体は、特徴マップをプリセットサイズにトリミングすることもできる。
ステップ205において、第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得る。
第2のトリミング画像を得た後、実行主体は、第2のトリミング画像に対して歩行者検出を行うことにより、歩行者の検出結果を得る。具体的には、実行主体は、様々な歩行者検出アルゴリズムを用いて、第2のトリミング画像を処理することにより、歩行者の検出結果を得ることができる。上記歩行者検出アルゴリズムは、様々なニューラルネットワークを含むことができる。
本発明の上記実施例による歩行者を検出するための方法では、ターゲット画像を複数回トリミングしながら歩行者の特徴を抽出することができ、計算量を減らすとともに、歩行者検出の正確性も確保できる。
続けて図3を参照すると、本発明による歩行者を検出するための方法の別の実施例のフロー300が示されている。図3に示すように、本実施例の方法は、以下のステップを含む。
ステップ301において、車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とする。
実行主体は、車両に取り付けられたドライブレコーダーで収集された画像を取得し、上記画像をターゲット画像とすることができる。上記画像には、車両の走行環境の情報が含まれることができる。ドライブレコーダーの取り付け位置が比較的低く、収集された画像には歩道橋情報が含まれることができ、上記歩道橋には歩行者がいる可能性があることは理解できる。上記歩行者は車両の走行に影響しないので、上記歩行者を検出する必要はない。
ステップ302において、ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、第1のトリミング画像を得る。
本実施例において、実行主体は、ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、第1のトリミング画像を得ることができる。上記プリセット比率は、画像に含まれるコンテンツによって確定されることができる。具体的には、実行主体は、ターゲット画像における各オブジェクトを識別し、車両からプリセット距離以外の領域に含まれるオブジェクトをトリミングすることができる。例を挙げると、実行主体は、車両の前方50メートル先の領域をトリミングすることができる。上記領域は、ターゲット画像の上方にある。いくつかの具体的な適用例では、上記プリセット比率は、1/4であってもよい。
ステップ303において、第1のトリミング画像の特徴を抽出し、抽出プロセスにおいて第1のトリミング画像をトリミング処理することにより、特徴マップを得る。
本実施例において、実行主体は、第1のトリミング画像を得た後、第1のトリミング画像を抽出し特徴抽出を行い、抽出プロセスにおいて第1のトリミング画像をトリミング処理することにより、特徴マップを得る。具体的には、実行主体は、特徴抽出アルゴリズムを用いて、第1のトリミング画像に対し特徴抽出を行った後、中間特徴マップを得ることができる。そして、実行主体は、得られた中間特徴マップをトリミングすることができる。そして、実行主体は、特徴抽出アルゴリズムを用いて、トリミングされた後の中間特徴マップに対して再度特徴抽出を行うことにより、再度中間特徴マップを得る。実行主体は、得られた中間特徴マップを再度トリミングすることにより、特徴マップを得ることができる。実行主体は、第1のトリミング画像の特徴を複数回抽出することにより、特徴マップを得ることができ、得られた特徴マップを複数回トリミングすることにより、特徴マップを得ることもできることが理解できる。このようにすると、歩行者の有効な特徴をトリミングしないことが保証される。
本実施例のいくつかの選択可能な実施形態において、実行主体は、図3に示されない以下のステップによって特徴マップを得ることができ、即ち、第1のトリミング画像に対して少なくとも2回の畳み込み演算を行い、少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行うことにより、特徴マップを得る。
本実施例において、実行主体は、少なくとも2つの畳み込み層を用いて、第1のトリミング画像に対して特徴抽出を行うことができる。実行主体は、上記少なくとも2つの畳み込み層を用いて、第1のトリミング画像に対して少なくとも2回の畳み込み演算を行うことができる。畳み込み演算を行うたびに、中間特徴マップが得られることが理解できる。少なくとも1回の畳み込み演算の後、得られた中間特徴マップに対して少なくとも1回のトリミング処理を行う。具体的には、実行主体は、2回の畳み込み演算を行った後、得られた中間特徴マップに対して1回のトリミング処理を行うことができる。例えば、中間特徴マップの上方の1/9の領域をトリミングする。または、実行主体は、1回の畳み込み演算を行った後、中間特徴マップの上方の1/18の領域をトリミングする。この後、トリミングされた中間特徴マップに対して畳み込み演算を再度行うことにより、中間特徴マップを再度得る。上記中間特徴マップを再度トリミングし、即ち、中間特徴マップの上方の1/18の領域を再度トリミングする。
歩行者の中心が一般的にターゲット画像の中下に位置し、歩行者の特徴を抽出するので、得られた中間特徴マップの上方の領域をトリミングすることができる。このようにすると、歩行者の有効な特徴をトリミングしないことが保証される。
ステップ304において、特徴マップをトリミング処理することにより、第2のトリミング画像を得る。
特徴マップを得た後、実行主体は、得られた特徴マップをトリミング処理することができる。特徴マップには歩行者の中心位置情報が含まれる。したがって、この場合、特徴マップを再度トリミング処理しても、歩行者の検出結果に影響を与えない。計算量を減らすために、特徴マップの上方の一部の領域をトリミングすることができる。いくつかの具体的な適用例では、上記の一部の領域は、1/4の領域であってもよい。
本実施例のいくつかの選択可能な実施形態において、上記第2のトリミング画像のサイズは、ターゲット画像のサイズの1/2以上である。
本実施形態では、歩行者検出の計算量を低減しながら、歩行者検出の正確性を確保するために、第2のトリミング画像のサイズをターゲット画像のサイズの1/2以上とする。
ステップ305において、第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得る。
続けて図4を参照すると、図4は、本実施例による歩行者を検出するための方法の一応用シーンを示す概略図である。図4の応用シーンでは、自動運転車にはドライブレコーダー401が取り付けられ、ドライブレコーダー401は、収集した画像を自動運転車の車載コンピュータ402に送信することができる。上記車載コンピュータ402は、上記実施例によって歩行者検出を行うことにより、歩行者の検出結果を得ることができる。
本発明の上記実施例による歩行者を検出するための方法では、ドライブレコーダーで収集された画像を複数回トリミング処理し、且つ有効な歩行者情報を含む特徴をできるだけ抽出することができるため、歩行者検出の正確性を確保するとともに、歩行者検出の計算量を低減することができる。
さらに図5を参照して、上記の各図に示された方法の実現として、本発明は歩行者を検出するための装置の一実施例を提供し、当該装置の実施例は、図2に示す方法実施例に対応し、当該装置は、具体的に様々な電子デバイスに適用できる。
図5に示すように、本実施例に係る歩行者を検出するための装置500は、画像取得ユニット501と、第1のトリミングユニット502と、特徴抽出ユニット503と、第2のトリミングユニット504と、歩行者検出ユニット505とを含む。
画像取得ユニット501は、ターゲット画像を取得するように構成される。
第1のトリミングユニット502は、ターゲット画像をトリミング処理することにより、第1のトリミング画像を得るように構成される。
特徴抽出ユニット503は、第1のトリミング画像の特徴を抽出することにより、特徴マップを得るように構成される。
第2のトリミングユニット504は、特徴マップをトリミング処理することにより、第2のトリミング画像を得るように構成される。
歩行者検出ユニット505は、第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得る。
本実施例のいくつかの選択可能な実施形態において、特徴抽出ユニット503は、さらに、第1のトリミング画像の特徴を抽出し、抽出プロセスにおいて第1のトリミング画像をトリミング処理することにより、特徴マップを得るように構成される。
本実施例のいくつかの選択可能な実施形態において、特徴抽出ユニット503は、さらに、第1のトリミング画像に対して少なくとも2回の畳み込み演算を行い、少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行うことにより、特徴マップを得るように構成される。
本実施例のいくつかの選択可能な実施形態において、画像取得ユニット501は、さらに、車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とするように構成される。
本実施例のいくつかの選択可能な実施形態において、第1のトリミングユニット502は、さらに、ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、第1のトリミング画像を得るように構成される。
本実施例のいくつかの選択可能な実施形態において、第2のトリミング画像のサイズは、ターゲット画像のサイズの1/2以上である。
歩行者を検出するための装置500に記載されたユニット501~ユニット505は、それぞれ図2を参照して説明された方法における各ステップに対応することを理解すべきである。したがって、上記の歩行者を検出するための方法について説明された動作および特徴は、装置500およびその中に含まれるユニットにも同様に適用され、ここでは説明を省略する。
本発明の実施例によると、本発明は、電子デバイス及び可読記憶媒体をさらに提供する。
図6に示すように、本発明の実施例の歩行者を検出するための方法による電子デバイスのブロック図である。電子デバイスは、ラップトップコンピュータ、デスクトップコンピュータ、作業台、パーソナルデジタルアシスタント、サーバー、ブレードサーバ、大型コンピュータ、および他の適切なコンピュータのような様々な形態のデジタルコンピュータを表すことを意図している。電子デバイスは、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、および他の類似のコンピューティングデバイスのような様々な形態のモバイルデバイスを表すこともできる。本明細書に示された部品、それらの接続および関係、およびそれらの機能は、単なる例にすぎず、本明細書で説明されおよび/または要求されている本発明の実現を制限することを意図しない。
図6に示すように、当該電子デバイスは、少なくとも1つのプロセッサ601と、メモリ602と、高速インターフェースと低速インターフェースを含む各部品を接続するためのインターフェースとを含む。各部品は、異なるバス603を利用して互いに接続され、共通マザーボードに取り付けられてもよいし、必要に応じて他の方法で取り付けられてもよい。プロセッサは、GUIのグラフィカル情報を外部入力/出力装置(例えば、インタフェースにカップリングされた表示装置)に表示するためのメモリ内またはメモリ上に記憶された命令を含む、電子デバイス内で実行された指令を処理することができる。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバス603を複数のメモリおよび複数のメモリとともに使用することができる。同様に、複数の電子デバイスを接続してもよく、各機器は、部分的に必要な動作(例えば、サーバアレイ、1組のブレードサーバ、またはマルチプロセッサシステムとして)を提供する。図6では、1つのプロセッサ601を例にとる。
メモリ602は、本発明による非一時的コンピュータ可読記憶媒体である。ここで、メモリ602は、少なくとも1つのプロセッサによって実行され得る指令を記憶することにより、本発明による歩行者を検出するための方法を少なくとも1つのプロセッサに実行させる。本発明の非一時的コンピュータ可読記憶媒体は、コンピュータ指令を記憶し、当該コンピュータ指令は、本発明による歩行者を検出するための方法をコンピュータに実行させるために使用される。
メモリ602は、非一時的コンピュータ可読記憶媒体として、本発明の実施例における歩行者を検出するための方法に対応するプログラム指令/ユニット(例えば、図5に示された画像取得ユニット501、第1のトリミングユニット502、特徴抽出ユニット503、第2のトリミングユニット504および歩行者検出ユニット505)のような、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能プログラム、およびモジュールを記憶するために使用されることができる。プロセッサ601は、メモリ602に記憶された非一時的ソフトウェアプログラム、指令およびモジュールを実行することにより、サーバーの様々な機能アプリケーションおよびデータ処理を実行し、すなわち、上述した方法の実施例における歩行者を検出するための方法が実現される。
メモリ602は、プログラム記憶領域およびデータ記憶領域を含むことができ、ここで、プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶領域は、歩行者を検出するための方法を実行する電子デバイスの使用によって作成されたデータなどを記憶することができる。また、メモリ602は、高速ランダムアクセスメモリを含むことができ、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュメモリ装置、または他の非一時的固体記憶装置などの非一時的メモリを含むこともできる。いくつかの実施例では、選択肢の一つとして、メモリ602は、プロセッサ601に対して遠隔的に配置されたメモリを含むことができ、これらの遠隔メモリは、ネットワークを介して歩行者を検出するための方法を実行する電子デバイスに接続されることができる。上記のネットワークの例は、インターネット、企業内ネットワーク、ローカルエリアネットワーク、モバイル通信ネットワークおよびその組み合わせを含むが、これらに限定されない。
歩行者を検出するための方法を実行する電子デバイスは、入力装置604および出力装置605をさらに含むことができる。プロセッサ601、メモリ602、入力装置604および出力装置605は、バス603または他の方法で接続されることができ、図6では、バス603で接続されることを例にとる。
入力装置604は、入力された数字または文字メッセージを受信し、歩行者を検出するための方法を実行する電子デバイスのユーザ設定および機能制御に関するキー信号入力を生成することができ、例えばタッチスクリーン、キーパッド、マウス、トラックボード、タッチパッド、指示棒、1つ以上のマウスボタン、トラックボール、ジョイスティックなどの入力装置が挙げられる。出力装置605は、表示装置、補助照明装置(例えば、LED)、および触覚フィードバック装置(例えば、振動モータ)などを含むことができる。当該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、およびプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施例では、表示装置は、タッチスクリーンであってもよい。
ここで説明されたシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組み合わせにおいて実現されることができる。これらの様々な実施形態は、以下の内容を含むことができ、即ち、1つ以上のコンピュータプログラムに実施され、当該1つ以上のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行および/または解釈されることができ、当該プログラマブルプロセッサは、専用または汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび指令を受信し、且つデータおよび指令を当該記憶システム、当該少なくとも1つの入力装置、および当該少なくとも1つの出力装置に送信することができる。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとも呼ばれる)は、プログラマブルプロセッサのマシン指令を含み、高度なプロセスおよび/またはオブジェクトに向けたプログラミング言語、および/またはアセンブリ/マシン言語を利用してこれらの計算プログラムを実行することができる。本明細書で使用されたような用語「機械可読媒体」および「コンピュータ可読媒体」とは、機械指令および/またはデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、デバイス、および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械可読信号である機械指令を受信する機械可読媒体を含む。用語「機械可読信号」とは、機械指令および/またはデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクティブを提供するために、ここで説明されたシステムおよび技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、キーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)を備え、ユーザーは、当該キーボードおよび当該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクティブを提供するために使用されることもできる。例えば、ユーザに提供されたフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、任意の形態(声入力、音声入力、または触覚入力を含む)でユーザからの入力を受信してもよい。
ここで説明されたシステムおよび技術を、バックグラウンド部品を含む計算システム(例えば、データサーバー)、またはミドルウエア部品を含む計算システム(例えば、アプリケーションサーバー)、またはフロントエンド部品を含む計算システム(例えば、グラフィカルユーザインタフェースまたはネットワークブラウザを有するユーザコンピュータが挙げられ、ユーザーは、当該グラフィカルユーザインタフェースまたは当該ネットワークブラウザを介してここで説明されたシステムおよび技術の実施形態とインタラクティブに動作することができ)、またはこのようなバックグラウンド部品、ミドルウエア部品、またはフロントエンド部品の任意の組合せを含む計算システム上で実施することができる。システムの部品は、任意の形態またはメディアのデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されてもよい。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、およびインターネットを含む。
コンピュータシステムは、クライアントとサーバーとを含むことができる。クライアントとサーバーは、一般に互いに離れ、通常は通信ネットワークを介してインタラクティブに動作する。クライアントとサーバーとの関係は、対応するコンピュータ上で実行され、且つ互いにクライアントーサーバー関係を有するコンピュータプログラムによって生成される。
以上で示された様々な形態のフローを用いて、ステップを並べ替え、追加、または削除できることを理解すべきである。例えば、本発明に記載された各ステップは、並列的に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよく、本発明に開示された技術案の所望の結果が達成される限り、本明細書では制限しない。
上記具体的な実施形態は、本発明の保護範囲に対する制限を構成するものではない。当業者は、設計要件とその他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、および代替を行うことが可能であることを理解すべきである。本発明の精神及び原則内でなされたいかなる修正、均等置換及び改善等は、いずれも本発明の保護範囲に含まれるべきである。
なお、出願当初の特許請求の範囲の記載は以下の通りである。
請求項1:
ターゲット画像を取得することと、
前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得ることと、
前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることと、
前記特徴マップをトリミング処理することにより、第2のトリミング画像を得ることと、
前記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得ることと
を含む、歩行者を検出するための方法。
請求項2:
前記前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることは、前記第1のトリミング画像の特徴を抽出し、抽出プロセスにおいて前記第1のトリミング画像をトリミング処理することにより、前記特徴マップを得ることを含む、請求項1に記載の方法。
請求項3:
前記前記第1のトリミング画像の特徴を抽出し、抽出プロセスにおいて前記第1のトリミング画像をトリミング処理することにより、前記特徴マップを得ることは、
前記第1のトリミング画像に対して少なくとも2回の畳み込み演算を行うことと、
少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行うことにより、前記特徴マップを得ることと
を含む、請求項2に記載の方法。
請求項4:
前記ターゲット画像を取得することは、車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とすることを含む、請求項1に記載の方法。
請求項5:
前記前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得ることは、前記ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、前記第1のトリミング画像を得ることを含む、請求項1に記載の方法。
請求項6:
前記第2のトリミング画像のサイズは、前記ターゲット画像のサイズの1/2以上である請求項1に記載の方法。
請求項7:
ターゲット画像を取得するように構成される画像取得ユニットと、
前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得るように構成される第1のトリミングユニットと、
前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得るように構成される特徴抽出ユニットと、
前記特徴マップをトリミング処理することにより、第2のトリミング画像を得るように構成される第2のトリミングユニットと、
前記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得るように構成される歩行者検出ユニットと
を含む、歩行者を検出するための装置。
請求項8:
前記特徴抽出ユニットは、前記第1のトリミング画像の特徴を抽出し、抽出プロセスにおいて前記第1のトリミング画像をトリミング処理することにより、前記特徴マップを得るようにさらに構成される、請求項7に記載の装置。
請求項9:
前記特徴抽出ユニットは、
前記第1のトリミング画像に対して少なくとも2回の畳み込み演算を行い、
少なくとも1回の畳み込み演算の後、得られた特徴マップに対して少なくとも1回のトリミング処理を行う
ことにより前記特徴マップを得るようにさらに構成される、請求項8に記載の装置。
請求項10:
前記画像取得ユニットは、さらに、
車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とするように構成される、請求項7に記載の装置。
請求項11:
前記第1のトリミングユニットは、前記ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、前記第1のトリミング画像を得るようにさらに構成される、請求項7に記載の装置。
請求項12:
前記第2のトリミング画像のサイズは、前記ターゲット画像のサイズの1/2以上である、請求項7に記載の装置。
請求項13:
1つ以上のプロセッサと、
1つ以上のプログラムが記憶された記憶装置と
を含み、
前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1~6のいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、電子デバイス。
請求項14:
コンピュータプログラムが記憶されたコンピュータ可読媒体であって、前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1~6のいずれか1項に記載の方法を実現する、コンピュータ可読媒体。
請求項15:
コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1~6のいずれか1項に記載の方法を実現する、コンピュータプログラム。

Claims (11)

  1. ターゲット画像を取得することと、
    前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得ることと、
    前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることと、
    前記特徴マップをトリミング処理することにより、第2のトリミング画像を得ることと、
    前記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得ることと
    を含み、
    前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得ることは、
    前記第1のトリミング画像に対して、畳み込み演算を行って、中間特徴マップを得る畳み込み演算ステップと、
    前記中間特徴マップから、所定の割合の領域をトリミングして、第1の中間特徴マップを得る中間トリミングステップと、
    前記得られた第1の中間特徴マップを対象として前記畳み込み演算ステップ及び中間トリミングステップを実行する動作を所定の回数繰り返すステップと
    を含む、歩行者を検出するための装置により実行される方法。
  2. 前記ターゲット画像を取得することは、車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とすることを含む、請求項1に記載の方法。
  3. 前記前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得ることは、前記ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、前記第1のトリミング画像を得ることを含む、請求項1に記載の方法。
  4. 前記第2のトリミング画像のサイズは、前記ターゲット画像のサイズの1/2以上である請求項1に記載の方法。
  5. ターゲット画像を取得するように構成される画像取得ユニットと、
    前記ターゲット画像をトリミング処理することにより、第1のトリミング画像を得るように構成される第1のトリミングユニットと、
    前記第1のトリミング画像の特徴を抽出することにより、特徴マップを得るように構成される特徴抽出ユニットと、
    前記特徴マップをトリミング処理することにより、第2のトリミング画像を得るように構成される第2のトリミングユニットと、
    前記第2のトリミング画像における歩行者を識別することにより、歩行者の検出結果を得るように構成される歩行者検出ユニットと
    を含み、
    前記特徴抽出ユニットは、
    前記第1のトリミング画像に対して、畳み込み演算を行って、中間特徴マップを得る畳み込み演算ステップと、
    前記中間特徴マップから、所定の割合の領域をトリミングして、第1の中間特徴マップを得る中間トリミングステップと、
    前記得られた第1の中間特徴マップを対象として前記畳み込み演算ステップ及び中間トリミングステップを実行する動作を所定の回数繰り返すステップと
    を含むことを行うことにより、特徴マップを得るように構成される、歩行者を検出するための装置。
  6. 前記画像取得ユニットは、さらに、
    車両に取り付けられたドライブレコーダーで収集された画像をターゲット画像とするように構成される、請求項に記載の装置。
  7. 前記第1のトリミングユニットは、前記ターゲット画像の上方のプリセット比率の領域をトリミングすることにより、前記第1のトリミング画像を得るようにさらに構成される、請求項に記載の装置。
  8. 前記第2のトリミング画像のサイズは、前記ターゲット画像のサイズの1/2以上である、請求項に記載の装置。
  9. 1つ以上のプロセッサと、
    1つ以上のプログラムが記憶された記憶装置と
    を含み、
    前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1~のいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、電子デバイス。
  10. コンピュータプログラムが記憶されたコンピュータ可読媒体であって、前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1~のいずれか1項に記載の方法を実現する、コンピュータ可読媒体。
  11. コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1~のいずれか1項に記載の方法を実現する、コンピュータプログラム。
JP2021054113A 2020-06-10 2021-03-26 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Active JP7269979B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010523215.7 2020-06-10
CN202010523215.7A CN111695491B (zh) 2020-06-10 2020-06-10 用于检测行人的方法和装置

Publications (2)

Publication Number Publication Date
JP2021192224A JP2021192224A (ja) 2021-12-16
JP7269979B2 true JP7269979B2 (ja) 2023-05-09

Family

ID=72480066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021054113A Active JP7269979B2 (ja) 2020-06-10 2021-03-26 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム

Country Status (3)

Country Link
JP (1) JP7269979B2 (ja)
KR (1) KR20210042859A (ja)
CN (1) CN111695491B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183431A (zh) * 2020-10-12 2021-01-05 上海汉时信息科技有限公司 实时行人数量统计方法、装置、相机和服务器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191369A (ja) 2014-03-27 2015-11-02 株式会社メガチップス 物体検出装置
JP2019008460A (ja) 2017-06-22 2019-01-17 株式会社東芝 物体検出装置、物体検出方法およびプログラム
WO2019102796A1 (ja) 2017-11-21 2019-05-31 富士フイルム株式会社 認識装置、認識方法及びプログラム
WO2020107510A1 (en) 2018-11-27 2020-06-04 Beijing Didi Infinity Technology And Development Co., Ltd. Ai systems and methods for objection detection

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5580233B2 (ja) * 2011-03-22 2014-08-27 富士重工業株式会社 車外監視装置および車外監視方法
KR101503788B1 (ko) * 2013-12-27 2015-03-19 숭실대학교산학협력단 적분영상을 기반으로 하는 특징 정보 예측을 통한 보행자 검출 방법, 이를 수행하기 위한 기록 매체 및 단말기
US9563808B2 (en) * 2015-01-14 2017-02-07 GM Global Technology Operations LLC Target grouping techniques for object fusion
WO2017173605A1 (en) * 2016-04-06 2017-10-12 Xiaogang Wang Method and system for person recognition
CN105976698B (zh) * 2016-04-29 2019-07-19 百度在线网络技术(北京)有限公司 一种电子地图中的道路渲染方法及装置
CN109784129A (zh) * 2017-11-14 2019-05-21 北京京东尚科信息技术有限公司 信息输出方法和装置
CN108133217B (zh) * 2017-11-22 2018-10-30 北京达佳互联信息技术有限公司 图像特征确定方法、装置及终端
CN108776970B (zh) * 2018-06-12 2021-01-12 北京字节跳动网络技术有限公司 图像处理方法和装置
CN109657643A (zh) * 2018-12-29 2019-04-19 百度在线网络技术(北京)有限公司 一种图像处理方法及装置
CN109871792B (zh) * 2019-01-31 2020-12-29 清华大学 行人检测方法和装置
CN110175595B (zh) * 2019-05-31 2021-03-02 北京金山云网络技术有限公司 人体属性识别方法、识别模型训练方法及装置
CN110555420B (zh) * 2019-09-09 2022-04-12 电子科技大学 一种基于行人区域特征提取和重识别融合模型网络及方法
CN110580678B (zh) * 2019-09-10 2023-06-20 北京百度网讯科技有限公司 图像处理方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191369A (ja) 2014-03-27 2015-11-02 株式会社メガチップス 物体検出装置
JP2019008460A (ja) 2017-06-22 2019-01-17 株式会社東芝 物体検出装置、物体検出方法およびプログラム
WO2019102796A1 (ja) 2017-11-21 2019-05-31 富士フイルム株式会社 認識装置、認識方法及びプログラム
WO2020107510A1 (en) 2018-11-27 2020-06-04 Beijing Didi Infinity Technology And Development Co., Ltd. Ai systems and methods for objection detection

Also Published As

Publication number Publication date
KR20210042859A (ko) 2021-04-20
CN111695491B (zh) 2023-12-19
CN111695491A (zh) 2020-09-22
JP2021192224A (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
JP7118244B2 (ja) グラフィックコード認識方法及び装置、並びに、端末及びプログラム
CN111753961B (zh) 模型训练方法和装置、预测方法和装置
JP7317070B2 (ja) 人顔の超解像度の実現方法、装置、電子設備、記憶媒体、及びプログラム
US20220270289A1 (en) Method and apparatus for detecting vehicle pose
CN111967297B (zh) 图像的语义分割方法、装置、电子设备及介质
JP2021101365A (ja) 測位方法、測位装置及び電子機器
JP7242994B2 (ja) ビデオイベント識別方法、装置、電子デバイス及び記憶媒体
EP3933674A1 (en) Method, apparatus, device, storage medium and program for processing image
CN111275827B (zh) 基于边缘的增强现实三维跟踪注册方法、装置和电子设备
JP7194215B2 (ja) キーポイントの特定方法及び装置、機器、記憶媒体
CN111767853A (zh) 车道线检测方法和装置
EP3901908B1 (en) Method and apparatus for tracking target, device, medium and computer program product
KR20210036319A (ko) 텍스트 콘텐츠의 식별 방법, 장치 및 전자 기기
CN111695516B (zh) 热力图的生成方法、装置及设备
CN112102417A (zh) 确定世界坐标的方法和装置及用于车路协同路侧相机的外参标定方法
JP7269979B2 (ja) 歩行者を検出するための方法及び装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム
JP2021170391A (ja) 商品案内方法、装置、デバイス、記憶媒体、及びプログラム
JP2021152901A (ja) 画像を生成するための方法及装置
CN111696134A (zh) 一种目标检测方法、装置以及电子设备
CN110633595B (zh) 一种利用双线性插值的目标检测方法和装置
CN113703704B (zh) 界面显示方法、头戴式显示设备和计算机可读介质
US11488384B2 (en) Method and device for recognizing product
CN115393423A (zh) 目标检测方法和装置
CN112053280B (zh) 全景地图显示的方法、装置、设备和存储介质
CN112541934B (zh) 一种图像处理方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220915

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7269979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150