JP5075672B2 - 対象物検出装置及び方法 - Google Patents

対象物検出装置及び方法 Download PDF

Info

Publication number
JP5075672B2
JP5075672B2 JP2008043109A JP2008043109A JP5075672B2 JP 5075672 B2 JP5075672 B2 JP 5075672B2 JP 2008043109 A JP2008043109 A JP 2008043109A JP 2008043109 A JP2008043109 A JP 2008043109A JP 5075672 B2 JP5075672 B2 JP 5075672B2
Authority
JP
Japan
Prior art keywords
area
processing
parallax
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008043109A
Other languages
English (en)
Other versions
JP2009198445A (ja
Inventor
剛 仲野
進 窪田
恭一 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008043109A priority Critical patent/JP5075672B2/ja
Priority to US12/390,745 priority patent/US8094884B2/en
Publication of JP2009198445A publication Critical patent/JP2009198445A/ja
Application granted granted Critical
Publication of JP5075672B2 publication Critical patent/JP5075672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、道路に存在する柱等に取り付けられたステレオカメラから得られる画像を用いて、歩行者や自転車等の対象物を検出し、対象物の位置や速度等の運動情報を推定する装置及びその方法に関する。
ステレオ視の手法を用いて人物等の障害物を検出する手法がある。この手法では、左右のカメラ画像から相関演算を用いて対応点を求めることにより視差を計算する。計算された視差から、障害物の3次元座標が計算され、高さの情報から対象物が検出される。
しかし、照明や天候の変化の影響で正確に視差を計算することは容易ではない。照明や天候変化に対してロバストな手法として、平面投影ステレオ法を応用した障害物検出装置及び方法がある(特許文献1)。
特許文献1の手法では、あらかじめ左右のカメラ画像に基づいて、一方の画像における道路面上の点を、他方の画像における道路面上の点の位置が一致するような投影パラメータを計算する。計算された投影パラメータに基づいて、一方の画像の道路面上に設定された点が、他方の画像上の対応する点を求める。対応点の関係を用いて一方の画像に近似する変換画像を作成する。対応点及び変換画像を用いて、道路平面に対して垂直上方向に一定以上の大きさを有する物体を検出する。
この方法では、左右のカメラが障害物と同じような高さに設置され、俯角が小さい場合が想定されている。この方法は、カメラ画像の垂直方向に対して、1つの障害物と道路面との境界線のみを検出できる。カメラが障害物に対して高い位置に設置され、カメラ画像の垂直方向に複数の障害物を検出する必要がある場合には、機能を実現できない問題がある。
特開2006−53890公報
前述のような問題点を解決するために、カメラの配置に基づいて、画像垂直方向における監視領域平面の視差のプロファイルをあらかじめ計算する。
画像の水平方向をx、垂直方向をyとする。検出対象物の実空間上の高さHを設定し、対象物を検出したい画像上のy座標位置yに注目する。道路面上の視差プロファイルから、検出位置yにおける視差が求まる。実空間の高さHに対して、画像中の高さhが求まる。
検出位置yと高さhと、上下にマージンを設定することにより、処理領域のy方向の位置及び長さが決定される。x方向の長さは、あらかじめ設定されている監視領域のx方向の幅により決定される。この処理領域を、全てのy座標値に対して設定する。
計算量を節約するために、y方向に対してある間隔で間引いて設定しても構わない。複数の処理領域に対して、平面投影ステレオ法を用いて監視領域平面と対象物の境界線を検出する。処理領域における上端と境界線の間におけるエッジ密度がある一定以上の大きさを有する領域を対象物存在領域とする。
次に各処理領域における対象物存在領域を統合し、y座標値がほぼ同じである領域が、x方向にある一定以上の幅を有する場合に対象物として検出する。検出された対象物を画像上の対象物領域のテクスチャ情報を用いて追跡することにより、対象物の位置及び速度を推定する。
本発明は、高い位置に設置されたカメラ画像を用いる場合に、広い監視領域に存在する複数の対象物の位置や速度を推定する装置及びその方法を提供することを目的とする。
本発明の一側面の対象物検出装置は、ステレオカメラで監視領域の時系列画像を取得する画像取得部と、前記ステレオカメラの配置に基づいて、前記時系列画像上での垂直位置と前記監視領域の平面上での視差との関係を表す視差プロファイルを計算する視差プロファイル計算部と、複数の処理領域の各々の下端の位置を前記時系列画像上に設定するとともに、前記視差プロファイルに従って対象物の高さの基準値を変換して前記各処理領域の高さを設定することにより、前記複数の処理領域を設定する処理領域設定部と、前記各処理領域から、前記監視領域の平面に対してある一定以上の高さを有する対象物を検出し、各処理領域における対象物検出結果を対象物の視差に応じて統合し、前記監視領域全体の対象物を検出する対象物検出部と、前記対象物検出部で検出された対象物に対して、位置及び速度を推定する対象物運動情報推定部とを備える。
本発明によれば、広い監視領域における複数の対象物の位置や速度を推定することができる。
以下、図面を参照して本発明の一実施形態の装置を説明する。本装置は歩道の側に存在する柱に設置されたステレオカメラによって撮影された画像を用いる。本装置は広い領域の歩道における歩行者や自転車等の位置や速度を推定する。
図1は本装置の基本的な構成例を示す。対象物検出装置は、画像取得部1、視差プロファイル計算部2、処理領域設定部3、対象物検出部4、および、対象物運動情報推定部5を有する。これら各部1〜5の機能は、例えば記録媒体に記録されたプログラムをコンピュータが実行することによって実現されることができる。
図2は本実施形態における対象物検出装置の概要及び座標系を示す。図2では、実空間の水平方向の座標はXで表され、奥行き方向の座標はZで表される。図2では、画像座標系の水平方向の座標はxで表され、垂直方向の座標はyで表される。
(画像取得部1)
図2に示すように、監視領域204の近くの柱205に設置されたステレオカメラ201が時系列画像を取得する。
(視差プロファイル計算部2)
ステレオカメラ201から得られる左右の時系列画像はrectificationがなされているものとする。図3Aはステレオカメラ201で取得された左画像Lである。図3Bはステレオカメラ201で取得された右画像Rである。図3Cは右画像をアフィン変換して得られる右アフィン画像Aである。監視領域平面上の点Pに対応する点の左画像Lでの位置を(x,y)、右画像Rでの位置を(x,y)と表すと、両者はおおよそ(式1)のようなアフィン変換により対応付けられる。
Figure 0005075672
つまり、左画像Lと右アフィン画像Aとでは、監視領域平面上のパターンの位置が同じになる。このときのアフィン変換のパラメータはキャリブレーションによりあらかじめ求めておく。この対応関係から、(式2)のように、画像のy座標に対する監視領域平面上の視差dを計算でき、監視領域平面におけるy方向の視差プロファイルdplanar(y)を求める。
Figure 0005075672
(処理領域設定部3)
対象物の平均的な高さを基準値Hとして予め設定する。本実施形態では、対象物は歩行者や自転車なので、基準値Hを1.6mと設定する。基準値Hは対象物の種類に応じて適切な値を設定すれば良い。図4Aに示すように、対象物を検出したい位置の画像上のy座標をyとする。このy座標値yの位置に対象物が存在する場合、その対象物の視差dは、視差プロファイルを用いて、
Figure 0005075672
により求まる。
またyにおける実空間の高さHに対応する画像中の高さhを計算する。図4Bに示すように、まず上端位置を(y−h)、下端位置をyに設定する。さらに視差dに応じて決定される、上方向にe、下方向にeの長さ分上下に拡張し、上端位置を(y−h−e)と下端位置を(y+e)を決定する。
処理領域の左端位置は、下端位置における監視領域のx方向位置であるx、右端位置は、xとする。
以上の処理により、処理領域を決定する。同様に全てのy座標値に対して処理領域を設定することにより、監視領域全体の処理領域を設定する。
また、計算機の性能に応じて処理領域の個数を削減しても構わない。本実施形態では、y方向に対して視差dに基づいて決定される間隔をあけて3個の処理領域を設定する。図5は3個の処理領域が設定された場合の例である。間隔は一定であっても構わない。
(対象物検出部4)
図6は対象物検出部4のブロック図である。対象物検出部4は、対象物存在領域検出部41と対象物位置検出部42を有する。
対象物存在領域検出部41は、図7に示すように、処理領域設定部3により設定された各処理領域に対して、監視領域の平面と対象物の境界線を検出する。本実施形態では、境界線を検出する手法として、特開2006−53890号公報に開示された手法を用いる。平面とそれ以外の領域を区別する手法は、他にも様々に提案されている。どのような手法を用いても構わない。
次に、縦方向に関するSobelフィルタを用いて、エッジ画像を検出する。処理領域の上端位置と境界線の間の領域に対して、x方向に対して縦エッジ密度を計算する。縦エッジ密度が閾値よりも大きい領域を対象物存在領域と判定する。図8に示すように、対象物存在領域の境界線位置が求まる。
対象物位置検出部42は、複数の処理領域により求まる対象物存在領域の境界位置を、監視領域に存在する対象物位置として統合する。図9に示すように、同じ対象物に対して複数の処理領域で対象物存在領域の境界線が求まる場合もある。この場合、視差の差が閾値以内である場合は1つの境界線に統合する。閾値は視差に基づいて決定する。そして、境界線をラベリングにより複数の境界線として検出する。図10に示すように、ラベリングされた境界線毎に、境界線位置において高さの基準値Hに対する画像中の高さhを計算し、対象物領域の大きさを決定する。
(対象物運動情報推定部5)
図11に示すように、対象物運動情報推定部5は、新規対象物登録部51と対象物追跡部52と対象物情報更新部53により構成される。
対象物運動情報推定部5は、対象物検出部4で検出された対象物を時系列で追跡する。まず、新規対象物登録部51は、検出された対象物の世界座標系(3次元実空間の座標系)での位置および画像上での位置を登録する。また画像上の対象物領域のテクスチャ情報をテンプレートとして登録する。
次に、対象物追跡部52において、登録された対象物領域の次時刻での位置を、テンプレートマッチングにより求める。テンプレートマッチングでは、(式4)のような輝度値の絶対値差(SAD:Sum of Absolute Difference)による評価値を用いる。対象画像をI(m,n)、テンプレートをT(m,n)、テンプレートのサイズがM×Nとする。
Figure 0005075672
テンプレートマッチングで用いる評価値は様々ある。他の評価値を用いても構わない。
対象物情報更新部53は、対象物追跡部52において追跡された対象物と対象物検出部4により検出された対象物との距離差を計算する。対象物情報更新部53は、距離差が閾値より小さい場合は、対応付けされた対象物と判定する。対応付けされた対象物の場合は、追跡結果による対象物位置と検出結果による対象物位置の平均値を計算し、平均された位置を対象物の位置として更新する。また平均された位置による対象物領域のテクスチャ情報を更新する。平均値を計算する場合、重みを付けて計算しても構わない。
新規対象物登録部51は、検出結果による対象物のうち対応付けされなかったものを新規の対象物として登録する。また更新された対象物に関しては、等加速度運動モデルを適用したカルマンフィルタを用いて、対象物の位置及び速度を推定する。位置や速度を推定するフィルタは様々あり、他のフィルタを用いても構わない。
以上のような処理を時系列画像に対して処理を行い、歩行者や自転車等の対象物の位置や速度を検出する。
本発明の一実施形態の装置のブロック図。 本発明の一実施形態の座標系及び装置の概要図。 左画像の例。 右画像の例。 右画像をアフィン変換した変換画像の例。 本発明の一実施形態の処理領域の設定処理の概念図。 本発明の一実施形態の処理領域の設定処理の概念図。 本発明の一実施形態の処理領域の設定処理の概念図。 本発明の一実施形態の対象物検出部のブロック図。 本発明の一実施形態の境界線を求める処理の概念図。 本発明の一実施形態の境界線を求める処理の概念図。 本発明の一実施形態の境界線の統合処理の概念図。 本発明の一実施形態の対象物領域検出結果の概念図。 本発明の一実施形態の対象物運動情報推定部のブロック図。
符号の説明
1 … 画像取得部
2 … 視差プロファイル計算部
3 … 処理領域設定部
4 … 対象物検出部
5 … 対象物運動情報推定部
41 … 対象物存在領域検出部
42 … 対象物位置検出部
51 … 新規対象物登録部
52 … 対象物追跡部
53 … 対象物情報更新部

Claims (5)

  1. ステレオカメラで監視領域の時系列画像を取得する画像取得部と、
    前記ステレオカメラの配置に基づいて、前記時系列画像上での垂直位置と前記監視領域の平面上での視差との関係を表す視差プロファイルを計算する視差プロファイル計算部と、
    複数の処理領域の各々の下端の位置を前記時系列画像上に設定するとともに、前記視差プロファイルに従って対象物の高さの基準値を変換して前記各処理領域の高さを設定することにより、前記複数の処理領域を設定する処理領域設定部と、
    前記各処理領域から、前記監視領域の平面に対してある一定以上の高さを有する対象物を検出し、各処理領域における対象物検出結果を対象物の視差に応じて統合し、前記監視領域全体の対象物を検出する対象物検出部と、
    前記対象物検出部で検出された対象物に対して、位置及び速度を推定する対象物運動情報推定部と、
    を備えることを特徴とする対象物検出装置。
  2. 前記対象物検出部は、
    前記処理領域毎に前記時系列画像から前記監視領域の平面と対象物の境界線を検出し、前記処理領域毎の上端と前記境界線の間の領域におけるエッジ密度がある一定以上の大きさを有する領域を、前記処理領域毎の対象物存在領域とする対象物存在領域検出部と、
    前記処理領域毎の対象物存在領域を視差に応じて統合し、前記監視領域の平面と統合された対象物存在領域の境界線において、画像の垂直方向の座標値がほぼ同じである領域が、画像の水平方向にある一定以上の幅を有する場合は、対象物として検出する対象物位置検出部と、
    を備えることを特徴とする請求項1に記載の対象物検出装置。
  3. 前記対象物運動情報推定部は、
    前記対象物検出手段から得られる対象物の領域に対して、位置及びテクスチャ情報を新規に登録する新規対象物登録部と、
    登録された対象物をテクスチャ情報に基づいて追跡する対象物追跡部と、
    追跡された対象物位置と前記対象物検出手段から得られる対象物位置からある一定の重みで平均した対象物位置とを計算し、対象物位置及びテクスチャ情報を更新する対象物情報更新部と、
    を備えることを特徴とする請求項1に記載の対象物検出装置。
  4. 前記処理領域設定部は、前記複数の処理領域を前記時系列画像上の垂直方向に所定の間隔で設定するとともに、前記処理領域の高さを対象物の視差に応じて上下に拡張することを特徴とする、請求項1から請求項3までのいずれか一項に記載の対象物検出装置。
  5. ステレオカメラで監視領域の時系列画像を取得する画像取得ステップと、
    前記ステレオカメラの配置に基づいて、前記時系列画像上での垂直位置と前記監視領域の平面上での視差との関係を表す視差プロファイルを計算する視差プロファイル計算
    ステップと、
    複数の処理領域の各々の下端の位置を前記時系列画像上に設定するとともに、前記視差
    プロファイルに従って対象物の高さの基準値を変換して前記各処理領域の高さを設定することにより、前記複数の処理領域を設定する処理領域設定ステップと、
    前記各処理領域から、前記監視領域の平面に対してある一定以上の高さを有する対象物を検出し、各処理領域における対象物検出結果を対象物の視差に応じて統合し、前記監視領域全体の対象物を検出する対象物検出ステップと、
    前記対象物検出ステップで検出された対象物に対して、位置及び速度を推定する対象物運動情報推定ステップと、
    を備えることを特徴とする対象物検出方法。
JP2008043109A 2008-02-25 2008-02-25 対象物検出装置及び方法 Active JP5075672B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008043109A JP5075672B2 (ja) 2008-02-25 2008-02-25 対象物検出装置及び方法
US12/390,745 US8094884B2 (en) 2008-02-25 2009-02-23 Apparatus and method for detecting object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008043109A JP5075672B2 (ja) 2008-02-25 2008-02-25 対象物検出装置及び方法

Publications (2)

Publication Number Publication Date
JP2009198445A JP2009198445A (ja) 2009-09-03
JP5075672B2 true JP5075672B2 (ja) 2012-11-21

Family

ID=40998348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008043109A Active JP5075672B2 (ja) 2008-02-25 2008-02-25 対象物検出装置及び方法

Country Status (2)

Country Link
US (1) US8094884B2 (ja)
JP (1) JP5075672B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5501638B2 (ja) * 2009-03-12 2014-05-28 トヨタホーム株式会社 充電装置
JP5355691B2 (ja) * 2009-06-30 2013-11-27 株式会社日立製作所 画像解析装置及び画像解析プログラム
JP5472928B2 (ja) * 2010-12-10 2014-04-16 株式会社東芝 対象物検出装置及び方法
KR101244044B1 (ko) 2012-03-19 2013-03-15 정미애 스테레오 카메라를 이용하는 구형물체의 비행속도 추정 방법
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
CN104871181B (zh) * 2012-12-24 2019-12-24 哈曼国际工业有限公司 用户定位系统
US9165371B2 (en) 2012-12-24 2015-10-20 Harman International Industries, Incorporated User location system
KR102130316B1 (ko) * 2013-09-30 2020-07-08 한국전자통신연구원 영상 인식 장치 및 방법
KR101593187B1 (ko) * 2014-07-22 2016-02-11 주식회사 에스원 3차원 영상 정보를 이용한 이상 행동 감시 장치 및 방법
TW201804159A (zh) * 2016-07-25 2018-02-01 原相科技股份有限公司 測速方法以及測速裝置
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
JP2018146495A (ja) 2017-03-08 2018-09-20 株式会社リコー 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム
CN110399517A (zh) * 2018-12-25 2019-11-01 北京嘀嘀无限科技发展有限公司 一种路径确定方法、装置、电子设备和计算机存储介质
CN110047097B (zh) * 2019-03-27 2019-11-29 深圳职业技术学院 一种多摄像机协同的目标持续跟踪方法
US20230252813A1 (en) * 2022-02-10 2023-08-10 Toshiba Tec Kabushiki Kaisha Image reading device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4414054B2 (ja) * 2000-03-27 2010-02-10 本田技研工業株式会社 物体認識装置
JP2002024986A (ja) 2000-07-06 2002-01-25 Nippon Signal Co Ltd:The 歩行者検出装置
JP4825349B2 (ja) * 2000-11-30 2011-11-30 住友大阪セメント株式会社 通過物体計数装置及び計数方法
JP4311107B2 (ja) * 2003-08-08 2009-08-12 オムロン株式会社 三次元物体認識装置およびその設定方法
JP4406381B2 (ja) 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
JP2006134035A (ja) * 2004-11-05 2006-05-25 Fuji Heavy Ind Ltd 移動物体検出装置および移動物体検出方法
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
JP4160572B2 (ja) * 2005-03-31 2008-10-01 株式会社東芝 画像処理装置及び画像処理方法
JP2007127478A (ja) * 2005-11-02 2007-05-24 Konica Minolta Holdings Inc 追跡対象物速度検出装置および追跡対象物速度検出方法
JP2007249309A (ja) 2006-03-13 2007-09-27 Toshiba Corp 障害物追跡装置及びその方法

Also Published As

Publication number Publication date
US8094884B2 (en) 2012-01-10
JP2009198445A (ja) 2009-09-03
US20090214081A1 (en) 2009-08-27

Similar Documents

Publication Publication Date Title
JP5075672B2 (ja) 対象物検出装置及び方法
JP4363295B2 (ja) ステレオ画像による平面推定方法
JP5251800B2 (ja) 対象物追跡装置及びプログラム
JP4650079B2 (ja) 物体検出装置、および方法
JP2007316790A (ja) 歩行者検出装置および歩行者検出方法
JP2006268097A (ja) 車載物体検出装置、および物体検出方法
JP6524529B2 (ja) 建築限界判定装置
KR101100827B1 (ko) 도로주행 로봇의 자기 위치 인식방법
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2009053818A (ja) 画像処理装置及びその方法
JP2007249257A (ja) 移動体検出装置および移動体検出方法
JP4067340B2 (ja) 対象物認識装置および対象物認識方法
JP6815963B2 (ja) 車両用外界認識装置
JP5981284B2 (ja) 対象物検出装置、及び対象物検出方法
KR101568683B1 (ko) 영상 분석을 이용한 차간 거리 추정 방법 및 그 장치
JP3629935B2 (ja) 移動体の速度計測方法およびその方法を用いた速度計測装置
JP2010003253A (ja) 運動推定装置
JP5472928B2 (ja) 対象物検出装置及び方法
JP4575315B2 (ja) 物体検出装置及びその方法
JP5891802B2 (ja) 車両位置算出装置
JP5903901B2 (ja) 車両位置算出装置
JP6416654B2 (ja) 白線検出装置
JP2004038760A (ja) 車両用走行路認識装置
JP4055785B2 (ja) 移動物体の高さ検出方法及び装置並びに物体形状判定方法及び装置
JP2020076714A (ja) 位置姿勢推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101019

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120827

R151 Written notification of patent or utility model registration

Ref document number: 5075672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350