JP4451307B2 - シーン中のオブジェクトを分類する方法 - Google Patents

シーン中のオブジェクトを分類する方法 Download PDF

Info

Publication number
JP4451307B2
JP4451307B2 JP2004524118A JP2004524118A JP4451307B2 JP 4451307 B2 JP4451307 B2 JP 4451307B2 JP 2004524118 A JP2004524118 A JP 2004524118A JP 2004524118 A JP2004524118 A JP 2004524118A JP 4451307 B2 JP4451307 B2 JP 4451307B2
Authority
JP
Japan
Prior art keywords
edge
classifying
image
scene
reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004524118A
Other languages
English (en)
Other versions
JP2005535016A (ja
JP2005535016A5 (ja
Inventor
ベアズリィー、ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2005535016A publication Critical patent/JP2005535016A/ja
Publication of JP2005535016A5 publication Critical patent/JP2005535016A5/ja
Application granted granted Critical
Publication of JP4451307B2 publication Critical patent/JP4451307B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/24Control systems with regulation, i.e. with retroactive action, for influencing travelling speed, acceleration, or deceleration
    • B66B1/2408Control systems with regulation, i.e. with retroactive action, for influencing travelling speed, acceleration, or deceleration where the allocation of a call to an elevator car is of importance, i.e. by means of a supervisory or group controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B1/00Control systems of elevators in general
    • B66B1/34Details, e.g. call counting devices, data transmission from car to control system, devices giving information to the control system
    • B66B1/46Adaptations of switches or switchgear
    • B66B1/468Call registering systems
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B2201/00Aspects of control systems of elevators
    • B66B2201/40Details of the change of control mode
    • B66B2201/46Switches or switchgear
    • B66B2201/4607Call registering systems
    • B66B2201/4661Call registering systems for priority users
    • B66B2201/4669Call registering systems for priority users using passenger condition detectors
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • E05F2015/767Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects using cameras
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/10Electronic control
    • E05Y2400/45Control modes
    • E05Y2400/454Control modes for accommodating handicapped users

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、包括的にはコンピュータビジョンに関し、より詳細にはステレオビジョンを用いてのシーン中の車椅子利用者の検出に関する。
コンピュータビジョン技術を用いてのシーン画像の解析は一般的である。所定期間にわたって動的に変化する画像を解析する必要があることは多い。例えば、多くの用途では、シーン中に人物等のオブジェクトが出現したかどうかを判定することが望まれる。
コンピュータビジョンによるオブジェクトの解析では通常、複数の処理段階を要する。まず、背景からオブジェクトをセグメント化する。オブジェクトの形状、3Dモーションおよび場所等の属性を決めることができる。最後に、分類または認識する目的でオブジェクトを解析することができる。
しばしば、静止した背景の前面に出現するオブジェクトを観測する固定カメラの場合、セグメント化のために背景の減算が行われるのが普通である。従来の背景減算法は、画素毎の輝度値に基づいている。通常、ライブ画像の画素の輝度を静止したシーンの基準画像の対応する画素から減算して差画像を作成する。基準画像は事前に、シーン中に移動オブジェクトがないことが分かっているときに取得することができる。差画像において、低い値の画素は静止した背景の一部とみなされ、高い値の画素はオブジェクトの一部と推測される。背景減算法の概観についてはToyama等著「Wallflower: Principles and Practice of Background Maintenance」(Proceedings of the International Conference on Computer Vision, pp. 255-261, 1999)を参照。
従来の背景減算技法には問題がある。第1に、差画像は個々の画素毎に求められるため、雑音やアーチファクトにより部分的に誤った結果が生じる可能性がある。連結成分解析を用いて小さなスプリアス応答を排除することはできるが、それには追加処理を行わなければならない。さらに、基準画像の部分と同じ色(またはグレースケール画像では輝度)を持つ任意のオブジェクト部分は検出が困難である。この場合、シルエットの境界または内側の影の色または輝度勾配であれば見える可能性がある。これは、オブジェクトと背景の検出に真に信頼できるのは色または輝度勾配(エッジ)を持つ画像部分のみであることを示す。
したがって、従来の背景減算とは異なり、オブジェクトのエッジを直接計算することが望ましい。
静止した背景からのオブジェクトのセグメント化の後にさらなる解析を行うことができる。多くの従来技術のコンピュータビジョンシステムは1台のカメラを用いる。1台の固定カメラによって取得した画像から形状、3Dモーションおよび場所等の情報を抽出することは困難であることがよく知られている。カメラは比較的安価になってきているため、複数のカメラ画像のステレオ解析がより優勢となるだろう。ステレオ解析によるオブジェクトの形状、3Dモーションおよび場所の測定は、1台のカメラで可能であるよりも信頼性が高い。
ステレオ処理は、画像間でマッチングする特徴(点やエッジ等の画素または特徴)の選択を必要とする。より具体的に言えばエッジは通常、次の処理の前のエッジ検出プロセスの一部として、エッジチェインに結び付けられる。エッジチェインのステレオマッチングは、所与のオブジェクトのエッジチェインが異なる画像では異なる方法で計算される可能性があることから複雑になる。例えば、所与のオブジェクトの物理的な輪郭(すなわちシルエット境界または表面テクスチャ境界)は各ステレオ画像において、異なる画像では異なる終点を有する1つまたは複数のエッジチェインとして検出される可能性があり、それらのチェインは異なる画像において、オブジェクトと背景テクスチャの間でばらばらに(arbitrary)接続している可能性がある。
したがって、オブジェクトの物理的な輪郭に対応するエッジを連結することだけが望ましい。
画像に基づいてエレベータドアの動作を制御するシステムは多数ある。米国特許出願第2000/0045327号「Elevator Door Control Device」(2001年4月4日出願)を参照されたい。しかしながら、これらのシステムは乗客のタイプを判別しない。2002年1月15日付でHirata他に発行された米国特許第6,339,375号「Image monitoring apparatus and image monitoring method」も参照されたい。この特許は、乗客がエレベータの戸口にいるかどうかを検出するシステムを記載する。戸口は、戸口を形成する静止した縦と横の直線に対するパターンマッチングにより判定する。2次元の線情報は1次元の情報に減ぜられる(reduce)。明らかに、この方法は不規則な形状の移動オブジェクトの検出には適していない。
特開平11−268879は、2台のカメラを天井に設置し、取得した画像を解析して、乗客の平面形状および高さに基づき待っている乗客のタイプを判別するエレベータ制御装置を記載する。このシステムは、乗客が呼びボタンおよび天井に設置されたカメラを押すことによる手動での作動を必要とする。
Fujitaに対し2002年3月14日付で発行された米国特許第6,386,325号は、「Elevator system with a hall scanner for distinguishing between standing and sitting elevator passengers」を記載する。このシステムもまた、乗客に呼びボタンを押してもらうことによる手動での作動を必要とし、ホールの呼びボタンを操作した乗客のみを監視することしかできない。このシステムは、従来の背景減算を用いて2Dの差画像を生成する。2Dの差画像は、事前に記憶しておいた車椅子の形状モデルと比較される。示される形状は、車椅子利用者の直接的な正面図および側面図のみである。
上記システムには重大な問題がある。第1に、上記システムは従来の背景減算を用いるため、上述のように有用な差画像を生成することができないという問題を内包している。第2に、カメラが取得したビューが示される形状に似たものとなる可能性は低い。実際に、歩行者と車椅子利用者の異なる形状の数は無数である。Fujitaは、基本的な形状パターンをどのように任意のビューとマッチングするかを開示していない。ビジョンシステムではパターンマッチングが非常に困難な問題であることがよく知られており、解決策は限定された形状にしかない。第3に、背景減算では2Dモデルしか得られず、奥行き情報やオブジェクト内の移動は判定することができない。
したがって、背景減算を用いず、事前に記憶されたモデルを必要とせず、かつ3D情報に基づいた車椅子検出システムを提供することが望ましい。
本発明は、歩行者と車椅子利用者を判別する方法およびシステムを提供する。
特定の用途において、本システムは、車椅子に対応したサービスを提供する必要のある場所で車椅子利用者の存在を検出する。例えばそのような場所として自動ドアの前があり、本システムは、通常の場合よりも長時間ドアを自動的に開けておくことができる。
別の用途では、車椅子利用者がエレベータや他の何らかのタイプのリフト装置を待っている。この場合、車椅子利用者が検出されると、特別なエレベータサービスを提供することができる。例えば車椅子が乗降する際に、エレベータの床をより正確に床の高さに合わせ、エレベータのドアを長時間開けたままにしておくことができる。さらに、車椅子の輸送用に特別に設計されたエレベータのかごを車椅子利用者へのサービスに割り当てるか、あるいはサービスを優先させることができる。
従来技術では通常、車椅子利用者がその場所にあるボタンを押すことによって特別なサービスを必要としていることを示すことが要求されていた。しかしながら、全ての車椅子利用者が信号を手動で作動できるわけではない。手動システムが実用的でないか、または最適ではない理由が他にもある場合がある。したがって、本発明は、従来技術の手動システムを全自動システムに替える。
本発明は、その場所に設置された複数のカメラを含むコンピュータビジョンシステム、具体的にはキャリブレートされた3眼カメラシステムを用いる。カメラはその場所でシーンの一連の画像を取得し、これらの画像は4段階で処理する。
第1に、画像の輝度勾配を用いてシーン中のオブジェクトのエッジを検出する。第2に、ステレオ視差を用いてエッジを結び付け、オブジェクトの物理的な輪郭に対応するチェインを作る。第3に、オブジェクトの3D再構築体を計算する。第4に、シーン中の各オブジェクト(例えば歩行者または車椅子利用者)を分類する。その後、分類に応じた操作を行うことができる。シーン中に複数のオブジェクトが存在する場合、3D再構築体を個々のオブジェクトにセグメント化することによって処理する。
システムの概要
図1は、本発明によるオブジェクト検出システム100を示す。本システム100は、複数のカメラ1、2および3を例えば3台含み、それらの出力は、本明細書中で説明するようなコンピュータビジョン処理を行うように構成されたプロセッサ120に接続される。プロセッサ120の出力信号121は外部システム、例えばエレベータ制御システム(ECS)150に接続される。外部システム150は、カメラが観測したものに従って制御される。
カメラ1〜3は、カメラが取得する画像111がエレベータドアの前のシーン140のものとなるようにエレベータドア130の上に設置される。カメラはシーンに近い場所であればどこに設置してもよいことに留意すべきである。カメラはグレースケールまたはカラーセンサを用いることができる。カメラ1〜3の内部および外部パラメータは、任意の既知のキャリブレーション手順を用いて求めることができる。後述する目的のために、中央の(クロスハッチングで示す)カメラ1が主カメラであり、他の2台のカメラ2〜3は副カメラである。3台のカメラにより、本発明による方法を用いた解析の信頼性を従来技術の1眼または2眼カメラよりも高めることが可能になる。
システム動作
図2に示すように、静止画111aおよびライブ画像111bは3台のカメラ1〜3によって取得される(210)。画像111はグレースケールまたはカラーとすることができる。前処理ステップでは、画像111a〜bをリサンプリングして放射方向歪曲収差(radial distortion)を除去する。まず、対応するカメラの静止画111aから各カメラの基準画像221を構築する(220)。
次に、各カメラの基準画像221を同一カメラのライブ画像111bの各々に1枚ずつ適用し、シーン140中のオブジェクトのエッジ231を検出する(230)。エッジマッチング(240)により、同一の輪郭241の一部を形成するエッジチェイン231を識別する。輪郭241に対して3次元再構築(250)を行い、3D移動オブジェクト251をセグメント化する。セグメント化により、移動オブジェクトに関連する画素(データ点のセット)のみを識別する。画素は座標を有するため、データ点のセットにより3Dオブジェクトの全体的な形状が明らかになる。
次に、オブジェクトの分類(261)(例えばそのオブジェクトが歩行者であるか車椅子利用者であるか)を決めるために3D移動オブジェクト251を解析することができる(260)。この分類は、後の外部システム150の動作を決めるために用いることができる。
背景の変化に基づくエッジ検出
基準画像
従来技術の画素に基づく背景減算とは対照的に、本発明は、背景の変化に基づくエッジ検出(230)を用いる。静止したシーン111aの2枚またはそれ以上の画像から各カメラの基準画像221を構築する(220)。この動作は、シーン中に移動オブジェクトがないことが分かっている場合に前処理ステップ中に行われる。基準画像は周期的に更新することができる。
基準画像221中の各画素について、静止画111aから以下の平均値および分散値(ガウス)222を求める。画素の輝度の平均値および分散値、画素勾配の大きさ(gradient magnitude)の平均値および分散値、ならびに画素の勾配方向の平均値および分散値。カラーカメラで画像を撮影した場合、1つのRGBチャンネルのみを用いればよい。
エッジ検出
この時点で、シーン140のライブ画像111bを処理することができる。今回は1枚のライブ画像111bを除いて上述のように3つの値222を求め、図3に示すテストを行い、ある画素がエッジ302の一部であるか否かを判定する。エッジのチェインはオブジェクトとともに識別されることが推測される。このテストはコンパレータにおいて行うことができる。
まず、勾配がゼロであるかまたは低い画素310がエッジである可能性はない(301)。したがって、従来技術に勝る利点として、全ての画素ペアを減算する従来技術のように多数の背景(基準)画素を全体的に処理する必要がない。
ゼロでない画素にpのラベルを付け、その輝度の低い勾配方向の近傍にpのラベルを付け、その輝度の高い勾配方向の近傍にpのラベルを付ける。
勾配の大きさ(GM)が閾値 よりも大きい場合(320)は330に進み、そうでない場合は画素にエッジでない(301)というラベルを付けることができる。
画素pの勾配の大きさが極大値330である、すなわちpにおける勾配がpおよびpにおける勾配よりも大きい場合は340に進み、そうでない場合その画素はエッジではない(301)。
ライブ画像における画素pにおける勾配の大きさとそれに対応する基準画像の値の間の距離dGMが閾値T未満である場合(340)は350に進み、そうでない場合その画素はエッジである(302)。値はガウスで表されるため、マハラノビス距離が好ましい。
pにおいて測定した勾配方向とその基準値の間のマハラノビス距離dGDが閾値T未満である場合(350)は360に進み、そうでない場合その画素はエッジである(302)。
における輝度(RGB)値とその基準値の間のマハラノビス距離 が閾値T未満である場合(360)は370に進み、そうでない場合その画素はエッジである。
における輝度(RGB)値とそれに対応する基準値の間のマハラノビス距離dphが閾値T未満である場合その画素はエッジではなく(301)、そうでない場合その画素はエッジである(302)。
なお、ライブ画像111bにおける勾配の低い画素は全てテスト320により排除される。エッジが勾配の低い基準画素を隠蔽している(occlude)場合、これはテスト340で検出される。したがって、信頼性の低い基準勾配が悪影響を及ぼす方法で使用されることはない。また、上記技法を用いて、前景の静止したオブジェクトによって隠蔽された背景エッジを見出すことができることにも留意すべきである。
エッジ302を識別したら、より詳細に後述するように、これらのエッジを結び付けてエッジチェインを形成することができる。なお、「チェイン」という用語を用いるが、プロセスで実際にメモリに作成されるのは、接続されたエッジ画素のグラフである。
このエッジに基づく手法230を採用する理由は実際的なものである。ステレオ再構築250は特徴に基づき、エッジ検出は、移動オブジェクト251のステレオ再構築に必要な輪郭241を直接生成する。この手法を採ることから、勾配に基づくエッジ検出の利点は明らかである。
まずエッジ231は、画素の輝度値が変化するオブジェクトの存在を示す信頼性がより高い。例えば全体的な背景の減算では、静止した背景と同一色のオブジェクト部分を検出することができない。オブジェクトが背景と同一色(輝度)である場合、エッジの変化は、シャドーイング効果によりオブジェクトのシルエット周辺で起こる可能性が非常に高い。したがって、背景減算はさらなる処理を必要とする場合があり、エッジ検出は簡単でシーン中の変化を反映する。両方法ともシルエット周辺の変化を検出する可能性は高いが、本発明によるエッジに基づく手法は、サブピクセルの精度でエッジを判別できることから、より優れている。
エッジに基づく手法を用いる場合、本発明による処理は勾配の計算、非最大値の抑制、およびエッジを連結するためのヒステリシスを包含するため、スプリアスの変化または雑音が結果に影響を与える可能性は低い。これらは全て、ライブ画像111bにおける顕著な変化を必要とするため、部分的な雑音の影響をあまり受けない。
基準画像221は周期的に更新して、周囲の照明の変化(例えば昼/夜)、ほとんど静止した背景の、入力後は静止したままとなる変更(例えばシーンに配置された新たなオブジェクト)を反映できることに留意すべきである。
滑らかに変化するステレオ視差を用いたエッジ連結
概要
上述のように、エッジ検出に続いて、勾配方向等の属性の類似度に基づいて隣接するエッジを結び付けるエッジ連結プロセスを行う。複雑でない(uncluttered)白黒のキャリブレーションパターン(例えばチェス盤パターン)画像等の制約のある場合、エッジチェインは、パターン中のブロック境界を真に反映する可能性がある。しかしながら、実世界のシーンでは、エッジチェインはさほど物理的に顕著でない可能性がある。例えば、エッジはオブジェクトと背景テクスチャの間で蛇行している可能性がある。
したがって、各チェインが個々のオブジェクトに属している可能性が高くなるようにエッジを連結する必要がある。これは、ステレオ画像間でエッジの対応点をマッチングし、近傍エッジのステレオ視差が滑らかに変化するようにエッジチェインを形成することによって行われる。
ステレオ処理において、視差は2枚の画像において対応する特徴(画素、角、エッジ)間の画像変位である。視差は奥行きの間接的な測定値である。したがって、視差が滑らかに変化するエッジチェインは、例えば前景オブジェクトのシルエットおよび表面テクスチャから生じるような奥行きが滑らかに変化する3Dチェインに対応する(すなわち、視差が滑らかに変化するエッジチェインは3Dオブジェクト251の輪郭241を定める可能性が高い)。
このタイプのチェインは、オブジェクトのシルエットとそのオブジェクトの表面テクスチャを接続するが、奥行きが不連続である静止した背景には接続しないことが予期される。これこそが後述のように最も関心のあるシルエットである。
一致仮説(match hypotheses)の収集
シーン140のライブ画像111bのセットが与えられると、図4に示すようにエッジチェインを計算する。対応点マッチングの一手法は、優先画像なしで全カメラ1〜3の対称処理を伴う可能性がある。しかしながら、3台のカメラを用いるため、これは大量のデータを処理しなければならないことを意味する。したがって本発明は、処理すべきデータ量を減らす技法を用いる。
各画像のエッジはeciであり、ここで、c=1,2,および3はカメラ番号であり、i=1,...,nはエッジに索引を付ける。主カメラ1の画像中の各エッジe1iは順番に処理される。目標は、各e1iを伴う全ての一致の可能性を識別することであり、一致は3つ組の対応するエッジM=<e1i,e2j,e3k>である(すなわち、e1iは一致しないか、あるいは複数の画像に出現する)。これら複数の仮説は次に、後述のさらなる処理を施され、画像中の各エッジが一致しないか、1つの固有の一致と関連付けられる。
この問題に対する1つのアプローチは、エッジe1iを画像2のエッジeとマッチングし、画像3のエッジeを用いて各推定一致の裏付けとなる証拠を確認することである。これは、エピポーラ線(エピ極線)と合うエッジのマッチングで得られるマッチング結果は弱いという事実を無視する。
その代わりに、2台の副カメラ2〜3がエピポーラ線に合う度合(alignment)に応じて、個々のエッジe1i401を画像402中のエッジまたは画像403中のエッジとマッチングする。
所望のターゲットt画像を決めるテストは次のように行う。エッジe1iに合うエピポーラ線はl411である。エピポーラ線l=e1i×f412およびl=e1i×f413を計算する(410)。ここで、fは画像1におけるカメラ2のエピポール(エピ極点)であり、fは画像1におけるカメラ3のエピポールである。
次に、線lおよびl間の角度θ421および線lおよびl間の角度θ422を測定する(420)。次に、2つの角度421〜422を比較する(430)。ターゲット画像は、大きなほうのθに関連する(すなわち、e1iがターゲットカメラに対してエピポーラ線に合う度合が低い)画像である。ターゲット画像431はtとしてラベル付けされる。3番目の画像は補助画像(supporting image)432と呼び、sとしてラベル付けされる。
図5に示すように、エッジe1iを画像tのエピポーラ線に沿った全エッジに対してマッチングする。エッジのマッチングには以下のテストが伴う。
エッジe1i501の勾配方向とエッジetjの勾配方向の間の差を、180°シフトを法として計算する(510)。この差が閾値を越える場合は一致を排除し(520)、そうでなければ進む。
他に、e1iの2つの近傍画素を取ってエッジの勾配方向と合わせる。これらをp1iaおよびp1ibと呼ぶ。同様にetjの2つの近傍画素について、これらをptjaおよびptjbと呼ぶ。画像の向きを用いて画像1および画像tの間でこれらの画素の対応点を求める。なお勾配方向は、あるエッジとそれに一致するエッジの間で180°反転している可能性があるため、このテストでは用いない(以下を参照)。次に、対応する近傍画素間の輝度差を測定する(530)。対応する画素の一方または両方が一致した場合は進み、そうでない場合は差が別の閾値よりも大きければ一致を排除する(520)。
1iとエッジetjの間の一致が与えられると、これらの点の各々のエピポーラ線を補助画像sにおいて計算し、これらの線の交点を見つける。次に、最近傍のエッジeskについて交点の周囲のウインドウを検索する(540)。補助画像において対応するエッジが存在しない場合、一致を排除する(520)。
そうでない場合、エッジe1iおよびエッジetjをそれぞれ上述のようにエッジesk503に対してマッチングする(550)。一致が許容可能である場合、3つのエッジ全ての類似度に基づく最終的な一致スコアを計算し、一致を許容して記憶する(560)。エッジの正確な分類の失敗に対するいくらかの信頼性を与えるために、エッジeskは補助画像の任意のエッジとすることができる。
上記テストはさらなる議論を呈する。テスト510において、隠蔽輪郭に属するエッジは異なるステレオカメラで見ると異なる背景部分を隠蔽する可能性があるため、勾配方向の180°反転が可能である。勾配方向は通常は保持されるが、この場合、勾配方向が180°反転できることは明らかである。
同じ理由によりテスト530は、隠蔽エッジでは色がエッジの背景側で変化している可能性があり、そちら側の画素はあまり一致しないので、エッジの片側にのみ一致画素を要する。その結果、マッチングのための閾値を意図的に緩める。
さらに、テスト530における画素比較は、精密に調整した定量テストではなく、画素の色をマッチングするための意図的に弱い定性テストとする。目標は、勝利したものが全てを手に入れる(winner-takes-all)手法を試して固有の最適一致を識別するのではなく、各e1iについて多くの一致仮説を抽出し、真の一致が存在するという信頼を高めることである。勝利したものが全てを手に入れる手法は、エッジ勾配や近傍画素の色等の部分的な属性のみに基づいてマッチングを行うこの早期段階では信頼性が低い。
一致仮説からのチェインの抽出
この段階では、推定一致のセットM=<e1i,e2j,e3k>(p=1,...,n)があり、ここで、所与のエッジは2つ以上の一致に存在する可能性がある。目標は、当該セットを処理して、各エッジが一致しないか、または1つの固有の一致に関連付けられるようにすることである。
これは、全ての一致を調べて、視差が滑らかに変化するエッジチェインに関連する一致を探すことによって達成される。エッジが2つ以上の一致に出現する場合、最も長いチェインに関連する一致を残し、他の一致を排除する。図6はこのプロセスを示す。
一致する各エッジ601を順番に取り、それが既にチェインの一部であるかを判定する(610)。画像1の一致するエッジが既にチェインの一部である場合は終了する(620)。そうでない場合は新たなチェインを開始する(630)。
画像1の一致するエッジを取る。そのエッジの8連続の近傍エッジを調べる。現エッジのステレオ視差と近傍のステレオ視差の差が閾値未満である場合、その近傍をチェインに接続して(640)再帰し、全てのエッジを調べ終わるまで繰り返す(650)。
チェインの作成後、処理は、安定した解が得られるまで競合する一致(すなわちエッジを共有する一致)を並べ替える(660)反復プロセスに入る。競合する一致の並べ替えは、関連するチェインが最も長い一致に報いることを目的とする。任意の段階におけるチェインの長さは(i)競合しないチェインの一致と、(ii)競合しているが現在勝利した一致としてフラグが立てられているチェインの一致との合計で与えられる。勝利した一致の最後のセットを保持し、次の段階の3D再構築250に送る。
ステレオビジョンを用いた車椅子検出
ステレオキャリブレーション
3D再構築250には、カメラ1〜3を完全にキャリブレーションする必要がある。OpenCVライブラリ(VA Software社(Fremont, CA)から入手可能)を用いて放射方向歪曲収差のキャリブレーションを行う。ステレオキャリブレーションプロセスは、ステレオ画像において自動的に検出されるキャリブレーションパターンを利用する。カメラの内部パラメータを計算し、基本(F)行列の計算により外部パラメータを求める。地表面は、シーンの上にパターン141を配置し(図1を参照)、ステレオ画像間で平面射影変換(homography)を用いて地表面の3D座標を求めることによってキャリブレートすることができる。
シーン中の個々のオブエクトのセグメント化
一用途では、シーン140中の3D移動オブジェクト251を解析して、そのオブジェクトが歩行者であるか車椅子利用者であるかを判定する。3Dの輪郭は、不連続の奥行きと交差しない滑らかに変化する視差に基づいているため、隠蔽するものと重複しないもの両方のセグメント化によい基礎を与える(Shen等著「Shape Models from Image Sequences」(Proceedings Lecture Notes in Computer Science, Vol. 800, Computer Vision ECCV '94, Springer-Verlag, pp.225-230, 1994)を参照)。
範囲外の3Dの点の削除
図7に示すように、ランダムサンプリングコンセンサス(random sampling consensus:RANSAC)プロセスを用いて、セグメント化されたオブジェクト710〜711を形成するデータセットの残りの点に対するメジアン(median:正中線)の距離が最小である点を探すことによって、セグメント化されたオブジェクト710〜711内の3Dの点の重量中心(COG)701〜702を推定する。
次に、セグメント化されたオブジェクトを処理して孤立点(outlier)720を除去する。孤立点の閾値をメジアンの距離の所定倍(例えば2)に設定する。次の通常点(inlier)のデータを以下のように処理することができる。
高さの測定
3Dデータセット(すなわち3Dオブジェクトおよび事前にキャリブレートされた地表面730に関連する点)を与えられると、高さの測定731〜732により、データセットにおける最も高い点(最大の高さ)741〜742が得られる。概して、(大人の)歩行者の高さの平均は車椅子利用者の高さよりも遥かに大きい。したがって、限界高さ733との比較を用いて車椅子に座っているにしては高すぎる個人を分類することができる。
形状の測定
立っている歩行者710は平面751により近似することができ、車椅子利用者711は階段の形状752に似ている。よってここでのプロセスは、平面をデータセットに適合させ、適合具合(goodness-of-fit)を測定することである。平面の適合プロセスを制約するために、平面751は推定COGを通り、その垂線752はほぼ水平面にある。次に、残りの1つの自由度(すなわち垂直軸を中心とした回転)の徹底的な探索により、データセット中の3Dの点に対する距離に垂直なメジアンを最小にする平面を見つける。すると、適合した平面のメジアンに垂直な距離と個人の高さの比により適切な形状の測度が得られる。この比は、立っている歩行者の場合は大人であれ子供であれ所定の閾値未満であり、かつ車椅子利用者の場合よりも大きいことが予期される。
足の振動運動の測定
足の振動760は歩行者の場合の強い視覚的な合図である。これと対照的に、車椅子利用者の脚および足周りは動かない。したがって、オブジェクトの基部761〜762周りの振動を確認することで分類を助けることができる。
固定された高さよりも低い3Dデータセット中の全ての点は通常約50cmであり、地表面に投影される。次に直線をこの地表面の投影に適合させる。歩行者の場合、踏み出した瞬間に後足と前足の間に顕著な距離がある。したがって、一歩進む間の足の位置の変化に伴い、適合される線は振動する。正弦波を一定期間にわたる線の角度に適合することにより、振動の存在をテストすることができる。これに対して、車椅子利用者の地表面の投影角度の測定値は一定であるか一貫しない変化を遂げる可能性が高い。
本発明を好適な実施の形態の例として記載してきたが、本発明の精神および範囲内で様々な他の適応形態および変更形態を行うことができることが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲に入る変形形態および変更形態をすべて網羅することである。
本発明によるオブジェクト検出システムのブロック図である。 本発明によるオブジェクトの分類方法のフロー図である。 本発明による勾配に基づいたエッジ検出のフロー図である。 本発明によるターゲットと補助画像を識別するフロー図である。 本発明によるエッジのマッチングのフロー図である。 本発明によるエッジ連結のフロー図である。 本発明による車椅子検出のフロー図である。

Claims (5)

  1. シーン中のオブジェクトを分類する方法であって、
    一組のステレオカメラを用いて前記シーン中の前記オブジェクトの画像を取得するステップと、
    検出したエッジを用いて前記オブジェクトを背景からセグメント化するステップと、
    前記検出したエッジから前記オブジェクトの3D再構築体を生成するステップと、
    前記3D再構築体の高さおよび3D形状に関してテストを行い、前記オブジェクトを歩行者または車椅子利用者として分類するステップとを含み、
    垂直面を前記3D再構築体と適合させるステップと、
    前記垂直面と前記3D再構築体の適合具合を測定するステップと、
    前記適合具合と、前記3D再構築体の最も高い点と地表面の間の差である、前記高さの比を取るステップと、
    前記比をテストし、前記オブジェクトを歩行者または車椅子利用者として分類するテップとをさらに含む
    シーン中のオブジェクトを分類する方法。
  2. 前記垂直面の前記適合具合を、前記垂直面と前記3D再構築体の点の間の距離に垂直なメジアンとして測定するステップ
    をさらに含む請求項1記載のシーン中のオブジェクトを分類する方法。
  3. 前記比をテストし、歩行者と車椅子利用者に関する統計に基づいて前記オブジェクトを分類するステップ
    をさらに含む請求項1記載のシーン中のオブジェクトを分類する方法。
  4. ステレオ画像の時間シーケンスが解析され、
    前記オブジェクトの基部付近の3D再構築体が振動運動を示さない場合に前記オブジェクトを前記車椅子利用者として分類するステップをさらに含み、
    前記オブジェクトの基部付近の3Dの点を地表面に投影するステップと、
    前記投影した点に直線を適合させるステップと、
    正弦波を所定期間にわたる前記直線の角度に適合させ、前記投影された点における振動を検出するステップと
    をさらに含む請求項1記載のシーン中のオブジェクトを分類する方法。
  5. ステレオ画像の時間シーケンスが解析され、
    前記オブジェクトが移動しており前記オブジェクトの基部付近の前記3D再構築体が動かない場合に前記オブジェクトを前記車椅子利用者として分類するステップ
    をさらに含む請求項1記載のシーン中のオブジェクトを分類する方法。
JP2004524118A 2002-07-30 2003-07-18 シーン中のオブジェクトを分類する方法 Expired - Fee Related JP4451307B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/210,845 US7043084B2 (en) 2002-07-30 2002-07-30 Wheelchair detection using stereo vision
PCT/JP2003/009193 WO2004012140A2 (en) 2002-07-30 2003-07-18 Method and system for classifying object in scene

Publications (3)

Publication Number Publication Date
JP2005535016A JP2005535016A (ja) 2005-11-17
JP2005535016A5 JP2005535016A5 (ja) 2006-08-17
JP4451307B2 true JP4451307B2 (ja) 2010-04-14

Family

ID=31187445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004524118A Expired - Fee Related JP4451307B2 (ja) 2002-07-30 2003-07-18 シーン中のオブジェクトを分類する方法

Country Status (5)

Country Link
US (1) US7043084B2 (ja)
JP (1) JP4451307B2 (ja)
KR (1) KR100617408B1 (ja)
CN (1) CN1324529C (ja)
WO (1) WO2004012140A2 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI111755B (fi) * 2001-11-23 2003-09-15 Mapvision Oy Ltd Menetelmä ja järjestelmä konenäköjärjestelmän kalibroimiseksi
US7594556B1 (en) * 2004-08-27 2009-09-29 Cook Technologies, Inc. System for storing and retrieving a personal-transportation vehicle
US7720282B2 (en) * 2005-08-02 2010-05-18 Microsoft Corporation Stereo image segmentation
US8824548B2 (en) * 2006-03-21 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Object detecting with 1D range sensors
KR100762670B1 (ko) * 2006-06-07 2007-10-01 삼성전자주식회사 스테레오 이미지로부터 디스패리티 맵을 생성하는 방법 및장치와 그를 위한 스테레오 매칭 방법 및 장치
JP4560023B2 (ja) * 2006-09-14 2010-10-13 三菱スペース・ソフトウエア株式会社 画像マッチング装置、画像マッチングプログラム及び画像マッチング方法
US20080075327A1 (en) * 2006-09-21 2008-03-27 Honeywell International Inc. Method and system for object characterization based on image volumetric determination
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles
US8428382B2 (en) * 2007-02-16 2013-04-23 Kao Corporation Hair image display method and display apparatus
US7903883B2 (en) * 2007-03-30 2011-03-08 Microsoft Corporation Local bi-gram model for object recognition
US10650608B2 (en) * 2008-10-08 2020-05-12 Strider Labs, Inc. System and method for constructing a 3D scene model from an image
EP2196425A1 (de) * 2008-12-11 2010-06-16 Inventio Ag Verfahren zur Benachteiligungsgerechten Benutzung einer Aufzugsanlage
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
KR20130063492A (ko) * 2010-03-26 2013-06-14 지멘스 에스에이에스 도어를 개폐하기 위한 안전 장치
US9087258B2 (en) 2010-08-17 2015-07-21 Lg Electronics Inc. Method for counting objects and apparatus using a plurality of sensors
US8675957B2 (en) 2010-11-18 2014-03-18 Ebay, Inc. Image quality assessment to merchandise an item
US20130063556A1 (en) * 2011-09-08 2013-03-14 Prism Skylabs, Inc. Extracting depth information from video from a single camera
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US9165188B2 (en) 2012-01-12 2015-10-20 Kofax, Inc. Systems and methods for mobile image capture and processing
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US10127636B2 (en) * 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
KR101454548B1 (ko) * 2013-06-26 2014-10-27 주식회사 에스원 3차원 카메라를 이용한 감시 장치 및 이의 구동 방법
JP2016538783A (ja) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド モバイル映像データを用いて長尺文書の合成画像を生成するためのシステムおよび方法
CN103986906B (zh) * 2014-05-08 2017-05-10 杭州同尊信息技术有限公司 基于监控视频的开关门检测方法
DE102014110506A1 (de) * 2014-07-25 2016-01-28 Bircher Reglomat Ag Verfahren zur Überwachung
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
JP6119882B2 (ja) * 2016-01-12 2017-04-26 富士通株式会社 応対支援方法、応対支援装置および応対支援プログラム
DE102017126553A1 (de) * 2017-11-13 2019-05-16 Iris-Gmbh Infrared & Intelligent Sensors Erfassungssystem
CN107886524B (zh) * 2017-11-20 2020-05-22 江苏省特种设备安全监督检验研究院 一种电梯门运动轨迹识别方法
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
US11708240B2 (en) 2018-07-25 2023-07-25 Otis Elevator Company Automatic method of detecting visually impaired, pregnant, or disabled elevator passenger(s)
CN109146969B (zh) * 2018-08-01 2021-01-26 北京旷视科技有限公司 行人定位方法、装置及处理设备及其存储介质
GB2582904B (en) * 2019-03-26 2021-04-14 Atsr Ltd Method and apparatus for controlling access to a vehicle
CN113950457A (zh) * 2019-06-03 2022-01-18 Tk 电梯创新中心股份公司 用于乘客移动系统的乘客检测系统
US10860115B1 (en) * 2019-09-19 2020-12-08 Bao Tran Air transportation systems and methods
CN110939351A (zh) * 2019-10-28 2020-03-31 优创嘉(大连)科技有限公司 一种视觉智控门控制方法及视觉智控门
CN112758777B (zh) * 2019-11-01 2023-08-18 富泰华工业(深圳)有限公司 智能电梯控制方法及设备
WO2022009091A1 (en) * 2020-07-08 2022-01-13 Cron Systems Pvt. Ltd. System and method for classification of objects by a body taper detection

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
WO1991019265A1 (en) * 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
JPH11268879A (ja) * 1998-03-20 1999-10-05 Mitsubishi Electric Corp エレベータの運転制御装置
JP2001058765A (ja) 1999-08-20 2001-03-06 Mitsubishi Electric Corp 画像監視装置及び画像監視方法
JP3995846B2 (ja) * 1999-09-24 2007-10-24 本田技研工業株式会社 物体認識装置
JP2001302121A (ja) 2000-04-19 2001-10-31 Mitsubishi Electric Corp エレベータ装置
US6665440B1 (en) * 2000-05-30 2003-12-16 Microsoft Corporation System and method for performing corner guided curve matching of multiple images representing a scene
JP2002024986A (ja) * 2000-07-06 2002-01-25 Nippon Signal Co Ltd:The 歩行者検出装置
US7079669B2 (en) * 2000-12-27 2006-07-18 Mitsubishi Denki Kabushiki Kaisha Image processing device and elevator mounting it thereon
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events

Also Published As

Publication number Publication date
US20040022439A1 (en) 2004-02-05
KR20040089670A (ko) 2004-10-21
JP2005535016A (ja) 2005-11-17
CN1324529C (zh) 2007-07-04
US7043084B2 (en) 2006-05-09
KR100617408B1 (ko) 2006-08-31
CN1647097A (zh) 2005-07-27
WO2004012140A3 (en) 2004-06-10
WO2004012140A2 (en) 2004-02-05

Similar Documents

Publication Publication Date Title
JP4451307B2 (ja) シーン中のオブジェクトを分類する方法
US7031525B2 (en) Edge detection based on background change
JP4313758B2 (ja) ステレオ画像中のエッジを結び付けてチェインにする方法
Salvador et al. Cast shadow segmentation using invariant color features
US6661918B1 (en) Background estimation and segmentation based on range and color
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
KR100422370B1 (ko) 3차원 물체 부피계측시스템 및 방법
KR101550474B1 (ko) 양안을 찾아내어 추적하는 방법 및 장치
RU2426172C1 (ru) Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
Jiang et al. Shadow segmentation and classification in a constrained environment
US7120277B2 (en) Segmentation unit for and method of determining a second segment and image processing apparatus
JP4774818B2 (ja) 画像処理装置及び画像処理方法
CN107615334A (zh) 物体识别装置以及物体识别系统
JP2003500780A (ja) 物体検査における確度に基づいた画素分類
JP2018169831A (ja) 画像比較装置
CN107038748A (zh) 用于估计场景中的反射参数和光源的位置的方法和设备
JP2010204947A (ja) オブジェクト検出装置、オブジェクト検出方法、及び、プログラム
JP4042602B2 (ja) 画像処理装置
WO2003010622A2 (en) Automatic separation of subject pixels using segmentation based on multiple planes of measurement data
JPH10247246A (ja) 物体検出方法
JP3585977B2 (ja) 動領域検出装置
JP2003162724A (ja) 画像センサ
JP3149839B2 (ja) 物体抽出装置
JP2019169056A (ja) 領域区分装置
JPH09271014A (ja) 動物体認識装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060703

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees