JP2019106149A - 情報処理装置、情報処理プログラム、及び、情報処理方法 - Google Patents

情報処理装置、情報処理プログラム、及び、情報処理方法 Download PDF

Info

Publication number
JP2019106149A
JP2019106149A JP2017239974A JP2017239974A JP2019106149A JP 2019106149 A JP2019106149 A JP 2019106149A JP 2017239974 A JP2017239974 A JP 2017239974A JP 2017239974 A JP2017239974 A JP 2017239974A JP 2019106149 A JP2019106149 A JP 2019106149A
Authority
JP
Japan
Prior art keywords
vehicle
learning
input image
image
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017239974A
Other languages
English (en)
Other versions
JP6472504B1 (ja
Inventor
剛平 西野
Kohei Nishino
剛平 西野
天▲埼▼ 李
Tianqi Li
天▲埼▼ 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2017239974A priority Critical patent/JP6472504B1/ja
Application granted granted Critical
Publication of JP6472504B1 publication Critical patent/JP6472504B1/ja
Publication of JP2019106149A publication Critical patent/JP2019106149A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より高精度に画像から車両を検出する。【解決手段】学習器24は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを用いて学習される。学習済みの学習器24は、入力画像40に含まれる車両に関する複数の特徴点52の位置を示すヒートマップ50と、車両毎の各特徴点間の向きを示すベクトルマップ60を出力する。車両検出部32は、入力画像40から特徴点52が検出されたことをもって入力画像40から車両を検出する。また、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれている場合には、車両検出部32は、ベクトルマップ60に基づいて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、及び台数を検出する。【選択図】図2

Description

本発明は、情報処理装置、情報処理プログラム、及び、情報処理方法に関する。
従来、画像の中から車両を自動検出する技術が提案されている。特に、昨今、例えば畳み込みニューラルネットワークなどの機械学習手法の研究が盛んであり、機械学習を用いて画像の中から車両を自動検出する技術が提案されている。
例えば、特許文献1には、車両の正面画像を用いて学習された、車両の正面を検出するための識別器に、自車両の後方カメラで撮影された画像を入力することで、当該画像から他車両を検出する技術が開示されている。
特開2017−41132号公報
従来の画像から車両を自動検出する技術においては、検出精度の観点から改善の余地があった。例えば、特許文献1の技術では、正面を向いた車両が画像に含まれている場合にしか車両を検出することができず、その他のアングルから車両を撮影した画像からは好適に車両を検出することができなかった。また、他の物体に隠れる、あるいは見切れてしまっていることなどによって、車両の一部が画像に含まれていない場合、画像から車両を検出することが困難となっていた。すなわち、限られた場面でしか画像中に存在する車両を検出することができなかった。
本発明の目的は、より高精度に画像から車両を検出することにある。
本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、を備えることを特徴とする情報処理装置である。
望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、ことを特徴とする。
望ましくは、前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、ことを特徴とする。
望ましくは、前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、ことを特徴とする。
望ましくは、前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、ことを特徴とする。
望ましくは、前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、ことを特徴とする。
望ましくは、前記車両検出部は、前記入力画像に対する前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別し、前記情報処理装置は、さらに、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、を備えることを特徴とする。
また、本発明は、コンピュータを、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、として機能させることを特徴とする情報処理プログラムである。
また、本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、学習済みの前記学習器に入力画像を入力して、コンピュータが、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出ステップと、を含むことを特徴とする情報処理方法である。
本発明によれば、より高精度に画像から車両を検出することができる。
本実施形態に係る情報処理システムの構成概略図である。 本実施形態に係るサーバの構成概略図である。 学習用画像の例を示す図である。 入力画像の例を示す図である。 学習器が出力するヒートマップの例を示す図である。 学習器が出力するベクトルマップの例を示す図である。 入力画像の他の例を示す図である。 第1入力画像と第2入力画像における各特徴点同士の色差及び類似度の例を示す図である。 本実施形態に係るサーバの処理の流れを示すフローチャートである。
以下、本発明の実施形態について説明する。
図1には、本実施形態に係る情報処理システム10の構成概略図が示されている。情報処理システム10は、カメラ12と、ユーザ端末14と、情報処理装置としてのサーバ16とを含んで構成される。カメラ12とサーバ16との間、及び、ユーザ端末14とサーバ16との間は、LANあるいはインターネットなどの通信回線18を介して通信可能に接続されている。
カメラ12は、自動車などの車両を撮影するためのカメラである。カメラ12は、例えば、駐車場や高速道路などに設置される監視カメラである。あるいは、カメラ12は車載カメラであってもよい。また、カメラ12としては、静止画を撮影するカメラであってもよく、動画像を撮影するビデオカメラであってもよい。カメラ12によって撮影された画像は、通信回線18を介してサーバ16に送られる。
ユーザ端末14は、ユーザ(サーバ16で実行される画像からの車両検出処理の結果を確認する者)が利用する端末である。ユーザ端末14は、例えばパーソナルコンピュータやタブレット端末などであってよい。ユーザ端末14は、CPU(Central Processing Unit)などの処理部、ハードディスク、ROM(Read Only Memory)あるいはRAM(Random Access Memory)などの記憶部、液晶パネルなどの表示部、マウス、キーボード、タッチパネルなどの入力部、ネットワークアダプタなどの通信部などを含んで構成される。ユーザ端末14は、サーバ16にアクセスすることによって、サーバ16における車両検出処理の結果を受信することができる。
図2に、サーバ16の構成概略図が示されている。本実施形態においては、サーバ16はコンピュータによって構成されるが、情報処理装置としては、以下に示す機能を有する限りにおいて、どのような装置であってもよい。
通信部20は、例えばネットワークアダプタなどから構成される。通信部20は、通信回線18を介して、カメラ12及びユーザ端末14と通信する機能を発揮する。具体的には、通信部20は、カメラ12から画像を受信する。また、通信部20は、ユーザ端末14からの要求に応じて、後述の制御部30による車両検出処理の結果をユーザ端末14に送信する。
記憶部22は、例えばROM、RAMあるいはハードディスクなどから構成される。記憶部22には、サーバ16の各部を動作させるための情報処理プログラムが記憶される。また、記憶部22には、学習器24が記憶される。
学習器24は、詳しくは後述するように、カメラ12が撮影した画像を入力画像とし、当該入力画像に含まれる車両に関する複数の特徴点を検出するものである。本実施形態における学習器24は、例えば畳み込みニューラルネットワークを含んで構成される。
なお、畳み込みニューラルネットワークは、一般的に、複数の層を含んで構成される。畳み込みニューラルネットワークの各層は、配列(例えば2次元配列)されたニューロン群から構成される。また、畳み込みニューラルネットワークにおいては、ニューロン群と同様に2次元配列された複数の要素を含むフィルタが用いられる。フィルタは各層に応じて設けられ、通常、フィルタのサイズ(配列された要素の数)は、それが適用されるニューロン群のサイズ(配列されたニューロンの数)よりも小さくなっている。フィルタの各要素には、重みが設定されている。
各層のニューロン群に対してフィルタが適用される。概念的には、ニューロン群の一部に対してフィルタが重ね合わされる。フィルタの各要素に設定された各重みと、フィルタが重なる複数のニューロン(ニューロン群の一部)の活性との積和が計算される。すなわち、フィルタの各要素に設定された重みをベクトルの要素として持つ重みベクトルと、複数のニューロンの活性をベクトルの要素として持つ活性ベクトルとの内積が計算される。当該内積が当該層の出力の1つの活性となる。
フィルタは、ニューロン群上を縦横方向に1つ(1ニューロン)ずつ、あるいは、数ニューロンずつずらしながら適用されていく。これにより、当該層の出力として、配列された活性群が出力される。当該活性群が次層のニューロン群の活性となる。複数の層のニューロン群に対してフィルタを適用していくことで、入力画像から最終的に車両に関する複数の特徴点が検出される。
以上のように、本実施形態においては、学習器24の実態は、畳み込みニューラルネットワークに関する各種パラメータ(層構造、各層のニューロン構造、各層におけるフィルタ数、フィルタサイズ、及び各フィルタの各要素の重みなど)、並びに、入力画像に対して処理を行うための処理実行プログラムである。したがって、記憶部22に学習器24が記憶されるとは、上記各種パラメータ及び処理実行プログラムが記憶部22に記憶されることを意味する。なお、学習器24としては、複数のニューラルネットワークを含むものであってもよい。
学習器24の学習方法について説明する。学習器24は、車両を含む学習用画像と、それに関連する情報を含む学習用データを用いて学習を行う。ちなみに、学習器24の学習とは、学習器24が畳み込みニューラルネットワークであれば、フィルタの各要素の重みを調整することを意味する。
図3には、学習用画像26の例が示されている。学習用画像26は、車両を含む限りにおいてどのような画像であってもよく、その取得方法もどのような方法であってもよい。また、図3の例では、学習用画像26は1つの車両を含むものであるが、学習用画像26に複数の車両が含まれていてもよい。
学習用データには、学習用画像26に含まれる車両に関する複数の特徴点(28a〜28k、以後、学習用画像26に含まれる車両に関する複数の特徴点を総称して特徴点28と記載する)の位置を示す情報が含まれる。本実施形態では、車両に関する特徴点28として、車両のルーフの4隅(特徴点28a〜28d)、特徴点28aと28dを結ぶ線分と、特徴点28bと28cを結ぶ線分との交点である特徴点28e、2つのヘッドライト(特徴点28f及び28g)、2つテールライト(特徴点28h及び28i)、及び、4つのタイヤ(特徴点28j及び28k)の13個の特徴点28の位置が既知となっている。なお、図3に示す画像のように、13個の特徴点全てが画像に含まれない場合もある。また、車両に関する特徴点28としては、上述の位置に限られず、その他の位置(例えば前後のナンバープレートの位置など)が含まれていてもよい。複数の特徴点は、画像中において車両がどのような向きであっても、できるだけ多くの特徴点が画像に現れるように、その位置が設定される。
これら特徴点28の位置を示す情報としては、例えば、学習用画像26における座標である。
また、学習用データには、各特徴点28が示す車両の箇所を示す情報が含まれる。車両の箇所とは、車両の特定の部位であり、例えば、ルーフ中央、あるいは右前輪などである。図3の例では、特徴点28aがルーフ右前隅、特徴点28bがルーフ左前隅、特徴点28cがルーフ右後隅、特徴点28dがルーフ左後隅、特徴点28eがルーフ中央、特徴点28fが右ヘッドライト、特徴点28gが左ヘッドライト、特徴点28hが右テールライト、特徴点28iが左テールライト、特徴点28jが左前輪、特徴点28kが左後輪であることを示す情報が学習用データに含まれる。なお、学習用画像26に複数の車両が含まれる場合は、学習用データには、車両毎に区別された、各特徴点28の箇所を示す情報が含まれる(例えば、特徴点28aは、「車両Aの」ルーフ右前隅である、など)。
また、学習用データには、各特徴点28から他の特徴点へ向かう向き(本実施形態ではベクトル)を示す情報が含まれる。なお、特徴点同士を結ぶベクトルは、各特徴点28の位置を示す情報に基づいて所定のプログラムにより自動的に生成されたものを用いることができる。
好適には、学習用データには、学習用画像26が撮影された時の天気を示す情報を含んでいてもよい。天気としては、例えば、晴れ、曇り、雨、あるいは雪などである。また、好適には、学習用データには、学習用画像26に含まれる車両の各ライト(ヘッドライト及びテールライトなど含む)の点灯有無を示す情報を含んでいてもよい。
なお、上述した、車両の複数の特徴点28の位置、各特徴点28が示す車両の箇所、学習用画像26が撮影された時の天気、及び、学習用画像26に含まれる車両の各ライトの点灯有無をそれぞれ示す各情報は、例えば学習用画像26のメタデータとして付加されていてもよい。
学習器24は、多数の学習用データを用いて学習することで、入力画像から車両に関する複数の特徴点を検出することが可能となる。特に、学習器24は、車両に関する複数の特徴点28の位置と、各特徴点28が示す車両の箇所が既知である学習用データを用いて学習する。これにより、学習器24は、検出した特徴点が車両のどの箇所に対応するものであるかを識別して検出可能となる。
対応する車両の箇所を識別した上で複数の特徴点を検出可能であることは、入力画像に含まれる車両の各箇所間の位置関係を検出可能であることを意味する。換言すれば、学習器24は、学習用データから、車両のある箇所(特徴点)から他の箇所(特徴点)へ向かう向き(本実施形態ではベクトル)を学習し、学習済みの学習器24は、入力画像から検出した各特徴点間の向き(ベクトル)を検出可能になると言える。また、学習器24は、学習用画像26に複数の車両が含まれている場合であっても、学習用データにおいては、車両毎に区別された上で、各特徴点28が示す車両の箇所が既知であるから、車両毎に区別して、各特徴点間の向きを学習することができる。
好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26が撮影された時の天気を出力するように学習する。例えば、天気が雪である場合、積雪によって車両のルーフの4隅及びルーフ中央が隠れてしまう場合がある。このような場合でも、天気を示す情報を含む学習用画像26を用いて入力画像の天気を出力するように学習することで、学習器24は、学習用画像26が撮影された時の天気が雪であることを考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。
同様に、好適には、学習器24は、特徴点及び各特徴点間の向きに加え、学習用画像26に含まれる車両の各ライトの点灯有無を出力するように学習する。昼間に撮影された画像と夜間に撮影された画像とを比較したときに、ライトの点灯有無に応じて入力画像のライトの位置付近の輝度値が変化するなど画像の見た目が大きく異なる。このような場合でも、車両の各ライトの点灯有無を示す情報を含む学習用画像26を用いて入力画像に含まれる車両の各ライトの点灯有無を出力するように学習することで、学習器24は、学習用画像26が撮影された時の車両の各ライトの点灯有無を考慮した上で特徴点を検出するようになると考えられる。これにより、学習器24が、入力画像から車両に関する複数の特徴点を検出する際の検出精度を向上させることができる。
図2に戻り、制御部30は、例えばCPUあるいはマイクロコントローラなどを含んで構成される。制御部30は、記憶部22に記憶された情報処理プログラムに従ってサーバ16の各部を制御する。また、図2に示される通り、制御部30は、車両検出部32、人物検出部34、処理演算部36、及び、同一性判定部38としても機能する。
車両検出部32は、カメラ12が撮影した画像である入力画像から車両を検出する処理を実行する。具体的には、車両検出部32は、入力画像を学習済みの学習器24に入力し、入力画像に対する学習器24による複数の特徴点の検出結果に基づいて、当該入力画像から車両を検出する。
図4には、入力画像の例が示されている。以下、図4に示す入力画像40に対する、学習器24の出力及び車両検出部32による車両検出処理の詳細を説明する。図4に示す通り、本実施形態においては、入力画像40には複数の車両42が含まれている。なお、車両検出部32の処理対象となる入力画像としては、1つの車両42のみを含むものであってもよく、車両42が含まれない画像でもよい。
車両検出部32が、十分に学習された学習器24に入力画像40を入力すると、学習器24は、ヒートマップ及びベクトルマップを出力する。
図5には、入力画像40に対するヒートマップ50が示されている。上述のように、学習器24は、入力画像40から各車両に関する複数の特徴点を検出する。ヒートマップ50は、検出された複数の特徴点52の位置を示すマップである。なお、検出された複数の特徴点52の位置は、入力画像40における座標で表される。
図6には、入力画像40に対するベクトルマップ60が示されている。上述の通り、学習器24は、入力画像から検出した各特徴点52間の向きを検出する。特に、学習器24は、入力画像に複数の車両が含まれている場合には、車両毎に区別して、各特徴点52間の向きを検出する。ベクトルマップ60は、車両毎の各特徴点52間の向きを示すベクトル62の位置及び向きを示すマップである。なお、図6に示すベクトルマップ60には特徴点52が示されているが、ベクトルマップ60は特徴点52を含んでいなくてもよい。
各ベクトル62は、一の特徴点52と他の特徴点52との間に示されるものであるが、その向き(一の特徴点52から他の特徴点52へ向かう向きなのか、他の特徴点52から一の特徴点52へ向かう向きなのか)は、予め定義されておいてよい。例えば、本実施形態においては、各ベクトル62は、原則的に、前から後ろ(例えばルーフ右前隅からルーフ右後隅へ向かう方向)、右から左(例えばルーフ右前隅からルーフ左前隅へ向かう方向)の向きとなっている。
ベクトルマップ60においては、隣接する(近傍にある)特徴点52間のみのベクトル62が示されるようにしてもよいが、ある特徴点52から、当該特徴点52と同一車両に対応する他の全ての特徴点52との間にベクトル62が示されるようにしてもよい。図6に示すベクトルマップ60においては、一部のベクトル62のみが示されている。
車両検出部32は、ヒートマップ50において検出された特徴点52とベクトルマップ60に基づいて、入力画像40から車両を検出する。具体的な検出処理の内容を以下に説明する。
車両検出部32は、ヒートマップ50に対してフィルタリング処理を施し、ヒートマップ50に含まれる特徴点群から確率が所定値以上である特徴点を有効な複数の特徴点として抽出する。次に、抽出された有効な複数の特徴点の間の全ての組合せについて、特徴点と特徴点を結ぶ線分上でベクトルマップ60の積分を行う。そして、ベクトルの積分値の平均が所定値以上の2つの特徴点の組を正解の組合せとして特定する。このようにして、有効な複数の特徴点を複数のグループにグルーピングしていく。そうすると、例えば、特徴点を3つ有するグループA、特徴点を5つ有するグループB、特徴点を6つ有するグループC、あるいは他の特徴点と組み合わされなかった単独の特徴点などといったように分類される。そして、所定数以上の特徴点を含むグループを、車両を表すグループとして特定する。すなわち、車両として検出する。
このように、本実施形態によれば、入力画像40から検出された特徴点52に基づいて車両を検出するから、入力画像40において、車両の一部が隠れたり、見切れていたり、あるいは車両のアングルに関わらず、入力画像40から車両を検出することができる。一方、ヒートマップ50において特徴点52が検出されなかった場合には、車両検出部32は、入力画像40に車両は含まれていない、と判定することができる。
また、上述の通り、学習器24は、対応する車両の箇所が識別された複数の特徴点52を検出可能である。例えば、学習器24は、特徴点52aがルーフ右前隅、特徴点52bがルーフ左前隅、特徴点52cがルーフ右後隅、特徴点52dがルーフ左後隅、特徴点52eがルーフ中央、特徴点52fが右ヘッドライト、特徴点52gが左ヘッドライト、特徴点52hが右前輪、特徴点52iが右後輪であることを識別した上で、各特徴点52を検出する。
車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、入力画像40に含まれる車両の向きを検出することができる。例えば、図5に示されたヒートマップ50の例では、ルーフ右前隅に対応する特徴点52aの左上側に、ルーフ右後隅に対応する特徴点52c位置しており、また、ルーフ右前隅に対応する特徴点52aの右上側に、ルーフ左前隅に対応する特徴点52bが位置している。このような位置関係から、車両検出部32は、複数の特徴点52a〜iにより表される車両は、入力画像40において前側を右下方向に向けていることを検出することができる。
また、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の種別を検出することができる。車両の種別とは、その外形の違いにより区別されるものであり、例えば、セダン、バン、軽自動車、トラック、あるいはタクシーなどの種別である。
例えば、バンは、タイヤの位置からルーフの位置までの距離がセダンに比して長い。また、トラックは、タイヤの位置からルーフの位置までの距離がセダンに比して比較的長い上、ルーフの前後方向の長さがセダンあるいはバンに比して長い。各種別の車両は、このように外形上の違いを有しているため、車両検出部32は、複数の特徴点52の位置によって入力画像40に含まれる車両の種別を検出することができる。なお、入力画像40における車両のアングルによって、複数の特徴点52間の距離が変動し得るので、例えば、車両のルーフの4隅の特徴点の位置関係などに基づいて当該車両のアングルを推定した上で、車両の種別を検出するのが好適である。
図4に示すように、入力画像40が複数の車両42を含む場合、特に、複数の車両42が近接あるいは重なっている場合、ヒートマップ50において、複数の車両に対応する複数の特徴点52が密集して検出されることになる。例えば、図5のヒートマップ50の下部に位置する特徴点群64がその例である。この場合、各特徴点52が対応する車両の箇所が識別されているとはいえ、ヒートマップ50からだけでは、特徴点群64を各車両に対応するグループに適切に区別するのが困難になる場合がある。
本実施形態では、ベクトルマップ60を用いることで、複数の車両に対応する特徴点52が密集した特徴点群64が形成された場合であっても、特徴点群64を各車両に対応するグループに適切に区別することができる。具体的には、ベクトルマップ60に含まれる各ベクトル62は、ある車両の特徴点52と、当該車両の他の特徴点52との間に示されるものである。したがって、特徴点群64に含まれる各特徴点52間の向きに基づいて、特徴点群64を、各車両に対応した特徴点グループ64aと特徴点グループ64bに区別することができる。
入力画像40から検出された複数の特徴点52が適切に車両毎に区別されることで、車両検出部32は、入力画像40に含まれる各車両の向きを検出することが可能となる。それと同時に、車両検出部32は、入力画像40に含まれる車両の台数を検出することが可能になる。
図2に戻り、人物検出部34は、入力画像40に含まれる人物を検出する。入力画像40からの人物の検出方法としては、車両を検出するための学習器24と同様の構成であって、人物を検出するように学習された他の学習器を用いてもよいし、あるいは、既知の画像解析処理などを用いるようにしてもよい。特に、人物検出部34は、入力画像40に含まれる人物の数を検出する。
処理演算部36は、車両検出部32による入力画像からの車両の検出結果と、人物検出部34による入力画像からの人物の検出結果に基づいて演算を行う。本実施形態においては、図7に示されるような、タクシー乗り場を俯瞰的に撮影した入力画像40−2に対して、車両検出部32がタクシー70の数を検出し、人物検出部34が人物72の数を検出する。そして、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数とに基づいて演算を行い、タクシーの需要を判定する。このように、処理演算部36は、タクシー需要判定部として機能する。
車両検出部32によるタクシーの検出方法としては、様々な方法を採用することができる。まず、学習器24によりヒートマップ50(図5参照)が出力された後に、ルーフ中央に対応する特徴点52を含む一定の領域に対して画像解析を実施し、行灯を検出するようにしてもよい。もちろん、行灯が検出されれば当該車両はタクシーであると判定できるし、行灯が検出されなければ当該車両はタクシーではないと判定できる。
また、学習用画像26(図3参照)に含まれる車両がタクシーであることを示す情報を学習データに付加し、学習器24が入力画像40−2からタクシーを識別可能なように学習器24を学習させてもよい。
あるいは、カメラ12の撮影対象場所によっては、入力画像40−2に含まれる車両はすべてタクシーであるとみなすようにしてもよい。
処理演算部36は、上述した方法により入力画像40−2に含まれるタクシー70及び人物72を検出し、タクシー70の台数よりも人物72の数が多い場合は、タクシーの需要有りと判定し、例えばタクシーの配車担当者が利用するユーザ端末14に当該タクシー乗り場でタクシーの需要があることを示す情報を送信する。また、処理演算部36は、入力画像40−2におけるタクシー70の台数と人物72の数との差分を算出し、当該差分(すなわち必要なタクシーの台数)を示す情報をユーザ端末14に送信するようにしてもよい。
また、処理演算部36は、タクシー乗り場における過去の複数の入力画像40−2に含まれるタクシー70の台数及び人物72の数の統計データに基づいて、当該タクシー乗り場における将来のタクシーの需要量を予測するようにしてもよい。
図2に戻り、同一性判定部38は、同一のカメラ12で異なるタイミングで撮影された複数の入力画像において、車両の同一性を判定する(つまり同じ車両を識別する)処理を行う。同一性判定部38によれば、あるカメラ12の撮影範囲の中で、同一車両を追従することが可能になり、車両がどのような動きをするのかを検出することが可能になる。以下の説明においては、同一のカメラ12で異なるタイミングで撮影された、車両Aを含む第1入力画像と車両Bを含む第2入力画像との間で、車両Aと車両Bの同一性を判定する処理について説明する。
まず、同一性判定部38は、第1入力画像から学習器24が検出した車両Aに関する複数の特徴点の各画素の色情報と、第2入力画像から学習器24が検出した車両Bに関する複数の特徴点の各画素の色情報とを取得する。なお、色情報とは、色相、明度(輝度)、及び彩度を含む概念である。
本実施形態では、学習器24は、第1入力画像あるいは第2入力画像の1つの画素の座標として各特徴点を検出しているところ、同一性判定部38は、学習器24により検出された1つの画素を中心とする一定の面積を持った領域を色情報の取得対象の領域(以後画素領域と記載する)とする。また、第1入力画像あるいは第2入力画像の車両の大きさに応じて、画素領域の面積を変化させるようにしてもよい。例えば、入力画像中の車両が大きい程、画素領域の面積を大きくするようにしてもよい。なお、入力画像中の車両の大きさは、車両の箇所が識別された複数の特徴点の位置に基づいて検出することができる。
本実施形態では、同一性判定部38は、各画素領域に含まれる複数の画素の色をL*a*b*色空間で表現した上で、複数の画素の色の代表値(例えば平均値、中央値、最頻値)を求める。そして、求めた色の代表値を画素領域の色情報とする。なお、各画素の色をL*a*b*色空間で表現するのは、L*a*b*色空間が人間の視覚に近似するように設計されているためである。
なお、各画素領域の色情報として上記以外の特徴量を採用してもよい。例えば、画素領域に含まれる複数の画素におけるHOG(Histograms of Oriented Gradients)特徴量を算出するようにしてもよい。ここで、HOG特徴量とは、画素領域内の各画素の輝度の勾配方向をヒストグラム化した特徴量である。
以上のようにして、第1入力画像に含まれる車両Aの各特徴点に対応する画素の色情報、及び、第2入力画像に含まれる車両Bの各特徴点に対応する画素の色情報が取得される。
次いで、同一性判定部38は、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報とを比較する。詳しくは、車両の箇所毎に、車両Aの特徴点の色情報と車両Bの特徴点の色情報を比較する。これにより、同一性判定部38は車両Aと車両Bとの同一性を判定する。具体的には、車両Aのある特徴点(ここではルーフ右前隅とする)と、車両Bの対応する箇所であるルーフ右前隅の特徴点との色情報の差分(色差)を算出する。このように、全ての箇所について色差を算出する。
本実施形態では、CIE2000色差式により、各特徴点の画素の色情報の色差を算出する。これは、CIE2000色差式は、人間の目の色識別域の特徴である、色相依存性、明度依存性、及び彩度依存性を考慮した計算式であるためである。すなわち、CIE2000色差式に基づく色差は、人間の視覚による色の差に近い値となるためである。
図8に、車両Aの各特徴点の色情報と、車両Bの各特徴点の色情報との差(色差)が示されている。同一性判定部38は、算出された色差に基づいて、特徴点毎に類似度を算出する。具体的には、同一性判定部38は、色差が小さい程類似度が大きくなるように算出する。本実施形態では、以下の式によって色差から類似度を算出する。
Figure 2019106149
ここで、dは色差であり、α及びβは定数である。α及びβを適宜設定することにより、色差の値に対する類似度の値を調整することができる。
図8には、特徴点毎に算出された類似度が示されている。このようにして、車両Aと車両Bとの間において、複数の(本実施形態では13個)特徴点についての複数の類似度が算出される。同一性判定部38は、算出された複数の類似度の代表値(例えば平均値、中央値、最頻値)を求める。このように求められた類似度の代表値が車両Aと車両Bとの類似度となる。なお、第1入力画像又は第2入力画像における見切れ、あるいは隠れなどにより、車両A又は車両Bの複数の特徴点のうち検出されなかった特徴点がある場合には、当該特徴点に関する類似度は予め定められた値(本実施形態では50%)とする。
以上のようにして、第1入力画像に含まれる車両Aと第2入力画像に含まれる車両Bの類似度が算出される。同一性判定部38は、算出された類似度が予め定められた類似度閾値以上である場合に車両Aと車両Bが同一車両であると判定し、算出された類似度が類似度閾値未満である場合に車両Aと車両Bが同一車両ではないと判定する。
上述のように、同一性判定部38は、異なるタイミングで撮影された複数の入力画像間において車両の同一性を判定する。好適には、カメラ12が撮像した動画に含まれる、隣接するフレーム画像間毎に上記処理を行うことによって、動画像において同一車両をトラッキングすることができる。
以下、図9に示すフローチャートに従って、本実施形態に係るサーバ16の処理の流れを説明する。
ステップS10において、サーバ16の制御部30は、車両を含む学習用画像26、学習用画像26に含まれる車両に関する複数の特徴点28の位置を示す情報、及び、各特徴点28が示す車両の箇所を示す情報を含む学習用データを学習器24に入力することを繰り返すことで、学習器24を学習させる。ステップS10が学習ステップに相当する。
ステップS12において、車両検出部32は、カメラ12が撮影した入力画像40を学習済みの学習器24に入力する。
ステップS14において、学習器24は、ステップS12で入力された入力画像40に対して、ヒートマップ50及びベクトルマップ60を出力する。
ステップS16において、車両検出部32は、ステップS14で出力されたヒートマップ50に基づいて、入力画像40に車両が含まれるか否かを判定する。具体的には、入力画像40から学習器24が車両に関する特徴点52を検出した場合には、車両検出部32は、入力画像40に車両が含まれると判定する。入力画像40に車両が含まれると判定された場合はステップS18に進み、入力画像40に車両が含まれていないと判定された場合は処理を終了する。ない。ステップS12〜S16が車両検出ステップに相当する。
ステップS18において、車両検出部32は、車両の箇所が識別された複数の特徴点52の位置関係に基づいて、車両の向き及び種別を検出する。入力画像40に複数の車両が含まれる場合には、車両検出部32は、ステップS14で出力されたベクトルマップを用いて複数の特徴点52を車両毎に区別した上で、複数の車両の向き、種別、あるいは台数を検出する。
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
例えば、本実施形態では、情報処理装置としてのサーバ16が、学習器24の学習処理と、学習器24を用いた車両検出処理の両方を実行しているが、学習処理と車両検出処理を別の主体(装置)で実行するようにしてもよい。例えば、他の装置において学習された学習済みの学習器24をサーバ16の記憶部22に記憶させて、当該学習器24を用いてサーバ16が車両検出処理を実行するようにしてもよい。
また、本発明は車両以外にも、船や飛行機などの乗り物にも適用可能である。
10 情報処理システム、12 カメラ、14 ユーザ端末、16 サーバ、18 通信回線、20 通信部、22 記憶部、24 学習器、30 制御部、32 車両検出部、34 人物検出部、36 処理演算部、38 同一性判定部。
本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、を備えることを特徴とする情報処理装置である。
また、本発明は、コンピュータを、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出部と、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、として機能させることを特徴とする情報処理プログラムである。
また、本発明は、車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出し、さらに、前記入力画像に対する学習済みの前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別する車両検出ステップと、前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出ステップと、前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定ステップと、を含むことを特徴とする情報処理方法である。

Claims (9)

  1. 車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
    学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、
    を備えることを特徴とする情報処理装置。
  2. 前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像中に含まれる車両の向きを検出する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記学習器は、前記学習用画像に含まれる前記車両の前記複数の特徴点間の向きを学習し、
    前記車両検出部は、前記学習器が前記入力画像から検出した複数の特徴点間の向きに基づいて、前記入力画像に含まれる複数の車両を区別した上で、複数の車両の向き及び台数の少なくとも一方を検出する、
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記学習用データは、前記学習用画像が撮影された時の天気を示す情報を含み、
    前記学習器は、前記学習用画像が撮影された時の天気を考慮して学習する、
    ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記学習用データは、前記学習用画像に含まれる車両のライトの点灯有無を示す情報を含み、
    前記学習器は、前記学習用画像に含まれる車両のライトの点灯有無を考慮して学習する、
    ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記車両検出部は、前記学習器が前記入力画像から検出した、対応する車両の箇所が識別された複数の特徴点の位置関係に基づいて、前記入力画像に含まれる車両の種別を検出する、
    ことを特徴とする請求項1に記載の情報処理装置。
  7. 前記車両検出部は、前記入力画像に対する前記学習器の出力に基づいて、前記入力画像に含まれる車両の種別がタクシーであることを識別し、
    前記情報処理装置は、さらに、
    前記入力画像を解析することで、前記入力画像に含まれる人物を検出する人物検出部と、
    前記入力画像に含まれるタクシーの台数と人物の数とに基づいて、タクシーの需要を判定するタクシー需要判定部と、
    を備えることを特徴とする請求項6に記載の情報処理装置。
  8. コンピュータを、
    車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習する学習器と、
    学習済みの前記学習器に入力画像を入力して、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出部と、
    として機能させることを特徴とする情報処理プログラム。
  9. 車両を含む学習用画像、前記学習用画像に含まれる前記車両に関する複数の特徴点の位置を示す情報、及び、各特徴点が示す前記車両の箇所を示す情報を含む学習用データを用いて学習器を学習させる学習ステップと、
    学習済みの前記学習器に入力画像を入力して、コンピュータが、前記学習器が前記入力画像から検出した車両に関する特徴点に基づいて、前記入力画像に含まれる車両を検出する車両検出ステップと、
    を含むことを特徴とする情報処理方法。
JP2017239974A 2017-12-14 2017-12-14 情報処理装置、情報処理プログラム、及び、情報処理方法 Active JP6472504B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017239974A JP6472504B1 (ja) 2017-12-14 2017-12-14 情報処理装置、情報処理プログラム、及び、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017239974A JP6472504B1 (ja) 2017-12-14 2017-12-14 情報処理装置、情報処理プログラム、及び、情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019008821A Division JP2019106193A (ja) 2019-01-22 2019-01-22 情報処理装置、情報処理プログラム、及び、情報処理方法

Publications (2)

Publication Number Publication Date
JP6472504B1 JP6472504B1 (ja) 2019-02-20
JP2019106149A true JP2019106149A (ja) 2019-06-27

Family

ID=65442979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017239974A Active JP6472504B1 (ja) 2017-12-14 2017-12-14 情報処理装置、情報処理プログラム、及び、情報処理方法

Country Status (1)

Country Link
JP (1) JP6472504B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022059889A (ja) * 2020-10-02 2022-04-14 三菱電機株式会社 データ処理システム、サーバ装置、データ処理方法、およびデータ処理プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113785302A (zh) 2019-04-26 2021-12-10 辉达公司 自主机器应用中的路口姿态检测
WO2021193352A1 (ja) * 2020-03-25 2021-09-30 Necソリューションイノベータ株式会社 画像追跡装置、画像追跡方法、及びコンピュータ読み取り可能な記録媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312463A (ja) * 1997-05-12 1998-11-24 Omron Corp 物体認識方法およびその装置
JP2002340571A (ja) * 2001-05-18 2002-11-27 Hitachi Ltd 情報提供システムおよび車載端末および情報提供端末および配車端末および配車装置
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
JP2014164601A (ja) * 2013-02-26 2014-09-08 Mitsubishi Heavy Ind Ltd 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置
JP2015135552A (ja) * 2014-01-16 2015-07-27 株式会社デンソー 学習システム、車載装置、及び、サーバ
JP2016038700A (ja) * 2014-08-07 2016-03-22 富士重工業株式会社 車外環境認識装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312463A (ja) * 1997-05-12 1998-11-24 Omron Corp 物体認識方法およびその装置
JP2002340571A (ja) * 2001-05-18 2002-11-27 Hitachi Ltd 情報提供システムおよび車載端末および情報提供端末および配車端末および配車装置
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
JP2014164601A (ja) * 2013-02-26 2014-09-08 Mitsubishi Heavy Ind Ltd 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP2014178862A (ja) * 2013-03-14 2014-09-25 Secom Co Ltd 特徴点抽出装置
JP2015135552A (ja) * 2014-01-16 2015-07-27 株式会社デンソー 学習システム、車載装置、及び、サーバ
JP2016038700A (ja) * 2014-08-07 2016-03-22 富士重工業株式会社 車外環境認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022059889A (ja) * 2020-10-02 2022-04-14 三菱電機株式会社 データ処理システム、サーバ装置、データ処理方法、およびデータ処理プログラム

Also Published As

Publication number Publication date
JP6472504B1 (ja) 2019-02-20

Similar Documents

Publication Publication Date Title
CN110097109B (zh) 一种基于深度学习的道路环境障碍物检测系统及方法
US10387725B2 (en) System and methodologies for occupant monitoring utilizing digital neuromorphic (NM) data and fovea tracking
JP2019106193A (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
Amato et al. Deep learning for decentralized parking lot occupancy detection
US9842266B2 (en) Method for detecting driver cell phone usage from side-view images
CN111767882A (zh) 一种基于改进yolo模型的多模态行人检测方法
JP6650657B2 (ja) フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム
CN111860274B (zh) 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
WO2015025704A1 (ja) 映像処理装置、映像処理方法および映像処理プログラム
EP1754179A1 (en) Pedestrian detection
CN110210474A (zh) 目标检测方法及装置、设备及存储介质
CN106570439B (zh) 一种车辆检测方法及装置
CN106529419A (zh) 视频显著性堆栈式聚合的对象自动检测方法
JP6472504B1 (ja) 情報処理装置、情報処理プログラム、及び、情報処理方法
CN101383005A (zh) 一种利用辅助规则纹理的乘客目标图像和背景分离方法
Liu et al. Multi-type road marking recognition using adaboost detection and extreme learning machine classification
JP6947005B2 (ja) 属性認識装置、属性認識方法、及び機械学習装置
US11151412B2 (en) Systems and methods for determining actions performed by objects within images
Hsu Automatic pedestrian detection in partially occluded single image
Santos et al. Car recognition based on back lights and rear view features
KR101343623B1 (ko) 적응적 피부색 검출 방법, 그리고 이를 이용한 얼굴 검출 방법 및 그 장치
Hariri et al. Vision based smart in-car camera system for driver yawning detection
Pandey et al. Dumodds: Dual modeling approach for drowsiness detection based on spatial and spatio-temporal features
CN116012822B (zh) 一种疲劳驾驶的识别方法、装置及电子设备
CN117292346A (zh) 面向驾驶人和车辆状态一体感知的车辆行驶风险预警方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180605

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180803

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190122

R150 Certificate of patent or registration of utility model

Ref document number: 6472504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350