JP6688970B2 - 画像認識システム - Google Patents

画像認識システム Download PDF

Info

Publication number
JP6688970B2
JP6688970B2 JP2016140341A JP2016140341A JP6688970B2 JP 6688970 B2 JP6688970 B2 JP 6688970B2 JP 2016140341 A JP2016140341 A JP 2016140341A JP 2016140341 A JP2016140341 A JP 2016140341A JP 6688970 B2 JP6688970 B2 JP 6688970B2
Authority
JP
Japan
Prior art keywords
computer
recognition
image
recognition system
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016140341A
Other languages
English (en)
Other versions
JP2018010568A (ja
Inventor
敦志 高畑
敦志 高畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016140341A priority Critical patent/JP6688970B2/ja
Priority to US16/088,472 priority patent/US10853964B2/en
Priority to PCT/JP2017/016516 priority patent/WO2018012084A1/ja
Priority to EP17827218.3A priority patent/EP3428878A4/en
Publication of JP2018010568A publication Critical patent/JP2018010568A/ja
Application granted granted Critical
Publication of JP6688970B2 publication Critical patent/JP6688970B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、画像認識システムに関する。
近年、自動運転車や工場の完全自動化などに必要不可欠であるロボット等の機械に搭載され、機械が必要とする物体(認識対象)を認識するための画像認識システムが普及しつつある。そのような画像認識システムについて、認識対象を認識するための数々の画像認識アルゴリズムが開発・研究されている(特許文献1、非特許文献1参照)。
特開2002−203240号公報
「画像パターン認識・マシンビジョンの基礎」福岡システムLSIカレッジ
図12Aは、従来の画像認識システムを搭載した車両2002の一例を示す。画像認識システムは、歩行者や他車両等の認識対象を認識するための画像認識アルゴリズムを実装する。車両2002は、車載カメラ2001とカメラからの入力を処理するElectronic control unit(ECU)2003を備える。車載カメラ2001とECU2003は、相互通信路2004を介して画像データや制御信号を送受信する。
図12Bは、従来の画像認識システムの一例である画像認識システム2000の構成図である。車載カメラ2001とECU2003とは、物理的に離れた位置に配置される。車載カメラ2001が撮影した画像を、車載カメラ2001の筐体の中の第1の画像処理部2010が画像処理する。次いで、ECU2003は、画像処理の結果を、相互通信路2004を介して車載カメラ2001から入力する。次いで、ECU2003が備える認識対象検出部2006が認識対象を検出し、認識対象識別部2007が辞書2005を参照しながら認識対象を識別することにより、認識対象が認識される。画像認識システム2000においては、画像認識処理は、ECU2003により行われる。
図12Cは、従来の画像認識システムの他の一例である画像認識システム2000’の構成図である。車載カメラ2001’とECU2003’とは、物理的に離れた位置に配置される。車載カメラ2001’が撮影した画像を、車載カメラ2001’が備える第1の画像処理部2010が画像処理する。次いで、車載カメラ2001’が備える認識対象検出部2006が認識対象を検出し、車載カメラ2001’が備える認識対象識別部2007が辞書2005を参照しながら認識対象を識別することにより、認識対象が認識される。次いで、ECU2003’は、認識された認識対象の情報を画像データとともに、相互通信路2004を介して車載カメラ2001’から入力する。必要に応じて、ECU2003’の筐体の中が備える第2の画像処理部2040が、画像データを画像処理する。画像認識システム2000’においては、画像認識処理は、車載カメラ2001’により行われる。
図13は、コンピュータの動作周波数と認識対象の認識率との関係を示すグラフである。図13に示されるように、画像認識処理においては、一般にコンピュータの動作周波数を上げることによりコンピュータの処理性能が上がるので、認識対象の認識率を上げることができる。しかしながら、動作周波数の上昇に応じて、動作に伴う発熱量も増加する。コンピュータの動作周波数がある臨界点に達すると、動作に伴う発熱を十分に排出できないという問題が発生する。それに伴い、車載カメラまたはECUの筐体内に画像認識処理手段を実装する際に、筐体の熱設計が困難になり、車載カメラまたはECUの筐体への搭載が困難になる問題が発生する。
言い換えると、高い認識率を必要とする画像認識処理をカメラまたはECUに集約させると、画像認識処理に必要な動作周波数や、画像認識処理に必要なメモリ量等が増加する。それに伴い、画像認識処理手段を車載カメラもしくはECUのいずれか一方の筐体内に実装しようとする場合に、筐体の熱設計や物理的な配置が困難となる問題が発生する。
本開示の目的は、筐体の熱設計や物理的な配置を容易にする画像認識システムを提供することである。
本開示に係る画像認識システムは、画像データから認識対象を検出する第1のコンピュータと、前記第1のコンピュータが検出した認識対象の識別を行う第2のコンピュータと、を備え、前記第1のコンピュータと前記第2のコンピュータとは、物理的に分離されて配置され、前記第1のコンピュータが前記第2のコンピュータに画像データを送信する時に、前記画像データの画像認識処理に用いられ、動的に変更される認識パラメータ群のうち、前記検出に用いる検出パラメータ群を、前記第2のコンピュータが通信路を介して前記第1のコンピュータに送信する、構成を採る。
本開示によれば、筐体の熱設計や物理的な配置を容易にする画像認識システムを提供することができる。
第1の実施の形態に係る画像認識システムの構成を示す図である。 全二重通信方式で実現する通信路の一例を示す。 全二重通信方式で実現する通信路の他の一例を示す。 半二重通信方式で実現する通信路の一例を示す。 第1の実施の形態に係る画像認識システムの処理を示すフローチャートである。 画像認識処理における認識対象の検出処理の一例を説明する図である。 画像認識処理における認識対象の識別処理の一例を説明する図である。 画像認識システムの認識対象を含む画像の一例を示す。 検出パラメータ群を用いた検出領域の設定の一例を示す。 検出パラメータ群の一例を示す。 認識対象の特徴点の一例を示す。 第1のコンピュータと第2のコンピュータの間の通信フローを示す図である。 第1の実施の形態に係る画像認識システムの画像認識処理の説明図である。 認識対象の認識率と搭載メモリサイズとの関係を表すグラフである。 ディープラーニングに用いられるニューラルネットワークの一例を示す。 第3の実施の形態に係る画像認識システムを示す。 第4の実施の形態に係る画像認識システムを示す。 第5の実施の形態に係る画像認識システムを示す。 従来の画像認識システムを搭載した車両の一例を示す。 従来の画像認識システムの一例の構成図である。 従来の画像認識システムの他の一例の構成図である。 コンピュータの動作周波数と認識対象の認識率との関係を示すグラフである。
(第1の実施の形態)
図1は、第1の実施の形態に係る画像認識システム100の構成を示す図である。画像認識システム100は、第1のコンピュータ101と、第2のコンピュータ102と、通信路111と、を備える。第1のコンピュータ101は、例えば車載カメラである。第2のコンピュータ102は、例えばECUである。
第1のコンピュータ101は、第2のコンピュータ102から物理的に離れた位置に存在する。第1のコンピュータ101および第2のコンピュータ102は、例えば、別体の筐体内に存在するが、同一の筐体内に存在してもよい。
通信路111は、第1のコンピュータ101および第2のコンピュータ102を通信可能に接続する。通信路111を介する通信は、例えば有線通信であるが、無線通信であってもよい。
第1のコンピュータ101は、認識対象検出部103と、第1の送信部105と、第1の受信部107と、第1の制御部109と、カメラ115と、を備える。
認識対象検出部103は、カメラ115が撮影した画像から、認識対象を検出する。一例において、認識対象検出部103は、後述するニューラルネットワークを用いて、認識対象を検出する。
第1の送信部105は、第2のコンピュータ102にデータを送信する。一例として、送信されるデータは、画像データおよび画像に含まれる認識対象に関する特徴点のデータを含む。第1の受信部107は、第2のコンピュータ102からデータを受信する。一例として、受信されるデータは、画像認識処理に用いられる認識パラメータ群のうち、画像からの認識対象の検出に用いられるパラメータからなる、検出パラメータ群を含む。
第1の制御部109は、第1の送信部105、第1の受信部107、およびカメラ115の動作を制御する。認識対象検出部103と、第1の送信部105と、第1の受信部107と、第1の制御部109とは、例えば、それぞれが第1のコンピュータ101の構成要件であるハードウェアによって実現されてもよいし、第1のコンピュータ101によって実行されるプログラムによって実現してもよい。
第2のコンピュータ102は、認識対象識別部104と、第2の送信部106と、第2の受信部108と、第2の制御部110と、記憶部120と、を備える。
認識対象識別部104は、カメラ115が撮影した画像から、認識対象を識別する。一例において、認識対象識別部104は、カメラ115が撮影した画像のデータであって、通信路111を介して受信した画像データと、認識対象検出部103が検出した、画像に含まれる認識対象に関する特徴点のデータである特徴点データ等の情報に基づき、画像に含まれる認識対象を識別する。一例において、認識対象識別部104は、後述するニューラルネットワークを用いて、認識対象を識別する。
第2の送信部106は、第1のコンピュータ101に、データを送信する。一例として、送信されるデータは、検出パラメータ群を含む。第2の受信部108は、第1のコンピュータ101からデータを受信する。一例として、受信されるデータは、認識対象に関する特徴点のデータを含む。
第2の制御部110は、認識対象識別部104、第2の送信部106、第2の受信部108、および記憶部120の動作を制御する。認識対象識別部104と、第2の送信部106と、第2の受信部108と、第2の制御部110とは、例えば、それぞれが第2のコンピュータ102の構成要件であるハードウェアによって実現されてもよいし、第2のコンピュータ102によって実行されるプログラムによって実現してもよい。
記憶部120は、認識対象の識別に必要な情報を辞書として記憶する。例えば、記憶部120は、図3Cを参照して後述する辞書1006を記憶する。
図2Aは、全二重通信方式で実現する通信路111の一例を示す。第1のコンピュータ101の第1の送信部105は、第2のコンピュータ102の第2の受信部108に接続される。第1のコンピュータ101の第1の受信部107は、第2のコンピュータ102の第2の送信部106に接続される。この場合、接続は二系統となるが、第1のコンピュータ101および第2のコンピュータ102は、それぞれ送信および受信を同時に行うことができる。
図2Bは、全二重通信方式で実現する通信路111の他の一例を示す。第1のモデム3023は、第1の送信部105と、第1の受信部107と、第2のモデム3024に接続される。第2のモデム3024は、第2の送信部106と、第2の受信部108と、第1のモデム3023に接続される。第1のモデム3023は、例えば第1のコンピュータ101の筐体の内部に設けられ、第2のモデム3024は、例えば第2のコンピュータ102の筐体の内部に設けられる。
第1のモデム3023および第2のモデム3024の間の通信は、例えば周波数分割を行うことにより、一系統のバス上で、双方向の通信信号を同時に転送することができる。したがって、第1のコンピュータ101は、例えば送信3027と、受信3028とを同時に行うことができる。
図2Cは、半二重通信方式で実現する通信路111の一例を示す。第1のスイッチ3003は、第2のスイッチ3004に接続され、第2のスイッチ3004の接続先を第1の送信部105と第1の受信部107との間で切り替える。第2のスイッチ3004は、第1のスイッチ3003に接続され、第1のスイッチ3003の接続先を第2の送信部106と第2の受信部108との間で切り替える。第1のスイッチ3003は、例えば第1のコンピュータ101の筐体の内部に設けられ、第2のスイッチ3004は、例えば第2のコンピュータ102の筐体の内部に設けられる。
第1のコンピュータ101からデータを送信する場合、第1のスイッチ3003は接続先を第1の送信部105に切り替え、第2のスイッチ3004は接続先を第2の受信部108に切り替える。第2のコンピュータ102からデータを送信する場合、第1のスイッチ3003は接続先を第1の受信部107に切り替え、第2のスイッチ3004は接続先を第2の送信部106に切り替える。
このように、半二重通信方式においては、一系統のバスを使って送信と受信とを切り替えて通信を行うことが可能であり、送信と受信とを同時に行うことは不可能であるが、半二重通信方式に必要な通信路111のリソースは、全二重方式の場合と比較して小さい。
第1のコンピュータ101と第2のコンピュータ102は、双方向の通信が可能である通信路111により接続されている。この通信路111の通信方式は、例えば全二重通信方式である。この場合、画像認識システム100を、リアルタイム処理に対応させることがより容易となる。
図3Aは、第1の実施の形態に係る画像認識システム100の処理を示すフローチャートである。まず、学習データを学習する(S1100)。学習データの学習は、一例において、第1のコンピュータ101および第2のコンピュータ102のいずれとも異なるコンピュータによって行われる。なお、これに代えて、学習データの学習は、第2のコンピュータ102によって行われてもよい。学習データは、例えば認識対象が含まれる画像から得られる、認識対象を特徴付ける特徴ベクトルである。
学習によって生成されるデータは、一般に辞書データと呼ばれる。辞書データは、認識対象(例えば、歩行者、他車両、障害物等)の種類数等に応じてそのデータ量が増える傾向があり、辞書データを保存する搭載メモリ量も増える傾向がある。
次いで、第2のコンピュータ102は、学習の結果を辞書として記憶部120に格納する(S1200)。
ステップS1100およびステップS1200は、辞書データ作成時間1001にて予め行われる。後続のステップS1300からS1500を、カメラ等で撮影された画像に対して、所定の時間である識別時間1002内に実行(好ましくはリアルタイム実行)するためである。
次いで、識別時間1002において、認識対象検出部104が、カメラによって撮影された画像から、認識対象を検出し(S1300)、認識対象識別部104が辞書から識別パラメータを入力し(S1400)、認識対象識別部104が認識対象を識別する(S1500)。
図3Bは、画像認識処理における認識対象の検出処理の一例を説明する図である。図3Cは、画像認識処理における認識対象の識別処理の一例を説明する図である。図3Bおよび図3Cを参照して、簡単のために、文字認識を例にとって、画像認識処理の内容を説明するが、本開示に係る画像認識システムの認識対象が文字に限られないことは言うまでもない。
例えば、手書きの文字であれば、同じ文字であっても、書き手によって様々な形状を呈する。そこで、辞書データ作成時間1001において、辞書データ作成部1005は、同じ文字(例えばアルファベットの「A」)を表す様々な形状を入力し、特徴ベクトルを生成し、学習することにより、その文字(例えばアルファベットの「A」)が有する特徴を学習する。次いで、学習によって生成される辞書データを、辞書1006に追加することにより辞書1006を作成する。辞書1006に追加された辞書データは、アルファベットの「A」であるか否かを識別する際に、画像認識システム100の認識対象識別部104によって参照される。
辞書データ作成時間1001が終了した後に、画像識別時間1002において、第1のコンピュータ101の認識対象検出部103が認識対象を検出する。カメラから入力された画像において、検出すべき領域が探索される。例えば、探索領域1050を移動させながら、検出対象の文字(例えばアルファベットの「A」)を探索し、検出対象の文字を含む探索領域の画像データ1060を抽出する。
抽出された画像データ1060は、例えば、回転および拡大縮小されている文字を認識できるようにするため、正規化処理が行われ、正規化された画像データ1062が生成される。
次いで、正規化された画像データ1062から、画像データ1062に含まれる検出対象の文字(例えばアルファベットの「A」)を特徴づける特徴ベクトル1007が抽出されることにより、検出対象の文字が検出される。特徴ベクトル1007を含む二次元画像の特徴量の抽出の際に、例えば、局所領域 (セル) の輝度の勾配方向をヒストグラム化したHistograms of Oriented Gradients(HOG)、画像のスケール変化や不変な特徴量を抽出するScale-Invariant Feature Transform(SIFT)、SIFTをさらに高速化したSpeeded-Up Robust Future(SURF)等の手法を用いてもよい。
次いで、認識対象識別部104が、抽出された特徴ベクトル1007に対して、辞書1006を用いて、例えばパターンマッチングを用いて識別を行うことにより、検出対象の文字(アルファベットの「A」)1064を識別する。
図4Aは、画像認識システム100の認識対象を含む画像の一例を示す。画像260は歩行者を、画像261は車両を、画像262は歩行者および車両を含む障害物をそれぞれ認識対象として含んでいる。画像263は、認識対象を含んでいない画像を示す。
図4Bは、検出パラメータ群を用いた検出領域の設定の一例を示す。認識対象の認識を行う場合、認識対象に応じて適切な検出領域を設定する必要がある。検出領域170aは、画像170において、歩行者を検出するのに最適化された検出領域を示す。検出領域171aは、画像171において、車両を検出するのに最適化された検出領域を示す。検出領域172aは、画像172において、障害物を検出するのに最適化された検出領域を示す。また、画像173において認識対象の認識を行わない場合、検出領域は設定されない。
これらの検出領域の最適化は、認識対象に応じて検出パラメータ群を最適化することにより行われる。認識対象に応じて検出パラメータ群を最適な検出パラメータ群に動的に変更するシステムを用いることにより、リアルタイム処理における認識対象の認識率を向上させることが可能となる。さらに、例えば、画像173の場合と画像170〜172の場合とにおいて、画像認識処理を「行う」および「行わない」の間で切り替え制御を行うことにより、画像認識処理に必要な演算を少なくし、画像認識処理に必要な消費電力を抑えることが可能となる。さらに、画像認識処理に必要な検出領域を可変にすることにより、画像認識処理に不要な画像データを無視することができるため、画像認識処理の認識率を向上することが可能となる。
検出パラメータ群は、例えば、画像認識処理の検出領域を設定するためのパラメータである。さらに、検出パラメータ群は、特徴ベクトル等の特徴量を抽出するための、アルゴリズム選定手法並びに、抽出アルゴリズム設定のためのパラメータを含んでもよい。図4Cは、検出パラメータ群の一例を示す。図4Dは、認識対象の特徴点の一例を示す。
画像が含む認識対象の検出処理を行う場合、例えば、検出パラメータ群は、検出領域を示すパラメータに加えて、必要に応じて様々なパラメータを含む。例えば、パラメータ群は、歩行者を検出するために最適化された検出パラメータ群160や、車両を検出するために最適化された検出パラメータ群161、障害物を検出するために最適化された検出パラメータ群162、検出を行わない場合の検出パラメータ群163のように、様々なパラメータを含む。ここで、「−」は、対応するパラメータ値がないことを示す。全ての検出パラメータ群160,161,162,163に共通であるパラメータpもあれば、例えば、障害物を検出するための検出パラメータ群162のみが有するパラメータpもある。
これらの検出パラメータ群は、例えば、画像データが送られるデータ間隔で(フレーム毎に)更新される。つまり、カメラの各撮影タイミングで、検出対象に応じて、検出パラメータ群を、歩行者検出パラメータ群160,161,162,163に更新する。更新された検出パラメータ群に応じて、第1のコンピュータ101が検出領域に応じた画像データおよび特徴点データ230,231,232を生成し、第1のコンピュータ101から第2のコンピュータ102に送信する。
周りの景色の状況、時刻等を指示するパラメータを検出パラメータ群に加えてもよい。これにより、周りの景色、時刻が変化した場合であっても、第1のコンピュータ101は、検出パラメータ群を参照して認識対象の検出を最適化することができる。このように、認識対象の検出に最適化された検出パラメータ群を、認識対象の検出に先立って第1のコンピュータ101に送信することにより、認識率の向上を行う。
図5は、第1のコンピュータ101と第2のコンピュータ102の間の通信フローを示す図である。図5に示される通信フローは、全二重通信方式による通信を行う場合の通信フローである。第2の制御部110は、例えば検出パラメータ群を含む制御信号141,142を生成し、第2の送信部106に転送する。第2の送信部106は、転送された制御信号141,142を第1のコンピュータ101の第1の受信部107に送信する。ここで、制御信号141,142の第2のコンピュータ102内の転送に要する時間は、第2の送信部106から第1の受信部107への送信に要する時間に比べて無視できるほどに小さい。
第1の受信部107は、受信した制御信号141,142を第1の制御部109に転送する。ここで、第1のコンピュータ101内における転送に要する時間も、送信に要する時間に比べて無視できるほどに小さい。第1の制御部109は、制御信号141,142に基づいて、カメラ115を制御して画像データ131,132を生成し、認識対象検出部103が画像データ131,132から特徴点を抽出し特徴点データ151を生成する。
次いで、第1の送信部105は画像データ131,132および特徴点データ151を第2のコンピュータ102の第2の受信部108に送信する。第2の受信部108は、受信した画像データ131,132を認識対象識別部104に転送する。ここで転送に要する時間も、送信に要する時間に比べて無視できるほどに小さい。認識対象識別部104は、画像データ131,132および特徴点データ151に基づいて、認識対象の識別を行う。
第2の送信部106から第1の受信部107への送信および第1の送信部105から第2の受信部108への送信には幾分かの時間を要するが、これらの通信の方式が全二重通信方式である場合、制御信号141の送信と、画像データ130および特徴点データ150の送信とは並行して行われる。同様に、制御信号142の送信と、画像データ131および特徴点データ151の送信とも並行して行われる。
さらに、図5に示されるように、第1の受信部107による制御信号141の受信と認識対象検出部103の検出処理(画像データ131および特徴点データ151の生成処理)とは並列処理される。また、第2の送信部106による制御信号141の送信と認識対象識別部104の認識対象の識別処理とは並列処理される。これらの全二重通信方式による通信および並列処理により、第1のコンピュータ101および第2のコンピュータ102を物理的に分離して配置したにも関わらず、それらの間の通信によるレイテンシが隠蔽される結果、それらの処理能力を無駄なく使用することができる。
図6は、第1の実施の形態に係る画像認識システム100の画像認識処理の説明図である。図6に示されるように、画像認識処理は、画像データ303から検出領域を探索し、検出領域から検出された認識対象の特徴点データ302と辞書データとのパターンマッチングを行い、パターンマッチングの結果を認識対象の認識結果301として出力する。この画像認識処理において、特徴点データ302の抽出時には、カメラの個体差、カメラの取り付け位置、背景画像や場所などとの相関等によって画像データの間にばらつきが発生し、処理が複雑となり、計算量が増加する。特徴点データ302から認識対象の認識結果301を計算する際にも、同様にカメラの個体差、カメラの取り付け位置、背景画像や場所などとの相関等による画像データの間のばらつきにより、処理が複雑となり、計算量が増加する。
すなわち、1つのカメラ、もしくは複数のカメラで画像データを取得し、ECU等の処理装置において集約的に画像認識処理を行う場合、使用するカメラの個体差、カメラの取り付け位置等による画像データの間のばらつきによる差分を除去する処理が必要となる。そのため、認識処理に要する計算量が増加し、それに伴い発熱量も増加する。
本開示においては、図6に示されるように、第1のコンピュータ101内において特徴点データ302の抽出が行われ、第2のコンピュータ102内において認識結果301の計算が行われる。このように、第1のコンピュータ101および第2のコンピュータ102の間で画像認識処理が分散される。したがって、上述のように画像データの間のばらつきがある場合であっても、第1のコンピュータ101および第2のコンピュータ102の個々の発熱量や筐体の外寸を、一体となったコンピュータを使用する場合と比較して抑えることができる。これにより、例えば、認識対象の認識率を上げるために、動作周波数向上や認識処理に必要なメモリ量が増加した場合であっても、本開示においては、画像認識システム100を取り付ける際の熱設計や物理的な配置をより容易にすることができる。この効果は、複数のカメラを用いる際に、特に有利である。
本開示においては、画像認識に必要な処理を、物理的に分離して配置された第1のコンピュータ101と第2のコンピュータ102とによって並列に処理する。これにより、画像認識やデータ伝送に必要な処理量の増加が増加する場合であっても、画像認識システム100を取り付ける際の熱設計や物理的な配置をより容易にすることができる。さらに、画像認識に必要な画像を蓄えておくメモリもしくは認識すべき認識対象の種類数に応じて増加する辞書データ並びにそれを蓄積するメモリサイズが増加する場合であっても、画像認識システム100を取り付ける際の熱設計や物理的な配置をより容易にすることができる。その結果、画像認識システム100の認識対象の認識率をより容易に上げることができるようになる。
また、認識対象の検出または識別において、Structure from motion(SfM)と呼ばれるアルゴリズムを用いると、複数の画像データ間の差分から認識対象を抽出するため、採用する認識アルゴリズムの検出率に応じて、認識アルゴリズムを実行するのに必要な搭載メモリが増える傾向もある。このような場合であっても、画像認識システム100を取り付ける際の熱設計や物理的な配置をより容易にすることができる。
図7は、認識対象の認識率と搭載メモリサイズとの関係を表すグラフである。一般に、画像認識処理においては、画像認識に必要な複数の画像が搭載メモリに記憶される。認識すべき認識対象の種類数あるいは認識対象の個数が多くなるほど、必要とされる搭載メモリサイズが増加する傾向がある。また、認識対象の認識率を向上しようとすると、必要とされる搭載メモリサイズが増加する傾向がある。必要とされる搭載メモリサイズが一定量以上になると、必要とされる物理的な面積および外寸が大きくなることにより、筐体に搭載不可能になる場合がある。
そのような場合であっても、本開示の画像認識システム100においては、第1のコンピュータ101と第2のコンピュータ102の個々の物理的な面積および外寸を、一体型のコンピュータを用いる場合と比較して小さくすることができ、筐体に搭載し易くなる。
また、本開示の画像認識システム100においては、様々なシーンに応じて認識対象を動的に変更させることができるので、認識対象の認識率をリアルタイムに高めることができる。
(第2の実施の形態)
本開示の画像認識システム100において、画像認識アルゴリズムに関連して、ディープラーニングを用いることもできる。画像認識システムを構築する際には、認識率を高めるために、検出領域、特徴量の抽出、辞書データの作成、パターンマッチング等について、それぞれ、独自にチューニングされた認識パラメータ群がある。認識パラメータ群は、認識を行う対象画像および動作条件などを想定しながら、画像認識システムを構築する設計者がマニュアルで作成している。また、使用するカメラや状況に応じた認識パラメータ群の設定により、認識対象の認識率も異なってくる。
また、自動運転車両やロボットに用いられる画像認識システムにおいて異なる認識対象をリアルタイムに認識するためには、リアルタイムに行われる認識処理の認識率を向上させることが重要である。認識率の指標は様々なものがあるが、動物体のような動く認識対象の画像認識処理においては、リアルタイムに行われる認識処理の認識率を向上させることが特に重要である。
そこで、近年、このような画像認識システムを構築する際に、認識パラメータ群のマニュアルによる作成量を少なくする、或いは完全自動で行う手法として、ディープラーニングという手法が注目を集めている。
<ディープラーニング>
リアルタイムに行われる認識処理において認識率を向上させようとすると、辞書の辞書データの量も増やす必要があり、認識パラメータ群を算出するために用いられる学習データのデータ量も増える。そこで、例えば、学習データ等の大量のデータを、サーバなどにビッグデータとして蓄積することがある。画像データの認識アルゴリズムの認識パラメータ群を、大量のデータを用いてマニュアルで最適化することは困難である。そこで、画像認識システムを構築する設計者が意図的に認識パラメータ群を設定することに代えて、蓄積された大量のデータを用いて認識アルゴリズムと認識用ルールの自動生成を行う。そして、自動生成された認識アルゴリズムとルールを使って、入力した画像が何を意味するのかの推論を自動で行う。
図8は、ディープラーニングに用いられるニューラルネットワークの一例を示す。従来のニューラルネットワークが、例えば3層構造を有するのに対し、ディープラーニングでは、比較的階層構造が深い構造のニューラルネットワークが用いられる。ニューロン440は、隣接する階層間においてシナプス430で結合される。
単一ニューロンの数理モデルの一例は、次の数式(1)によって表される。
Figure 0006688970
ここで、yは、あるニューロン440の出力信号値を示し、fは、シグモイド関数等の関数を表し、nはあるニューロン440の下層にあるニューロンの数を表し、xは、下層にあるi番目のニューロン440の出力信号値を表し、wは下層にあるi番目のニューロン440からあるニューロン440に接続されるシナプス430のシナプス荷重を表し、θはある閾値を表す。
上記数式(1)から判るように、下層にあるニューロン440とシナプス430のシナプス荷重との積和計算の値がある閾値θを超えると、ニューロン440が発火し、その信号がニューラルネットワーク401,402を通じて伝播していく。例えば、ニューラルネットワーク401は、画像認識処理に用いられ、ニューラルネットワーク402は、行動制御に用いられる。この場合における、シナプス荷重wの値が画像認識のための認識パラメータ群となる。
まず、外部サーバ等に保存された画像データを用いて、ディープラーニングによる階層型のニューラルネットワーク401,402の学習を行う。次いで、学習で形成したニューラルネットワーク構造及び、シナプス荷重を基にニューラルネットワーク構造を求める。画像認識処理のニューラルネットワーク401から、画像認識された認識データ410が出力される。
ディープラーニングにおいては、認識すべき認識対象に特化したニューラルネットワークのシナプス荷重を最適化することにより、認識対象の認識率が向上する。そのため、シナプス荷重の変更データ420に基づいて、認識すべき認識対象ごとに最適化した認識パラメータ群を動的に変更することにより、リアルタイムに認識対象の認識率を向上させることができる。
ディープラーニングの認識パラメータ群としては、数式(1)に示される関数fを含んでもよく、閾値θを含んでもよい。
また、数式(1)によって示される一般的なニューロンモデルにおいて、シナプス荷重を「0」に設定し、ニューラルネットワークのネットワーク構造を変更することにより、ネットワーク構造を動的に変更してもよい。
(第3の実施の形態)
図9は、第3の実施の形態に係る画像認識システム500を示す。画像認識システム500は、第1のコンピュータ501と、第2のコンピュータ102と、カメラ530とを備える。第3の実施の形態に係る第2のコンピュータ102は、第1の実施の形態に係る第2のコンピュータ102と、その構成が同じであるので、説明を省略する。
第1の実施の形態に係る第1のコンピュータ101は、内部にカメラ115を備える。これに対し、第3の実施の形態に係る第1のコンピュータ501は、別体として備えられたカメラ530と接続される。この点において、第1の実施の形態における第1のコンピュータ101と第3の実施の形態における第1のコンピュータ501とは異なる。第1のコンピュータ501とカメラ530とを別体として備えることにより、第3の実施の形態に係る画像認識システム500は、第1の実施の形態に係る画像認識システム100と比較して、処理に伴い発生した熱の集中をさらに防ぐことができる。
(第4の実施の形態)
図10は、第4の実施の形態に係る画像認識システム500’を示す。画像認識システム500’は、第1のコンピュータ101と、第2のコンピュータ561と、サーバ592とを備える。第4の実施の形態に係る第1のコンピュータ101は、第1の実施の形態に係る第1のコンピュータ101と、その構成が同じであるので、説明を省略する。第2のコンピュータ561は、認識パラメータ群を認識対象識別部104のメモリに格納することに代えて、認識パラメータ群の一部または全部を、第2のコンピュータ561に接続されたサーバ592から取得する。必要に応じて、第2のコンピュータ561は、第2のコンピュータ561による画像認識の結果を、サーバ592に送信する。
多様な認識対象(例えば、歩行者、他車両、自転車)について認識率を向上させるためには、辞書が多くの辞書データを含む必要がある。サーバ592が辞書を記憶し、必要に応じて第2のコンピュータ561がサーバ592に格納される辞書から辞書データを取得することにより、画像認識を行う第2のコンピュータ561の認識対象識別部104のデータメモリのサイズおよび記憶部120のメモリ容量の増加を抑制することもできる。これにより、データメモリから発生する熱量を抑制でき、また第2のコンピュータ561の外寸を小さくすることができる。さらに、認識パラメータ群が時々刻々と変化する場合、画像認識システム500’は最新の認識パラメータ群をサーバ592から取得して使用することができる。
また、辞書を作成するに当たって、例えば、走行中の車両からの画像認識の場合、車両の移動先の様々な場所、時間における車両からの画像データを必要とするため、一般的には大量の画像データを必要とする。このような場合であっても、車両からの画像データをサーバ592に格納し、サーバ592において辞書を作成することができる。
(第5の実施の形態)
図11は、第5の実施の形態に係る画像認識システム600を示す。画像認識システム600は、第1のコンピュータとしての第1のカメラ601、第2のカメラ603、第3のカメラ605、および第4のカメラ604と、第2のコンピュータとしてのECU602と、測距センサー610と、を備える。第1のカメラ601、第2のカメラ603、第3のカメラ605、第4のカメラ604、および測距センサー610とは、それぞれECU602と接続される。
例えば、車両が前進する場合、第4のカメラ604は前方の障害物の検出を行い、第2のカメラ603と、第3のカメラ605はオフにし、第1のカメラ601は後方車両の検出を行う。車両が右折する場合、第4のカメラ604は前方の障害物の検出を行い、第3のカメラ605は、巻き込みによる事故が起きないように、右方の歩行者などの検出を行い、第2のカメラ603で左方車両の検出を行い、第1のカメラ601にて後方車両の検出を行う。
一例において、測距センサー610がECU602に接続される。第4のカメラ604の画像データと測距センサー610の測距データとを合成し、3次元画像を前方の障害物の検出に用いてもよい。測距センサー610は、認識対象との間の距離を測定するセンサーであり、例えばミリ波センサーまたはソナーセンサーである。このように、複数台のカメラ601,603,605,605および測距センサー610を利用した画像認識システムを構築することにより、さらに認識対象の認識率を上げることができる。
(その他の実施の形態)
第1の実施の形態に係る第1のコンピュータ101は、検出処理を行っているが、これに加えて識別処理の一部を、第2のコンピュータ102に代わって実行してもよい。
第1の実施の形態に係る第1のコンピュータ101は、カメラ115を備える。カメラ115に加えて、例えばLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)を用いて、カメラ115からの画像データおよびLIDARからの画像データを組み合わせ、3次元画像データを認識対象の検出および/または識別に用いてもよい。
本発明は、画像認識システム並びに、画像認識システムを搭載した機械に関し、例えば、自動運転車や産業用ロボット等の自律的に動作する機械に搭載される画像認識システム等に用いられる。
101 第1のコンピュータ
102 第2のコンピュータ
103 認識対象検出部
104 認識対象識別部
105 第1の送信部
106 第2の送信部
107 第1の受信部
108 第2の受信部
109 第1の制御部
110 第2の制御部
111 通信路
120 記憶部
130 画像データ
131 画像データ
132 画像データ
141 制御信号
142 制御信号
151 特徴点データ
152 特徴点データ
230 特徴点データ
231 特徴点データ
232 特徴点データ
260 画像データ
261 画像データ
262 画像データ
263 画像データ
301 認識結果
302 特徴点データ
303 画像データ
401 ニューラルネットワーク
402 ニューラルネットワーク
410 認識データ
420 シナプス荷重の変更データ
430 シナプス
440 ニューロン
501 第1のコンピュータ
561 第2のコンピュータ
592 サーバ
601 第1のカメラ
602 ECU
603 第2のカメラ
604 第4のカメラ
605 第3のカメラ
610 測距センサー
1005 辞書データ作成部
1006 辞書
1007 特徴ベクトル
1040 画像
1050 探索領域
1060 画像データ
2001 車載カメラ
2001’車載カメラ
2002 車両
2003 ECU
2003’ ECU
2004 相互通信路
2005 辞書
2006 認識対象検出部
2007 認識対象識別部
2010 第1の画像処理部
2040 第2の画像処理部
3003 第1のスイッチ
3004 第2のスイッチ
3023 第1のモデム
3024 第2のモデム

Claims (11)

  1. カメラにより生成された画像データから認識対象の特徴点を検出する第1のコンピュータと、
    前記第1のコンピュータが検出した前記認識対象の識別を行う第2のコンピュータと、
    を備え、
    前記第1のコンピュータと前記第2のコンピュータとは、物理的に分離されて配置され、
    前記第1のコンピュータは、前記画像データを、当該画像データから検出された前記認識対象の特徴点データと共に、前記第2のコンピュータに送信し、
    前記第2のコンピュータは、前記第1のコンピュータから受信した前記画像データ及び前記認識対象の特徴点データに基づいて、前記認識対象の識別を行い、
    前記第1のコンピュータが前記第2のコンピュータに前記画像データを送信する時に、前記画像データの画像認識処理に用いられ、動的に変更される認識パラメータ群のうち、前記検出に用いる検出パラメータ群を、前記第2のコンピュータが通信路を介して前記第1のコンピュータに送信する、画像認識システム。
  2. 前記通信路の通信方式が全二重通信方式であり、前記画像データの送信および前記検出パラメータ群の送信が並行して行われる、請求項1に記載の画像認識システム。
  3. 前記認識パラメータ群は、認識すべき認識対象を特徴づけるパラメータ群の少なくとも一部である請求項1または2に記載の画像認識システム。
  4. 前記認識対象の前記検出は、ニューラルネットワークを用いて行われ、
    前記検出パラメータ群は、前記ニューラルネットワークを構成するニューロンのシナプス荷重、関数、および閾値の少なくとも1つである、請求項1から3のいずれかに記載の画像認識システム。
  5. 前記シナプス荷重のいくつかをゼロに設定することにより、前記ニューラルネットワークの構成が変更される、請求項4に記載の画像認識システム。
  6. 前記画像データの前記送信は、フレーム毎に行われ、
    前記フレーム毎に、前記認識パラメータ群が変更される、請求項1から5のいずれかに記載の画像認識システム。
  7. 前記第1のコンピュータは、物理的に離れた位置にあり、前記画像データを取得するセンサと接続されている、請求項1から6のいずれかに記載の画像認識システム。
  8. 前記第2のコンピュータは、サーバと接続され、
    前記第2のコンピュータは、前記サーバから前記認識パラメータ群の少なくとも1つのパラメータを取得し、前記サーバに前記第2のコンピュータによる認識結果の情報を送信する、請求項1から7のいずれかに記載の画像認識システム。
  9. 前記第2のコンピュータが前記認識対象との間の距離を測定するセンサに接続される、請求項1から8のいずれかに記載の画像認識システム。
  10. 前記第1のコンピュータは複数である、請求項1から9のいずれかに記載の画像認識システム。
  11. 前記通信路を介する通信が無線通信である、請求項1から10のいずれかに記載の画像認識システム。

JP2016140341A 2016-07-15 2016-07-15 画像認識システム Active JP6688970B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016140341A JP6688970B2 (ja) 2016-07-15 2016-07-15 画像認識システム
US16/088,472 US10853964B2 (en) 2016-07-15 2017-04-26 Image recognition system
PCT/JP2017/016516 WO2018012084A1 (ja) 2016-07-15 2017-04-26 画像認識システム
EP17827218.3A EP3428878A4 (en) 2016-07-15 2017-04-26 IMAGE DETECTION SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016140341A JP6688970B2 (ja) 2016-07-15 2016-07-15 画像認識システム

Publications (2)

Publication Number Publication Date
JP2018010568A JP2018010568A (ja) 2018-01-18
JP6688970B2 true JP6688970B2 (ja) 2020-04-28

Family

ID=60952930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016140341A Active JP6688970B2 (ja) 2016-07-15 2016-07-15 画像認識システム

Country Status (4)

Country Link
US (1) US10853964B2 (ja)
EP (1) EP3428878A4 (ja)
JP (1) JP6688970B2 (ja)
WO (1) WO2018012084A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020020997A (ja) * 2018-08-02 2020-02-06 古河電気工業株式会社 融着接続システム、融着接続機及び光ファイバ種判別方法
CN112424849B (zh) 2019-01-02 2023-08-04 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及记录介质
JP7240916B2 (ja) * 2019-03-22 2023-03-16 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、および情報処理プログラム
WO2020196165A1 (ja) * 2019-03-25 2020-10-01 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、情報処理プログラム、および情報処理システム
JP7287650B2 (ja) * 2019-03-27 2023-06-06 Necソリューションイノベータ株式会社 画像認識装置、画像認識方法、及びプログラム
US11858143B1 (en) * 2020-03-02 2024-01-02 Amazon Technologies, Inc. System for identifying a user with an autonomous mobile device
WO2021210269A1 (ja) * 2020-04-13 2021-10-21 日本電気株式会社 映像分析装置、映像分析システム及び映像分析方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3246764B2 (ja) 1992-05-11 2002-01-15 株式会社東芝 ニューロチップ
JP2001333428A (ja) 2000-05-19 2001-11-30 Oki Electric Ind Co Ltd 動画送受信システム
EP1202214A3 (en) 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
JP3659914B2 (ja) 2000-10-31 2005-06-15 松下電器産業株式会社 物体認識装置、物体を認識する方法、プログラムおよび記録媒体
CN104041016B (zh) * 2012-02-06 2017-05-17 松下电器产业株式会社 服务器装置及系统控制方法
US9208432B2 (en) * 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
JP6024952B2 (ja) 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
JP6398347B2 (ja) * 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP6471934B2 (ja) * 2014-06-12 2019-02-20 パナソニックIpマネジメント株式会社 画像認識方法、カメラシステム
WO2016069499A1 (en) * 2014-10-26 2016-05-06 Galileo Group, Inc. Methods and systems for surface informatics based detection with machine-to-machine networks and smartphones
JP6828587B2 (ja) * 2017-05-22 2021-02-10 トヨタ自動車株式会社 画像処理システム、画像処理方法、情報処理装置及び記録媒体

Also Published As

Publication number Publication date
JP2018010568A (ja) 2018-01-18
EP3428878A1 (en) 2019-01-16
EP3428878A4 (en) 2019-05-01
US10853964B2 (en) 2020-12-01
WO2018012084A1 (ja) 2018-01-18
US20190114799A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP6688970B2 (ja) 画像認識システム
US10451712B1 (en) Radar data collection and labeling for machine learning
US10037471B2 (en) System and method for image analysis
US10896342B2 (en) Spatio-temporal action and actor localization
US20190026917A1 (en) Learning geometric differentials for matching 3d models to objects in a 2d image
US10846593B2 (en) System and method for siamese instance search tracker with a recurrent neural network
US10964033B2 (en) Decoupled motion models for object tracking
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
CN114502979A (zh) 感知系统
US10776642B2 (en) Sampling training data for in-cabin human detection from raw video
US20220335258A1 (en) Systems and methods for dataset and model management for multi-modal auto-labeling and active learning
CN111532225A (zh) 车辆胶囊网络
US20220309794A1 (en) Methods and electronic devices for detecting objects in surroundings of a self-driving car
Alajlan et al. Automatic lane marking prediction using convolutional neural network and S-Shaped Binary Butterfly Optimization
EP4050510A1 (en) Object information calculation method and system
EP4341913A2 (en) System for detection and management of uncertainty in perception systems, for new object detection and for situation anticipation
Van Hecke et al. Persistent self-supervised learning principle: from stereo to monocular vision for obstacle avoidance
CN114764909A (zh) 增强的对象检测
Juyal et al. Multiclass Objects Localization Using Deep Learning Technique in Autonomous Vehicle
CN113454692B9 (zh) 驾驶信息提供方法以及车辆地图提供服务器和方法
US20240169183A1 (en) Method for performing a perception task of an electronic device or a vehicle using a plurality of neural networks
Gupta et al. A Framework for Lane Prediction Based on Vehicle Detection and Tracking
CN113837270B (zh) 一种目标识别方法、装置、设备及存储介质
US20240185612A1 (en) Systems and methods for controlling a vehicle by detecting and tracking objects through associated detections
US20230234580A1 (en) Computationally efficient trajectory representation for traffic participants

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180725

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R150 Certificate of patent or registration of utility model

Ref document number: 6688970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03