JP7192563B2 - autonomous mobile robot - Google Patents
autonomous mobile robot Download PDFInfo
- Publication number
- JP7192563B2 JP7192563B2 JP2019029813A JP2019029813A JP7192563B2 JP 7192563 B2 JP7192563 B2 JP 7192563B2 JP 2019029813 A JP2019029813 A JP 2019029813A JP 2019029813 A JP2019029813 A JP 2019029813A JP 7192563 B2 JP7192563 B2 JP 7192563B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- mobile robot
- autonomous mobile
- camera
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 45
- 238000010586 diagram Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 11
- 238000000605 extraction Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 206010038743 Restlessness Diseases 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000474 nursing effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001605695 Pareronia Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Description
本発明は、自律移動ロボットに関する。 The present invention relates to autonomous mobile robots.
医療施設や介護施設などに代表される施設においては、昼間は多くの職員が施設内を行き来しており、施設内で不具合が発生した対象者を職員が迅速に発見することが可能である。一方、夜間は宿直担当職員が一定時間間隔で施設内を定期巡回することにより不具合の発見に努めている。 In facilities such as medical facilities and nursing care facilities, many staff come and go during the daytime, and it is possible for the staff to quickly find the target person who has a problem in the facility. On the other hand, at night, the staff in charge of night duty make regular patrols of the facility at regular intervals to find problems.
このような状況を補うために、施設内の所定の位置にカメラを設置し、該カメラが撮像した画像(静止画像又は動画像)を職員が待機している居室に転送するシステムが採用されている。 In order to compensate for this situation, a system was adopted in which a camera was installed at a predetermined position within the facility, and the image (still image or moving image) captured by the camera was transferred to the room where the staff were waiting. there is
しかしながら、上述したシステムにおいて、カメラの死角に存在する対象者を画像で発見することは困難である。例えば、宿直担当職員の巡回時間間隔が1時間の場合、巡回直後にカメラの死角で転倒したり徘徊している対象者を発見するのは、次の1時間後になってしまう場合がある。 However, in the system described above, it is difficult to find a target person in the blind spot of the camera in the image. For example, if the patrol time interval of the night duty staff is one hour, it may be one hour later that the subject falling or wandering in the blind spot of the camera is found immediately after the patrol.
かかる状況を改善すべく、施設内を自動巡回する自律移動ロボットを利用することができる。このような自律移動ロボットには、施設内に転倒者がいる場合、これを適切に発見すると共に、転倒者が存在していることを示す情報を出力する(例えば、職員に通知する)ことが要求される。 In order to improve this situation, it is possible to use an autonomous mobile robot that automatically patrols the facility. Such autonomous mobile robots are capable of appropriately detecting a fallen person in a facility and outputting information indicating the presence of the fallen person (e.g., notifying the staff). requested.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、測域センサと物体検知カメラとを用いて、転倒者を適切に発見すると共に、転倒者が存在していることを示す情報を出力することが可能な自律移動ロボットを実現することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and its purpose is to detect a fallen person appropriately and to detect the presence of a fallen person by using a range sensor and an object detection camera. To realize an autonomous mobile robot capable of outputting information indicating
上記の課題を解決するために、本発明の態様1に係る自律移動ロボットは、フロア上を自動巡回する自律移動ロボットであって、前記フロアを撮影するカメラと、前記フロアから特定の高さに存在する障害物を検知するセンサと、前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御するコントローラと、を備え、前記コントローラは、人間を障害物として検知しているか否かを判断する処理を実行し、前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を実行する、構成である。 In order to solve the above-described problems, an autonomous mobile robot according to aspect 1 of the present invention is an autonomous mobile robot that automatically patrols on a floor, comprising a camera for photographing the floor, and a robot at a specific height from the floor. a sensor that detects an existing obstacle; and a controller that controls the autonomous mobile robot by referring to the image captured by the camera and the output signal of the sensor, wherein the controller detects a human as an obstacle. If a person is included as a subject in the image and if the sensor does not detect the person as an obstacle, a fallen person is present. It is a configuration that executes a process of outputting information indicating that the
上記の構成によれば、施設内のフロア上に転倒者が存在しているか否かを適切に判断することができる。そして、転倒者が存在していることを示す情報を適切に出力することができる。 According to the above configuration, it is possible to appropriately determine whether or not there is a fallen person on the floor in the facility. Then, it is possible to appropriately output information indicating that the fallen person exists.
本発明の態様2に係る自律移動ロボットは、上記の態様1において、前記画像は、一人以上の人間を被写体として含み、前記コントローラは、前記画像を参照して、前記カメラに最も近い人間の前記画像内の座標情報を特定する処理と、前記座表情報を参照して、前記センサが前記カメラに最も近い人間を検知したか否かを判定する処理と、前記センサが前記カメラに最も近い人間を検知した場合、前記カメラに最も近い人間に追従して当該自律移動ロボットを走行させる処理と、を更に実行する、構成としてもよい。 An autonomous mobile robot according to aspect 2 of the present invention is an autonomous mobile robot according to aspect 1 above, wherein the image includes one or more humans as subjects, and the controller refers to the image to refer to the image of the person closest to the camera. a process of identifying coordinate information in an image; a process of determining whether or not the sensor has detected a person closest to the camera by referring to the coordinate information; and a person closest to the camera by the sensor. is detected, a process of causing the autonomous mobile robot to run following the person closest to the camera may be further executed.
上記の構成によれば、自律移動ロボットは施設内のフロア上を徘徊する対象者に追従して走行することができる。 According to the above configuration, the autonomous mobile robot can follow and run the target person who is wandering on the floor in the facility.
本発明の態様3に係る自律移動ロボットは、上記の態様2において、前記コントローラは、前記判定する処理において、前記センサが前記座標情報が表す位置に人間の脚部に相当する特定のサイズの障害物を検知したときに、前記センサが前記カメラに最も近い人間を検知したと判定する、構成としてもよい。 An autonomous mobile robot according to aspect 3 of the present invention is the above-described aspect 2, wherein in the determination process, the sensor detects an obstacle of a specific size corresponding to a human leg at the position represented by the coordinate information. A configuration may be adopted in which, when an object is detected, it is determined that the sensor has detected a person closest to the camera.
上記の構成によれば、カメラの前に存在する人間が追従対象者であるか否かを判断することができる。 According to the above configuration, it can be determined whether or not the person present in front of the camera is the person to be tracked.
本発明の態様4に係る自律移動ロボットは、上記の態様1~3までの何れか1項において、前記コントローラは、前記カメラにより撮影した画像、及び、前記センサの出力信号を取得する少なくとも1つの入力インタフェースと、予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、前記プログラムを格納した少なくとも1つのメモリと、を備えている、構成としてもよい。 Aspect 4 of the present invention is an autonomous mobile robot according to any one of aspects 1 to 3 above, wherein the controller comprises at least one image captured by the camera and an output signal of the sensor. The configuration may include an input interface, at least one processor that executes each process according to a predetermined program, and at least one memory that stores the program.
上記の構成によれば、自律移動ロボットに搭載されたコントローラにより各種処理を実行することができる。 According to the above configuration, various processes can be executed by the controller mounted on the autonomous mobile robot.
本発明の態様5に係る制御方法は、フロア上を自動巡回する自律移動ロボットを制御する制御方法であって、カメラを用いて前記フロアを撮影する工程と、センサを用いて前記フロアから特定の高さに存在する障害物を検知する工程と、前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御する工程と、を含み、前記制御する工程は、前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を含む、方法である。 A control method according to aspect 5 of the present invention is a control method for controlling an autonomous mobile robot that automatically patrols on a floor, comprising the steps of capturing an image of the floor using a camera; a step of detecting an obstacle existing at a height; and a step of controlling the autonomous mobile robot with reference to the image captured by the camera and the output signal of the sensor, and the step of controlling. includes a process of outputting information indicating the presence of a fallen person when the image includes a person as a subject and when the sensor does not detect the person as an obstacle; The method.
上記の構成によれば、施設内のフロア上に転倒者が存在しているか否か判断する制御をすることができる。 According to the above configuration, control can be performed to determine whether or not there is a fallen person on the floor in the facility.
本発明の態様6に係る自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させることを特徴とする制御プログラムは、上記の態様1~4の何れか1項において、請求項1~4の何れか1項に記載の自律移動ロボットを制御する制御プログラムであって、前記コントローラに前記各処理を実行させる構成としてもよい。 A control program for controlling an autonomous mobile robot according to aspect 6 of the present invention, characterized in that the control program causes the controller to execute each of the processes, in any one of aspects 1 to 4 above, A control program for controlling the autonomous mobile robot according to any one of claims 1 to 4, wherein the controller may be configured to execute each of the processes.
上記の構成によれば、前記制御方法と同様の効果を奏する。 According to the above configuration, the same effects as those of the above control method can be obtained.
本発明によれば、上記の構成によれば、施設内のフロア上に転倒者が存在しているか否か判断することができるという効果を奏する。 According to the present invention, with the above configuration, it is possible to determine whether or not there is a fallen person on the floor in the facility.
本発明の一実施形態に係る自律移動ロボット10について、図1~図10を参照して説明する。自律移動ロボット10は、医療施設や介護施設などの職員に代わって施設内の見回りを実施する介護医療用の自律移動ロボットであって、徘徊している施設利用者や、動けない状態になっている施設利用者(すなわちフロア上に倒れている施設利用者)を検出可能な自走式の自律移動ロボットである。
An autonomous
(自律移動ロボット10の主要構成)
図1は、自律移動ロボット10の主なハードウェア構成を示したブロック図である。図1に示すように、自律移動ロボット10は、少なくとも第1のコントローラ11と、第2のコントローラ12と、第3のコントローラ13と、カメラ14と、測域センサ15と、駆動装置16と、通信インタフェース17とを備えている。別の好ましい実施形態では、第1のコントローラ11と、第2のコントローラ12と、第3のコントローラ13とを一つの制御部として構成することができる。
(Main Configuration of Autonomous Mobile Robot 10)
FIG. 1 is a block diagram showing the main hardware configuration of an autonomous
第1のコントローラ11はカメラ14を制御し、第2のコントローラ12は通信インタフェース17および測域センサ15を制御し、第3のコントローラ13は駆動装置16を制御する。第1のコントローラ11による制御結果は、第2のコントローラ12に送信され、第2のコントローラ12による制御結果は第3のコントローラ13に送信される。
The
第2のコントローラ12により、通信インタフェース17は、ビーコン18と無線通信し、ビーコン信号を受信することができる。ビーコン18は、任意のビーコンであってよく、例えばBLE(Bluetooth Low Energy)ビーコンなどが好ましい。更に第2のコントローラ12により、通信インタフェース17は、携帯端末19と無線通信し、自律移動ロボット10の情報を送信することができる。携帯端末19は、携帯電話、スマートフォン、タブレット端末など任意の携帯端末であってよい。
The
(自律移動ロボット10の実装態様)
図2は、本発明の一実施形態に係る自律移動ロボット10が施設内を見回っている様子を模式的に示す斜視図である。図2では、自律移動ロボット10が、フロアF上に倒れている施設利用者P0を検知した様子を模式的に示している。
(Mounting Mode of Autonomous Mobile Robot 10)
FIG. 2 is a perspective view schematically showing how an autonomous
図2に示すように、自律移動ロボット10は、施設のフロアFのうえに載置されている。自律移動ロボット10は、駆動機構16を用いて施設内を自走することができる。
As shown in FIG. 2, the autonomous
図2において、フロアFの表面に沿った平面をxy平面と定め、フロアFの表面の法線方向のうち当該表面から天頂へ向かう方向をz軸正方向と定める。また、図2に示すように、自律移動ロボット10の前進方向をx軸正方向と定める。また、xy平面に含まれる方向のうち、上述したx軸正方向及びz軸正方向とともに右手系の直交座標系を構成する方向をy軸正方向と定める。
In FIG. 2, the plane along the surface of the floor F is defined as the xy plane, and the normal direction of the surface of the floor F toward the zenith is defined as the z-axis positive direction. Also, as shown in FIG. 2, the forward direction of the autonomous
自律移動ロボット10は、図2に示すように、その上端部が半球状に丸められた略円柱状の形状を有する。自律移動ロボット10の筐体は、カメラ14、測域センサ15および通信インタフェース17を含む入力機構と、駆動装置16を含む出力機構と、これらの入出力機構を制御する制御部とを収容している。
As shown in FIG. 2, the autonomous
なお、図2には、上記の入出力機構のうちカメラ14のみを図示し、それ以外のハードウェアの図示は省略している。また、自律移動ロボット10の筐体の内部構造についても、その図示を省略している。上記入出力機構以外に、例えばカメラ14の隣に赤外線ランプなどを搭載することもできる。この赤外線ランプを点灯させ、カメラ14に赤外線領域まで撮像できるカメラを用いて、低照度下でも人間を撮影することもできる。
It should be noted that FIG. 2 shows only the
カメラ14および測域センサ15は、図2に例示した自律移動ロボット10の筐体の表面に露出した様態で配置されている。カメラ14および測域センサ15は、自律移動ロボット10の筐体の表面の任意の場所に配置されることができるが、自律移動ロボット10の前進方向正面に配置されていることが好ましい。
The
(オブジェクト判定)
図3は、本発明の一実施形態に係る自律移動ロボット10が備えている第1のコントローラ11の主要な構成を示す機能ブロック図である。図4は、図3に示した第1の制御部が実行するオブジェクトの座標情報142を抽出する方法のフローチャートである。
(object judgment)
FIG. 3 is a functional block diagram showing the main configuration of the
図3に示すように、第1のコントローラ11は、少なくとも第1の入力部111と、オブジェクト検出部112と、第1の判定部113と、第1の抽出部114と、第1の出力部115とを備えている。
As shown in FIG. 3, the
自律移動ロボット10は、巡回走行しながら、第1のコントローラ11により、上述のカメラ14にて施設内を撮影する(S111)。第1の入力部111は、上述のカメラ14にて撮影された画像情報141を受信する。オブジェクト検出部112は、当該受信した画像情報141からオブジェクトを検出する(S112)。具体的には、オブジェクト検出では、画像情報141に含まれている被写体を検出する。
While the autonomous
第1の判定部113では、検出された被写体に人間が含まれているか否か判定する(S113)。第1の判定部113による被写体の種類判定処理についての具体的手法は本実施形態を限定するものではなく、例えば以下のような機械学習的手法の何れかまたはそれらの組み合わせを用いることができる。
The
・サポートベクターマシン(SVM: Support Vector Machine)
・クラスタリング(Clustering)
・帰納論理プログラミング(ILP: Inductive Logic Programming)
・遺伝的アルゴリズム(GP: Genetic Programming)
・ベイジアンネットワーク(BN: Bayesian Network)
・ニューラルネットワーク(NN: Neural Network)
ニューラルネットワークを用いる場合、入力される画像情報141をニューラルネットワークへのインプット用に予め加工して用いるとよい。このような加工には、データの1次元的配列化、または多次元的配列化に加え、例えば、データオーギュメンテーション(Data Augmentation)等の手法を用いることができる。
・Support Vector Machine (SVM)
・Clustering
・Inductive Logic Programming (ILP)
・Genetic Algorithms (GP)
・Bayesian Network (BN)
・Neural Network (NN)
When using a neural network, it is preferable to process the
また、ニューラルネットワークを用いる場合、畳み込み処理を含む畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を用いてもよいし、再帰的処理を含むリカレントニューラルネットワーク(RNN: Recurrent Neural Network)を用いてもよい。CNNを用いる場合、より具体的には、ニューラルネットワークに含まれる1又は複数の層(レイヤ)として、畳み込み演算を行う畳み込み層を設け、当該層に入力される入力データに対してフィルタ演算(積和演算)を行う構成としてもよい。またフィルタ演算を行う際には、パディング等の処理を併用したり、適宜設定されたストライド幅を採用したりしてもよい。 When a neural network is used, a convolutional neural network (CNN) including convolution processing or a recurrent neural network (RNN) including recursive processing may be used. When using a CNN, more specifically, a convolution layer that performs a convolution operation is provided as one or more layers (layers) included in the neural network, and a filter operation (product sum operation). Further, when performing filter calculation, processing such as padding may be used in combination, or an appropriately set stride width may be employed.
また、ニューラルネットワークとして、数十~数千層に至る多層型又は超多層型のニューラルネットワークを用いてもよい。 As the neural network, a multi-layered or super multi-layered neural network with tens to thousands of layers may be used.
また、第1の判定部113による被写体の種類判定処理に用いられる機械学習は、教師あり学習であってもよいし、教師なし学習であってもよい。
The machine learning used for the subject type determination processing by the
上記被写体の種類判定処理に用いられるプログラムおよび/またはデータは、自律移動ロボット10内の記憶部(図示せず)に格納されることが好ましいが、外部の記憶手段に格納されてもよい。
The program and/or data used in the subject type determination process are preferably stored in a storage unit (not shown) within the autonomous
(オブジェクト座標抽出)
第1の判定部113による被写体の種類判定処理により、画像情報141に一人以上の人間が含まれていると判断された場合(S113でYES)、第1の抽出部114は、カメラ14に最も近い人間の画像情報141中の座標を抽出する(S114)。画像情報141に人間が含まれていると判断されなかった場合(S113でNO)、引き続きカメラ14による撮影を継続する(S111)。画像情報141の取得の周期は任意に設定することができるが、100ms~200msのリフレッシュレートで画像情報141を取得することが好ましい。
(Object coordinate extraction)
When it is determined that one or more people are included in the
図5は、図3に示した第1の制御部が実行するオブジェクトの座標情報142を抽出する態様を模式的に示す概略図である(図5は模式的に示した概念図であり、3次元図ではない)。図5の下部に示した自律移動ロボット10は頂部から見た平面図として示してあり、自律移動ロボット10に搭載されたカメラ14により撮影された画像情報141は正面図として示した模式図である。自律移動ロボット10に搭載されたカメラ14により撮影された画像情報141は、2次元座標(xs,ys)により特定することができる。オブジェクトとしてカメラ14に最も近い人間の2次元座標を抽出し(S114)、当該座標情報142を第2のコントローラ12に出力する(S115)。第2のコントローラ12に出力する座標情報142は、オブジェクトとしてカメラ14に最も近い人間の2次元座標のうち、xs軸方向の座標情報142だけであってもよい。
FIG. 5 is a schematic diagram schematically showing a mode of extracting the coordinate
(障害物検知)
自律移動ロボット10は、巡回走行しながら、測域センサ15によって施設内の障害物を検知する。測域センサ15は、自律移動ロボット10の筐体の表面の任意の場所に配置されることができるが、フロアFから高さ35cm程度の水平面を測定できるように配置されることが好ましい。小学生などの子ども専用の施設であれば、フロアFから高さ30cm程度の水平面を測定できるように配置されることが好ましい。測域センサ15は、例えば、北陽電機株式会社製のUST-10LXのようなレーザ方式の測域センサを採用することができる。
(obstacle detection)
The autonomous
測域センサ15により施設内の障害物を検知した様子を図8に模式的に示す。図8は、z軸正方向からフロアF面を臨む平面図である。フロアF表面からz軸方向+35cmの高さであって、自律移動ロボット10の筐体に搭載された測域センサ15の位置を原点とし、自律移動ロボット10の前進方向をx軸とした。図8において、障害物は小さな丸印によって表示されている。好ましい実施形態では、図8に示すように、測域センサ15は走査角度±115°で障害物を検知する。また、0.06m~10m程度の検出距離であることが好ましい。走査時間は25msであることが好ましい。角度分解能は0.25度程度が好ましい。これらの値に限定されることなく、測域センサ15は、任意の検出距離、走査角度、走査時間、角度分解能を有することができる。
FIG. 8 schematically shows how the
(オブジェクトとの相対距離判断)
図6は、本発明の一実施形態に係る自律移動ロボット10が備えている第2のコントローラ12の機能ブロック図である。図7は、図6に示した第2のコントローラ12が実行する、フロアF表面からz軸方向へ所定の高さに対象者Pが存在するか否かを判断する方法のフローチャートである。
(judgment of relative distance to object)
FIG. 6 is a functional block diagram of the
図6に示すように、第2のコントローラ12は、少なくとも第2の入力部121と、第2の判定部123と、変換部125と、第2の抽出部126と、第2の出力部129とを備えている。第2の入力部121は、少なくとも第1の出力部115と、測域センサ15と、ビーコン18とからの出力情報を受信する。
As shown in FIG. 6, the
上述したとおり、オブジェクトが人間である場合、当該オブジェクトの座標情報142が第1の出力部115から出力された場合(S115)、第2の入力部121は当該座標情報142を受信する。当該オブジェクトに相当する人間が、施設の職員である場合、当該職員はビーコン18を所持しており、当該ビーコン18はビーコン信号を発信している。
As described above, when the object is a human being, the
第2の入力部121は、所定の距離内に存在する当該ビーコン信号を受信する。第2の入力部121が、座標情報142を受信し、且つ、ビーコン信号も受信している場合、第2の判定部123は、当該オブジェクトに相当する人間が施設の職員であると判断する(S121でNO)。第2の入力部121が座標情報142を受信していない場合(S121でNO)、座標情報142を受信するまで、S121のステップを繰り返す。一方、第2の入力部121が、座標情報142を受信し、且つ、ビーコン信号を受信していない場合、第2の判定部123は、オブジェクトに相当する人間が施設の職員でないと判断する(S121でYES)。
A
第2の判定部123により、オブジェクトに相当する人間が施設の職員でないと判断された場合(S121でYES)、第2のコントローラ12は、測域センサ15から測域データ144を取得する(S124)。変換部125は、図5に示すように、座標情報142を自律移動ロボット10の座標系の方向角情報に変換する(S125)。本実施形態では、自律移動ロボット10の座標系とは、xy平面において自律移動ロボット10の筐体に搭載された測域センサ15の位置を原点とした極座標系であることが好ましい。具体的には、座標情報142のxs軸方向の最大値と最小値を、自律移動ロボット10の座標系の方向角152aと152bとに変換する。したがって、自律移動ロボット10の座標系にてオブジェクトに相当する人間が存する挟角は方向角152aと方向角152bとの間の挟角となる。
If the
次いで、第2の抽出部126は、方向角152aと方向角152bとの間の挟角において、測域センサ15による測域データ144から最近位点を抽出する(S126)。本実施形態では、方向角152aと方向角152bとの間の挟角において、予め定められた特定の範囲に含まれる幅を有する障害物として検知される対象の最近位点を抽出する。上記特定の範囲は任意に設定することができるが、好ましい実施形態では10cm~15cm程度と設定することができる。障害物として検知される人間がフロアF上に立っている場合、フロアFからz軸方向に35cm程度の位置では、当該人間の脚が障害物として検知される。上記特定の範囲を10cm~15cm程度と設定することにより、当該障害物は人間の脚であると判断することができるからである。図5では、最近位点を人間の脚の位置145として抽出した様子を示す。
Next, the
なお、上記特定の範囲(例えば、10cm~15cm)の上限値(例えば、15cm)を超える幅を有する障害物を検知対象に加えてもよい。これにより、フロアF上に立っている人間だけでなく、フロアF上に座っている、又は、うずくまっている対象者P1を検知することが可能になる。 An obstacle having a width exceeding the upper limit (eg, 15 cm) of the specific range (eg, 10 cm to 15 cm) may be added to the detection targets. This makes it possible to detect not only the person standing on the floor F but also the subject P1 sitting or crouching on the floor F.
好ましい実施形態では、上記障害物の検知に加え、画像情報141におけるオブジェクトの座標情報142のアスペクト比(xsとysとの比)が略1:1、ないし、xs>ysであれば人間が座っている、もしくは、うずくまっていると判断することもできる。一方、オブジェクトの座標情報142のアスペクト比(xsとysとの比)が図5に示した例のようにxs<ysであれば人間が立っていると判断することもできる。
In a preferred embodiment, in addition to the obstacle detection, the aspect ratio (ratio of x s to y s ) of the coordinate
図5の人間の脚の位置145のような最近位点が抽出できなかった場合(S127でNO)、第2の出力部129は、転倒者情報を出力する(S128)。オブジェクトとしてカメラ14に最も近い人間の2次元座標が抽出されており、且つ、ビーコン信号が受信されていない場合であるため、職員以外の人間が自律移動ロボット10の進行方向に存在している。ただし、フロアFから高さ35cm程度の位置には当該人間が検出できないことから、当該人間はフロアF上に転倒していることが想定される。
If the most proximal point such as the
図5の人間の脚の位置145のような最近位点が抽出できた場合(S127でYES)、第2の抽出部126は追従目標位置情報を生成し、第2の出力部129は当該追従目標位置情報を第3の制御部に出力する(S129)。例えば、図5の人間の脚の位置145のような最近位点が抽出できた場合、測域センサ15から当該最近位点までの最短距離を示すライン153による距離rと角度θを追従目標位置情報(r,θ)とすることができる。当該追従目標位置情報(r,θ)は、自律移動ロボット10を基準とした相対的な位置情報であり、絶対座標ではないことが好ましい。rは5m以内であることが好ましい。追従目標位置情報の特定は極座標に限定されず、通常のxy直交座標系によって特定することも可能である。
If the most proximal point such as the
別の好ましい実施形態では、通信インタフェース17は、第2の出力部129から出力された転倒者情報(S128)を、宿直担当者の携帯端末19に送信する。更に別の好ましい実施形態では、測域センサ15及び/又はカメラ14からの情報に基づいて、人間が座っている、もしくは、うずくまっていると判断した場合、通信インタフェース17は、人間が座っている、もしくは、うずくまっている情報を、宿直担当者の携帯端末19に送信する。
In another preferred embodiment, the
更に別の好ましい実施形態では、第2の出力部129が追従目標位置情報を第3の制御部に出力する場合、通信インタフェース17は、自律移動ロボット10の現在位置情報を宿直担当者の携帯端末19に送信する。
In yet another preferred embodiment, when the
(徘徊者追従)
図9は、本発明の一実施形態に係る自律移動ロボット10が備えている第3のコントローラ13の機能ブロック図である。図10は、図9に示した第3のコントローラ13が実行する自律移動ロボット10を駆動する方法のフローチャートである。
(Following wanderers)
FIG. 9 is a functional block diagram of the
図9に示すように、第3のコントローラ13は、少なくとも第3の入力部131と、第3の判定部132と、第3の出力部133とを備えている。第3の入力部131は、少なくとも第2の出力部129からの出力情報を受信する。
As shown in FIG. 9 , the
上述したとおり、第2の出力部129は追従目標位置情報を出力し(S129)、第3の入力部131は、当該追従目標位置情報を受信する。
As described above, the
第3の判定部132は、人追従モードか否か判定する(S131)。好ましい実施形態では、自律移動ロボット10が対象者Pに追従して移動するか、追従することなく従来通り巡回移動するか、事前に設定しておくことができる。第3の判定部132は、当該設定情報を参照して、人追従モードか否か判定する(S131)。当該事前に設定した情報は、自律移動ロボット10内の記憶部(図示せず)に格納されることが好ましいが、外部の記憶手段に格納されてもよい。
The
別の好ましい実施形態では、通信インタフェース17が、自律移動ロボット10の現在位置情報を宿直担当者の携帯端末19に送信する際に、人追従モードを実行するか否かの問い合わせ情報を併せて携帯端末19に送信する。宿直担当者は当該問い合わせ情報に応じて、人追従モードを指定することができる。
In another preferred embodiment, when the
人追従モードに設定されていない場合(S131でNO)、人追従モードに設定されるまで、従来通り巡回移動する。人追従モードに設定されている場合(S131でYES)、第3の判定部132は、第3の入力部131を介して追従目標位置情報が受信されているか否か判断する(S132)。第3の入力部131が追従目標位置情報を受信していない場合(S132でNO)、追従目標位置情報を受信するまで従来通り巡回移動する。
If the person-following mode is not set (NO in S131), the vehicle circulates as before until the person-following mode is set. If the human tracking mode is set (YES in S131), the
第3の入力部131が追従目標位置情報を受信している場合(S132でYES)、第3の出力部133は、追従移動情報を駆動装置16に出力する(S133)。駆動装置16は、ステアリング装置とモータとを包含する構成であることが好ましい。本実施形態では、左右独立二輪駆動方式を採用することができ、2つのモータで左右独立に駆動制御することができる。
If the
好ましい実施形態では、追従移動情報は、追従目標位置情報に基づいて生成される。追従の対象者は、徘徊している可能性が高く、移動方向及び/又は移動速度が一定ではない。追従移動情報は、追従目標位置情報に基づいて当該追随の対象者と一定の距離を保ちつつ自律移動ロボット10が追従することができる進行方向情報とモータ回転情報とからなる。
In a preferred embodiment, the following movement information is generated based on the following target position information. The target person to be followed is likely to be wandering around, and the moving direction and/or moving speed is not constant. The follow-up movement information consists of traveling direction information and motor rotation information in which the autonomous
(コントローラのハードウェア構成)
図11は、本発明の一実施形態に係る自律移動ロボット10が備えている主要なハードウェア構成を模式的に示す概略図である。図11に示すように、自律移動ロボット10は、少なくとも1つのコントローラ130を有する。コントローラ130は、図1の第1のコントローラ11乃至第3のコントローラ13に相当するハードウェア構成である。例えば、カメラ14に関する情報を処理する第1のコントローラ130aと、測域センサ15および通信インタフェース17に関する情報を処理する第2のコントローラ130bと、駆動装置16に関する情報を処理する第3のコントローラ130cとのように複数の制御部に制御を分担させる構成としてもよい。
(Hardware configuration of controller)
FIG. 11 is a schematic diagram schematically showing the main hardware configuration of the autonomous
コントローラ130は、少なくとも入力インタフェース137、出力インタフェース138、プロセッサ135、メモリ136を備える。
入力インタフェース137から入力された情報の処理を実施するアルゴリズムを実行するプログラムは、メモリ136に格納される。当該メモリ136に格納されたプログラムをプロセッサ135にて実行することにより、入力された情報を処理することができる。当該処理された情報は出力情報として出力インタフェース138から出力される。出力インタフェース138から出力された情報により、駆動装置16、通信インタフェース17を制御することができる。
Programs for executing algorithms that implement processing of information entered through
好ましい実施形態では、カメラ14に関する情報を処理する第1のコントローラ130aは、人間を障害物として検知しているか否かを判断する処理を実行する。第1のコントローラ130aは、入力インタフェース137を介してカメラ14から画像情報141を取得し、当該判断結果を、出力インタフェース138を介して第2のコントローラ130bに供給する。画像に人間が被写体として含まれている場合、且つ、測域センサ15が人間を障害物として検知していない場合、第2のコントローラ130bは、転倒者が存在していることを示す情報を出力する処理を実行する。
In a preferred embodiment, the first controller 130a, which processes information about the
具体的には、カメラ14によって撮像された画像情報141が、一人以上の人間を被写体として含んでいる場合、第1のコントローラ130aは、当該画像情報141を参照して、カメラ14に最も近い人間の画像情報141内の座標情報142を特定する処理と、当該座表情報142を参照して、測域センサ15がカメラ14に最も近い人間を検知したか否かを判定する処理とを実行する。
Specifically, when the
例えば、第2のコントローラ130bは、判定する処理において、測域センサ15が、座標情報142が表す位置に人間の脚部に相当する特定のサイズの障害物を検知したときに、測域センサ15がカメラ14に最も近い人間を検知したと判定する。
For example, in the determination process, the second controller 130b detects an obstacle of a specific size corresponding to a human leg at the position indicated by the coordinate
測域センサ15がカメラ14に最も近い人間を検知した場合、第2のコントローラ130bは、出力インタフェース138を介して追従対象者が存在していることを示す情報を出力する処理を実行する。第3のコントローラ130cは入力インタフェース137を介して当該出力された情報を取得する。当該出力された情報に基づいて、第3のコントローラ130cは、カメラ14に最も近い人間に追従して当該自律移動ロボットを走行させる処理を実行する。
When the
〔ソフトウェアによる実現例〕
自律移動ロボット10の第1のコントローラ11(特に、オブジェクト検出部112、第1の判定部113、第1の抽出部114)、第2のコントローラ12(特に、第2の判定部123、変換部125、第2の抽出部126)、および、第3のコントローラ13(特に、第3の判定部132)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The first controller 11 (in particular, the
後者の場合、自律移動ロボット10は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the autonomous
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
10 自律移動ロボット
130 コントローラ
11、130a 第1のコントローラ
12、130b 第2のコントローラ
13、130c 第3のコントローラ
14 カメラ
15 測域センサ
16 駆動機構
17 通信インタフェース
18 ビーコン
19 携帯端末
111 第1の入力部
112 オブジェクト検出部
113 第1の判定部
138 出力インタフェース
114 第1の抽出部
115 第1の出力部
121 第2の入力部
123 第2の判定部
125 変換部
126 第2の抽出部
129 第2の出力部
131 第3の入力部
132 第3の判定部
133 第3の出力部
137 入力インタフェース
135 プロセッサ
136 メモリ
141 画像情報
142 座標情報
145 人間の脚の位置
152a、152b 方向角
10 autonomous
Claims (6)
前記フロアを撮影するカメラと、
前記フロアから特定の高さに存在する障害物を検知するセンサと、
前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御するコントローラと、を備え、
前記画像は、人間を被写体として含み、
前記コントローラは、
前記画像を参照して、前記人間の前記画像内の座標情報を特定する処理と、
前記座標情報を参照して、前記センサが、前記座標情報が表す位置に人間を障害物として検知しているか否かを判断する処理と、
前記画像における前記人間の前記座標情報から得られるアスペクト比に基づいて、前記人間が、座っているまたはうずくまっているのか、立っているのかを判断する処理と、
を実行し、
前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を実行する、
ことを特徴とする自律移動ロボット。 An autonomous mobile robot that automatically patrols the floor,
a camera for photographing the floor;
a sensor that detects an obstacle present at a specific height from the floor;
a controller that controls the autonomous mobile robot by referring to the image captured by the camera and the output signal of the sensor;
the image includes a human as a subject;
The controller is
a process of identifying coordinate information of the person in the image by referring to the image;
a process of referring to the coordinate information and determining whether or not the sensor detects a human being as an obstacle at the position indicated by the coordinate information;
a process of determining whether the person is sitting, crouching, or standing based on the aspect ratio obtained from the coordinate information of the person in the image ;
and run
If the image includes a person as a subject and if the sensor does not detect the person as an obstacle, executing a process of outputting information indicating the presence of a fallen person.
An autonomous mobile robot characterized by:
前記座標情報を特定する処理において、前記カメラに最も近い人間の前記画像内の座標情報を特定し、
前記人間を障害物として検知しているか否かを判断する処理において、前記センサが前記カメラに最も近い人間を検知したか否かを判断し、
前記センサが前記カメラに最も近い人間を検知した場合、前記カメラに最も近い人間に当該自律移動ロボットを追従させる処理を更に実行する、
ことを特徴とする請求項1に記載の自律移動ロボット。 The controller is
In the process of identifying the coordinate information, identifying the coordinate information in the image of the person closest to the camera;
determining whether the sensor has detected a person closest to the camera in the process of determining whether the human is detected as an obstacle ;
further executing a process of causing the autonomous mobile robot to follow the person closest to the camera when the sensor detects the person closest to the camera;
The autonomous mobile robot according to claim 1, characterized in that:
ことを特徴とする請求項2に記載の自律移動ロボット。 When the controller detects an obstacle having a width within a specific range at the position indicated by the coordinate information in the process of determining whether or not the human is detected as an obstacle , the controller , determining that the sensor has detected a person closest to the camera;
3. The autonomous mobile robot according to claim 2, characterized in that:
前記カメラにより撮影した画像、及び、前記センサの出力信号を取得する少なくとも1つの入力インタフェースと、
予め定められたプログラムに従って前記各処理を実行する少なくとも1つのプロセッサと、
前記プログラムを格納した少なくとも1つのメモリと、を備えている、
ことを特徴とする請求項1~3までの何れか1項に記載の自律移動ロボット。 The controller is
at least one input interface for acquiring the image captured by the camera and the output signal of the sensor;
at least one processor that executes each process according to a predetermined program;
at least one memory storing the program;
The autonomous mobile robot according to any one of claims 1 to 3, characterized in that:
カメラを用いて前記フロアを撮影する工程と、
センサを用いて前記フロアから特定の高さに存在する障害物を検知する工程と、
前記カメラにより撮影された画像、及び、前記センサの出力信号を参照して、当該自律移動ロボットを制御する工程と、を含み、
前記画像は、人間を被写体として含み、
前記制御する工程は、
前記画像を参照して、前記人間の前記画像内の座標情報を特定する処理と、
前記座標情報を参照して、前記センサが、前記座標情報が表す位置に人間を障害物として検知しているか否かを判断する処理と、
前記画像における前記人間の前記座標情報から得られるアスペクト比に基づいて、前記人間が、座っているまたはうずくまっているのか、立っているのかを判断する処理と、
を含み、
前記画像に人間が被写体として含まれている場合、且つ、前記センサが前記人間を障害物として検知していない場合、転倒者が存在していることを示す情報を出力する処理を含む、
ことを特徴とする制御方法。 A control method for controlling an autonomous mobile robot that automatically patrols a floor, comprising:
a step of photographing the floor using a camera;
detecting an obstacle present at a specific height from the floor using a sensor;
a step of controlling the autonomous mobile robot by referring to the image captured by the camera and the output signal of the sensor;
the image includes a human as a subject;
The controlling step includes:
a process of identifying coordinate information of the person in the image by referring to the image;
a process of referring to the coordinate information and determining whether or not the sensor detects a human being as an obstacle at the position indicated by the coordinate information;
a process of determining whether the person is sitting, crouching, or standing based on the aspect ratio obtained from the coordinate information of the person in the image ;
including
When the image includes a human as a subject and when the sensor does not detect the human as an obstacle, outputting information indicating that a fallen person is present.
A control method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029813A JP7192563B2 (en) | 2019-02-21 | 2019-02-21 | autonomous mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029813A JP7192563B2 (en) | 2019-02-21 | 2019-02-21 | autonomous mobile robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020135561A JP2020135561A (en) | 2020-08-31 |
JP7192563B2 true JP7192563B2 (en) | 2022-12-20 |
Family
ID=72278706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019029813A Active JP7192563B2 (en) | 2019-02-21 | 2019-02-21 | autonomous mobile robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7192563B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870524A (en) * | 2021-09-18 | 2021-12-31 | 深圳Tcl数字技术有限公司 | Monitoring method, monitoring device and storage medium |
CN114089752A (en) * | 2021-11-11 | 2022-02-25 | 深圳市杉川机器人有限公司 | Autonomous exploration method for robot, and computer-readable storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099863A (en) | 1998-09-18 | 2000-04-07 | Mitsubishi Electric Corp | Abnormality detector |
JP2002092761A (en) | 2000-09-12 | 2002-03-29 | Toshiba Tec Corp | Movement monitoring system |
JP2003256042A (en) | 2002-03-03 | 2003-09-10 | Tmsuk Co Ltd | Security robot |
JP2006221610A (en) | 2004-12-14 | 2006-08-24 | Samsung Electronics Co Ltd | Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device |
US20120025989A1 (en) | 2010-07-30 | 2012-02-02 | General Electric Company | Method and system for detecting a fallen person using a range imaging device |
JP2012094140A (en) | 2010-10-28 | 2012-05-17 | General Electric Co <Ge> | System and method for monitoring position of person and object |
JP2017036945A (en) | 2015-08-07 | 2017-02-16 | 株式会社Ihiエアロスペース | Moving body and obstacle detection method of the same |
WO2018008224A1 (en) | 2016-07-04 | 2018-01-11 | ソニー株式会社 | Robot, robot system, and recording medium |
-
2019
- 2019-02-21 JP JP2019029813A patent/JP7192563B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099863A (en) | 1998-09-18 | 2000-04-07 | Mitsubishi Electric Corp | Abnormality detector |
JP2002092761A (en) | 2000-09-12 | 2002-03-29 | Toshiba Tec Corp | Movement monitoring system |
JP2003256042A (en) | 2002-03-03 | 2003-09-10 | Tmsuk Co Ltd | Security robot |
JP2006221610A (en) | 2004-12-14 | 2006-08-24 | Samsung Electronics Co Ltd | Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device |
US20120025989A1 (en) | 2010-07-30 | 2012-02-02 | General Electric Company | Method and system for detecting a fallen person using a range imaging device |
JP2012094140A (en) | 2010-10-28 | 2012-05-17 | General Electric Co <Ge> | System and method for monitoring position of person and object |
JP2017036945A (en) | 2015-08-07 | 2017-02-16 | 株式会社Ihiエアロスペース | Moving body and obstacle detection method of the same |
WO2018008224A1 (en) | 2016-07-04 | 2018-01-11 | ソニー株式会社 | Robot, robot system, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020135561A (en) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019128070A1 (en) | Target tracking method and apparatus, mobile device and storage medium | |
WO2020113452A1 (en) | Monitoring method and device for moving target, monitoring system, and mobile robot | |
US7180050B2 (en) | Object detection device, object detection server, and object detection method | |
EP2571660B1 (en) | Mobile human interface robot | |
US20130338525A1 (en) | Mobile Human Interface Robot | |
JP5946147B2 (en) | Movable human interface robot | |
US20120182392A1 (en) | Mobile Human Interface Robot | |
US10068141B2 (en) | Automatic operation vehicle | |
JP7192563B2 (en) | autonomous mobile robot | |
WO2009142841A2 (en) | Rectangular table detection using hybrid rgb and depth camera sensors | |
JP2007530978A (en) | Position estimation method and apparatus using reflected light source | |
US10067511B2 (en) | Automatic operation vehicle | |
US10054952B2 (en) | Automatic operation vehicle | |
US20220382282A1 (en) | Mobility aid robot navigating method and mobility aid robot using the same | |
US8082063B2 (en) | Mobile apparatus and mobile apparatus system | |
JP2007303913A (en) | Foreign matter detecting device, robot device using the same, foreign matter detection method, and foreign matter detection program | |
US11164322B2 (en) | Eyeball movement analysis system and eyeball movement analysis method | |
JP7147624B2 (en) | autonomous mobile robot | |
WO2022116628A1 (en) | Obstacle avoidance control system, method, storage medium, computer program product, and mobile device | |
US20220291686A1 (en) | Self-location estimation device, autonomous mobile body, self-location estimation method, and program | |
JP7120071B2 (en) | autonomous mobile robot | |
CN112882461A (en) | Robot, control method, and storage medium | |
Crha et al. | Navigation of robotic platform for gait disorders monitoring | |
JP7354528B2 (en) | Autonomous mobile device, method and program for detecting dirt on lenses of autonomous mobile device | |
CN111736596A (en) | Vehicle with gesture control function, gesture control method of vehicle, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7192563 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |