JP2020163509A - Simulation system, simulation program and learning device - Google Patents

Simulation system, simulation program and learning device Download PDF

Info

Publication number
JP2020163509A
JP2020163509A JP2019065629A JP2019065629A JP2020163509A JP 2020163509 A JP2020163509 A JP 2020163509A JP 2019065629 A JP2019065629 A JP 2019065629A JP 2019065629 A JP2019065629 A JP 2019065629A JP 2020163509 A JP2020163509 A JP 2020163509A
Authority
JP
Japan
Prior art keywords
agent
robot
human
simulation
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019065629A
Other languages
Japanese (ja)
Other versions
JP7258426B2 (en
Inventor
聡 佐竹
Satoshi Satake
聡 佐竹
カスマルク トーマ
Kasmark Thoma
カスマルク トーマ
神田 崇行
Takayuki Kanda
崇行 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2019065629A priority Critical patent/JP7258426B2/en
Publication of JP2020163509A publication Critical patent/JP2020163509A/en
Application granted granted Critical
Publication of JP7258426B2 publication Critical patent/JP7258426B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

To provide a simulation system which can be used for a sensor system arranged in the real world.SOLUTION: A simulation device of a robot system generates, by a person generation module (110), a pedestrian in a three-dimensional shape from 3D model database (111), and places it in a virtual simulation space. An objective to be executed is selected from an objective model (116), simulation parameters are determined, and a gesture is selected for each object from a gesture database (113), and set to the objective. A movement module (114) updates the pedestrian. According to a social force model (118), the position of the pedestrian is updated, and according to the set gesture, a gesture of the pedestrian is reproduced. As the pedestrian is updated, a data set is output which has a true value label and sensor data applied with a noise model, combined together.SELECTED DRAWING: Figure 5

Description

この発明はシミュレーションシステムに関し、特にたとえば、コミュニケーションロボットのようなロボットと人との共存環境におけるロボットや人エージェントをシミュレーションする、シミュレーションシステム、シミュレーションプログラムおよび学習装置に関する。 The present invention relates to a simulation system, and more particularly to a simulation system, a simulation program, and a learning device that simulates a robot or a human agent in a coexistence environment between a robot such as a communication robot and a human.

従来のこの種のシミュレーション装置が非特許文献1、2で開示されている。これらの非特許文献1、2のシミュレーション装置では、センサやアクチュエータをシミュレーションして可視化することによって、人との共存環境におけるロボットの適応をより簡単にシミュレーションすることができる。 Conventional simulation devices of this type are disclosed in Non-Patent Documents 1 and 2. In these simulation devices of Non-Patent Documents 1 and 2, by simulating and visualizing sensors and actuators, it is possible to more easily simulate the adaptation of a robot in a coexistence environment with humans.

環境に設置したセンサネットワークのキャリブレーション技術としては、環境内を人や物を動かして同時に記録することで、センサ間の位置関係を特定する、特許文献1および特許文献2などが知れられている。 As a calibration technique for a sensor network installed in an environment, Patent Document 1 and Patent Document 2 are known, which specify the positional relationship between sensors by moving a person or an object in the environment and recording them at the same time. ..

センサネットワークにおける人の向きやジェスチャ(動作)の認識精度を向上させる1つの方法は、性別、身長、体つきなどの異なる多くの人の多くの行動データを大量に収集し、認識アルゴリズムのパラメータ調整を実施することである。しかしながら、センサネットワーク内のセンサ配置は、実際の現場環境で固定されており、導入状況におうじても多岐に渡るため、これらの行動データを集めるために、現場での大量のデータ収集が必要となり、多大なコストがかかってしまう。 One way to improve the recognition accuracy of people's orientation and gestures in sensor networks is to collect a large amount of behavior data of many people with different genders, heights, physical constitutions, etc., and adjust the parameters of the recognition algorithm. To carry out. However, the sensor arrangement in the sensor network is fixed in the actual field environment, and it varies depending on the introduction situation, so it is necessary to collect a large amount of data in the field in order to collect these behavior data. , It costs a lot of money.

一方大量のデータをシミュレーションによって生成し、学習に利用するアプローチが、非特許文献3および非特許文献4などで知られている。 On the other hand, an approach of generating a large amount of data by simulation and using it for learning is known in Non-Patent Document 3 and Non-Patent Document 4.

特開2017‐96813(G01S 7/497 G01S 17/42)JP-A-2017-9681 (G01S 7/497 G01S 17/42) 特許第6447706号(G01B 11/00 G06T 7/70 G06T 7/80)Patent No. 6447706 (G01B 11/00 G06T 7/70 G06T 7/80)

https://www.openrobots.org/morse/doc/stable/morse.htmlhttps://www.openrobots.org/morse/doc/stable/morse.html http://gazebosim.org/http://gazebosim.org/ David Silver et al., Mastering the game of Go with deep neural networks and tree branch, Nature, Vol.529, 484-503, 2016David Silver et al., Mastering the game of Go with deep neural networks and tree branch, Nature, Vol.529, 484-503, 2016 Mnih V et al., Human-level control through deep reinforcement learning, Nature, Vol.518, No.7540, 529-533, 2015Mnih V et al., Human-level control through deep reinforcement learning, Nature, Vol.518, No.7540, 529-533, 2015

非特許文献3および非特許文献4などのアプローチは、囲碁(非特許文献3)やコンピュータゲーム(非特許文献4)のような仮想世界で容易に再現できる対象に向けられており、人行動を認識するという実世界のセンシングシステムへの適用は困難である。 Approaches such as Non-Patent Document 3 and Non-Patent Document 4 are aimed at objects that can be easily reproduced in a virtual world such as Go (Non-Patent Document 3) and computer games (Non-Patent Document 4), and human behavior. It is difficult to apply recognition to a real-world sensing system.


それゆえに、この発明の主たる目的は、新規な、シミュレーションシステムを提供することである。

Therefore, the main object of the present invention is to provide a novel simulation system.

この発明の他の目的は、実世界のセンシングシステムで利用可能な人データを生成可能な、シミュレーションシステムを提供することである。 Another object of the present invention is to provide a simulation system capable of generating human data that can be used in real-world sensing systems.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 The present invention has adopted the following configuration in order to solve the above problems. The reference numerals and supplementary explanations in parentheses indicate the correspondence with the embodiments described later in order to assist the understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、複数の3次元距離画像センサを配置した実世界を模した仮想シミュレーション空間に人エージェントを投入する人エージェント生成手段、仮想シミュレーション空間内で人エージェントを更新する更新手段、人エージェントの3次元形状を指示する複数の3Dモデルを有する3Dモデルデータベース、および人エージェントのオブジェクティブを有するオブジェクティブモデルデータベースを備え、人エージェント生成手段は3Dモデルデータベースから選択された3Dモデルに従った形状の人エージェントを生成し、更新手段はオブジェクティブに従って人エージェントを移動させ、さらに人エージェントの真値ラベルを作成する真値ラベル作成手段、更新手段によって人エージェントが移動されるとき複数の3次元距離画像センサをシミュレーションしたセンタデータを取得するセンサデータ取得手段、および真値ラベルとセンサデータを結合したデータセットを出力する出力手段を備える、シミュレーションシステムである。 The first invention is a human agent generation means for inputting a human agent into a virtual simulation space simulating a real world in which a plurality of three-dimensional distance image sensors are arranged, an update means for updating a human agent in the virtual simulation space, and a human agent. It is provided with a 3D model database having a plurality of 3D models indicating the three-dimensional shape of the human agent, and an objective model database having an objective of the human agent, and the human agent generation means is a person having a shape according to a 3D model selected from the 3D model database. The agent is generated, the update means moves the person agent according to the objective, and the true value label that creates the true value label of the person agent is created. When the person agent is moved by the update means, multiple 3D distance image sensors are installed. It is a simulation system including a sensor data acquisition means for acquiring simulated center data and an output means for outputting a data set in which a true value label and sensor data are combined.

第1の発明では、シミュレーションシステム(10:実施例において対応する部分を例示する参照符号。以下同じ。)は、人エージェント生成手段(26、110)を含み、この人エージェント生成手段は、3Dモデルデータベース(111)に設定されている複数の3Dモデルから選択した3Dモデルに従って、人エージェントを生成し、過疎エージェントシミュレーション空間(22)に投入する。更新手段(26、114)は、ブジェクティブモデルデータベース(116)から選択したオブジェクティブに従って人エージェントの位置を更新する。センサデータ取得手段(S33)は、更新手段によって人エージェントが移動されるとき複数の3次元距離画像センサをシミュレーションしたセンタデータを取得する。真値ラベル作成手段(S31)は、エージェントの真値ラベル(人エージェントの位置、向きなど)を作成し、出力手段(S35)は、真値ラベルとセンサデータを結合したデータセットを出力する。このデータセットを学習器に投入すれば、3次元距離画像センサのキャリブレーションが可能になる。 In the first invention, the simulation system (10: reference code illustrating the corresponding portion in the embodiment; the same applies hereinafter) includes a human agent generating means (26, 110), and the human agent generating means is a 3D model. A human agent is generated according to a 3D model selected from a plurality of 3D models set in the database (111) and put into the depopulated agent simulation space (22). The update means (26, 114) updates the position of the human agent according to the objective selected from the projective model database (116). The sensor data acquisition means (S33) acquires center data that simulates a plurality of three-dimensional distance image sensors when the human agent is moved by the update means. The true value label creating means (S31) creates the true value label (position, orientation, etc. of the human agent) of the agent, and the output means (S35) outputs a data set in which the true value label and the sensor data are combined. If this data set is input to the learner, the 3D distance image sensor can be calibrated.

第1の発明によれば、シミュレーションシステムが大量のデータセットを効率よく出力することができる。 According to the first invention, the simulation system can efficiently output a large amount of data sets.

第2の発明は、第1の発明に従属し、人エージェント生成手段は、それぞれが3Dモデルに従った形状を有する、異なるタイプの人エージェントを生成する、シミュレーションシステムである。 The second invention is subordinate to the first invention, and the human agent generating means is a simulation system that generates different types of human agents, each having a shape according to a 3D model.

第2の発明では、人エージェント生成手段(110)は、たとえば大人、子ども、女性、男性のような異なるタイプの人エージェントを、それぞれ3Dモデルに従って、生成する。 In the second invention, the human agent generating means (110) generates different types of human agents, such as adults, children, women, and men, respectively, according to a 3D model.

第2の発明によれば、仮想シミュレーション空間に多様なタイプの人エージェントを投入することができるので、多様なデータセットを出力することができる。 According to the second invention, since various types of human agents can be input to the virtual simulation space, various data sets can be output.

第3の発明は、第1または第2の発明に従属し、人エージェントについての異なるジェスチャを設定しているジェスチャデータベースをさらに備え、更新手段は、ジェスチャデータベースから選択したジェスチャを人エージェントにさせる、シミュレーションシステムである。 The third invention further comprises a gesture database that is subordinate to the first or second invention and sets different gestures for the human agent, and the updating means causes the human agent to make a gesture selected from the gesture database. It is a simulation system.

第3の発明では、ジェスチャデータベース(113)が複数のジェスチャを有し、更新手段は、ジェスチャデータベースから選択したジェスチャを人エージェントにさせる。 In the third invention, the gesture database (113) has a plurality of gestures, and the updating means causes a human agent to make a gesture selected from the gesture database.

第3の発明によれば、人エージェントにジェスチャをさせるので、実世界に近い多様なデータセットを出力することができる。 According to the third invention, since the human agent is made to make a gesture, it is possible to output various data sets close to the real world.

第4の発明は、第1ないし第3のいずれかの発明に従属し、ソーシャルフォースモデルを設定しているソーシャルフォースモデルデータベース(118)をさらに備え、更新手段は、ソーシャルフォースモデルに従って人エージェントの位置を更新する、シミュレーションシステムである。 The fourth invention is subordinate to any one of the first to third inventions and further comprises a social force model database (118) that sets a social force model, and the updating means is that of a human agent according to the social force model. It is a simulation system that updates the position.

第4の発明によれば、人エージェントをソーシャルフォースモデルに従って移動させるので、より実世界に近い多様なデータセットを出力することができる。 According to the fourth invention, since the human agent is moved according to the social force model, it is possible to output various data sets closer to the real world.

第5の発明は、複数の3次元距離画像センサを配置した実世界を模した仮想シミュレーション空間においてシミュレーションを実行するシミュレーションシステムであって、シミュレーションシステムは、人エージェントの3次元形状を指示する複数の3Dモデルを有する3Dモデルデータベース、および人エージェントのオブジェクティブを有するオブジェクティブモデルデータベースを備え、シミュレーションシステムのコンピュータを、仮想シミュレーション空間に3Dモデルデータベースから選択された3Dモデルに従った形状の人エージェントを投入する人エージェント生成手段、仮想シミュレーション空間内でオブジェクティブに従って人エージェントを移動させて人エージェントを更新する更新手段、人エージェントの真値ラベルを作成する真値ラベル作成手段、更新手段によって人エージェントが移動されるとき複数の3次元距離画像センサをシミュレーションしたセンタデータを取得するセンサデータ取得手段、および真値ラベルとセンサデータを結合したデータセットを出力する出力手段として機能させる、シミュレーションプログラムである。 A fifth invention is a simulation system that executes a simulation in a virtual simulation space that imitates a real world in which a plurality of three-dimensional distance image sensors are arranged. The simulation system is a plurality of simulation systems that indicate a three-dimensional shape of a human agent. A 3D model database having a 3D model and an objective model database having an objective of a human agent are provided, and a computer of a simulation system is introduced into a virtual simulation space with a human agent having a shape according to a 3D model selected from the 3D model database. The human agent is moved by the human agent generation means, the update means that moves the human agent according to the objective in the virtual simulation space and updates the human agent, the true value label creation means that creates the true value label of the human agent, and the update means. This is a simulation program that functions as a sensor data acquisition means for acquiring center data obtained by simulating a plurality of three-dimensional distance image sensors and an output means for outputting a data set in which a true value label and sensor data are combined.

第5の発明によっても、第1の発明と同様の効果が期待できる。 The same effect as that of the first invention can be expected by the fifth invention.

第6の発明は、第1ないし第5のいずれかの発明の出力手段が出力するデータセットを学習する学習器を備える、センサキャリブレーションもしくは認識モデルの学習装置である。 The sixth invention is a sensor calibration or recognition model learning device including a learning device for learning a data set output by the output means of any one of the first to fifth inventions.

第6の発明によれば、出力手段から大量のデータセットを効率よく得られるので、センサキャリブレーションや認識モデルの学習を効率的に実行することができる。 According to the sixth invention, since a large amount of data set can be efficiently obtained from the output means, sensor calibration and learning of the recognition model can be efficiently performed.

この発明によれば、仮想シミュレーション空間において多様な人(歩行者)を再現することによって、多様なセンサデータを大量に取得することができる。したがって、その大量のセンサデータを学習器に投入すれば、効率よくセンサキャリブレーションや認識モデルの学習を実行することができる。 According to the present invention, a large amount of various sensor data can be acquired by reproducing various people (pedestrians) in a virtual simulation space. Therefore, if the large amount of sensor data is input to the learner, sensor calibration and recognition model learning can be performed efficiently.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above-mentioned object, other object, feature and advantage of the present invention will become more apparent from the detailed description of the following examples made with reference to the drawings.

図1はこの発明の一実施例のシミュレーションシステムを示す機能ブロック図である。FIG. 1 is a functional block diagram showing a simulation system according to an embodiment of the present invention. 図2はこの発明が適用されるロボットの一例を示す図解図である。FIG. 2 is an illustrated diagram showing an example of a robot to which the present invention is applied. 図3は図2に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は図1の仮想シミュレーション空間の一例を示す図解図である。FIG. 4 is an illustrated diagram showing an example of the virtual simulation space of FIG. 図5は図4の人シミュレータの詳細を示す機能ブロック図である。FIG. 5 is a functional block diagram showing details of the human simulator of FIG. 図6は人エージェントの基本オブジェクティブモデルの一例を示す図解図である。FIG. 6 is an illustrated diagram showing an example of a basic objective model of a human agent. 図7は人エージェントの基本オブジェクティブモデルの他の例を示す図解図である。FIG. 7 is a schematic diagram showing another example of the basic objective model of a human agent. 図8は人エージェントのオブジェクティブモデルのその他の例を示す図解図である。FIG. 8 is a schematic diagram showing another example of an objective model of a human agent. 図9は図4の仮想シミュレーション空間の一部における人エージェントの移動の一例を示す図解図である。FIG. 9 is an illustrated diagram showing an example of the movement of a human agent in a part of the virtual simulation space of FIG. 図10は図1実施例における基本的なシミュレーション動作の一例を示すフロー図である。FIG. 10 is a flow chart showing an example of a basic simulation operation in the embodiment of FIG. 図11は図1実施例における歩行者(人)のシミュレーション動作の一例を詳細に示すフロー図である。FIG. 11 is a flow chart showing in detail an example of a pedestrian (person) simulation operation in the embodiment of FIG. 図12は図11実施例において歩行者を生成する動作の一例を示すフロー図である。FIG. 12 is a flow chart showing an example of an operation of generating a pedestrian in the embodiment of FIG. 図13は図11実施例において歩行者を更新する動作の一例を示すフロー図である。FIG. 13 is a flow chart showing an example of an operation of updating a pedestrian in the embodiment of FIG. 図14は図11実施例におけるセンシングデータの一例を示し、図14(A)は各センサA‐Jのセンシングデータ(距離画像)を示し、図14(B)はそれらを統合したセンシングデータを示す。FIG. 14 shows an example of sensing data in the embodiment of FIG. 11, FIG. 14 (A) shows the sensing data (distance image) of each sensor AJ, and FIG. 14 (B) shows the sensing data in which they are integrated. .. 図15は実施例の仮想シミュレーション空間に相当する実世界の環境における3次元距離画像センサの配置例を示す図解図である。FIG. 15 is an illustrated diagram showing an arrangement example of a three-dimensional distance image sensor in a real-world environment corresponding to the virtual simulation space of the embodiment.

図1を参照して、この実施例のシミュレーションシステム10は、ロボット12、ロボット12を遠隔操作する操作装置14およびロボット12をシミュレートしたロボットエージェントや人(歩行者)をシミュレートした人エージェントをシミュレーションするシミュレーション装置16含む。シミュレーションシステム10において、ロボット12を除いて、1台または2台以上のコンピュータ(プロセサ)によって実現される。 With reference to FIG. 1, the simulation system 10 of this embodiment includes a robot 12, an operating device 14 that remotely operates the robot 12, a robot agent that simulates the robot 12, and a human agent that simulates a person (pedestrian). A simulation device 16 for simulating is included. In the simulation system 10, it is realized by one or two or more computers (processors) except for the robot 12.

この実施例のロボット12は、たとえば図2に示すコミュニケーションロボットのように、図15に示すような、人と共存する環境200で活動するロボットである。このようなロボット12は環境の中に存在する人の行動に影響を受けるので、この実施例のシミュレーション装置16では、ロボット12の行動をロボットアプリケーションプログラム(ロボット行動決定プログラム)に従ってシミュレーションする際に、人の行動もシミュレーションすることによって、ロボット12のための安全なロボットアプリケーションプログラムの開発を支援する。 The robot 12 of this embodiment is a robot that operates in an environment 200 that coexists with humans, as shown in FIG. 15, such as the communication robot shown in FIG. Since such a robot 12 is affected by the behavior of a person existing in the environment, the simulation device 16 of this embodiment is used when simulating the behavior of the robot 12 according to a robot application program (robot behavior determination program). It also supports the development of safe robot application programs for robot 12 by simulating human behavior.

なお、ロボット12が活動する、たとえばショッピングモールなどのように多様な人々が往来する環境(実世界)200には、図15に示すように、天井などの比較的高所には複数のセンサ202が配置されている。この実施例では、各センサ202は、3次元距離画像センサを想定している。 In an environment (real world) 200 where various people come and go, such as a shopping mall, where the robot 12 is active, as shown in FIG. 15, a plurality of sensors 202 are located at a relatively high place such as a ceiling. Is placed. In this embodiment, each sensor 202 assumes a three-dimensional distance image sensor.

ここで、図2および図3を参照して、この発明の理解に必要な範囲でロボット12の構成について説明する。ロボット12は台車30を含み、台車30の下面にはロボット12を移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。 Here, with reference to FIGS. 2 and 3, the configuration of the robot 12 will be described to the extent necessary for understanding the present invention. The robot 12 includes a carriage 30, and two wheels 32 and one trailing wheel 34 for moving the robot 12 are provided on the lower surface of the carriage 30. The two wheels 32 are independently driven by a wheel motor 36 (see FIG. 3), and the carriage 30, that is, the robot 12 can be moved in any direction in the front-rear, left-right, and left-right directions.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の距離センサ40が取り付けられる。これらの距離センサ40は、たとえば赤外線や超音波などを用いてロボット12の周囲の物体(人や障害物など)との距離を測定するものである。 A cylindrical sensor mounting panel 38 is provided on the trolley 30, and a large number of distance sensors 40 are mounted on the sensor mounting panel 38. These distance sensors 40 measure the distance to an object (such as a person or an obstacle) around the robot 12 by using, for example, infrared rays or ultrasonic waves.

センサ取り付けパネル38の上には、胴体42が直立して設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した距離センサ40がさらに設けられ、ロボット12の前方の、主として人との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。 A body 42 is provided upright on the sensor mounting panel 38. Further, the above-mentioned distance sensor 40 is further provided in the upper front center of the body 42 (position corresponding to the chest of a person), and measures the distance in front of the robot 12 mainly to a person. Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end portion on the side surface side thereof, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 captures the surroundings of the robot 12 and is distinguished from the eye camera 70 described later. As the omnidirectional camera 46, a camera using a solid-state image sensor such as a CCD or CMOS can be adopted.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。 Upper arms 50R and upper arms 50L are provided at the upper ends of both side surfaces of the body 42 (positions corresponding to human shoulders) by the shoulder joints 48R and shoulder joints 48L, respectively. Although not shown, the shoulder joint 48R and the shoulder joint 48L each have three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is the axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is the axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。 Further, an elbow joint 52R and an elbow joint 52L are provided at the tips of the upper arm 50R and the upper arm 50L, respectively. Although not shown, the elbow joint 52R and the elbow joint 52L each have a degree of freedom of one axis, and the angles of the forearm 54R and the forearm 54L can be controlled around the axis of this axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当するハンド56Rおよびハンド56Lがそれぞれ設けられる。これらのハンド56Rおよび56Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット12は、ハンド56Rおよび56Lを用いて物体を把持または挟持することができる。ただし、ハンド56R、56Lの形状は実施例の形状に限らず、人の手に酷似した形状や機能を持たせるようにしてもよい。 A hand 56R and a hand 56L corresponding to a human hand are provided at the tips of the forearm 54R and the forearm 54L, respectively. Although not shown in detail, these hands 56R and 56L are configured to be openable and closable so that the robot 12 can grip or hold an object using the hands 56R and 56L. However, the shapes of the hands 56R and 56L are not limited to the shapes of the embodiments, and the hands may have shapes and functions that closely resemble those of human hands.

また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、ハンド56Rおよびハンド56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。 Although not shown, the front surface of the trolley 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the hand 56R and the hand 56L, respectively. , A contact sensor 58 (shown comprehensively in FIG. 3) is provided. The contact sensor 58 on the front surface of the trolley 30 detects the contact of a person or other obstacle with the trolley 30. Therefore, when the robot 12 comes into contact with an obstacle during its own movement, it can detect the contact and immediately stop the driving of the wheels 32 to suddenly stop the movement of the robot 12. In addition, the other contact sensor 58 detects whether or not the respective parts have been touched.

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。 A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is provided above the neck joint 60. Although not shown, the neck joint 60 has three degrees of freedom, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directly above (vertically upward) of the robot 12, and the other two axes (pitch axis and roll axis) are orthogonal axes in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人に対して音声によってコミュニケーションをとるために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。 A speaker 64 is provided on the head 62 at a position corresponding to a person's mouth. The speaker 64 is used by the robot 12 to communicate with people around it by voice. Further, a microphone 66R and a microphone 66L are provided at positions corresponding to human ears. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, especially human voice, which is the object of communication.

さらに、人の目に相当する位置には、右の眼球部68Rおよび左の眼球部68Lが設けられる。右の眼球部68Rおよび左の眼球部68Lは、それぞれ右の眼カメラ70Rおよび左の眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。 Further, a right eyeball portion 68R and a left eyeball portion 68L are provided at positions corresponding to the human eye. The right eyeball portion 68R and the left eyeball portion 68L include a right eye camera 70R and a left eye camera 70L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as an eyeball portion 68. Further, the right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット12に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット12は、この眼カメラ70からの映像信号によって、人の左右両目のそれぞれの視線方向(ベクトル)を検出する。 The eye camera 70 captures a face of a person approaching the robot 12, other parts or objects, and captures a corresponding video signal. In this embodiment, the robot 12 detects the line-of-sight directions (vectors) of the left and right eyes of the person by the video signal from the eye camera 70.

また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。 Further, as the eye camera 70, the same camera as the omnidirectional camera 46 described above can be used. For example, the eye camera 70 is fixed in the eyeball portion 68, and the eyeball portion 68 is attached to a predetermined position in the head 62 via an eyeball support portion (not shown). Although not shown, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of these two axes is an axis (yaw axis) in the upward direction of the head 62, and the other is orthogonal to one axis and orthogonal to the front side (face) of the head 62. It is the axis (pitch axis) in the direction of By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. The installation positions of the speaker 64, the microphone 66, and the eye camera 70 are not limited to the relevant parts, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。 As described above, the robot 12 of this embodiment has independent 2-axis drive of the wheels 32, 3 degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), 1 degree of freedom of the elbow joint 52 (2 degrees of freedom on the left and right). It has a total of 17 degrees of freedom, including 3 degrees of freedom for the neck joint 60 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、1つまたは2以上のプロセサ80を含む。プロセサ80は、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。 FIG. 3 is a block diagram showing an electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes one or more processor 80s. The processor 80 is connected to the memory 84, the motor control board 86, the sensor input / output board 88, and the voice input / output board 90 via the bus 82.

メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、各種プログラムが予め記憶される。 The memory 84 includes a ROM, an HDD, and a RAM, although not shown. Various programs are stored in advance in the ROM and HDD.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節60および眼球部68などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、プロセサ80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、プロセサ80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。 The motor control board 86 is composed of, for example, a DSP, and controls the drive of each axis motor such as each arm, neck joint 60, and eyeball portion 68. That is, the motor control board 86 receives control data from the processor 80 and controls the angles of the two axes of the right eyeball portion 68R (in FIG. 3, collectively referred to as “right eyeball motor 92”). Control the rotation angle of. Similarly, the motor control board 86 receives control data from the processor 80 and controls the angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as the "left eyeball motor 94"). The rotation angle of) is controlled.

また、モータ制御ボード86は、プロセサ80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、プロセサ80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。 Further, the motor control board 86 receives control data from the processor 80, and is a total of three motors that control the angles of the three orthogonal axes of the shoulder joint 48R and one motor that controls the angles of the elbow joint 52R. The rotation angles of the four motors (collectively referred to as "right arm motor 96" in FIG. 3) are controlled. Similarly, the motor control board 86 receives control data from the processor 80, and has three motors that control the angles of the three orthogonal axes of the shoulder joint 48L and one motor that controls the angles of the elbow joint 52L. The rotation angles of a total of four motors (collectively referred to as "left arm motor 98" in FIG. 3) are controlled.

さらに、モータ制御ボード86は、プロセサ80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、プロセサ80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。 Further, the motor control board 86 receives control data from the processor 80 and controls the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively referred to as “head motor 100”). ) Rotation angle is controlled. Then, the motor control board 86 receives control data from the processor 80 and controls the rotation angles of the two motors (collectively referred to as “wheel motors 36” in FIG. 3) that drive the wheels 32.

モータ制御ボード86にはさらにハンドアクチュエータ101が結合され、モータ制御ボード86は、プロセサ80からの制御データを受け、ハンド56R、56Lの開閉を制御する。 A hand actuator 101 is further coupled to the motor control board 86, and the motor control board 86 receives control data from the processor 80 and controls the opening and closing of the hands 56R and 56L.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでプロセサ80に与える。すなわち、距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてプロセサ80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからプロセサ80に入力される。眼カメラ70からの映像信号も、同様にして、プロセサ80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してプロセサ80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、プロセサ80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してプロセサ80に与えられる。 Similar to the motor control board 86, the sensor input / output board 88 is composed of a DSP, and takes in signals from each sensor and gives them to the processor 80. That is, data regarding the reflection time from each of the distance sensors 40 is input to the processor 80 through the sensor input / output board 88. Further, the video signal from the omnidirectional camera 46 is input to the processor 80 after being subjected to predetermined processing on the sensor input / output board 88 as needed. The video signal from the eye camera 70 is also input to the processor 80 in the same manner. Further, signals from the plurality of contact sensors 58 (collectively referred to as “contact sensor 58” in FIG. 3) described above are given to the processor 80 via the sensor input / output board 88. Similarly, the voice input / output board 90 is also composed of a DSP, and a voice or a voice according to the voice synthesis data given from the processor 80 is output from the speaker 64. Further, the voice input from the microphone 66 is given to the processor 80 via the voice input / output board 90.

また、プロセサ80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、プロセサ80から与えられた送信データを無線通信モジュール104に与え、無線通信モジュール104は送信データを、ネットワークを介してサーバ(図示せず)等に送信する。また、通信LANボード102は、無線通信モジュール104を介してデータを受信し、受信したデータをプロセサ80に与える。 Further, the processor 80 is connected to the communication LAN board 102 via the bus 82. The communication LAN board 102 is composed of, for example, a DSP, and gives transmission data given by the processor 80 to the wireless communication module 104, and the wireless communication module 104 transmits transmission data to a server (not shown) or the like via a network. To do. Further, the communication LAN board 102 receives data via the wireless communication module 104, and gives the received data to the processor 80.

なお、実施例のシミュレーションシステム10が適用可能なロボットは、図2および図3に示すロボット12に限定されるものではなく、他の形式、構造のコミュニケーションロボットにもこのシミュレーション装置は適用可能である。 The robot to which the simulation system 10 of the embodiment can be applied is not limited to the robot 12 shown in FIGS. 2 and 3, and this simulation device can also be applied to communication robots of other types and structures. ..

図1に戻って、操作装置14は、基本的には1または2以上のコンピュータまたはプロセサによって構成され、そのプロセサのメモリ(図示せず)にロボットアプリケーションプログラム18が設定されていて、そのロボットアプリケーションプログラムがコンピュータからたとえば無線でロボット12またはシミュレーション装置16に与えられる。ロボットアプリケーションプログラム18は、ロボット12に対すアプリケーションプログラムであり、たとえばロボット12を案内ロボットとしとて動作させるときには、そのための動作をロボット12が実行するようなプログラムである。 Returning to FIG. 1, the operating device 14 is basically composed of one or more computers or processors, and the robot application program 18 is set in the memory (not shown) of the processor, and the robot application is set. The program is given from the computer, for example, wirelessly to the robot 12 or the simulation device 16. The robot application program 18 is an application program for the robot 12. For example, when the robot 12 is operated as a guide robot, the robot 12 executes the operation for that purpose.

操作装置14のメモリにはさらに、環境データ20を予め記憶している。環境データ20は主として図4に示す仮想シミュレーション空間22の地図データおよびその仮想シミュレーション空間22内での人エージェントの出現率データを含む。環境および環境内のオブジェクトは3次元モデルデータとして表され、3次元仮想空間として視覚化される。この3次元仮想シミュレーション空間22は先に説明した実世界200を再現したものである。 Environmental data 20 is further stored in the memory of the operating device 14 in advance. The environment data 20 mainly includes the map data of the virtual simulation space 22 shown in FIG. 4 and the appearance rate data of the human agent in the virtual simulation space 22. The environment and the objects in the environment are represented as 3D model data and visualized as 3D virtual space. This three-dimensional virtual simulation space 22 reproduces the real world 200 described above.

環境データ20にはさらに、実世界200(図15)に設定された、たとえば3次元距離画像センサのような各センサ202の位置、向き、スキャン範囲(センシング範囲)なども含まれる。 The environmental data 20 also includes the position, orientation, scanning range (sensing range) of each sensor 202, such as a three-dimensional distance image sensor, set in the real world 200 (FIG. 15).

図4に示す仮想シミュレーション空間22は、図中点線矩形で示す出入口22aを有する3次元閉空間を想定している。この仮想シミュレーション空間22においては黒色太線で示す通路22bが設定されていて、ロボット12や人エージェントはその通路50や広場などを通行し、またはそこに存在する。これらの通路22bや広場は建物や壁などオブジェクトによって区画され、図中丸印で示す場所で分岐または合流する。 The virtual simulation space 22 shown in FIG. 4 assumes a three-dimensional closed space having an entrance / exit 22a indicated by a dotted line rectangle in the figure. In this virtual simulation space 22, a passage 22b indicated by a thick black line is set, and the robot 12 and the human agent pass through the passage 50, the open space, and the like, or exist there. These passages 22b and the plaza are divided by objects such as buildings and walls, and branch or merge at the places indicated by circles in the figure.

シミュレーション装置16は、基本的には1または2以上のプロセサで構成され、ロボット12をシミュレートするロボットシミュレータ24および歩行者のような人エージェントをシミュレートする人シミュレータ26を含み、それぞれのシミュレーション結果が物理エンジン28に入力される。 The simulation device 16 is basically composed of one or two or more processors, and includes a robot simulator 24 that simulates a robot 12 and a human simulator 26 that simulates a human agent such as a pedestrian, and the simulation results of each are included. Is input to the physics engine 28.

ロボットシミュレータ24は、たとえば先の非特許文献1として例示したMORSEシミュレータであり、このMORSEシミュレータは、ロボット12と同様の、多くのセンサ、アクチュエータおよびロボットのモデルを提供し、そのようなモデル用のAPI(Application Programming Interface)も利用できる。 The robot simulator 24 is, for example, the MORSE simulator exemplified as Non-Patent Document 1 above, and this MORSE simulator provides many models of sensors, actuators and robots similar to the robot 12, and for such models. API (Application Programming Interface) can also be used.

たとえば図11のステップS33において実行されるようなセンサシミュレーションにおいては、たとえば、距離画像センサの場合には、カメラ視点からの光学的な計算を行い、カメラ視点毎の画像情報を生成する。レーザ距離計の場合には、レーザによるスキャンを模して、センサから各方位へ距離計測を行い、その結果をセンサ値として保存する。 For example, in the sensor simulation executed in step S33 of FIG. 11, for example, in the case of a distance image sensor, an optical calculation is performed from the camera viewpoint to generate image information for each camera viewpoint. In the case of a laser rangefinder, the distance is measured from the sensor in each direction by imitating a scan by a laser, and the result is saved as a sensor value.

開発者がロボットのためのロボットアプリケーションプログラムを準備するとき、それらのプログラムはこれらのAPIにアクセスしてセンサデータ(たとえば、レーザ距離計からの距離の読み取り)およびアクチュエータへのコマンドの送信(たとえば、移動速度)を行う。 When developers prepare robot application programs for robots, they access these APIs to send sensor data (eg, read distance from a laser range meter) and commands to actuators (eg, read). Movement speed).

人シミュレータ26は、定期的に新しい歩行者を生成し、それらの位置を更新し、それらがシミュレートされた環境(仮想シミュレーション空間22)を離れるときにそれらを除去する。歩行者すなわち人は、3次元オブジェクトとして表現され、仮想シミュレータ空間22内に配置され、アニメーションエンジンを使用して、その歩行動作がアニメーション化される。 The human simulator 26 periodically generates new pedestrians, updates their positions, and removes them as they leave the simulated environment (virtual simulation space 22). A pedestrian or person is represented as a three-dimensional object, placed in the virtual simulator space 22, and its walking motion is animated using an animation engine.

ただし、人シミュレータ26には図1に示すように環境データ20が与えられるので、人シミュレータ26は、その環境データに含まれる出現率と呼ばれる予め定義された確率で新しい歩行者を周期的に生成する。そして、その歩行者は図4に示す出入口22aの1つに割り当てられ、他の1つに行くように設定される。 However, since the human simulator 26 is given the environmental data 20 as shown in FIG. 1, the human simulator 26 periodically generates new pedestrians with a predetermined probability called the appearance rate included in the environmental data. To do. Then, the pedestrian is assigned to one of the doorways 22a shown in FIG. 4 and is set to go to the other one.

なお、歩行者はしばしばグループとして(家族やカップルのように)生成され、それらがグループで表示される場合、サイズはグループメンバの分布によって定義し、すべてのメンバが同じ目的を共有すると仮定する。 It should be noted that pedestrians are often generated as groups (like families and couples), and when they are displayed in groups, the size is defined by the distribution of group members, assuming that all members share the same purpose.

物理エンジン28は、物理的な力や法則などに基づいて、ロボットや人エージェントがどのような移動経路をたどるかを計算する。詳しくいうと、物理エンジン28は、ロボットシミュレータ24および人シミュレータ26からの各エージェント(ロボット含む)が意図した動きを、仮想シミュレーション空間22(図4)で実行する処理を実行する。このとき、他の障害物、構造物や他のエージェントとの干渉が何もなければ、意図したとおりの動きを生成する。しかしながら、干渉がある場合、物理学法則(力学法則)に従って、各エージェントの実際の動きを処理する。そして、物理エンジン28からは統合したシミュレーションデータが出力される。 The physics engine 28 calculates what kind of movement path a robot or a human agent follows based on a physical force, a law, or the like. More specifically, the physics engine 28 executes a process of executing the movement intended by each agent (including the robot) from the robot simulator 24 and the human simulator 26 in the virtual simulation space 22 (FIG. 4). At this time, if there is no interference with other obstacles, structures or other agents, the intended movement is generated. However, if there is interference, it processes the actual movement of each agent according to the laws of physics (laws of mechanics). Then, the integrated simulation data is output from the physics engine 28.

シミュレーション装置16には、ディスプレイ105設けられていて、このディスプレイ105によって、たとえば図4に示すような仮想シミュレーション空間の画像が、その中に存在するシミュレートされたロボットや人エージェントとともに、表示される。たとえば、人エージェントは、3次元オブジェクトとして表現され、仮想シミュレーション空間22内に配置され、アニメーションエンジンを使用して、その歩行動作がアニメーション化される。ロボットアプリケーションプログラム18の開発者は、そのディスプレイ105に表示された画像で確認しながら、ロボット12の行動決定プログラム(アプリケーションプログラム)を作製し、修正する。 The simulation device 16 is provided with a display 105, and the display 105 displays, for example, an image of a virtual simulation space as shown in FIG. 4 together with a simulated robot or a human agent existing therein. .. For example, a human agent is represented as a three-dimensional object, placed in a virtual simulation space 22, and its walking motion is animated using an animation engine. The developer of the robot application program 18 creates and modifies the action determination program (application program) of the robot 12 while checking the image displayed on the display 105.

さらに、シミュレーション装置16には入力装置107が付設されている。この入力装置107は、たとえば、キーボードあるいはタッチパネルであってよく、タッチパネルの場合にはディスプレイ105に組み込み、ディスプレイ105をタッチディスプレイとして構成することもできる。 Further, the simulation device 16 is provided with an input device 107. The input device 107 may be, for example, a keyboard or a touch panel. In the case of a touch panel, the input device 107 may be incorporated in the display 105, and the display 105 may be configured as a touch display.

図5を参照して、人シミュレータ26を詳細に説明する。人シミュレータ26は、ロボットシミュレータ24と同様に、シミュレーション装置16のコンピュータないしプロセサによって実現される機能であり、人生成モジュール110を含む。この人生成モジュール110は、上述のように、環境データ20に含まれる出現率データ108に従って新しい歩行者(人エージェント)を、地図データ106が表す、図4に一例を示す仮想シミュレーション空間22内に、周期的に生成する。 The human simulator 26 will be described in detail with reference to FIG. Like the robot simulator 24, the human simulator 26 is a function realized by a computer or a processor of the simulation device 16, and includes a human generation module 110. As described above, the human generation module 110 represents a new pedestrian (human agent) according to the appearance rate data 108 included in the environmental data 20 in the virtual simulation space 22 shown in FIG. 4 represented by the map data 106. , Generate periodically.

出現率データ108は、シミュレーション装置16の仮想シミュレーション空間22に投入する人エージェントのための、大人、子供、などの人のタイプ(パターン)やそれぞれの人の出現率が予め設定されているデータベースであり、設定された確率で設定された形状の人エージェントが生成される。 The appearance rate data 108 is a database in which the types (patterns) of people such as adults and children and the appearance rate of each person are preset for the person agent to be input to the virtual simulation space 22 of the simulation device 16. Yes, a human agent with a set shape is generated with a set probability.

人生成モジュール110には3次元(3D)モデルデータベース111が付属される。3Dモデルデータベース111は、上述の人の各タイプのそれぞれについて複数の異なる形状、たとえば性別、身長、体つきなどの3Dモデルを保持している。したがって、人生成モジュール110は、出現率データ108の指示に従ったタイプでかつ3Dモデルデータベース111からランダムに選択した当該タイプの3Dモデルに従った人エージェントを仮想シミュレーション空間22内に生成する。 A three-dimensional (3D) model database 111 is attached to the human generation module 110. The 3D model database 111 holds a plurality of different shapes, such as gender, height, body shape, etc., for each of the above types of persons. Therefore, the human generation module 110 generates a human agent in the virtual simulation space 22 that follows the instructions of the appearance rate data 108 and that follows the 3D model of the type randomly selected from the 3D model database 111.

なお、この出現率データ108では、曜日や時間ごとに異なるデータセットを保持しておき、曜日や時間を指定してシミュレーションできるようにしてもよい。そうすれば、ある時間帯にロボットを動かすとどうなるのかなど、いろいろシミュレーションすることができる。 The appearance rate data 108 may hold different data sets for each day of the week and time so that the simulation can be performed by designating the day of the week and time. Then, you can simulate various things such as what happens when you move the robot at a certain time.

ただし、生成される人エージェントがグループを形成することを出現率データ108が示していれば、人生成モジュール110は、シミュレーションパラメータとして設定されているグループメンバデータ112に従ったメンバ構成のグループで複数の人エージェントを生成する。この場合も、それらの人の体型は3Dモデルデータベース111から選択した3Dモデルに従う。 However, if the appearance rate data 108 indicates that the generated human agents form a group, the human generation module 110 is a plurality of groups having a member configuration according to the group member data 112 set as simulation parameters. Generate a person agent. Again, their body shape follows the 3D model selected from the 3D model database 111.

移動モジュール114は、人生成モジュール110が生成した人エージェントを、オブジェクティブモデル(Objective Model)データベース116に予め設定されているオブジェクティブに基づいて、仮想シミュレーション空間22(図4)内を移動させる。ここで、オブジェクティブ(Objective)とは、仮想シミュレーション空間22において、人エージェント(図示せず)の視界にロボットエージェント(図示せず)が入ったときに、人エージェントが示す反応の仕方、つまり人が実空間で実際に取り得る対ロボット行動パターンや、環境内で(ロボットがいない場合にも)行いうる行動パターン(たとえば、コンビニなどの商品棚の前で立ち止まるなど)を規定する命令セットである。命令セットは、たとえば、人が歩く場合、移動目標や移動速度をパラメータとして含む。 The movement module 114 moves the human agent generated by the human generation module 110 in the virtual simulation space 22 (FIG. 4) based on the objective preset in the objective model database 116. Here, the objective is the way in which the human agent reacts when the robot agent (not shown) enters the field of view of the human agent (not shown) in the virtual simulation space 22, that is, the person It is an instruction set that defines the action patterns for robots that can actually be taken in real space and the action patterns that can be performed in the environment (even when there is no robot) (for example, stopping in front of a product shelf such as a convenience store). The instruction set includes, for example, a movement target and a movement speed as parameters when a person walks.

この実施例では後述の4つの典型的な反応の態様(オブジェクティブ)をモデルとして設定しておき、移動モジュール114は人エージェントを移動させるとき、そのモデルが示すオブジェクティブに従って移動させる。つまり、オブジェクティブ116は、仮想シミュレーション空間においてロボットの存在に対する反応行動を人エージェントに行わせる、第1命令セットとして機能する。これらのオブジェクティブはシミュレーションシステム10の第1メモリ(図示せず)に記憶されている。 In this embodiment, four typical reaction modes (objectives) described later are set as a model, and when the human agent is moved, the movement module 114 is moved according to the objective indicated by the model. That is, the objective 116 functions as a first instruction set that causes a human agent to perform a reaction action to the existence of a robot in a virtual simulation space. These objectives are stored in the first memory (not shown) of the simulation system 10.

なお、このオブジェクティブモデル116に予め設定されている利用可能なオブジェクティブは、たとえば上記第1メモリから読み出してそれらの一覧をたとえばディスプレイ105などに表示するなどして、デバッグしようとする開発者が知ることができる。開発者は、その中の任意のオブジェクティブを選択して、後述のようにスクリプト(122)でそのオブジェクティブを変更(更新)することが可能である。このとき、開発者はシミュレーションシステム10に設けられているキーボードなどの入力装置(図示せず)を用いて、要変更箇所を変更することができる。そして、その変更(更新)されたオブジェクティブもまた第1メモリに記憶される。つまり、オブジェクティブモデル116は,拡張性を有するように設計しているので、別の誰かが更新したオブジェクティブを一覧情報として知るこことができる点は、有効である。 It should be noted that the available objectives preset in the objective model 116 are known to the developer who intends to debug, for example, by reading from the first memory and displaying a list thereof on a display 105 or the like. Can be done. The developer can select any objective among them and change (update) the objective with a script (122) as described later. At this time, the developer can change the part requiring change by using an input device (not shown) such as a keyboard provided in the simulation system 10. Then, the changed (updated) objective is also stored in the first memory. That is, since the objective model 116 is designed to have extensibility, it is effective that the objective updated by someone else can be known as list information.

たとえば、ロボットが自分の視野に入ったときに人が取る行動パターン(オブジェクティブ)として、図6および図7に示す、ロボットと対話するパターンと、ロボットを観察するパターンがある。 For example, as an action pattern (objective) that a person takes when a robot enters his / her field of view, there are a pattern of interacting with the robot and a pattern of observing the robot, as shown in FIGS. 6 and 7.

図6は、人(「i」で示す)が自分の視野内にロボット12を発見すると、ロボット12の回りに、ロボット12から停止距離Dstopを隔てて停止し、ロボット12と対話するオブジェクティブを図解している。 FIG. 6 illustrates an objective in which when a person (indicated by “i”) finds a robot 12 in his / her field of view, he / she stops around the robot 12 at a stop distance Dstop from the robot 12 and interacts with the robot 12. are doing.

図7は、人(「i」で示す)が自分の視野内にロボット12を発見すると、ロボット12の回りに、ロボット12から停止距離Dstopよりもやや大きい観察距離Dobserveを隔てて停止し、ロボット12を観察するオブジェクティブを図解している。 In FIG. 7, when a person (indicated by “i”) finds the robot 12 in his / her field of view, the robot stops around the robot 12 with an observation distance Dobserve slightly larger than the stop distance Dstop. The objective of observing 12 is illustrated.

オブジェクティブとしては、その他、ロボットの傍を通りすぎるオブジェクティブ、およびロボットの傍を減速し、見ながら通りすぎるオブジェクティブがあり、移動モジュール114では、人エージェントがその登録しているどれかのオブジェクティブに従って移動するようにシミュレーションする。 Other objectives include an objective that passes by the robot and an objective that slows down by the robot and passes by while looking at it. In the movement module 114, the human agent moves according to one of the registered objectives. To simulate.

ただし、移動モジュール114は、シミュレーションパラメータに含まれるソーシャルフォースモデル(Social Force Model)データベース118およびインタラクションモデル(Interaction with robot model)データベース120からのそれぞれのモデルデータを考慮して、人エージェントの移動をシミュレートする。ソーシャルフォースモデルとは、後述の図8に示すように歩行者どうしがいかに影響して挙動が変わるかということを表すモデルである。たとえば、斥力または反力などとして知られている。 However, the movement module 114 simulates the movement of the human agent in consideration of the respective model data from the Social Force Model database 118 and the Interaction with robot model database 120 included in the simulation parameters. To. The social force model is a model showing how pedestrians affect each other and change their behavior, as shown in FIG. 8 described later. For example, it is known as repulsive force or reaction force.

仮想シミュレーション空間22内において、人エージェントの行動は、他のエージェントから影響されて変化するが(たとえば、人同士がぶつからないように避ける、ロボットを見たら近づく、など)。 In the virtual simulation space 22, the behavior of a human agent changes under the influence of other agents (for example, avoiding people from colliding with each other, approaching a robot when they see it, etc.).

たとえば図8に示すように、2人の人iおよびjは相互に影響して次のステップでの移動位置を決定する場合がある、人エージェントiは本来はdi,jの方向へ移動するのであるが、人エージェントjが人エージェントiに対して角度θi,jの方向に速度vi,jで移動しようとしているため、人エージェントiは、結局d’i,jの方向へ移動することになる。 For example, as shown in FIG. 8, two people i and j may influence each other to determine the movement position in the next step, because the person agent i originally moves in the direction of di, j. However, since the human agent j is trying to move in the direction of the angle θi, j with respect to the human agent i at a velocity vi, j, the human agent i will eventually move in the direction of d'i, j. ..

なお、インタラクションモデル120とは、人のロボットとの相互作用のパターンを予め設定しているモデルである。 The interaction model 120 is a model in which a pattern of interaction with a human robot is preset.

図9は図4に示す仮想シミュレーション環境(空間)の一部を模式的に示していて、仮想シミュレーション空間22は、出入口22aを設けた壁などのオブジェクト124で仕切られた閉空間を想定している。ただし、オブジェクト124はすべて、障害物として地図データ106に書き込まれている。 FIG. 9 schematically shows a part of the virtual simulation environment (space) shown in FIG. 4, and the virtual simulation space 22 assumes a closed space partitioned by an object 124 such as a wall provided with an entrance / exit 22a. There is. However, all the objects 124 are written in the map data 106 as obstacles.

ロボットシミュレータ24は、環境データ20に含まれるロボット(ロボットエージェント)の位置等のデータに基づいて、ロボットアプリケーションプログラム18に従ったロボットの次のステップでの行動をシミュレーションする。ここで、ロボットアプリケーションプログラム18は、図3のセンサ入力/出力ボード88に入力されるセンサ出力に応じて、各モータすなわちアクチュエータを制御してロボットの行動を決定するプログラムである。 The robot simulator 24 simulates the behavior of the robot in the next step according to the robot application program 18 based on the data such as the position of the robot (robot agent) included in the environment data 20. Here, the robot application program 18 is a program that controls each motor, that is, an actuator, and determines the behavior of the robot according to the sensor output input to the sensor input / output board 88 of FIG.

図9の例でいえば、ロボットアプリケーションプログラム18は、たとえば図9において、一方の出入口22aからロボット12が仮想シミュレーション空間22に入り、他方の出入口22aから出るまで、通路22bに従って移動させるように設定されている。なお、図9において参照符号126が、シミュレーションのためにこの仮想シミュレーション空間22に投入された人エージェントを示す。 In the example of FIG. 9, the robot application program 18 is set to move according to the passage 22b from one entrance / exit 22a until the robot 12 enters the virtual simulation space 22 and exits from the other entrance / exit 22a, for example. Has been done. In FIG. 9, reference numeral 126 indicates a human agent put into the virtual simulation space 22 for simulation.

人シミュレータ26はさらに、必要な場合、オブジェクティブ116ではなく、スクリプト122に従ってシミュレーションを実行する。オブジェクティブ116は上述のように、予め設定した、定型の対ロボット反応パターンであるが、スクリプト122は、シミュレーション装置16すなわち人シミュレータ26に非定型の動作を行わせる命令である。ここで、スクリプトとは、コンピュータが理解できる言語への変換作業を省略して、簡単に解釈実行できるようにした簡易プログラム(命令セット)のことである。ソフトウェアの設計などにおいて、コンピュータに命令を与える際には、通常、人間が普通に読み書きできる言語から、コンピュータが理解できる言語、いわゆる機械語への変換が必要であるが、スクリプトは、そのような変換作業を省略して簡単に解釈実行できるようにした簡易プログラムである。これらのスクリプトは、第2命令セットに該当するが、それらはシミュレーションシステム10の第2メモリ(図示せず)に記憶されている。ただし、第1メモリおよび第2メモリは同じメモリの異なる記憶場所であってよい。 The human simulator 26 further performs the simulation according to the script 122 instead of the objective 116, if necessary. As described above, the objective 116 is a preset fixed robot reaction pattern, but the script 122 is an instruction to cause the simulation device 16, that is, the human simulator 26 to perform an atypical operation. Here, the script is a simple program (instruction set) that can be easily interpreted and executed by omitting the conversion work into a language that can be understood by a computer. When giving instructions to a computer, such as in software design, it is usually necessary to convert from a language that humans can normally read and write to a language that can be understood by a computer, the so-called machine language. It is a simple program that can be easily interpreted and executed by omitting the conversion work. These scripts correspond to the second instruction set, but they are stored in the second memory (not shown) of the simulation system 10. However, the first memory and the second memory may be different storage locations of the same memory.

人シミュレータ26にはさらに、ジェスチャモデルデータベース113が付属される。このジェスチャモデルデータベース113には人(歩行者)が取り得る複数種類のジェスチャ(動作)を登録しておく。そのジェスチャには、たとえば、物を見る、物を見ながら歩く、物を取る(右手および/または左手)、歩く(普通にまたはゆっくり、速く)、立ち止まる、しゃがむ等のジェスチャが含まれる。実世界で生じる人間のジェスチャと類似したデータを生成させるため、ジェスチャのデータには、モーションキャプチャシステムを用いて生成したデータが含まれることがある。 The human simulator 26 is further attached with the gesture model database 113. A plurality of types of gestures (movements) that a person (pedestrian) can take are registered in this gesture model database 113. The gestures include, for example, looking at things, walking while looking at things, picking things (right and / or left hands), walking (normally or slowly, fast), stopping, crouching, and so on. Gesture data may include data generated using a motion capture system in order to generate data similar to human gestures that occur in the real world.

したがって、人シミュレータ26の移動モジュール114は、ジェスチャモデルデータベース113からランダムに選択したジェスチャを行う人エージェントを、オブジェクティブモデル116またはスクリプト122に従った移動パターンまたは移動経路で移動させる。 Therefore, the movement module 114 of the person simulator 26 moves the person agent performing the gesture randomly selected from the gesture model database 113 in the movement pattern or movement path according to the objective model 116 or the script 122.

ここで、図11に示すこの発明の実施例の理解を容易にする目的で、まず、図10を参照して、オブジェクティブモデル116に従った図1に示すシミュレーション装置16における動作の一例を説明する。ただし、この図10に示すシミュレーションは、複数のステップ(S3‐S17)を1ステップとして実行する。実際的な運用において、シミュレーションの1ステップは最速0.1ミリ秒単位で実行可能であるが、ここでは10ミリ秒単位に設定し、ロボットシミュレーションプログラム18の実行は100ミリ秒単位とすることが可能である。この例の場合、ロボットアプリケーションプログラム18は、シミュレーション装置16による10ステップの実行毎に1度、実行される。つまり、この実施例では、このようにロボットアプリケーションプログラムの周期がシミュレーションの1ステップの実行周期より長い場合を想定している。 Here, for the purpose of facilitating the understanding of the embodiment of the present invention shown in FIG. 11, first, an example of the operation in the simulation device 16 shown in FIG. 1 according to the objective model 116 will be described with reference to FIG. .. However, in the simulation shown in FIG. 10, a plurality of steps (S3-S17) are executed as one step. In practical operation, one step of the simulation can be executed in units of 0.1 milliseconds at the fastest, but here it is set in units of 10 milliseconds, and the execution of the robot simulation program 18 can be executed in units of 100 milliseconds. It is possible. In the case of this example, the robot application program 18 is executed once every 10 steps executed by the simulation device 16. That is, in this embodiment, it is assumed that the cycle of the robot application program is longer than the execution cycle of one step of the simulation.

最初のステップS1において、一例として図4(および図9)に示す通路22b上を移動するように設定されている、ロボットアプリケーションプログラム18を読み込むとともに、環境データ20を読み込む。すなわち、ロボット12の行動をシミュレーションする図4(および図9)のような仮想シミュレーション空間22の地図データ106および出現率データ108が示す仮想シミュレーション空間22に投入する人エージェントの生成に関するパラメータ(出現頻度、移動経路、グループ人数、大人子供や男女の比率、背の高さなど)および各エージェント(ロボット12を含む)の位置データなどを読み込む。なお、この仮想シミュレーション空間22が、ロボット12および人エージェントとともに、ディスプレイ105に表示される。 In the first step S1, as an example, the robot application program 18 set to move on the passage 22b shown in FIG. 4 (and FIG. 9) is read, and the environment data 20 is read. That is, a parameter (appearance frequency) related to the generation of a human agent to be input to the virtual simulation space 22 indicated by the map data 106 and the appearance rate data 108 of the virtual simulation space 22 as shown in FIG. 4 (and FIG. 9) that simulates the behavior of the robot 12. , Movement route, number of groups, ratio of adults and children and men and women, height, etc.) and position data of each agent (including robot 12). The virtual simulation space 22 is displayed on the display 105 together with the robot 12 and the human agent.

さらに、このステップS1では、シミュレーションの初期化を行う。つまり、実行速度をs=1.0、基本実行ステップ数fpsをfps=30.0としてそれぞれ設定する。ただし、fpsは、1秒間に何ステップのシミュレーションを実行するかを示す数値で、この実施例の初期設定では、1秒間に30ステップのシミュレーションを実行するように、設定される。 Further, in this step S1, the simulation is initialized. That is, the execution speed is set to s = 1.0, and the number of basic execution steps fps is set to fps = 30.0. However, fps is a numerical value indicating how many steps of simulation are executed per second, and the initial setting of this embodiment is set so as to execute the simulation of 30 steps per second.

次のステップS3では、人シミュレータ26の人生成モジュール110によって、環境データ20が提示する人エージェントの生成に関する上述のパラメータおよびグループからの人パターンのデータに従って、仮想シミュレーション空間22内で、1または2以上の人エージェントを生成して配置する。 In the next step S3, one or two in the virtual simulation space 22 according to the above parameters and data of the person pattern from the group regarding the generation of the person agent presented by the environment data 20 by the person generation module 110 of the person simulator 26. Create and deploy the above person agents.

ステップS5で人シミュレータ26は、環境データ20が示す現在の人エージェントおよびロボット12の位置に基づいて、そしてオブジェクティブモデル116が示す対ロボット行動パターンに基づいて、人エージェントの次のステップでの行動を決定する。なお、基本的な前述した4つのオブジェクティブの一覧は開発者(操作装置14のオペレータ)が自由にアクセスできる形で提供される。さらに、他のオブジェクティブモデルを採用することもできる。 In step S5, the human simulator 26 performs the behavior of the human agent in the next step based on the current positions of the human agent and the robot 12 shown by the environmental data 20 and based on the anti-robot behavior pattern shown by the objective model 116. decide. The basic list of the above-mentioned four objectives is provided in a form that can be freely accessed by the developer (operator of the operating device 14). In addition, other objective models can be adopted.

ステップS7でロボットシミュレータ24は、環境データ20が示す現在の人エージェントおよびロボット12の位置に基づいて、ロボットアプリケーションプログラム18に従って、次のステップでのロボット12の行動を決定する。 In step S7, the robot simulator 24 determines the action of the robot 12 in the next step according to the robot application program 18 based on the current positions of the human agent and the robot 12 indicated by the environmental data 20.

具体的には、ステップS7では、ロボット12がたとえば搬送ロボットや搭乗型ロボットのように目的地に向かうことが主目的のロボットである場合、他の人々の現在の位置や移動速度から、なるべく他人の移動に干渉しないような移動経路を計算する処理を行う。また、ロボット12が人々にサービス提供することが目的のロボットである場合には、たとえば、ロボットに興味がありそうな人に接近するために、単純な場合では、ロボットの近傍で止まっている人を選択して、その人に向かって進む、また、人々が集まりがちな場所を選んでそのような場所でやってくる人を待ち受ける、また、混雑を起こさないように過度に人々が通る場所には近づかないようにする、といった処理を行ったりする。 Specifically, in step S7, when the robot 12 is a robot whose main purpose is to go to the destination, such as a transfer robot or a boarding robot, it is possible to consider another person from the current position and movement speed of other people. Performs a process of calculating a movement route that does not interfere with the movement of. Further, when the robot 12 is a robot whose purpose is to provide services to people, for example, a person who is stopped near the robot in order to approach a person who may be interested in the robot. Choose to go towards that person, choose a place where people tend to gather, wait for people to come in such a place, or get too close to a place where people pass too much to avoid congestion. It performs processing such as preventing it from occurring.

このステップS7の場合、ステップS5での人エージェントの次のステップでの行動を決定しているので、それを考慮して、上述の処理を実行する。そのため、人と共存する実空間で活動するロボットアプリケーションプログラムの当否を、仮想シミュレーション空間内で判断することができる。 In the case of this step S7, since the action in the next step of the human agent in step S5 is determined, the above-mentioned process is executed in consideration of it. Therefore, it is possible to judge in the virtual simulation space whether or not the robot application program that operates in the real space coexisting with humans is appropriate.

その後ステップS9で、物理エンジン28において、各エージェントの行動を実現する。詳しくいうと、ステップS9では、先に説明したように、各エージェント(ロボット含む)が意図した動きを仮想シミュレーション空間22内で実施する処理が行われ、他の障害物、構造物や他のエージェントとの干渉が何もなければ、各エージェントは意図したとおりに動く。たとえば、エージェントが1歩前進しようとした場合、その意図通り、エージェントが1歩前進する。 After that, in step S9, the action of each agent is realized in the physics engine 28. More specifically, in step S9, as described above, the process of executing the movement intended by each agent (including the robot) in the virtual simulation space 22 is performed, and other obstacles, structures and other agents are performed. If there is no interference with, each agent works as intended. For example, if the agent tries to take one step forward, the agent takes one step forward as intended.

ところが、干渉がある場合、物理学法則(力学法則)に従って各エージェントの実際の動きが処理される。単純な場合、たとえば壁に向かって進もうとすると、壁に衝突し、それ以上前進できないし、一定の反発係数に従って反力を受ける。エージェント同士の衝突の場合、前進する動きと、反力による移動が重なり合って、たとえば、単純な例を考えると、前進中にたとえば側方から衝突すると、斜め前方へと実際には動くことになる。 However, when there is interference, the actual movement of each agent is processed according to the laws of physics (law of mechanics). In a simple case, for example, if you try to move toward a wall, it will collide with the wall, you will not be able to move forward any further, and you will receive a reaction force according to a constant coefficient of restitution. In the case of a collision between agents, the forward movement and the movement due to the reaction force overlap, for example, considering a simple example, if a collision occurs from the side while moving forward, it will actually move diagonally forward. ..

次のステップS11で、環境データやセンサデータなどを更新する。 In the next step S11, the environment data, the sensor data, and the like are updated.

そして、ステップS13でシミュレーションを終了するかどうか判断し、シミュレーションを続行するなら再び先のステップS3に戻り、たとえば行動決定プログラムが終了するなどした場合“YES”が判断され、シミュレーションを終了する。 Then, it is determined whether or not to end the simulation in step S13, and if the simulation is continued, the process returns to the previous step S3 again. For example, if the action determination program is terminated, "YES" is determined and the simulation is terminated.

このように、シミュレーション装置16においてオブジェクティブ116に従ってロボットの周囲の人の行動を再現するようにシミュレーションを行い、その状態をディスプレイ105(図1)で確認することにより、ロボットの行動をシミュレーションできるので、ロボットを実空間で実際に動かすことなく、人と共存する実空間で活動するロボットアプリケーションプログラム18の開発を効率的に行うことができる。 In this way, the robot behavior can be simulated by performing simulation in the simulation device 16 so as to reproduce the behavior of people around the robot according to the objective 116 and confirming the state on the display 105 (FIG. 1). It is possible to efficiently develop a robot application program 18 that operates in a real space that coexists with humans without actually moving the robot in the real space.

図11はこの実施例における主として人シミュレータ26の動作を示すフロー図であり、この図11の最初のステップS21では、コンピュータは、シミュレーションが実行されているかどうか判断する。“NO”ならそのまま終了する。 FIG. 11 is a flow chart mainly showing the operation of the human simulator 26 in this embodiment, and in the first step S21 of FIG. 11, the computer determines whether or not the simulation is being executed. If "NO", it ends as it is.

この実施例の特徴は、図10のステップS3における人シミュレータ26による人エージェントの生成、仮想シミュレーション空間22への投入、およびステップS5におけるその仮想シミュレーション空間22内での人エージェントの移動、ジェスチャ等の行動の際の、3次元距離画像センサ202(図15)に対応するシミュレーションデータを取得することである。以下、説明する。 The features of this embodiment are the generation of a human agent by the human simulator 26 in step S3 of FIG. 10, the input to the virtual simulation space 22, the movement of the human agent in the virtual simulation space 22 in step S5, the gesture, and the like. It is to acquire the simulation data corresponding to the three-dimensional distance image sensor 202 (FIG. 15) at the time of action. This will be described below.

ステップS21で“YES”が判断されたときは、次のステップS23で、コンピュータは歩行者(人)生成条件が成立したかどうか判断する。この歩行者は、仮想シミュレーション空間22に存在する歩行者数が所定の最大数未満の場合、出現率データ108(図5)に従って、一定確率で生成される。したがって、歩行者生成条件とは、出現率に達したという条件である。 When "YES" is determined in step S21, in the next step S23, the computer determines whether or not the pedestrian (person) generation condition is satisfied. When the number of pedestrians existing in the virtual simulation space 22 is less than a predetermined maximum number, the pedestrians are generated with a certain probability according to the appearance rate data 108 (FIG. 5). Therefore, the pedestrian generation condition is a condition that the appearance rate is reached.

このステップS23で“YES”が判断されると、ステップS25で、人生成モジュール110によって、歩行者を生成する。具体的には、図12に示すフロー図に従って歩行者を生成する。 If "YES" is determined in step S23, a pedestrian is generated by the human generation module 110 in step S25. Specifically, a pedestrian is generated according to the flow chart shown in FIG.

図12のステップS41では、コンピュータすなわち人生成モジュール110は、歩行者モデルを3Dモデルデータベース111からランダムにまたは所定の法則に従って選択する。 In step S41 of FIG. 12, the computer or human generation module 110 randomly selects a pedestrian model from the 3D model database 111 or according to a predetermined rule.

そして、ステップS43で、オブジェクティブ(行動タイプ)をオブジェクティブモデル116からランダムにまたは所定の法則に従って選択するとともに、グループメンバデータ112、ソーシャルフォースモデル118およびインタラクションモデル120に従って、シミュレーションパラメータを確定的にまたは所定の法則に従って決定する。このステップS43ではオブジェクティブを複数個選択することができ、その場合、選択された順にオブジェクティブが実行される。 Then, in step S43, the objective (behavior type) is randomly selected from the objective model 116 or according to a predetermined rule, and the simulation parameters are deterministically or predetermined according to the group member data 112, the social force model 118, and the interaction model 120. Determined according to the law of. In this step S43, a plurality of objectives can be selected, and in that case, the objectives are executed in the selected order.

ステップS45で、オブジェクティブ毎に、実行するジェスチャをジェスチャデータベース113からランダムにまたは所定の法則に従って選択して、オブジェクティブに設定する。ジェスチャとしては、先に説明したように、「物を取る」などである。ジェスチャは、オブジェクティブ毎に複数選択されてもよい。その後、リターンする。 In step S45, for each objective, the gesture to be executed is randomly selected from the gesture database 113 or according to a predetermined rule and set as the objective. Gestures include "taking things" as explained earlier. A plurality of gestures may be selected for each objective. Then return.

このようにして、図11のステップS25で、仮想シミュレーション空間22(図4)内に人エージェント(歩行者)を生成することができる。したがって、このステップS25およびそれを実行するコンピュータは、人エージェント生成手段ということができる。 In this way, in step S25 of FIG. 11, a human agent (pedestrian) can be generated in the virtual simulation space 22 (FIG. 4). Therefore, this step S25 and the computer that executes it can be said to be a human agent generation means.

図11のステップS27で、歩行者Pi毎のループを実行し、ステップS29で、コンピュータすなわち移動モジュール114は、歩行者Piを更新する。具体的には、図13に示すフロー図に従う。 In step S27 of FIG. 11, a loop for each pedestrian Pi is executed, and in step S29, the computer, that is, the movement module 114 updates the pedestrian Pi. Specifically, it follows the flow chart shown in FIG.

図13のステップS51で、コンピュータは、オブジェクティブが終了したかどうか判断する。“YES”なら、歩行者Piを環境すなわち仮想シミュレーション空間22から削除(消去)して、リターンする。つまり、各歩行者に対して移動シーケンスを設定しているので、それが終わったら環境から消えるようにしている。 In step S51 of FIG. 13, the computer determines whether the objective has ended. If "YES", the pedestrian Pi is deleted (erased) from the environment, that is, the virtual simulation space 22, and the pedestrian Pi is returned. In other words, since the movement sequence is set for each pedestrian, it disappears from the environment after that.

一方、ステップS51で“NO”と判断されたとき、ステップS55において、先にステップS43で設定されたソーシャルフォースモデルに従って、歩行者の位置を更新する。そして、ステップS57で、ステップS45で設定されたジェスチャに従って、歩行者Piのジェスチャを再生し、その後リターンする。 On the other hand, when it is determined as "NO" in step S51, the position of the pedestrian is updated in step S55 according to the social force model previously set in step S43. Then, in step S57, the gesture of the pedestrian Pi is reproduced according to the gesture set in step S45, and then the gesture is returned.

ステップS27の更新処理は複数のオブジェクティブが存在する場合、順次次のオブジェクティブの更新処理を実行する。このステップS27すなわちステップS29での更新は、仮想シミュレーション空間内で人エージェントを移動シーケンスを適用して人エージェントの位置を更新するので、このステップS27、S29およびそれらを実行するコンピュータは、更新手段ということができる。 When a plurality of objectives exist, the update process of step S27 sequentially executes the update process of the next objective. Since the update in step S27, that is, step S29 updates the position of the human agent by applying the movement sequence of the human agent in the virtual simulation space, the steps S27 and S29 and the computer that executes them are referred to as update means. be able to.

各歩行者Piの更新処理が終了したら、図11のステップS31において、各歩行者の真値ラベルを作成する。真値ラベルとは、各センサからの各歩行者(人)の見え方であり、たとえば、歩行者の位置、歩行者の向き、ジェスチャなどを含む。人シミュレータ26によって歩行者の移動シーケンスをシミュレーションしているので、コンピュータは、それぞれのモデルやパラメータからこのような真値ラベルを容易に取得できる。 When the update process of each pedestrian Pi is completed, the true value label of each pedestrian is created in step S31 of FIG. The true value label is the appearance of each pedestrian (person) from each sensor, and includes, for example, the position of the pedestrian, the direction of the pedestrian, the gesture, and the like. Since the pedestrian movement sequence is simulated by the human simulator 26, the computer can easily obtain such a true value label from each model and parameter.

次いで、ステップS33で、コンピュータは、センサデータを作成する。センサデータは、上述のようにして歩行者Piがシミュレートされるときの、各センサからの歩行者Piの見え方をシミュレーションしたデータ、たとえば距離画像である。センサ202(図15)として3次元距離画像センサを用いた場合、図14(A)に示すように、センサA‐Jのそれぞれの距離画像が作成される。図14(A)のセンサA‐J毎の距離画像を統合すると図14(B)のような距離画像が得られる。実世界のセンシングでは、センサノイズが存在するため、これらのセンサノイズを再現するためのセンサノイズモデルを距離画像データの作成時に適用する。つまり、シミュレーション内で計測した距離に、確率的なセンサノイズ(ガウシアン分布など)を加算(もしくは減算)した結果を、距離画像として生成する。このようなセンサのノイズモデルは、たとえば環境データ20(図1)に、実世界に配置された3次元距離画像センサのデータとともに、予め設定される。 Then, in step S33, the computer creates sensor data. The sensor data is data simulating the appearance of the pedestrian Pi from each sensor when the pedestrian Pi is simulated as described above, for example, a distance image. When a three-dimensional distance image sensor is used as the sensor 202 (FIG. 15), each distance image of the sensors AJ is created as shown in FIG. 14 (A). By integrating the distance images for each sensor AJ in FIG. 14 (A), the distance image as shown in FIG. 14 (B) can be obtained. Since sensor noise exists in real-world sensing, a sensor noise model for reproducing these sensor noises is applied when creating distance image data. That is, the result of adding (or subtracting) probabilistic sensor noise (Gaussian distribution, etc.) to the distance measured in the simulation is generated as a distance image. A noise model of such a sensor is preset in, for example, environmental data 20 (FIG. 1) together with data of a three-dimensional distance image sensor arranged in the real world.

次のステップS35で、コンピュータは、ステップS31で取得した真値ラベルのデータと、ステップS33で作成した図14に示すような距離画像とを組み合わせたデータセットを出力する。 In the next step S35, the computer outputs a data set in which the true value label data acquired in step S31 and the distance image as shown in FIG. 14 created in step S33 are combined.

このデータセットは、学習器(図示せず)へ投入することによって、センサのキャリブレーションや認識モデルの学習を行うことができる。ただし、センサキャリブレーションとは、各センサ202についてどのような計算をすれば、センシングの精度が向上するかを示すセンサデータの計算方法を決定することを意味し、学習器による学習のためには多数の、たとえば100万以上のデータセットが必要となる。 By inputting this data set to a learner (not shown), it is possible to calibrate the sensor and learn the recognition model. However, sensor calibration means determining the calculation method of sensor data indicating what kind of calculation should be performed for each sensor 202 to improve the accuracy of sensing, and for learning by the learner. A large number of data sets, for example one million or more, are required.

極めて多数のデータセットを実世界で取得しようとすると、様々な場所(環境)、様々なパターンで行動するデータと、そのラベルセットを大量に収集することになり、多大なコストを要する。 Attempting to acquire an extremely large number of data sets in the real world requires a large amount of data that behaves in various places (environments) and patterns, and a large amount of the label sets, which requires a great deal of cost.

これに対して、この実施例のように真値ラベルとセンサデータのペアをシミュレーションによって生成するようにすれば、シミュレーションでは人(歩行者)の行動モデルによって多様な人行動を生成し、それらの行動に人の3次元モデルと人のモーション(ジェスチャ)データ、センサノイズモデルを組み合わせることで、実世界のセンサシステムで利用可能な精度向上データを低コストでかつ短時間で獲得することができる。 On the other hand, if a pair of true value label and sensor data is generated by simulation as in this embodiment, various human behaviors are generated by a human (pedestrian) behavior model in the simulation, and those are generated. By combining a person's three-dimensional model, human motion (gesture) data, and sensor noise model with behavior, it is possible to acquire accuracy improvement data that can be used in a real-world sensor system at low cost and in a short time.

このような認識モデルのパラメータを学習する学習器とは別に、この実施例の大量のデータセットをシミュレーションによって作成するアプローチは,深層学習(いわゆるディープラーニング)にも適用できる。深層学習は、いわば認識モデル自体を学習する学習器である。したがって、実施例によって得られるデータセットはセンサキャリブレーションや,認識モデルの獲得を目指した学習装置(ディープラーニング)に利用することができる。 Apart from the learner that learns the parameters of such a recognition model, the approach of creating a large data set of this example by simulation can also be applied to deep learning (so-called deep learning). Deep learning is, so to speak, a learning device that learns the recognition model itself. Therefore, the data set obtained by the embodiment can be used for sensor calibration and a learning device (deep learning) aiming at acquisition of a recognition model.

なお、上述の実施例では、仮想シミュレーション空間に投入する人エージェントを3Dモデルに従った形状にし、それをオブジェクティブに従って移動させ、さらにジェスチャモデルに従った動作(motion)をさせるので、人エージェントが実世界の人(歩行者)と酷似したシミュレーションを実行できるので、そのような人エージェントをセンシングする3次元距離画像センサのセンシング精度も実世界のそれと同じような精度で再現することができる。したがって、ステップS35で出力されるデータセットで学習する学習器(図示せず)の精度もよくなる。 In the above embodiment, the human agent to be input to the virtual simulation space is shaped according to the 3D model, moved according to the objective, and further motions according to the gesture model, so that the human agent is actually Since a simulation that closely resembles a person (pedestrian) in the world can be executed, the sensing accuracy of the 3D distance image sensor that senses such a person agent can be reproduced with the same accuracy as that in the real world. Therefore, the accuracy of the learner (not shown) for learning with the data set output in step S35 is also improved.

しかしながら、仮想シミュレーション空間に投入する人エージェントを3Dモデルに従った形状にし、それをオブジェクティブに従って移動させるだけでも、十分な精度を実現できれば、仮想シミュレーション空間で人エージェントにジェスチャを行わせない方法も可能である。 However, if sufficient accuracy can be achieved by simply shaping the human agent to be input into the virtual simulation space according to the 3D model and moving it according to the objective, it is possible to prevent the human agent from making gestures in the virtual simulation space. Is.

同様に、人エージェントにシミュレーションパラメータを付与させず、学習する方法も可能である。 Similarly, it is possible to learn without giving simulation parameters to human agents.

10 …シミュレーションシステム
12 …ロボット
14 …操作装置
16 …シミュレーション装置
18 …ロボットアプリケーションプログラム
22 …仮想シミュレーション空間
24 …ロボットシミュレータ
26 …人シミュレータ
28 …物理エンジン
105…ディスプレイ
202…距離画像センサ
10 ... Simulation system 12 ... Robot 14 ... Operating device 16 ... Simulation device 18 ... Robot application program 22 ... Virtual simulation space 24 ... Robot simulator 26 ... Human simulator 28 ... Physics engine 105 ... Display 202 ... Distance image sensor

Claims (6)

複数の3次元距離画像センサを配置した実世界を模した仮想シミュレーション空間に人エージェントを投入する人エージェント生成手段、
前記仮想シミュレーション空間内で前記人エージェントを更新する更新手段、
人エージェントの3次元形状を指示する複数の3Dモデルを有する3Dモデルデータベース、および
前記人エージェントのオブジェクティブを有するオブジェクティブモデルデータベースを備え、
前記人エージェント生成手段は前記3Dモデルデータベースから選択された3Dモデルに従った形状の人エージェントを生成し、前記更新手段は前記オブジェクティブに従って前記人エージェントを移動させ、さらに
前記人エージェントの真値ラベルを作成する真値ラベル作成手段、
前記更新手段によって前記人エージェントが移動されるとき前記複数の3次元距離画像センサをシミュレーションしたセンタデータを取得するセンサデータ取得手段、および
前記真値ラベルと前記センサデータを結合したデータセットを出力する出力手段を備える、シミュレーションシステム。
A human agent generation means that puts a human agent into a virtual simulation space that imitates the real world in which multiple 3D distance image sensors are arranged.
An update means for updating the person agent in the virtual simulation space,
A 3D model database having a plurality of 3D models indicating the three-dimensional shape of the human agent and an objective model database having the objective of the human agent are provided.
The human agent generating means generates a human agent having a shape according to a 3D model selected from the 3D model database, the updating means moves the human agent according to the objective, and further, the true value label of the human agent is displayed. True value label creation method to be created,
When the person agent is moved by the update means, the sensor data acquisition means for acquiring the center data simulating the plurality of three-dimensional distance image sensors, and the data set in which the true value label and the sensor data are combined are output. A simulation system with output means.
前記人エージェント生成手段は、それぞれが3Dモデルに従った形状を有する、異なるタイプの人エージェントを生成する、請求項1記載のシミュレーションシステム。 The simulation system according to claim 1, wherein the human agent generating means generates different types of human agents, each having a shape according to a 3D model. 前記人エージェントについての異なるジェスチャを設定しているジェスチャデータベースをさらに備え、
前記更新手段は、前記ジェスチャデータベースから選択したジェスチャを前記人エージェントにさせる、請求項1または2記載のシミュレーションシステム。
Further equipped with a gesture database that sets different gestures for the person agent,
The simulation system according to claim 1 or 2, wherein the updating means causes the person agent to perform a gesture selected from the gesture database.
ソーシャルフォースモデルを設定しているソーシャルフォースモデルデータベースをさらに備え、
前記更新手段は、前記ソーシャルフォースモデルに従って前記人エージェントの位置を更新する、請求項1ないし3のいずれかに記載のシミュレーションシステム。
Further equipped with a social force model database that sets a social force model,
The simulation system according to any one of claims 1 to 3, wherein the updating means updates the position of the person agent according to the social force model.
複数の3次元距離画像センサを配置した実世界を模した仮想シミュレーション空間においてシミュレーションを実行するシミュレーションシステムであって、
前記シミュレーションシステムは、人エージェントの3次元形状を指示する複数の3Dモデルを有する3Dモデルデータベース、および前記人エージェントのオブジェクティブを有するオブジェクティブモデルデータベースを備え、前記シミュレーションシステムのコンピュータを、
前記仮想シミュレーション空間に前記3Dモデルデータベースから選択された3Dモデルに従った形状の人エージェントを投入する人エージェント生成手段、
前記仮想シミュレーション空間内で前記オブジェクティブに従って前記人エージェントを移動させて前記人エージェントを更新する更新手段、
前記人エージェントの真値ラベルを作成する真値ラベル作成手段、
前記更新手段によって前記人エージェントが移動されるとき前記複数の3次元距離画像センサをシミュレーションしたセンタデータを取得するセンサデータ取得手段、および
前記真値ラベルと前記センサデータを結合したデータセットを出力する出力手段
として機能させる、シミュレーションプログラム。
A simulation system that executes simulations in a virtual simulation space that imitates the real world in which multiple 3D distance image sensors are arranged.
The simulation system includes a 3D model database having a plurality of 3D models indicating the three-dimensional shape of the human agent, and an objective model database having the objective of the human agent, and the computer of the simulation system is used.
A human agent generation means for inputting a human agent having a shape according to a 3D model selected from the 3D model database into the virtual simulation space.
An update means for moving the person agent according to the objective in the virtual simulation space and updating the person agent.
A true value label creation means for creating a true value label for the person agent,
When the person agent is moved by the update means, the sensor data acquisition means for acquiring the center data simulating the plurality of three-dimensional distance image sensors, and the data set in which the true value label and the sensor data are combined are output. A simulation program that functions as an output means.
請求項1ないし5のいずれかの前記出力手段が出力するデータセットを学習する学習器を備える、センサキャリブレーションもしくは認識モデルの学習装置。 A sensor calibration or recognition model learning device comprising a learning device that learns a data set output by the output means according to any one of claims 1 to 5.
JP2019065629A 2019-03-29 2019-03-29 Simulation system, simulation program and learning device Active JP7258426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019065629A JP7258426B2 (en) 2019-03-29 2019-03-29 Simulation system, simulation program and learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019065629A JP7258426B2 (en) 2019-03-29 2019-03-29 Simulation system, simulation program and learning device

Publications (2)

Publication Number Publication Date
JP2020163509A true JP2020163509A (en) 2020-10-08
JP7258426B2 JP7258426B2 (en) 2023-04-17

Family

ID=72716802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019065629A Active JP7258426B2 (en) 2019-03-29 2019-03-29 Simulation system, simulation program and learning device

Country Status (1)

Country Link
JP (1) JP7258426B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2005128959A (en) * 2003-10-27 2005-05-19 Sony Corp Robot device and its method of learning object
JP2007181888A (en) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International Communication robot system
US20160057511A1 (en) * 2014-08-25 2016-02-25 Daqri, Llc Remote sensor access and queuing
JP2018097417A (en) * 2016-12-08 2018-06-21 株式会社国際電気通信基礎技術研究所 Simulation system
WO2018139203A1 (en) * 2017-01-26 2018-08-02 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104984A (en) * 1997-10-06 1999-04-20 Fujitsu Ltd Real environment information display device and recording medium in which program for executing real environment information display process is recorded and which can be read by computer
JP2005128959A (en) * 2003-10-27 2005-05-19 Sony Corp Robot device and its method of learning object
JP2007181888A (en) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International Communication robot system
US20160057511A1 (en) * 2014-08-25 2016-02-25 Daqri, Llc Remote sensor access and queuing
JP2018097417A (en) * 2016-12-08 2018-06-21 株式会社国際電気通信基礎技術研究所 Simulation system
WO2018139203A1 (en) * 2017-01-26 2018-08-02 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP7258426B2 (en) 2023-04-17

Similar Documents

Publication Publication Date Title
JP6809705B2 (en) Simulation system
JP6793905B2 (en) Robot behavior simulation device
JP7377837B2 (en) Method and system for generating detailed environmental data sets through gameplay
JP7407919B2 (en) Video processing method, video processing device, computer program and electronic equipment
JP5318623B2 (en) Remote control device and remote control program
US9135392B2 (en) Semi-autonomous digital human posturing
JP7130062B2 (en) Route determination method
KR101710000B1 (en) 3D interface device and method based motion tracking of user
WO2017141891A1 (en) Simulation system and game system
JP6893630B2 (en) Service provision robot system
CN107096223A (en) Control method for movement, device and terminal device in virtual reality scenario
JP7335084B2 (en) Simulation device and program
KR20140009900A (en) Apparatus and method for controlling robot
KR20200145698A (en) Method and terminal unit for providing 3d assembling puzzle based on augmented reality
JP2015066623A (en) Robot control system and robot
JP7139643B2 (en) Robot, robot control method and program
CN104239119A (en) Method and system for realizing electric power training simulation upon kinect
Das et al. GeroSim: A simulation framework for gesture driven robotic arm control using Intel RealSense
JP7258426B2 (en) Simulation system, simulation program and learning device
JP7250571B2 (en) Inverted pendulum type robot
JP6925013B2 (en) Simulation system
JP6908257B2 (en) Robots and robot control programs
CN107168522A (en) Control method, device and the virtual reality device of application
JP6841473B2 (en) Guidance robot
KR101060998B1 (en) User Location Based Networking Virtual Space Simulator System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7258426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150