JP7430087B2 - 発話制御装置 - Google Patents
発話制御装置 Download PDFInfo
- Publication number
- JP7430087B2 JP7430087B2 JP2020052771A JP2020052771A JP7430087B2 JP 7430087 B2 JP7430087 B2 JP 7430087B2 JP 2020052771 A JP2020052771 A JP 2020052771A JP 2020052771 A JP2020052771 A JP 2020052771A JP 7430087 B2 JP7430087 B2 JP 7430087B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- detection area
- determination unit
- distance
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 82
- 238000003384 imaging method Methods 0.000 claims description 26
- 238000013459 approach Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 16
- 238000006073 displacement reaction Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 29
- 238000013473 artificial intelligence Methods 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 21
- 238000010276 construction Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 206010019345 Heat stroke Diseases 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Description
ここで、本実施形態の発話制御装置が取り扱う主題は、特に移動ロボットRBが声掛けを実行する際の人物との位置関係にある。すなわち、建設現場CS内には、多数の人物(作業関係者)が各所に存在し、各自がそれぞれに必要な行動をとっている。また、移動ロボットRBは移動ロボットRBで自律移動を行っているため、移動ロボットRBと人物との位置関係は一定していない。このような条件下では、発話対象となる人物(1~2人)との距離があまりに離れたところから移動ロボットRBが声掛けしても、その内容をはっきりと人物に届けることができない。そうかといって、あまりに近過ぎるところで声掛けすると、声掛けされた人物に煩わしさや唐突な印象を与えてしまう。
しかし、ここで新たに問題となるのは、人物の判定に要する時間である。すなわち、移動ロボットRBによる人物の判定(又は検知、検出)には、IPカメラ112で撮像した画像から人物を判定する人工知能モデルが用いられる。このとき、より高精度な人工知能モデルを適用することで、画像内に写っている人物をロストすることなく正確に判定(検出)することが可能であるが、高精度なモデルほど、処理に時間がかかることも確かである。このため、人物の判定で高精度な人工知能モデルを用いると、声掛けをするタイミングに遅延が生じることがある。これは、人物を正確に判定できても、その時点では既に人物が他所に移動してしまっていることを意味する。
図3は、一実施形態の発話制御装置100の構成例を示すブロック図である。なお、図3では一部に移動ロボットRBの構成要素も合わせて示されている。
図4中の右側領域に示すように、撮像エリアはIPカメラ112の画角(例えば水平方向で左右64°程度、垂直方向で上方28°程度、下方10°程度)により規定される。フレーム画像は、この画角(視野)内に入る周囲環境を撮像したものとなる。なお、撮像エリアの範囲(角度)はこの例に限定されない。
人物判定部136は、連続するフレーム画像から高精度AIモデルを用いた人物の判定(人物検知)処理を実行する。人物の判定は、例えば畳み込みニューラルネットワークを用いた画像認識処理で行われる。ここでは、AI処理高速化装置114のサポートを用いて、例えば1秒間に1回程度の頻度で人物を高精度に判定する。
距離判定部118は、人物判定部136で判定した人物までの対人距離Dを判定する。ここでは、人物が一点鎖線の矩形枠(バウンディングボックス)で示されている(これ以降も同様。)。対人距離Dは、人物判定(検知又は検出)したときのバウンディングボックスより推論が可能である。
声掛けシステム110は、撮像エリア内に検出エリアDA(図4にグレーで示す範囲)を予め規定している。検出エリアDAは、例えば移動ロボットRBの中心(IPカメラ112による撮像地点)を基準点とした一定の範囲であり、ここでは半径R1~R3(例えば2m~5m)で示す扇状に近い帯状の範囲である。検出エリアDAには、移動ロボットRBからの声掛けに最適距離(例えば4m)と考えられる発話地点が含まれる。検出エリアDA内に太い実線で示した半径R2の円弧は、発話地点の集合を示している。なお、発話地点までの距離及び検出エリアDAの範囲はこの例に限定されない。
例えば、図4中の〔15m〕の画像では、人物までの対人距離Dを「15m」と判定している。このような遠方にいる人物に対して声掛けすることはあまり効果的でない。
この後、同じ人物が遠方から検出エリアDA内に進入してくると、図4中の〔4m〕の画像では、同じ人物について対人距離Dを「4m」と判定される。この場合、人物が発話地点にいると考えられるため、このタイミングで移動ロボットRBから「こんにちは 熱中症に気をつけましょう」等を声掛けさせれば、その内容を適切に人物に聞かせることができると考えられる。
これにより、図4中〔1m〕の画像に示すように、この後に人物が対人距離D「1m」の場所に移動しても、人物に「そうか、よし気をつけよう」といった安全意識が向上する。
ただし、上記のように人物の判定には高精度AIモデルを用いたことによる遅延が生じるため、声掛けシステム110による発話タイミングの設定には、処理の遅延を加味した推測が用いられる。つまり、対人距離判定部118が対人距離Dを「4m」と判定したタイミングで声掛けするのではなく、人物が対人距離D「4m」の発話地点に到達すると内部で推測したタイミングで声掛けする。このため声掛けシステム110の距離変位判定部138は、対人距離Dの変化量(ΔD/Δt)を判定し、演算部122は、変化量の判定結果から得られる人物の移動傾向に基づいて、人物が発話地点に到達するタイミングを推測する。
図5は、対人距離判定部118による処理の概要を示す図である。対人距離Dは、人物判定部136で人物を判定したときのバウンディングボックスにより判定することができる。
図6は、人物が遠方から検出エリアDAに進入した場合の声掛けパターンを示す図である。この声掛けパターンでは、人物判定部136が人物P1を検出エリアDA外の遠方で既に判定(検出)しており、その後も人物P1を追跡し続けている。また、対人距離判定部118が対人距離Dを判定し続けており、対人距離Dが5m以下になると、検出エリア判定部140が人物P1の進入経路を「遠方から進入」と判定する。
図7は、人物が左右から検出エリアDAに進入した場合の声掛けパターンを示す図である。この声掛けパターンでは、各人物P2~P5が最初から検出エリアDA内で判定(検出)される。すなわち、人物P2,P4は検出エリアDAの右側方から進入し、人物P3,P5は検出エリアDAの左側方から進入している。そして、人物P2,P3は発話地点(4mライン)より遠い対人距離D(例えば4.5m)で判定され、人物P4,P5は発話地点より近い対人距離D(例えば3m)で判定されている。したがって、これらの人物P2~P5の進入経路については、検出エリア判定部140は「左右から進入」と判定する。
次に図8は、人物が前方から検出エリアDAに進入した場合の声掛けパターンを示す図である。この声掛けパターンは、人物P6が唐突に判定され、かつ、判定された時点で対人距離Dが直近(例えば2m程度)であるような場合が該当する。すなわち、人物P6は移動ロボットRBの近傍から撮像エリア内に入ってきて、こちらに背を向けて検出エリアDA内に進入している。この場合、検出エリア判定部140は、人物P6の進入経路を「前方から進入」と判定する。
図9は、人物が検出エリアDAから左右に移動した場合の声掛けパターンを示す図である。この声掛けパターンは、既に検出エリアDA内で判定(検出)されている人物P7,P8について、通常通りに発話地点に到達するタイミングを推測していたが、検出エリアDAから左右の両側方に出て行く動きをした場合に該当する。すなわち、人物P7,P8は検出エリアDA内で判定されているが、対人距離Dの変化量がほとんど判定されないまま(発話地点に向かうことなく)、判定された位置が左右方向へ移動している。この場合、検出エリア判定部140は、人物P7,P8が「(発話地点に到達することなく)検出エリアDAから左右に移動した」と判定する。
以上の説明で声掛けシステム110の各機能ブロックによる処理の概要は明らかとなっているが、以下では、フローチャートを用いて具体的な処理の手順を説明する。
図10は、声掛けシステム110で実行されるプログラムの一部として声掛け音声出力処理の手順例を示すフローチャートである。この処理は、声掛けシステム110内の各機能ブロック(人物判定部136、対人距離判定部118、距離変位判定部138、検出エリア判定部140、演算部122)が連係又は協働して実行される。以下、手順例に沿って説明する。
ステップS102:人物の判定がある場合(Yes)、ステップS104に進む。人物の判定がない場合(No)、ここで本処理を一旦離脱(リターン)する。
ステップS106:演算部122は、人物判定部136、対人距離判定部118及び検出エリア判定部140と連係し、判定された人物が検出エリアDA内にいるかを確認する。人物が検出エリアDA内にいる場合(Yes)、次にステップS108を実行する。人物が検出エリアDA内にいない場合(No)、ここで本処理を一旦離脱(リターン)する。
人物の進入経路が「遠方から進入」又は「左右から進入」の場合は通常通りとして以下の手順となる。
ステップS112:演算部122は、人物判定部136、対人距離判定部118及び検出エリア判定部140と連係し、検出エリアDA内で人物が発話地点(4m)に到達すると推測するタイミングを確認する。発話地点に到達すると推測するタイミングであれば(Yes)、次にステップS118に進む。それ以外では(No)、ここで本処理を一旦離脱(リターン)する。
ステップS118:演算部122は、声掛け音声出力を出力装置126に対して指示する。これにより、人物が発話地点に到達すると推測した発話タイミングでマイク・スピーカ128から発話音声が出力される。
一方、人物の進入経路が「前方から進入」であるか、もしくは「検出エリアDAから左右に移動した」と判定した場合は例外処理として以下の手順となる。
ステップS118:この場合、演算部122は、ステップS112の判断を経ることなく、声掛け音声出力を出力装置126に対して指示する。これにより、直ちにマイク・スピーカ128から発話音声が出力される。
既に述べたように、発話制御装置100を適用する対象は移動ロボットRBに限られず、固定式のロボットであってもよいし、ロボットの形態ではない車両その他のマシン、あるいは据え置き型の機器であってもよい。
110 声掛けシステム
112 IPカメラ
118 対人距離判定部
122 演算部(音声出力部)
126 出力装置(音声出力部)
128 マイク・スピーカ(音声出力部)
136 人物判定部
138 距離変位判定部
140 検出エリア判定部
DA 検出エリア
Claims (4)
- 人物判定用の器具を所持しない不特定の人物が任意に移動する所定の撮像エリアを連続的に撮像して得られた画像から人物を連続的に判定可能な人物判定部と、
前記人物判定部の判定結果を用いて人物までの対人距離を連続的に判定する対人距離判定部と、
前記対人距離判定部の判定結果を用いて対人距離の変化量を連続的に判定する距離変位判定部と、
前記距離変位判定部の判定結果に基づき、前記人物判定部が画像から人物を判定するまでの遅延の間の移動を加味して人物が所定間隔離れた発話地点に到達する発話タイミングを推測し、当該推測した発話タイミングで発話音声を出力させる音声出力部と
を備えた発話制御装置。 - 請求項1に記載の発話制御装置において、
前記撮像エリア内に前記発話地点を含む所定の検出エリアを規定し、前記人物判定部及び前記対人距離判定部の判定結果に基づいて、前記検出エリアへの人物の進入経路を判定する検出エリア判定部をさらに備え、
前記音声出力部は、
前記検出エリア判定部により前記撮像エリア内で前記検出エリアよりも遠方からの進入経路であると判定されたか、もしくは、前記撮像エリアの両側方から前記検出エリアへの進入経路であると判定された場合に、前記発話タイミングで発話音声を出力させることを特徴とする発話制御装置。 - 請求項2に記載の発話制御装置において、
前記音声出力部は、
前記検出エリア判定部により、人物の進入経路が前記検出エリアより近い前記撮像エリア外の方向からであると判定された場合、前記発話地点に到達すると推測することなく発話音声を出力させることを特徴とする発話制御装置。 - 請求項2又は3に記載の発話制御装置において、
前記検出エリア判定部は、
前記人物判定部、前記対人距離判定部及び前記距離変位判定部の判定結果に基づいて、前記検出エリア内にいる人物が前記発話地点に到達することなく前記撮像エリアの両外側方向に移動したことをさらに判定可能であり、
前記音声出力部は、
前記検出エリア判定部により前記撮像エリアの両外側方向に人物が移動したことが判定された場合、前記発話地点に到達すると推測することなく発話音声を出力させることを特徴とする発話制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052771A JP7430087B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052771A JP7430087B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021152739A JP2021152739A (ja) | 2021-09-30 |
JP7430087B2 true JP7430087B2 (ja) | 2024-02-09 |
Family
ID=77887316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020052771A Active JP7430087B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7430087B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007160442A (ja) | 2005-12-12 | 2007-06-28 | Honda Motor Co Ltd | 移動ロボット |
JP2019154575A (ja) | 2018-03-08 | 2019-09-19 | オムロン株式会社 | 個人識別装置および特徴収集装置 |
-
2020
- 2020-03-24 JP JP2020052771A patent/JP7430087B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007160442A (ja) | 2005-12-12 | 2007-06-28 | Honda Motor Co Ltd | 移動ロボット |
JP2019154575A (ja) | 2018-03-08 | 2019-09-19 | オムロン株式会社 | 個人識別装置および特徴収集装置 |
Non-Patent Citations (1)
Title |
---|
デバイスセンサ情報を基にしたクラウド音声認識プロセス管理方法,電子情報通信学会技術研究報告 Vol.119 No.482,2020年03月09日 |
Also Published As
Publication number | Publication date |
---|---|
JP2021152739A (ja) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4455417B2 (ja) | 移動ロボット、プログラム及びロボット制御方法 | |
JP5768273B2 (ja) | 歩行者の軌跡を予測して自己の回避行動を決定するロボット | |
JP4976903B2 (ja) | ロボット | |
US11467581B2 (en) | Autonomous moving body for moving between floors using an elevator, control program of autonomous moving body, method of controlling autonomous moving body, and system server for controlling autonomous moving body from remote place | |
JP2004299025A (ja) | 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム | |
JP2007266754A (ja) | 車両用音声入出力装置および音声入出力装置用プログラム | |
JP2003340764A (ja) | 案内ロボット | |
JP5411789B2 (ja) | コミュニケーションロボット | |
JP4315872B2 (ja) | 移動ロボットの制御装置 | |
US20160037138A1 (en) | Dynamic System and Method for Detecting Drowning | |
US20210154827A1 (en) | System and Method for Assisting a Visually Impaired Individual | |
CN110634505A (zh) | 声音期间检测装置、声音期间检测方法、存储介质、声音认识装置以及机器人 | |
JP7430087B2 (ja) | 発話制御装置 | |
JP2013061715A (ja) | 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム | |
US20210311506A1 (en) | Unmanned moving body and information processing method | |
JP7430088B2 (ja) | 発話制御装置 | |
JP6887035B1 (ja) | 制御システム、制御装置、制御方法及びコンピュータプログラム | |
JP7430083B2 (ja) | 発話制御装置 | |
JP2022078741A (ja) | ロボット | |
JP2019091216A (ja) | 経路設定装置および経路設定方法 | |
JP7266058B2 (ja) | 配送ロボットおよび報知方法 | |
JP7402721B2 (ja) | 発話制御装置 | |
JP2022112897A (ja) | 情報処理装置及び情報処理方法 | |
JP2002224981A (ja) | 人の姿勢を感知するロボット | |
JP7434635B1 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7430087 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |