JP7281654B1 - ロボットの制御方法、ロボット、及びプログラム - Google Patents
ロボットの制御方法、ロボット、及びプログラム Download PDFInfo
- Publication number
- JP7281654B1 JP7281654B1 JP2023035648A JP2023035648A JP7281654B1 JP 7281654 B1 JP7281654 B1 JP 7281654B1 JP 2023035648 A JP2023035648 A JP 2023035648A JP 2023035648 A JP2023035648 A JP 2023035648A JP 7281654 B1 JP7281654 B1 JP 7281654B1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- company
- information
- home
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 72
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000033001 locomotion Effects 0.000 claims abstract description 61
- 238000004891 communication Methods 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 36
- 230000001678 irradiating effect Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 abstract description 67
- 230000006872 improvement Effects 0.000 abstract description 4
- 238000005286 illumination Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 32
- 230000005855 radiation Effects 0.000 description 30
- 238000004364 calculation method Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 28
- 238000013459 approach Methods 0.000 description 21
- 230000000694 effects Effects 0.000 description 19
- 239000000126 substance Substances 0.000 description 19
- 230000004044 response Effects 0.000 description 16
- 238000012790 confirmation Methods 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 11
- 230000006399 behavior Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 7
- 241000282412 Homo Species 0.000 description 5
- 230000000386 athletic effect Effects 0.000 description 5
- 235000019577 caloric intake Nutrition 0.000 description 5
- 230000006378 damage Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 239000013056 hazardous product Substances 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 206010034719 Personality change Diseases 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000037147 athletic performance Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000037230 mobility Effects 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004071 biological effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000012508 change request Methods 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000002493 microarray Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/43—Control of position or course in two dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3461—Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3652—Guidance using non-audiovisual output, e.g. tactile, haptic or electric stimuli
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/646—Following a predefined trajectory, e.g. a line marked on the floor or a flight path
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M11/00—Telephonic communication systems specially adapted for combination with other electrical systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Manipulator (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
我々の日常生活はますますデジタル化されてきている。例えば、多くの人が個人専用の情報通信端末であるスマートフォンを持つ。ユーザは、スマートフォンにユーザの健康管理を行うアプリケーション(以下、アプリケーションをアプリと呼ぶ)、家計の管理を支援するアプリ、知人とのリアルタイムなコミュニケーションを支援するソーシャルコミュニケーションアプリ、世の中のニュースを個人の興味に合わせてキュレーションしてくれるニュースアプリ、など様々なアプリをインストールして利用するようになった。
我々の社会は、今後もさらにインターネットが普及し、各種センサーが身近になることが予想される。これにより、我々の社会は、個人の内部状態及び活動等に関する情報から建造物及び交通網等を含む街全体の情報までもが、デジタル化されてコンピューターシステムで利用できる状態になっていくと予想される。デジタル化された個人に関するデータ(個人情報)は、通信ネットワークを介してビッグデータとして情報銀行などのクラウドサーバに安全に管理され、個人や社会のために様々な用途に利用されていく。
1:静止画のみ許可
2:低品質動画まで許可
3:すべて許可
1:許可
1:許可
1:許可
1:一部分のみ許可
2:すべて許可
1:許可
1:許可
1:許可
1:許可
1:頭部のみ許可
2:すべて許可
1:許可済み宅内のみ、低速での移動を許可
2:許可済み宅内/宅外まで、低速での移動を許可
3:許可済み宅内/宅外まで、高速での移動を許可
4:すべて許可
ロボット110はデータおよびイベント情報を継続的にB社サーバ111に送信する。ロボット110は具備したセンサー110cを用いて、ユーザの生体活動情報およびユーザの周辺情報を継続的に収集する。ロボット110は収集した生体活動情報およびユーザの周辺情報を含むデータを継続的にB社サーバ111に送信する。ロボット110は、収集した生体活動情報およびユーザの周辺情報を解析することにより、イベント情報を継続的に生成し、生成したイベント情報をB社サーバ111に継続的に送信する。
B社サーバ111は、得られたデータおよびイベント情報を、A社サーバ101に設定されたアクセス権の範疇でA社サーバ101に継続的に送信または開示することにより、A社サーバ101とデータおよびイベント情報を共有する。
スマートフォン100は、ユーザからの入力にしたがって警備モードを設定する。警備モードの設定内容を示す設定情報は、例えば、後述する図23又は図24に表示された情報を含む。例えば、設定情報は、警備モードの条件を含む。警備モードの条件は、警備モード「在宅」の条件と、警備モード「散歩」の条件とを含む。警備モード「散歩」の条件は、警備モードを「在宅」から「散歩」に変更する条件である。警備モード「在宅」の条件は、警備モードを「散歩」から「在宅」に変更する条件である。例えば、設定情報は、警備モードが「散歩」に変更されたときに、ロボット110がユーザにその変更を通知する情報を含んでもよい。この通知は、ロボット110の顔、かつ/またはボディ10の一部への情報の表示であってもよいし、警備会社のロゴを表示しても良いし、変更を告げる音声の出力であってもよいし、警備会社のサウンドロゴ音声の出力であってもよい。さらに、この通知は、これらの組み合わせであっても良い。
スマートフォン100は、設定情報とリクエスト情報とをA社サーバ101に送信する。リクエスト情報は、例えば警備モードが「散歩」に対しては、設定された在宅エリア外である宅外においてユーザとの相対距離を所定距離内に維持してユーザを伴走するようにロボット110の可動部110eを演算部110bに制御させながら、同時にセンサー110cを用いてユーザの周辺情報を収集させるロボット110の行動規範(プログラム、または行動優先順位の設定)を実行させるリクエストを規定する情報である。例えば、警備モードが「在宅」に対しては、設定された在宅エリア内である宅内においてユーザとの相対距離を所定距離内に維持してユーザの安全を監視するようにロボット110の可動部110eとセンサー110cを演算部110bに制御させる行動規範を実行させるリクエストを規定する情報である。
設定情報を受信したA社サーバ101は、設定情報およびリクエスト情報をB社サーバ111に送信する。
B社サーバ111は、受信した設定情報およびリクエスト情報をメモリ111cに登録する。
B社サーバ111は、ロボット110から継続的に送信されるデータおよびイベント情報と、地図情報とに基づいて、ユーザがいずれかの警備モードの条件を満たすか否かを確認する。
B社サーバ111は、ユーザが警備モード「在宅」の条件を満たしていると判定された場合、または、ユーザが警備モード「在宅」の条件を最も良く満たしていると判定された場合に、警備モード「在宅」に変更するようにロボット110に指示を送信する。
警備モード「在宅」の指示を受信したロボット110は、警備モード「在宅」の開始をユーザに通知する。通知の詳細は後述する。
ロボット110は、警備モード「在宅」で動作する。警備モードは新たな警備モードの指示を受けるまで継続される。
B社サーバ111は、警備モード「在宅」に変更されたことをロボット110からの応答で検知し(図示なし)、その警備モード「在宅」への変更結果をA社サーバ101に送信する。
ユーザはロボット110と一緒に外出し、散歩を開始する。
B社サーバ111は、ロボット110のセンシング結果が警備モード「散歩」の条件を満たすので、警備モードを「散歩」に変更する。
B社サーバ111は、警備モード「散歩」に変更するようにロボット110に指示を送信する。この指示は、「第1仕様から第2仕様にロボットの設定を変更するためのコマンド」の一例である。この指示は、ロボット110の警備モードの設定変更後に警備モードが変更された旨をロボット110に出力させるコマンドを含む。
警備モード「散歩」の指示を受信したロボット110は、警備モード「散歩」の開始をユーザに通知する。通知の詳細は後述する。
ロボット110は、警備モード「散歩」で継続的に動作する。
B社サーバ111は、ロボット110が警備モード「散歩」に変更されたことをロボット110からの応答で検知し(図示なし)、警備モード「散歩」への変更結果をA社サーバ101に送信する。
ロボット110は、センサー110cを用いてユーザの状態および周辺をセンシングする。これにより、ユーザの生体活動情報および周辺情報が得られる。
ロボット110は、ユーザの生体情報およびユーザの周辺情報を含むデータと、ユーザの生体情報およびユーザの周辺情報に基づいて生成したイベント情報とをB社サーバ111に送信する。
B社サーバ111は、データおよびイベント情報を受信する。
B社サーバ111は、ロボット110から受信したデータおよびイベント情報がいずれかの警備モードの条件を満たすか否かにより、警備モードの変更の要否を判定する。例えば、B社サーバ111は、現在設定されている警備モードが「在宅」であり、ロボット110から受信したデータおよびイベント情報が警備モード「散歩」の条件を満たす場合、警備モードを「散歩」に変更する必要があると判定する。例えば、B社サーバ111は、現在設定されている警備モードが「散歩」であり、ロボット110から受信したデータおよびイベント情報が警備モード「散歩」の条件を満たす場合、警備モードを変更する必要がないと判定する。例えば、B社サーバ111は、現在設定されている警備モードが「散歩」であり、ロボット110から受信したデータおよびイベント情報が警備モード「散歩」の条件を満たさず、警備モード「在宅」の条件を満たす場合、警備モードを「在宅」に変更する必要があると判定する。例えば、B社サーバ111は、現在設定されている警備モードが「在宅」であり、ロボット110から受信したデータおよびイベント情報が警備モード「在宅」の条件を満たしている場合、警備モード「在宅」から変更する必要がないと判定する。
B社サーバ111は、警備モードの変更が必要と判定した場合(ステップS205でYES)、処理をステップS206に進める。一方、B社サーバ111は、警備モードの変更が必要ないと判定した場合(ステップS205でNO)、処理を終了する。
B社サーバ111は、警備モードの変更をする指示をロボット110に送信する。
当該指示を受信したロボット110は警備モードを変更する。例えば、ロボット110は、警備モード「在宅」から、「散歩」に変更する。
ロボット110は、警備モードの変更結果をB社サーバ111に送信する。
B社サーバ111は、警備モードの変更結果を受信する。
ロボット110は、変更後の警備モードの開始をユーザに通知する。上記のようにしてB社サーバ111はロボット110からのデータ、イベント情報を用いて警備モードを逐次判定し、その警備モードの実行をロボット110に指示する。
ユーザはロボット110と一緒に外出し、散歩を開始する。
A社サーバ101はユーザとロボット110とに関する最新のデータおよびイベント情報をB社サーバ111を介して取得することで、ユーザとロボット110とを監視しながら、警備モードの変更の有無、および警備員の介入の必要性を継続して判定する。A社サーバ101は、例えば、センサー110cが取得したデータから、ロボット110が外出したこと(ロボット110の位置情報)、ロボット110が撮影したカメラ映像からロボット110の近くにユーザがいること(またはそれを示す確認情報)、およびユーザが徒歩の速さで移動している(ユーザが散歩している)ことを検知する。或いは、A社サーバ101は、B社サーバ111においてユーザが在宅エリア外での散歩を開始したことを意味する「散歩開始イベント情報」がロボット110から通知されていることを検知しても良い。尚、上記では、A社サーバ101は、B社サーバ111を介して、ロボット110が取得したデータおよびイベント情報を取得するとしたが、それに加えて、在宅エリア情報を含む地図情報をB社サーバ111を介して取得しても良い。
A社サーバ101は、取得したデータおよびイベント情報を分析し、ユーザがロボット110と散歩を始めたことを検知し、警備モードを「在宅」から「散歩」へ変更するリクエスト情報をB社サーバ111に送信する。A社サーバ101は、図7と同様、ユーザ(ロボット110から受信したデータおよびイベント情報)が警備モードの条件を満たすと判定した場合、警備モードを「在宅」から「散歩」へ変更するリクエスト情報を送信すればよい。
リクエスト情報を受信したB社サーバ111は、ロボット110の警備モードを「散歩」に変更する指示をロボット110に送信する。A社サーバ101が利用できる警備モード「在宅」と警備モード「散歩」は、センサーや運動能力に対するアクセス権と同様に、B社サーバ111に事前に登録されている。
警備モード「散歩」に変更する指示を受信したロボット110は、警備モードを「散歩」に変更する。以降、B社サーバ111から警備モード「散歩」以外への変更の指示がない限り、ロボット110の演算部110bは警備モード「散歩」にて指定された行動規範に基づいてロボット110が動作するように、可動部110eおよびセンサー110cの制御を継続する。
ロボット110は、警備モードを「散歩」に変更した後も、センサー110cを使って取得したデータおよびそのデータに基づいて生成したイベント情報のB社サーバ111への送信を継続する。
ユーザに危険が発生している。危険とは、例えば、ユーザの進行方向に障害物がある状況、および他人がユーザに接近している状況を指す。
A社サーバ101は、B社サーバ111からデータおよびイベント情報を受信し、警備モード「散歩」の変更の有無、および警備員介入の必要性の有無を判定する。A社サーバ101は、データ、イベント情報に加えて、在宅エリア情報を含む地図情報をB社サーバ111から受信するようにしてもよい。
A社サーバ101は、データおよびイベント情報に基づいて、ユーザの安全確保のために警備員の介入が必要性を判定する。この判定は、例えば、ロボット110が撮影した動画データであるカメラ映像を警備員(人間)が確認することで判定しても良い。或いは、A社サーバ101が画像認識技術を用いてカメラ映像からユーザの危険度を算出し、算出した危険度から警備員の介入の必要性を判定しても良い。或いは、A社サーバ101は、音声認識技術または音声からユーザの感情を分析する技術などを用いてロボット110が取得したユーザの音声情報を解析してユーザの危険度を判定し、判定した危険度から警備員の介入の必要性を判定しても良い。或いは、A社サーバ101は、画像認識技術を用いてユーザに危険が発生したことを判定した場合、その発生を示すアラートを警備員の外部端末に送信してもよい。この場合、警備員は外部端末通じてアラートの発生を確認し、現場に出動すればよい。
A社の警備サービスによりユーザは危険を回避して、無事に帰宅する。これで散歩が終了する。
A社サーバ101は、B社サーバ111からデータおよびイベント情報を受信し、警備モード「散歩」の変更の有無、および警備員介入の必要性の有無を判定する。A社サーバ101は、データ、イベント情報に加えて、在宅エリア情報を含む地図情報をB社サーバ111から受信するようにしてもよい。
A社サーバ101は、ユーザの帰宅により、ユーザ(ロボット110から受信したデータおよびイベント情報)が警備モード「散歩」の条件を満たさず、警備モード「在宅」の条件に該当することを検知し、警備モードを「散歩」から「在宅」に変更するリクエスト情報をB社サーバ111へ送信する。
リクエスト情報を受信したB社サーバ111は、警備モードを「散歩」から「在宅」に変更する指示をロボット110に出力する。
B社サーバ111から警備モード(在宅)への更新指示を受けたロボット110は、警備モードを「在宅」に変更する。以降、B社サーバ111から新たな警備モードの指示がない限り、ロボット110の演算部110bは警備モード「在宅」において指定された行動規範にしたがってロボット110が動作するように、可動部110eおよびセンサー110cの制御を継続する。
ロボット110は、警備モードを「在宅」に更新した後も、ステップS1と同様、データおよびイベント情報をB社サーバ111に継続して送信する。A社サーバ101は、ステップS302と同様、最新のデータおよびイベント情報をB社サーバ111から継続して取得し、警備モードの変更の有無、および警備員の介入の必要性を継続して判定する。A社サーバ101は、データ、イベント情報に加えて、在宅エリア情報を含む地図情報をB社サーバ111から受信するようにしてもよい。
ロボット110は、データおよびイベント情報をB社サーバ111に送信する。
B社サーバ111は、ロボット110からデータおよびイベント情報を受信する。
A社サーバ101は、B社サーバ111からデータおよびイベント情報を受信する、また設定されている在宅エリア情報をメモリ101c、またはA社アプリから受信する。A社サーバ101は、データ、イベント情報に加えて、在宅エリア情報を含む地図情報をB社サーバ111から受信するようにしてもよい。
A社サーバ101は、ユーザ(ロボット110から受信したデータおよびイベント情報)に基づき警備モードの条件と比較することにより、警備モードの変更の要否を判定する。この処理の詳細はステップS204と同じである。A社サーバ101は、警備モードの変更が必要と判定した場合(ステップS403でYES)、処理をステップS404に進める。一方、A社サーバ101は、警備モードの変更が必要ない(現在の警備モードを継続する)と判定した場合(ステップS403でNO)、処理を終了する。
A社サーバ101は、警備モードの変更の指示をB社サーバ111に送信する。
当該指示を受信したB社サーバ111は、A社サーバのアクセス権を確認した上で、当該指示をロボット110に送信する。
当該指示を受信したロボット110は警備モードを変更する。
ロボット110は、警備モードの変更結果をB社サーバ111に送信する。
B社サーバ111は、変更結果を受信する。
B社サーバ111は変更結果をA社サーバ101に送信する。
A社サーバ101は、変更結果を受信する。
ロボット110は、変更後の新たな警備モードの開始をユーザに通知する。通知の詳細は、図9、図14、図15で上述した態様と同じである。A社サーバ101が警備モードの判定主体である場合は、上記の処理によって、警備モードの変更を行う。
スマートフォン100(そこで実行されるA社アプリ、またはB社アプリ)は、設定情報およびリクエスト情報をロボット110へ送信する。設定情報およびリクエスト情報の詳細は図7と同じである。
ロボット110は、センサー110cから継続的に送信されるデータおよびイベント情報と、予め設定された設定情報およびリクエスト情報とに基づいて、ユーザがいずれかの警備モードの条件を満たすか否かを確認する。ここでは、ロボット110は、ユーザが警備モード「在宅」の条件を満たしているので、警備モードを「在宅」に変更する。A社サーバ101は、データ、イベント情報に加えて、在宅エリア情報を含む地図情報をB社サーバ111から受信するようにしてもよい。
ロボット110は、警備モード「在宅」の開始をユーザに通知する。これはステップS10と同じである。
ロボット110は、警備モード「在宅」で継続的に動作する。これはステップS11と同じである。
ロボット110は、警備モード「在宅」に変更されたので、警備モード「在宅」への変更結果をB社サーバ111に送信する。
ロボット110は、警備モード「在宅」に変更されたので、警備モード「在宅」への変更結果をスマートフォン100(そこで実行されるA社アプリ、またはB社アプリ)に送信する。
ユーザはロボット110と一緒に外出し、散歩を開始する。
ロボット110は、ユーザが警備モード「散歩」の条件を満たすので、警備モードを「散歩」に変更する。
ロボット110は、警備モード「散歩」の開始をユーザに通知する。通知の詳細は上述した図14~図16と同じである。
ロボット110は、警備モード「散歩」で継続的に動作する。
ロボット110は、警備モード「散歩」に変更したので、警備モード「散歩」への変更結果をB社サーバ111に送信する。
ロボット110は、警備モード「散歩」に変更したので、警備モード「散歩」への変更結果をスマートフォン100に送信する。
ロボット110は、センサー110cを用いてユーザの状態および周辺をセンシングする。これにより、ユーザの生体活動情報および周辺情報が得られる。
ロボット110は、ユーザ(ロボット110から受信したデータおよびイベント情報)がいずれかの警備モードの条件を満たすか否かにより、警備モードの変更の要否を判定する。この判定の詳細は、ステップS204と同じである。
ロボット110は、警備モードの変更が必要と判定した場合(ステップS603でYES)、処理をステップS604に進める。一方、ロボット110は、警備モードの変更が必要ないと判定した場合(ステップS603でNO)、処理を終了する。この場合は現行の警備モードが継続される。
ロボット110は、警備モードを変更する。例えば、ロボット110は、現在の警備モード「在宅」から、警備モード「散歩」に変更する。勿論、その逆の場合もある。
ロボット110は、変更後の警備モードの開始をユーザに通知する。この場合、上述した図14、または図15のような通知が行われる。
ロボット110は、センサー110cがセンシングしたユーザの状態を示すデータ及びユーザの周囲状況を示すセンシングデータを取得する。センシングデータは、例えばカメラ映像、デプスイメージ、赤外線画像、マイク音声、触覚センサー値、気温・湿度・気圧センサー値、かつ/または位置情報などである。ロボット110は、外部のセンサーがセンシングしたセンシングデータをネットワークを介して取得しても良い。外部センサーは、例えば、ユーザのウェアラブルデバイスが有するセンサー、街角に設置されたカメラ、インターネット通信網を介して取得できるロボット110の位置情報に該当する天気予報情報、道路交通情報などである。
ロボット110は、取得したセンシングデータを解析して得られるユーザの危険度から、ユーザの必要警備度を判定する。以下、必要警備度の判定値に応じて説明する。
ロボット110の演算部110bは、センサー110cの情報からユーザの周囲に危険な物体や接近者がいないと判断した場合、必要警備度が0(最も低い危険度)と判定する。ロボット110の演算部110bはユーザの散歩を支援する動作を行うようロボット110の可動部110e、照明部110gなどを制御し、処理をステップS6001に戻す。例えば、ロボット110は照明部110gを用いてユーザの進行方向前方に、散歩の目標歩数、散歩の目標消費カロリー、散歩の目標散歩時間、散歩を始めてからの歩数、今日の歩数、今日の目標歩数までの残歩数、心拍数、消費カロリー、散歩の経過時間、かつ/または残りの予想散歩時間を表示しても良い。
ロボット110の演算部110bは、センサー110cの情報からユーザの周囲に危険な物体があると判断した場合、必要警備度が1(低い危険度)と判定する。ロボット110の演算部110bは散歩するユーザの怪我の防止を支援する動作を行うようロボット110の可動部110e、照明部110gなどを制御し、検出した危険部に対して照明を当てる注意喚起、危険部を迂回するルート選択などの処理を行い、処理をステップS6001に戻す。例えば、ロボット110は照明部110gを用いてユーザの周辺にある危険なオブジェクトに光を照射して、オブジェクトに関する注意喚起をしても良い。危険なオブジェクトとは、所定の大きさをもつ路面の凹凸または段差、および進行方向前方にある障害物などである。
ロボット110の演算部110bは、センサー110cの情報からユーザの周囲に危険な人物(または他者)がいると判断した場合、必要警備度が2(高い危険度)に設定する。ロボット110の演算部110bは、散歩するユーザの安全を確保する動作を行うようロボット110の可動部110eなどを制御し、処理をステップS6001に戻す。例えば、ロボット110は照明部110gを用いて、ユーザの周辺に、ユーザがロボット110により警備されていることを示す情報を表示する。警備されていることを示す情報は、例えば、ユーザを囲む光の輪、警備会社であるA社のロゴ、および「警備中」の文字などである。
ロボット110の演算部110bは、センサー110cの情報からユーザの周囲から危険な人物(または他者)が排除できていないと判断した場合、かつ/または、ロボット110の映像音声出力部110f、可動部110e、照明部110gを用いた警備で上記の危険な人物(または他者)がユーザから一定の距離をとっていない場合には、必要警備度が3(最も高い危険度)に設定する。この場合、ユーザは警備員(人)を介した警備が必要な危険な状況にあるので、ロボット110の演算部110bは散歩中のユーザの安全を確保するためのA社の警備員の要請信号をA社サーバ101に送信し、処理をステップS6001に戻す。例えば、ロボット110はセンサー110cと映像音声出力部110fとを用いて、警備員に不審者と直接に話をさせることで、ユーザの安全を確保しても良い。ユーザがより危険な状況にある場合、または警備員による遠隔警備を実施しても危険な状態が続く場合、ロボット110は、A社の警備員を現場に出動させる出動要請をA社サーバ101に送信してもよい。或いは、ロボット110は警察に通報してもよい。この通報は、音声、文字、かつ/またはカメラ映像を用いて、現場の位置および現場状況を知らせる情報を含むものであってもよい。
ロボット110は、センサー110cを用いて周辺情報を取得する。周辺情報はユーザ位置130、移動方向D1、ロボット位置131、および危険物位置133を含む。
ロボット110は、ユーザの移動方向D1側に危険物があるか否かを検知する。ユーザの移動方向D1側に危険物を検知しなかった場合(ステップS802でNO)、処理はステップS803に進み、ユーザの移動方向D1側に危険物を検知した場合(ステップS802でYES)、処理はステップS804に進む。ユーザの移動方向D1側とは、ユーザの前方を指す。ユーザの前方とは、ユーザの移動方向D1と、移動方向D1を中心として左右に90度ずつ開いた角度内に含まれる方向とを含む。
ロボット110の演算部110bは、必要警備度を0に設定する。
ロボット110の演算部110bは、必要警備度を1に設定する。
ロボット110は、可動部110eを制御して、放射位置132に移動する。
ロボット110は、可動部110eを制御して、放射位置132にてユーザを伴走する。ロボット110は、ユーザ位置130、ロボット位置131、移動方向D1、危険物位置133の算出を継続している。
ロボット110は、警備モード「散歩」が停止されていない場合(ステップS807でNO)、処理をステップS801に戻し、ステップS801以降の処理を継続する。ロボット110は、警備モード「散歩」が停止された場合(ステップS807でYES)、処理を終了する。警備モード「散歩」は、例えばユーザが在宅エリアに戻った場合に停止される。
ロボット110の演算部110bは、必要警備度を0に設定する。
ロボット110の演算部110bは、必要警備度を1に設定する。
ロボット110は、可動部110eを制御して、先導位置135に移動する。
ロボット110は、可動部110eを制御して、先導位置135にてユーザを伴走する。
ロボット110は、注意喚起の条件を満たす人物がいるか否かを判定する。注意喚起の条件を満たす人物がいる場合(ステップS1002でYES)、処理はステップS1004に進み、注意喚起の条件を満たす人物がいない場合(ステップS1002でNO)、処理はステップS1003に進む。
ロボット110の演算部110bは、必要警備度を1以下に設定する。
ロボット110の演算部110bは、必要警備度を2に設定する。
ロボット110は、可動部110eを制御して、護衛位置143に移動する。
ロボット110は、護衛位置143にてユーザを伴走する。同時に、ロボット110は、映像音声出力部110fまたは照明部110gを用いてユーザに接近する人物に対して注意喚起、または警告を通知する。
ロボット110は、人物とロボット110とのすれ違いが所定時間内に起こり、かつ人物とロボット110との距離が所定距離以内であるか否かを判定する。例えば、ロボット110は、センシング結果から算出した人物の予測進路の軌跡から人物がロボット110とすれ違う位置を算出する。すれ違う位置は、当該軌跡上のユーザ位置130との最近接位置である。ロボット110は、人物位置140からすれ違う位置までの当該軌跡上の距離を、センシング結果から算出した人物の速度で割ることで、すれ違い時間を算出する。そして、ロボット110はすれ違い時間が所定時間以内の場合、人物とロボット110とのすれ違いが所定時間内に起こると判定すればよい。さらに、ロボット110は、人物位置140とロボット位置131との距離が所定距離以内の場合、人物とロボット110との距離が所定距離以内と判定すればよい。
ロボット110の演算部110bは、必要警備度を1以上に設定する。
ロボット110の演算部110bは、必要警備度を2以上に設定する。
ロボット110は、可動部110eを制御して、伴走位置または回避位置154に移動する。このようにして、ロボット110はユーザと他人がすれ違う場合において、他人の進行障害とならないように伴走の位置を適宜変更することができる。
(1)ロボット110は、脚17に代えて車輪を有していてもよい。この場合、ロボット110は、車輪を駆動してロボットを伴走すればよい。さらに、ロボット110は、脚17と車輪とを有していてもよい。
101 :A社サーバ
110 :ロボット
111 :B社サーバ
120 :足元領域
122 :危険領域
130 :ユーザ位置
131 :ロボット位置
132 :放射位置
134 :ホーム位置
135 :先導位置
140 :人物位置
143 :護衛位置
154 :回避位置
Claims (11)
- 移動するユーザに伴走するロボットの制御方法であって、
前記ユーザからの入力によって、前記ユーザに対して前記ロボットがデフォルトで位置するべき基準相対位置を予め設定し、
前記ロボットに搭載された少なくとも1つのセンサを介して、前記ユーザの位置および移動方向を検出し、
前記ロボットの少なくとも一対の脚または車輪を駆動して前記ロボットを前記基準相対位置で前記ユーザに伴走させ、
前記ロボットの伴走中に、前記少なくとも1つのセンサを介して、前記ユーザの周囲のオブジェクトの種類と位置を特定し、
前記オブジェクトが危険物であり、かつ、前記ユーザの前記移動方向に位置している場合に、
前記少なくとも一対の脚または車輪を駆動して、前記ロボットを前記基準相対位置から、前記ユーザの前方であって、かつ、前記危険物を避けるために推奨される進行ルートに沿った方向にある先導位置に移動させ、
前記ロボットに搭載された照明装置を制御して、前記ユーザの足元の前方であって、かつ、前記危険物を避けるために推奨される前記進行ルートに沿った方向にある足元領域に、前記先導位置から光を照射させる、
ロボットの制御方法。 - 前記危険物が前記ユーザの前記移動方向に位置している場合に、さらに、
前記照明装置を制御して、前記足元領域への光の照射に加えて、前記危険物の少なくとも一部を含む危険領域にも前記先導位置から光を照射させる、
請求項1に記載のロボットの制御方法。 - 前記ユーザが前記危険物を通り過ぎた後に、前記少なくとも一対の脚または車輪を駆動して、前記ロボットを前記先導位置から前記基準相対位置に戻して前記ユーザに伴走させる、
請求項1に記載のロボットの制御方法。 - 前記ユーザからの入力は、ネットワークを介して前記ユーザの通信端末から取得され、
前記基準相対位置は、前記ユーザが前記通信端末の画面に表示されたグラフィカルユーザインタフェースを操作することによって選択される、
請求項1に記載のロボットの制御方法。 - 前記危険物が前記ユーザの右斜め前方に位置するとき、前記先導位置が前記ユーザの左斜め前方に決定される、
請求項1から4のいずれか1項に記載のロボットの制御方法。 - 前記危険物が前記ユーザの右斜め前方に位置するとき、前記足元領域の長軸方向を、前記ユーザの前記移動方向に対して左に傾斜させる、
請求項1から5のいずれか1項に記載のロボットの制御方法。 - 前記先導位置の決定は、
前記危険物を避けるために推奨される進行ルートを算出することと、
前記推奨される進行ルートに応じて前記先導位置を決定することとを含む、
請求項1から6のいずれか1項に記載のロボットの制御方法。 - 前記基準相対位置の設定において、前記ロボットが前記ユーザに対して位置すべき方向と、前記ロボットが前記ユーザに対して離れるべき距離とが設定される、
請求項1から7のいずれか1項に記載のロボットの制御方法。 - 前記先導位置は前記基準相対位置から離れた位置である、
請求項1から8のいずれか1項に記載のロボットの制御方法。 - 本体と、
前記少なくとも一対の脚または車輪と、
前記少なくとも一対の脚または車輪を駆動するアクチュエータと、
前記少なくとも1つのセンサと、
プロセッサと、
請求項1から9のいずれか1項に記載の制御方法を前記プロセッサに実行させるためのプログラムが格納されたメモリとを備える、
ロボット。 - 請求項1から9のいずれか1項に記載の制御方法を前記ロボットに搭載されたプロセッサに実行させる、
プログラム。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020214232 | 2020-12-23 | ||
JP2020214232 | 2020-12-23 | ||
JP2021194583 | 2021-11-30 | ||
JP2021194583 | 2021-11-30 | ||
PCT/JP2021/046670 WO2022138476A1 (ja) | 2020-12-23 | 2021-12-17 | ロボットの制御方法、ロボット、及びプログラム |
JP2022566174A JP7249565B2 (ja) | 2020-12-23 | 2021-12-17 | ロボットの制御方法、ロボット、及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022566174A Division JP7249565B2 (ja) | 2020-12-23 | 2021-12-17 | ロボットの制御方法、ロボット、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7281654B1 true JP7281654B1 (ja) | 2023-05-26 |
JP2023082713A JP2023082713A (ja) | 2023-06-14 |
Family
ID=82157810
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022566174A Active JP7249565B2 (ja) | 2020-12-23 | 2021-12-17 | ロボットの制御方法、ロボット、及びプログラム |
JP2023035648A Active JP7281654B1 (ja) | 2020-12-23 | 2023-03-08 | ロボットの制御方法、ロボット、及びプログラム |
JP2023035649A Pending JP2023067991A (ja) | 2020-12-23 | 2023-03-08 | ロボットの制御方法、ロボット、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022566174A Active JP7249565B2 (ja) | 2020-12-23 | 2021-12-17 | ロボットの制御方法、ロボット、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023035649A Pending JP2023067991A (ja) | 2020-12-23 | 2023-03-08 | ロボットの制御方法、ロボット、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (2) | US11960285B2 (ja) |
EP (1) | EP4269036A1 (ja) |
JP (3) | JP7249565B2 (ja) |
CN (2) | CN118238112A (ja) |
WO (1) | WO2022138476A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3882730B1 (en) * | 2019-01-22 | 2023-04-19 | Honda Motor Co., Ltd. | Accompanying mobile body |
JP7416070B2 (ja) * | 2019-08-14 | 2024-01-17 | ソニーグループ株式会社 | ロボット制御装置、方法およびプログラム |
WO2024090078A1 (ja) * | 2022-10-28 | 2024-05-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008307658A (ja) | 2007-06-15 | 2008-12-25 | Toyota Motor Corp | 自律移動装置 |
WO2018074069A1 (ja) | 2016-10-20 | 2018-04-26 | アイシン精機株式会社 | 移動体追尾制御装置 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005103678A (ja) * | 2003-09-29 | 2005-04-21 | Toshiba Corp | ロボット装置 |
JP4316477B2 (ja) | 2004-11-18 | 2009-08-19 | パナソニック株式会社 | 移動ロボットの追従方法 |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
JP4830438B2 (ja) * | 2005-10-04 | 2011-12-07 | トヨタ自動車株式会社 | 自律移動装置 |
JP2007264950A (ja) | 2006-03-28 | 2007-10-11 | Toyota Motor Corp | 自律移動型ロボット |
JP4811128B2 (ja) | 2006-05-25 | 2011-11-09 | トヨタ自動車株式会社 | 自律移動装置 |
JP2007234066A (ja) | 2007-06-18 | 2007-09-13 | Toshiba Corp | 監視装置 |
WO2012039280A1 (ja) * | 2010-09-21 | 2012-03-29 | トヨタ自動車株式会社 | 移動体 |
KR101792112B1 (ko) * | 2010-10-26 | 2017-10-31 | 삼성전자주식회사 | 횡단보도 보행보조시스템 및 그 제어방법 |
US20130131985A1 (en) | 2011-04-11 | 2013-05-23 | James D. Weiland | Wearable electronic image acquisition and enhancement system and method for image acquisition and visual enhancement |
EP2852475A4 (en) | 2012-05-22 | 2016-01-20 | Intouch Technologies Inc | SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT |
JP6340759B2 (ja) | 2013-07-10 | 2018-06-13 | 日本精工株式会社 | 障害物回避先導ロボット |
US10279488B2 (en) | 2014-01-17 | 2019-05-07 | Knightscope, Inc. | Autonomous data machines and systems |
US9530058B2 (en) | 2014-12-11 | 2016-12-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Visual-assist robots |
US20160188977A1 (en) | 2014-12-24 | 2016-06-30 | Irobot Corporation | Mobile Security Robot |
JP2016194742A (ja) | 2015-03-31 | 2016-11-17 | パナソニックIpマネジメント株式会社 | 自走式電子機器 |
JP2017047519A (ja) | 2015-09-04 | 2017-03-09 | Rapyuta Robotics株式会社 | クラウドロボティクスシステム、情報処理装置、プログラム、並びに、クラウドロボティクスシステムにおけるロボットの制御または支援方法 |
US10486313B2 (en) * | 2016-02-09 | 2019-11-26 | Cobalt Robotics Inc. | Mobile robot map generation |
CN105796289B (zh) | 2016-06-03 | 2017-08-25 | 京东方科技集团股份有限公司 | 导盲机器人 |
US11231706B1 (en) * | 2016-09-23 | 2022-01-25 | Amazon Technologies, Inc. | Landing and delivery robot |
JP2019079248A (ja) * | 2017-10-24 | 2019-05-23 | アイシン精機株式会社 | 情報処理装置およびプログラム |
KR102175298B1 (ko) | 2018-06-14 | 2020-11-06 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
US11372408B1 (en) | 2018-08-08 | 2022-06-28 | Amazon Technologies, Inc. | Dynamic trajectory-based orientation of autonomous mobile device component |
JP7351079B2 (ja) | 2018-11-30 | 2023-09-27 | ソニーグループ株式会社 | 制御装置、制御方法及びプログラム |
US20210154827A1 (en) | 2019-11-25 | 2021-05-27 | Jeong Hun Kim | System and Method for Assisting a Visually Impaired Individual |
IL272970A (en) | 2020-02-27 | 2021-08-31 | Seamless Vision 2017 Ltd | A guiding robot that navigates independently |
US11703881B2 (en) | 2020-03-19 | 2023-07-18 | Logistics And Supply Chain Multi Tech R&D Centre Limited | Method of controlling a guide machine and a navigation system |
WO2022020432A1 (en) | 2020-07-21 | 2022-01-27 | Alarm.Com Incorporated | Property monitoring and management using a drone |
US20220155092A1 (en) * | 2020-11-17 | 2022-05-19 | Logistics and Supply Chain MultiTech R&D Centre Limited | Method of navigating a visually impaired user, a navigation system for the same, and a guiding robot |
US20230099265A1 (en) * | 2021-09-29 | 2023-03-30 | Johnson Controls Tyco Ip Holdings, Llp | Systems and methods for use of autonomous robots for perimeter protection |
JP2023151177A (ja) * | 2022-03-31 | 2023-10-16 | 本田技研工業株式会社 | 移動体の制御装置、移動体の制御方法、プログラム及び記憶媒体 |
-
2021
- 2021-12-17 JP JP2022566174A patent/JP7249565B2/ja active Active
- 2021-12-17 EP EP21908106.4A patent/EP4269036A1/en active Pending
- 2021-12-17 CN CN202410567319.6A patent/CN118238112A/zh active Pending
- 2021-12-17 WO PCT/JP2021/046670 patent/WO2022138476A1/ja unknown
- 2021-12-17 CN CN202180060438.7A patent/CN116249604B/zh active Active
-
2023
- 2023-01-18 US US18/155,801 patent/US11960285B2/en active Active
- 2023-03-08 JP JP2023035648A patent/JP7281654B1/ja active Active
- 2023-03-08 JP JP2023035649A patent/JP2023067991A/ja active Pending
-
2024
- 2024-03-06 US US18/597,367 patent/US20240210944A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008307658A (ja) | 2007-06-15 | 2008-12-25 | Toyota Motor Corp | 自律移動装置 |
WO2018074069A1 (ja) | 2016-10-20 | 2018-04-26 | アイシン精機株式会社 | 移動体追尾制御装置 |
Also Published As
Publication number | Publication date |
---|---|
CN118238112A (zh) | 2024-06-25 |
US11960285B2 (en) | 2024-04-16 |
US20230288934A1 (en) | 2023-09-14 |
JP2023082713A (ja) | 2023-06-14 |
US20240210944A1 (en) | 2024-06-27 |
EP4269036A1 (en) | 2023-11-01 |
CN116249604B (zh) | 2024-05-28 |
JP7249565B2 (ja) | 2023-03-31 |
CN116249604A (zh) | 2023-06-09 |
JPWO2022138476A1 (ja) | 2022-06-30 |
JP2023067991A (ja) | 2023-05-16 |
WO2022138476A1 (ja) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7281654B1 (ja) | ロボットの制御方法、ロボット、及びプログラム | |
US9316502B2 (en) | Intelligent mobility aid device and method of navigating and providing assistance to a user thereof | |
US20240134393A1 (en) | System and methods for tagging accessibility features with a motorized mobile system | |
KR102027296B1 (ko) | 보행안전시스템 | |
US20160078278A1 (en) | Wearable eyeglasses for providing social and environmental awareness | |
JP2017529521A (ja) | 社会的且つ環境的認識を提供する装用可能イヤピース | |
KR20190100085A (ko) | 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법 | |
US20240142997A1 (en) | Method for controlling robot, robot, and recording medium | |
JP2019109591A (ja) | 自動運転支援装置 | |
JP7153891B1 (ja) | ロボット制御方法、ロボット、プログラム、及び記録媒体 | |
US20230350073A1 (en) | Edge and generative ai-based sustainable gps navigated wearable device for blind and visually impaired people | |
US20200281771A1 (en) | Movement Aid for the Visually Impaired | |
TW201434458A (zh) | 盲人行動記錄分析與導航系統 | |
Thirumalaiah et al. | A Voice-Assisted Walking Support for Visually Impaired People Utilizing an Wearable Sensor Network | |
Rani et al. | Astute Assistance System for Blind and Visually Impaired People | |
JP2023151566A (ja) | 交通安全支援システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230308 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230419 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7281654 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |