JP2008006551A - 作動装置 - Google Patents

作動装置 Download PDF

Info

Publication number
JP2008006551A
JP2008006551A JP2006180489A JP2006180489A JP2008006551A JP 2008006551 A JP2008006551 A JP 2008006551A JP 2006180489 A JP2006180489 A JP 2006180489A JP 2006180489 A JP2006180489 A JP 2006180489A JP 2008006551 A JP2008006551 A JP 2008006551A
Authority
JP
Japan
Prior art keywords
signal output
detection signal
robot
predetermined position
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006180489A
Other languages
English (en)
Inventor
Takafumi Matsumaru
隆文 松丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2006180489A priority Critical patent/JP2008006551A/ja
Publication of JP2008006551A publication Critical patent/JP2008006551A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作者による手動操作や音声操作を用いることなく指令情報を入力することができ、操作者の意図する通りに作動させることができる作動装置を提供する。
【解決手段】ロボット10は、ロボット10の前方の床面の所定の位置において物体を検出するレンジセンサ17と、同床面上にロボット10が実行する作動の内容を表した作動メニューMを表示するプロジェクタ20と、これらレンジセンサ17およびプロジェクタ20の各作動を制御するとともに所定の作動内容を実行するコントローラ30とを備えている。レンジセンサ17は、作動メニューMの前面を含むようにレーザ光を走査して測長信号をコントローラ30に出力する。コントローラ30は、測長信号が表す作動メニューM上における物体の位置を用いて、同位置に対応する作動内容を実行する。
【選択図】 図1

Description

本発明は、外部からの指示、例えば人間からの指示に応じて所定の作動を実行する作動装置に関する。
一般に、外部からの指示に応じて所定の作動を実行する作動装置、例えば人間からの指示に従って作動するロボットにおいては、操作者からの指令情報を入力するための入力装置を備えている。例えば、下記特許文献1に記載のロボットにおいては、操作者の手動操作によって指令情報を入力するための多数の操作子(キー)から構成される手動操作部と、操作者が発する音声指令によって指令情報を入力するためのマイクおよび音声制御部などから構成される音声操作部とを備えている。すなわち、このロボットは、操作者による手動操作および同操作者による音声操作に従って作動する。
特開2003−80482号公報
しかしながら、このような手動操作または音声操作による指令情報の入力には、次のような問題がある。すなわち、手動操作による指令情報の入力においては、手動操作部による操作が困難な操作者、例えば手を自由に動かすことができない障害者、けが人または老人や、手動操作部に手が届かない子供などの場合、ロボットを意図する通りに作動させることが難しいという問題がある。一方、音声操作による指令情報の入力においては、言語障害者や外国人などによる指令情報の入力が困難であるとう問題がある。また、操作者が音声指令を発する際の周囲の雑音によって音声操作部が指令情報を正確に認識できない、または誤って認識する場合があり、これらによってロボットを意図する通りに作動させることが難しいという問題がある。さらに、操作者が音声指令を発することで周囲の静寂を乱し、周囲の人間に不快感を与えることもあるという問題もある。
本発明は上記問題に対処するためなされたもので、その目的は、操作者による手動操作や音声操作を用いることなく指令情報を入力することができ、操作者の意図する通りに作動させることができる作動装置を提供することにある。
上記目的を達成するため、本発明の特徴は、操作者による操作に応じた入力信号を出力する入力手段と、入力手段から出力された入力信号に基づいて、所定の作動を実行する作動実行手段とを備えた作動装置において、入力手段は、地面、路面または床面上の所定の位置における物体の存在の有無に応じた検出信号を出力する検出信号出力手段を備え、作動実行手段は、検出信号出力手段から出力される検出信号を用いて前記所定の位置における物体の存在を検出する物体検出手段を備えるとともに、同物体検出手段にて物体の存在が検出されたとき、前記所定の作動を実行することにある。
この場合、前記作動装置において、さらに、前記所定の位置に、物体が存在するまたは存在しない場合における検出信号出力手段から出力される検出信号によって表される検出情報を記憶する検出情報記憶手段を備え、物体検出手段は、検出信号出力手段から出力される検出信号によって表される検出情報と検出情報記憶手段に記憶された検出情報との差異に基づいて、前記物体の存在を検出するとよい。また、この場合、前記検出信号出力手段は、超音波または光を用いて前記所定の位置における物体の存在の有無に応じた検出信号を出力するとよい。また、この場合、前記検出信号出力手段における前記物体は、人間の足であるとよい。
このように構成した本発明の特徴によれば、作動装置は、入力装置として地面、路面または床面上における所定の位置において物体の存在を検出する物体検出手段を備えており、同所定の位置において物体が検出されたとき所定の作動を実行する。したがって、作動装置に所定の作動を実行させようとする操作者は、前記所定の位置に何らかの物体、例えば操作者自身の足を位置させることにより作動装置に所定の作動を実行させることができる。これにより、手動操作または音声操作による指令情報の入力が困難な操作者であっても、作動装置に指令情報を入力することができる。この結果、操作者による手動操作または音声操作を用いることなく、操作者の意図する通りに作動装置を操作することができる。また、この場合、超音波または光を用いて所定の位置における物体の存在を検出するようにすれば、作動装置の周囲の音の影響を受けることなく作動装置に指令情報を入力することができる。これにより、作動装置の作動精度を向上させることができる。さらに、音声を用いて指令情報を入力しないため、作動装置の周囲の静寂を乱すことがないとともに、周囲の人に不快感を与えることがない。
また、前記作動装置において、さらに、前記作動装置が実行する前記所定の作動の内容を記憶する作動内容記憶手段を備え、作動実行手段は、作動内容記憶手段に記憶された前記所定の作動の内容を実行するようにするとよい。これによれば、作動装置が実行する作動の内容が作動内容実行手段に記憶されている。このため、作動装置に複雑な内容の作動を実行させることができる。
また、前記作動装置において、前記作動装置が実行する前記所定の作動は複数種類存在し、作動内容記憶手段は、前記複数種類の各作動の内容をそれぞれ記憶し、検出信号出力手段における前記所定の位置は、前記複数種類の作動ごとに存在し、作動実行手段は、作動内容記憶手段に記憶された前記複数種類の作動の中から、物体検出手段にて物体の存在が検出される前記所定の位置に応じた作動の内容を実行するようにするとよい。これによれば、作動装置に複数の種類の作動を実行させたい場合、実行させたい作動の種類に応じた位置に物体を位置させることにより作動装置を作動させることができる。
また、前記作動装置において、さらに、検出信号出力手段における前記所定の位置に、同所定の位置に前記物体が存在することによって実行される作動を表す情報を表示する作動情報表示手段を備えるとよい。これによれば、所定の位置に物体を位置させることにより実行される作動の内容を表す情報、例えば、作動の名称を同所定の位置に表示される。これにより、操作者は、所定の位置を認識し易くなるとともに、同所定の位置に物体を位置させることにより実行される作動の内容を予め知ることができる。この結果、作動装置に対して指令情報が入力し易くなり操作性が向上する。
また、前記作動装置において、さらに、検出信号出力手段における前記所定の位置を変更する位置変更手段を備えてもよい。これによれば、作動装置に対する操作者の位置に応じて所定の位置を変更することができる。この結果、作動装置に対する操作性が向上する。
以下、本発明に係る作動装置の一実施形態について図面を参照しながら説明する。図1は、人間による操作、またはプログラムによる自律運転によって病院内において院内の各種案内や荷物の搬送、巡回などを行う院内業務支援ロボット10(以下、単に「ロボット」という)の全体を示す斜視図である。また、図2は、同ロボット10のシステム構成を示すブロック図である。
このロボット10は、ロボット10のケーシングを構成する胴体部11を備えている。胴体部11は、図示上下方向に延びる円柱体で構成されており、その中央部が括れた形状に形成されている。胴体部11の上面は、人間の胸部程度の高さに設定されており、この上面上に液晶ディスプレイ12、アンテナ13aおよびボックス14がそれぞれ設けられている。液晶ディスプレイ12は、ロボット10の作動状態等を表示するための表示装置であり、ロボット10の正面側(図1において一点鎖線で示す操作者OP側)に表示画面が向くように取り付けられている。アンテナ13aは、胴体部11の内部に設けられた送信装置13に接続されており、送信装置13から出力される電気信号を電波に変換する。送信装置13は、後述するコントローラ30によって制御され「呼び出し信号」を生成するとともに、同信号をアンテナ13aを介して病院内のナースステーションに向けて発信する。ボックス14は、書類などの荷物を収容するための有底状の穴であり、胴体部11の上面から所定の深さで長方形状に形成されている。
胴体部11の上面の一部は、ロボット10の正面側に向けて長方形状に延びて形成されており、その上面にキーボード15が設けられている。このキーボード15は、操作者OPによる手動操作によってコントローラ30に指令情報を入力するための入力装置であり、複数の操作子(キー)により構成されている。胴体部11の上面における前記長方形状に延びた部分の下方は、胴体部11の中央部における前記括れた部分に向けて傾斜した形状となっており、この傾斜面の略中央部にレンズ20aが設けられている。レンズ20aは、胴体部11の内部に設けられたプロジェクタ20の投影用光学レンズであり、ロボット10の前方の床面に向けて取り付けられている。プロジェクタ20は、コントローラ30によって制御されてロボット10の作動(機能)の種類などを表す作動メニューMをロボット10の前方の床面に投影させて表示する。
作動メニューMは、ロボット10が実行する複数種類の作動(機能)のうち、操作者OPからの指示に従って実行する作動(機能)の一部と、ロボット10の作動状態や操作者OPに対する問い合わせメッセージとを表示するための図形情報である。この作動メニューMは、図3に示すように、四角形状に形成されており、各表示項目ごとに領域分けされて構成されている。本実施形態においては、ロボット10側から操作者OP側に向けて「STOP」、「選択してください」、「呼び出し」の順に表示項目を配置するとともに、ロボット10から最も離れた位置に「院内巡回」、「荷物搬送」、「院内案内」、「診察案内」および「待機A」・「待機B」の各表示項目を互いに隣り合うように並べて配置している。これらのうち、「STOP」、「呼び出し」「院内巡回」、「荷物搬送」、「院内案内」、「診察案内」および「待機A」・「待機B」の7つはロボット10が実行する作動(機能)であり、「選択してください」はロボット10の操作者OPに対する問い合わせメッセージである。なお、これらの各表示項目は、直線または曲線によって四角形状内において領域分けされている。また、この作動メニューMを表示させるためのデータは、後述する外部記憶装置31に予め記憶されている。
レンズ20aの下方における胴体部11の側面には、スピーカ16aが設けられている。スピーカ16aは、胴体部11の内部に設けられた音声出力装置16に接続されており、音声出力装置16から出力される電気信号を音に変換する。音声出力装置16は、コントローラ30によって制御され、ロボット10の作動状態等を音声によって操作者OPに知らせるための音声信号を生成するとともに、同信号をスピーカ16aを介して発声させる。スピーカ16の下方における胴体部11の側面には、ロボット10の前方に向けて半円柱状に張り出したレンジセンサ17が設けられている。レンジセンサ17は、レーザ光を用いて物体表面までの距離を測定するための測長型センサであり、レーザ光を出射するための図示しないレーザ光源と、物体表面から反射した反射レーザ光を受光するための図示しないフォトディテクタと、これらレーザ光源およびフォトディテクタを所定の方向に走査する図示しない走査機構とを備えている。
このレンジセンサ17は、コントローラ30によって制御され、図1の破線で示すように、ロボット10の前方の床面に向けて扇状にレーザ光を走査する。この場合、レンジセンサ17は、レーザ光を走査する所定の角度θごとに反射レーザ光を受光して物体表面までの距離Lを計算し、角度θおよび距離Lを表す測長信号をコントローラ30に出力する。すなわち、レーザ光を走査する所定の角度θごとに、レーザ光を出射してから反射レーザ光を受光するまでの時間を用いて距離Lを計算する。なお、本実施形態においてレーザ光が照射される床面上の位置は、作動メニューMの操作者OP側の端部より操作者OP側の位置であり、レーザ光を走査する最大角度θMAX(扇の角度)は、作動メニューMの左右の幅より広い範囲を走査するよう(例えば、140°程度)に設定される。すなわち、作図メニューM全体を覆うようにレーザ光の走査領域が設定される。
胴体部11の底部には、2つの車輪18a,18bと1つの球体19とがそれぞれ設けられている。車輪18a,18bおよび球体19は、ロボット10の位置を変化させるためのもので、ロボット10の後側に2つの車輪18a,18bが互いに平行に配置されるとともに、同ロボット10の前側中央部に1つの球体19が配置されている。これらのうち、ロボット10の後側に配置されている車輪18a,18bは駆動輪であり、駆動モータ21a,21bによってそれぞれ回転駆動される。また、ロボット10の前側に配置されている球体19は、球状に形成された駆動源を有さない従動輪であり回転自在な状態で組み付けられている。駆動モータ21a,21bは、コントローラ30によって回転駆動が制御される電動モータである。
コントローラ30は、CPU、ROM、RAMなどからなるマイクロコンピュータによって構成されており、キーボード15からの指示、またはレンジセンサ17から出力される測長信号に従って各種作動を実行する。この場合、コントローラ30は、ハードディスクからなる外部記憶装置31に予め記憶されたプログラム、具体的には、ロボット10が実行する各種作動ごとの作動実行用プログラムを実行することにより各種作動をそれぞれ実行する。この場合、各作動の実行状態は液晶ディスプレイ12やプロジェクタ20によって適宜表示される。
また、外部記憶装置31には、作動メニューMによって表される各種作動内容とレンジセンサ17から出力される測長信号との対応関係を表す作動対応テーブルが記憶されている。作動対応テーブルは、測長信号から作動メニューMによって表される各種作動内容を特定するためのマトリクスであり、測長信号が表す角度θおよび距離Lを用いて1つの種類の作動内容を特定する。具体的には、レーザ光を走査する角度θごとに作動メニューMに表示される各作動内容の領域が占める距離Lの範囲を特定しておく。例えば、図4に示すように、ある所定の角度θ=X°において、作動メニューMの領域Aの距離Lの範囲は、距離L1から距離L2の範囲であり、領域Bの距離Lの範囲は、距離L2から距離L3の範囲である。そして、各領域ごとに特定された角度θおよび距離Lに対して、同領域に対応する各種作動内容が関連付けられている。すなわち作動対応テーブルによって規定される角度θおよび距離Lは、各領域に物体が存在した場合における角度θおよび距離Lである。なお、これらの各領域が本発明における請求項1に記載の各々の所定の位置に相当する。また、作動対応テーブルが本発明における請求項2に記載の検出情報に相当する。
ここで、作動メニューMによって表されるロボット10の各種作動の内容を簡単に説明しておく。「STOP」は駆動モータ21a,21bの回転駆動により走行しているロボット10の停止の作動を表し、「呼び出し」は病院内のナースステーションに向けて「呼び出し信号」を発信する作動を表し、「院内巡回」はロボット10が自律運転によって病院内を巡回する作動を表し、「荷物搬送」はボックス14内に収納された荷物を操作者OPが指示する場所へ搬送する作動を表し、「院内案内」は病院内の各種案内を画像または音声によって出力する作動を表し、「診察案内」は病院内の診察に関する情報を画像または音声によって出力する作動を表し、「待機A」・「待機B」は操作者OPのロボット10に対する入力操作を無視して待機状態とする作動を表している。なお、これらの各作動を実行する上で前記作動実行用プログラム以外に必要な情報、例えば、病院や診察の各種案内に用いる具体的な情報、院内の巡回や荷物の搬送に用いる病院内の経路に関する情報などは、外部記憶装置31に別途予め記憶されている。
次に、上記のように構成したロボット10の作動について説明する。まず、操作者OPは図示しない電源スイッチの投入により、コントローラ30を含むロボット10の各種回路の作動を開始させる。これによりコントローラ30は、図示しないプログラムを実行することにより、操作者OPによる運転モードの選択指令の入力を待つ状態となる。本実施形態において操作者OPは、キーボード15を操作することにより「接客モード」を選択する指令をコントローラ30に入力する。この「接客モード」は、病院内にて不特定の者に対して病院や診察の案内、荷物の搬送などの接客を行うモードである。なお、ロボット10の運転モードとしては他に、操作者OPによるキーボード15の操作によりロボット10を手動作動する「手動操作モード」や、ロボット10をメンテナンスするための「メンテナンスモード」などがあるが、これらは本発明に関係しないため説明を省略する。
コントローラ30は、前記「接客モード」を選択する指令に応じて、図5に示す接客プログラムの実行をステップS100にて開始して、ステップS102にて、作動メニューMを表示させる。この場合、コントローラ30は、外部記憶装置31に記憶されている作動メニューMを読み出すとともに、同作動メニューMを表す信号をプロジェクタ20に出力する。これにより、プロジェクタ20はレンズ20aを介して作動メニューMをロボット10の前方における床面上に表示させる。
次に、コントローラ30は、ステップS104にて、終了指令が入力されたか否かを判定する。終了指令は、「接客モード」の終了をコントローラ30に指示するための指令であり、操作者OPによるキーボード15の操作によって入力される。したがって、コントローラ30は、操作者OPによって終了指令が入力されるまで、このステップS104の判定処理にて「No」と判定し続けてステップS106に進む。一方、操作者OPによって終了指令が入力された場合には、コントローラ30は同判定処理にて「Yes」と判定してステップS114に進む。
次に、コントローラ30は、ステップS106にて、レンジセンサ17の作動を開始させてロボット10の前方における床面のスキャンニングを行う。この場合、レンジセンサ17は、レーザ光を図示右側から左側、または図示左側から右側の一方向に向けて円弧状に走査してスキャンニングを行う。これにより、ロボット10の前方における床面上に対して扇状にレーザ光が走査されるとともに、測長信号がコントローラ30に出力される。この床面のスキャンニングは、前記一方向に1回だけ実行させて終了する。したがって、コントローラ30には、スキャンニング1回分に対応する角度θごとの距離Lが入力される。なお、コントローラ30は、入力したスキャンニング1回分に対応する角度θおよび距離Lを一時的に記憶する。
次に、コントローラ30は、ステップS108にて、作動メニューMによって表示されている各種作動内容のうち、1つの種類の作動内容を特定する。この場合、コントローラ30は、前記ステップS106にて記憶したスキャンニング1回分の角度θおよび距離Lと、外部記憶装置31に予め記憶されている作動対応テーブルとを用いて作動メニューMによって表示されている各種作動内容のうち、1つの種類の作動内容を特定する。具体的には、角度θごとの距離Lにより作動対応テーブルを参照して、同角度θごとの距離Lに対応する作動内容を特定する。
例えば、レンジセンサ17から出射されたレーザ光が床面にて反射して再びレンジセンサ17によって受光された場合における距離Lにおいては、同距離Lに対応して特定される作動内容はない。一方、作動メニューM内におけるいずれかの領域に物体、例えば、操作者OPの足が存在する場合には、レンジセンサ17から出射されたレーザ光は同足にて反射するためレンジセンサ17によって検出される距離Lは同足の位置、すなわち、同足が存在する領域に応じた値となる。
したがって、コントローラ30は、角度θごとの距離Lを用いて作動対応テーブルを参照することにより、同角度θごとの距離Lに対応する作動内容を特定することができる。例えば、図6に示すように、操作者OPが作動メニューM内の「診察案内」が表示された領域に足を位置させた場合には、同領域に対応する角度θおよび距離L(足の大きさに対応)が検出されるととともに、同角度θおよび距離Lを用いて作動対応テーブルが参照されることによって「診察案内」の作動内容が特定される。すなわち、操作者OPは、自身が意図する作動内容が表示されている作動メニューM上に足を位置させることにより、コントローラ30に対して特定の作動内容の指定することができる。なお、作動メニューM上に位置させる物体は、有体物であれば操作者OPの足に限定されるものではない。例えば、操作者OPが使用している杖などでもよい。また、操作者OPがキーボード15の操作部に手が届かない子供などにおいては、同操作者OPの手を作動メニューM上に位置させてもよい。
なお、作動メニューMにおける「待機A」・「待機B」については、「待機A」・「待機B」が表示された各領域に同時に操作者OPの足が位置した場合にのみ、作動内容(待機作動)が特定される。これは、作動内容を特定するための条件を増やして操作者OPによる不用意な操作を防止するものである。
次に、コントローラ30は、ステップS110にて、前記ステップS108にて作動内容が特定されたか否かを判定する。この場合、前記ステップS108にて作動内容が特定されない場合、具体的には、作動メニューM上において指定された作動内容が無い場合には、この判定処理にて「No」と判定されてステップS104に戻る。一方、前記ステップS108にていずれかの作動内容が特定された場合には、同判定処理にて「Yes」と判定されてステップS112に進む。
次に、コントローラ30は、ステップS112にて、前記ステップS108にて特定された作動内容を実行する。この場合、コントローラ30は、特定された作動内容に対応する作動実行用プログラムを外部記憶装置31から読み出して実行する。これにより、作動メニューM内において操作者OPの足が存在する領域に対応する作動内容が実行される。すなわち、操作者OPは、自身が意図する作動内容が表示されている作動メニューM上に足を位置させることにより、ロボット10に対して同意図する作動内容を実行させることができる。そして、コントローラ30は、特定された作動内容を実行した後、ステップS104に戻る。なお、作動実行用プログラムの実行時においては、各対応する作動の内容が実行されるとともに、前記ステップS104〜ステップS110の各処理に相当する処理もそれぞれ実行されており、終了指令の入力(ステップS104に相当)または作動内容の特定(ステップS110に相当)が行われれば、直ちにステップS112の処理を中断して、ステップS104に進む。
前記ステップS104にて「Yes」と判定、すなわち、操作者OPによって終了指令が入力された場合、コントローラ30は、ステップS114にて、復帰処理を行う。この復帰処理は、操作者OPによる運転モードの選択指令の入力を待つ状態に戻すための処理であり、例えば、作動メニューMの表示の中止などの処理が行われる。そして、コントローラ30は、復帰処理の実行後ステップS116にて、この接客プログラムの実行を終了する。これにより、ロボット10は、前記と同様に、操作者OPによる運転モードの選択指令の入力を待つ状態となる。
上記作動説明からも理解できるように、上記実施形態によれば、ロボット10は、レンジセンサ17によりロボット10の前方の床面上の複数の位置において物体の検出を行っている。そして、ロボット10は、物体が検出された位置に応じて同位置に対応する作動内容を実行する。このため、操作者OPは、自身が意図する作動内容に対応する作動メニューM上に足を位置させることにより、ロボット10に同意図した作動を実行させることができる。これにより、手動操作または音声操作による指令情報の入力が困難な操作者OPであっても、ロボット10に指令情報を入力することができる。すなわち、操作者OPによる手動操作または音声操作を用いることなく指令情報を入力することができ、操作者OPの意図する通りにロボット10を操作することができる。
また、ロボット10のレンジセンサ17は、レーザ光を用いて物体を検出するため、ロボット10の周囲の音の影響を受けることなく指令情報をコントローラ30に入力することができる。これにより、ロボット10の作動精度を向上させることができる。さらに、音声を用いて指令情報を入力しないため、ロボット10の周囲の静寂を乱すことがないとともに、周囲の人に不快感を与えることもない。
さらに、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
上記実施形態においては、所定の位置において物体を検出するためにレンジセンサ17を用いた。しかし、所定の位置において物体の検出が可能であれば、これに限定されるものではない。例えば、レーザ光に代えて超音波を用いたレンジセンサを用いてもよいし、赤外線または超音波などを用いたエリアセンサ、これらに代えてCCD(charge coupled device)などから構成されるイメージセンサなどを用いるようにしてもよい。
なお、イメージセンサを用いた場合、物体の存在を検出する所定の位置に物体が存在しない場合におけるイメージデータを外部記憶装置31に記憶しておき、接客プログラムの実行によって出力される測長信号に基づくイメージデータを正規化して比較し、その差分から物体の位置を検出するようにする。また、これに代えて、前記所定の位置におけるイメージデータの経時変化(例えば、フレーム間1/60秒ごと)によって物体の位置を検出するようにすることもできる。
また、レーザ光や超音波を用いたセンサに代えて脚踏み式の検出器を用いることもできる。例えば、ビニール製のシート表面に作動メニューMの図形を印刷するとともに、この作動メニューMの各作動内容が印刷されたシートの内側にそれぞれ圧電素子を配置する。この圧電素子の出力はコントローラ30に出力される。この場合、操作者OPは、自身が意図する作動内容が印刷された部分を踏む。これにより、圧電素子に加えられた圧力に応じた電気信号がコントローラ30に出力され、コントローラ30は、この電気信号に応じて踏まれた部分(作動内容)に対応する作動内容を実行する。これによっても、上記実施形態と同様の効果が期待できる。
また、上記実施形態においては、ロボット10の前方における床面上に作動メニューMを表示するとともに物体の検出を行うように構成したが、これに限定されるものではない。作動メニューMを表示する位置および物体を検出する位置は、所定の作動を実行する作動装置の用途に応じて適宜設定されるものである。したがって、2箇所以上の位置、例えばロボット10の前後方向または左右方向の位置に作動メニューMを表示するとともに物体の検出を行うように構成してもよい。また、作動装置から離れた位置に、作動メニューMの表示および物体の検出を行うようにしてもよい。例えば、操作者OPが立ち入れない危険な領域に作動装置が設置されている場合、この作動装置とは離れた安全な位置に作動メニューMを表示するとともに物体の検出を行うように構成してもよい。
また、本実施形態においては、作動メニューMの形状を四角形状としたが、当然これに限定されるものではない。作動メニューMの形状は、表示する作動の種類や表示の態様、作動装置の用途などに応じて適宜設定されるものである。
また、上記実施形態においては、病院内での業務を支援するロボット10に本発明を適用した例を説明したが、これに限定されるものではない。操作者OPの操作に応じて所定の作動を実行する作動装置であれば本発明は広く適用することができる。例えば、公共施設内などにおいて自律運転などにより作動する各種案内ロボット、搬送ロボット、または各種産業用ロボットの作動を指示する場合にも、本発明を上記実施形態と同様に適用することができる。また、自動販売機や家庭用電化製品、例えば、エアコンの各種操作を行う場合において床面上に作動メニューMを表示させて同作動メニュー上に足を位置させることにより、エアコンの作動を操作することもできる。さらに、操作者OPは人間に限られず、動物であってもよい。作動が実行される所定の位置を操作者OPとなる動物に経験的に覚えさせれば、動物であっても作動装置を作動させることができる。
なお、これらの場合、所定の位置における物体の検出は、操作者OPが存在する平面上、例えば、地面、路面、床面上などである。すなわち、物体を検出するための所定の位置は、上記実施形態のように建物内の床面上に限定されるものではなく、作動装置に指令情報を入力する操作者OPが存在する足下付近であればよい。
また、上記実施形態においては、作動メニューMとして作動内容を文字(「院内巡回」など)で表すように構成したが、作動内容を理解できる情報であれば、これに限定されるものではない。例えば、作動内容を図形または写真などの画像によって表すように構成してもよい。これによっても上記実施形態と同様の効果が期待できる。なお、作動内容を図形や写真画像を用いた場合、子供や外国人などに対して分かりやすい表示となる。
また、上記実施形態においては、ロボット10の前方の床面に作動メニューMを表示するように構成したが、必ずしも作動メニューMを表示する必要はない。すなわち、操作者OPがレンジセンサ17によって物体が検出される位置を認識できれば、作動メニューMを表示させる必要はない。例えば、レンジセンサ17によって物体が検出される床面に、予め作動メニューMをペンキ等で描いておいてもよい。また、操作者OPがレンジセンサ17によって物体が検出される位置を予め認識していれば、作動メニューMを表示する必要はない。これらの場合には、作動メニューMを表示するための構成、例えばレンジセンサ17は不要である。
また、上記実施形態においては、レンジセンサ17から出力される測長信号によって実行される作動の種類は複数種類存在したが、必ずしも複数種類存在させる必要はない。すなわち、ロボット10が実行する作動の種類は1つでもよい。これによっても上記実施形態と同様の効果が期待できる。
また、上記実施形態においては、レンジセンサ17から出力される測長信号に基づいて作動を実行させる際、外部記憶装置31に予め記憶した作動実行用プログラムを実行することによって作動を実行するように構成した。しかし、レンジセンサ17から出力される測長信号によって何らかの作動が実行されればよく、必ずしも作動の内容を外部記憶装置31に記憶させておく必要はない。例えば、前記変形例に示した脚踏み式の検出器を用いた場合、検出器から出力される電気信号によって直接作動を実行、例えばランプの点灯などを実行するように構成してもよい。これによっても上記実施形態と同様の効果が期待できる。
また、上記実施形態においては、レンジセンサ17によって物体を検出する所定の位置は作動メニューMに基づいて設定した。しかし、レーザ光が走査される範囲内であれば他の位置を所定の位置とすることもできる。また、レンジセンサ17およびプロジェクタ20のレンズ20aをロボット10の胴体部11回りに回転可能に構成すれば、ロボット10に対する操作者OPの位置に応じて前記所定の位置を変更することもできる。これによれば、ロボット10に対して指令情報をより入力し易くすることができる。
また、上記実施形態においては、レンジセンサ17から出力される測長信号に基づいて実行させる作動として、「院内巡回」、「荷物搬送」、「院内案内」、「診察案内」および「追従A」・「追従B」としたが、当然これに限定されるものではない。ロボット10、すなわち、作動装置10が利用される目的に応じた作動内容を実行させるようにすればよい。例えば、レーザ光の走査範囲内においてリアルタイムに物体(例えば、足)の位置を検出し、この足の動きに追従させて液晶ディスプレイ12上に表示させたカーソルを動かすように構成してもよい。これによれば、手動操作が困難な操作者OPであってもマウス(コンピュータ用入力装置)のようなポインティングデバイスと同様な入力操作を行うことができる。
また、上記実施形態においては、レンジセンサ17から出力される測長信号にのみ基づいて各種作動を実行するように構成したが、これに限定されるものではない。すなわち、他の入力手段と組み合わせて各種作動を実行させるように構成してもよい。例えば、ロボット10に従来例にあるような音声制御部を設け、レンジセンサ17から出力される測長信号と、音声制御部からの指令情報とを用いて各種作動を実行させるように構成してもよい。これによれば、より多様で複雑な指令情報をコントローラ30に入力することができる。
また、上記実施形態においては、作動対応テーブルは、所定の位置に物体が存在しない場合における角度θおよび距離Lを用いて構成したが、これに限定されるものではない。例えば、同所定の位置に物体が存在する場合における角度θおよび距離Lによって作動対応テーブルを構成してもよい。そして、接客プログラムの実行により出力される測長信号によって表される角度θおよび距離Lと、作動対応テーブルに設定された角度θおよび距離Lとの差異に基づいて物体の存在を検出することができる。なお、この場合、例えば、人間の足を所定の位置に存在させた場合における作動変換テーブルを規定しておけば、所定の位置に人間の足が位置したとき、所定の作動を実行させることができる。
本発明の一実施形態に係る院内業務支援ロボットの全体を示す斜視図である。 図1に示す院内業務支援ロボットのシステム構成を概略的に示すブロック図である。 図1に示す院内業務支援ロボットが表示する作動メニューを示す正面図である。 レーザ光と作動メニューとの関係を示す説明図である。 図1に示す院内業務支援ロボットのコントローラによって実行されるプログラムのフローチャートである。 図1に示す院内業務支援ロボットを操作者が操作する状態を示す斜視図である。
符号の説明
M…作動メニュー、10…院内業務支援ロボット、11…胴体部、12…液晶ディスプレイ、13a…アンテナ、15…キーボード、16a…スピーカ、17…レンジセンサ、18a,18b…車輪、19…球体、20…プロジェクタ、20a…レンズ、30…コントローラ、31…外部記憶装置。

Claims (8)

  1. 操作者による操作に応じた入力信号を出力する入力手段と、
    前記入力手段から出力された入力信号に基づいて、所定の作動を実行する作動実行手段とを備えた作動装置において、
    前記入力手段は、地面、路面または床面上の所定の位置における物体の存在の有無に応じた検出信号を出力する検出信号出力手段を備え、
    前記作動実行手段は、前記検出信号出力手段から出力される前記検出信号を用いて前記所定の位置における前記物体の存在を検出する物体検出手段を備えるとともに、同物体検出手段にて前記物体の存在が検出されたとき、前記所定の作動を実行することを特徴とする作動装置。
  2. 請求項1に記載の作動装置において、さらに、
    前記所定の位置に、前記物体が存在するまたは存在しない場合における前記検出信号出力手段から出力される検出信号によって表される検出情報を記憶する検出情報記憶手段を備え、
    前記物体検出手段は、前記検出信号出力手段から出力される前記検出信号によって表される検出情報と前記検出情報記憶手段に記憶された検出情報との差異に基づいて、前記物体の存在を検出する作動装置。
  3. 請求項1または請求項2に記載の作動装置において、
    前記検出信号出力手段は、超音波または光を用いて前記所定の位置における物体の存在の有無に応じた検出信号を出力する作動装置。
  4. 請求項1ないし請求項3のうちのいずれか1つに記載の作動装置において、さらに、
    前記作動装置が実行する前記所定の作動の内容を記憶する作動内容記憶手段を備え、
    前記作動実行手段は、前記作動内容記憶手段に記憶された前記所定の作動の内容を実行する作動装置。
  5. 請求項4に記載の作動装置において、
    前記作動装置が実行する前記所定の作動は複数種類存在し、
    前記作動内容記憶手段は、前記複数種類の各作動の内容をそれぞれ記憶し、
    前記検出信号出力手段における前記所定の位置は、前記複数種類の作動ごとに存在し、
    前記作動実行手段は、前記作動内容記憶手段に記憶された前記複数種類の作動の中から、前記物体検出手段にて前記物体の存在が検出される前記所定の位置に応じた作動の内容を実行する作動装置。
  6. 請求項1ないし請求項5のうちのいずれか1つに記載の作動装置において、さらに、
    前記検出信号出力手段における前記所定の位置に、同所定の位置に前記物体が存在することによって実行される前記作動を表す情報を表示する作動情報表示手段を備えた作動装置。
  7. 請求項1ないし請求項6のうちのいずれか1つに記載の作動装置において、さらに、
    前記検出信号出力手段における前記所定の位置を変更する位置変更手段を備えた作動装置。
  8. 請求項1ないし請求項7のうちのいずれか1つに記載の作動装置において、
    前記検出信号出力手段における前記物体は、人間の足である作動装置。
JP2006180489A 2006-06-29 2006-06-29 作動装置 Pending JP2008006551A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006180489A JP2008006551A (ja) 2006-06-29 2006-06-29 作動装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006180489A JP2008006551A (ja) 2006-06-29 2006-06-29 作動装置

Publications (1)

Publication Number Publication Date
JP2008006551A true JP2008006551A (ja) 2008-01-17

Family

ID=39065218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006180489A Pending JP2008006551A (ja) 2006-06-29 2006-06-29 作動装置

Country Status (1)

Country Link
JP (1) JP2008006551A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009065831A2 (de) * 2007-11-19 2009-05-28 Kuka Roboter Gmbh Roboter, medizinischer arbeitsplatz und verfahren zum projizieren eines bildes auf die oberfläche eines objekts
JP2010079654A (ja) * 2008-09-26 2010-04-08 Oki Electric Ind Co Ltd ロボット操作装置及びロボット操作システム
WO2011068390A3 (ko) * 2009-12-04 2011-11-03 (주) 퓨처로봇 사용 유도 장치 및 방법
KR101089735B1 (ko) * 2009-07-08 2011-12-07 한국과학기술원 바닥면에 도넛 형상으로 이미지 빔을 출력하는 프로젝션
JP2012083871A (ja) * 2010-10-08 2012-04-26 Funai Electric Co Ltd プロジェクタ
FR2966763A1 (fr) * 2010-10-29 2012-05-04 David Lemaitre Robot compagnon commande par un videoprojecteur et un element de commande
JP2013107184A (ja) * 2011-11-24 2013-06-06 Tokyo Denki Univ 人物誘導ロボット
JP2015132933A (ja) * 2014-01-10 2015-07-23 三菱重工業株式会社 操作装置及びこれを備える料金自動収受機
JP2015158919A (ja) * 2015-03-05 2015-09-03 船井電機株式会社 プロジェクタ
CN105751219A (zh) * 2016-05-07 2016-07-13 深圳市华科安测信息技术有限公司 用于挂号及拿药的医用机器人控制系统及方法
JPWO2016080321A1 (ja) * 2014-11-21 2017-05-25 シャープ株式会社 表示投影制御装置、表示投影システム、該表示投影制御装置の制御プログラム、該制御プログラムを記録したコンピュータ読み取り可能な記録媒体、および該表示投影制御装置の制御方法
CN106956261A (zh) * 2017-04-11 2017-07-18 华南理工大学 一种具有安全识别区的人机交互机械臂系统及方法
KR20180062130A (ko) * 2016-11-30 2018-06-08 주식회사 레인보우로보틱스 서비스 로봇
CN109558020A (zh) * 2018-11-16 2019-04-02 深圳时空数字科技有限公司 存储设备、展示系统及其脚控式操作接口和控制方法
WO2019085296A1 (zh) * 2017-11-03 2019-05-09 深圳市易特科信息技术有限公司 用于医院的导诊辅助机器人
CN110333817A (zh) * 2019-07-31 2019-10-15 深圳市云充吧科技有限公司 一种移动电源充电终端
WO2022003830A1 (ja) * 2020-06-30 2022-01-06 日本電気株式会社 制御装置、制御方法、及びコンピュータ可読媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549074A (ja) * 1991-08-09 1993-02-26 Fujitsu Ltd リモコン装置
JP2005242725A (ja) * 2004-02-27 2005-09-08 Vodafone Kk 電子機器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549074A (ja) * 1991-08-09 1993-02-26 Fujitsu Ltd リモコン装置
JP2005242725A (ja) * 2004-02-27 2005-09-08 Vodafone Kk 電子機器

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009065831A3 (de) * 2007-11-19 2009-10-15 Kuka Roboter Gmbh Roboter, medizinischer arbeitsplatz und verfahren zum projizieren eines bildes auf die oberfläche eines objekts
US8965583B2 (en) 2007-11-19 2015-02-24 Kuka Laboratories Gmbh Robot, medical work station, and method for projecting an image onto the surface of an object
WO2009065831A2 (de) * 2007-11-19 2009-05-28 Kuka Roboter Gmbh Roboter, medizinischer arbeitsplatz und verfahren zum projizieren eines bildes auf die oberfläche eines objekts
JP2010079654A (ja) * 2008-09-26 2010-04-08 Oki Electric Ind Co Ltd ロボット操作装置及びロボット操作システム
KR101089735B1 (ko) * 2009-07-08 2011-12-07 한국과학기술원 바닥면에 도넛 형상으로 이미지 빔을 출력하는 프로젝션
WO2011068390A3 (ko) * 2009-12-04 2011-11-03 (주) 퓨처로봇 사용 유도 장치 및 방법
JP2012083871A (ja) * 2010-10-08 2012-04-26 Funai Electric Co Ltd プロジェクタ
FR2966763A1 (fr) * 2010-10-29 2012-05-04 David Lemaitre Robot compagnon commande par un videoprojecteur et un element de commande
JP2013107184A (ja) * 2011-11-24 2013-06-06 Tokyo Denki Univ 人物誘導ロボット
JP2015132933A (ja) * 2014-01-10 2015-07-23 三菱重工業株式会社 操作装置及びこれを備える料金自動収受機
JPWO2016080321A1 (ja) * 2014-11-21 2017-05-25 シャープ株式会社 表示投影制御装置、表示投影システム、該表示投影制御装置の制御プログラム、該制御プログラムを記録したコンピュータ読み取り可能な記録媒体、および該表示投影制御装置の制御方法
JP2015158919A (ja) * 2015-03-05 2015-09-03 船井電機株式会社 プロジェクタ
CN105751219A (zh) * 2016-05-07 2016-07-13 深圳市华科安测信息技术有限公司 用于挂号及拿药的医用机器人控制系统及方法
KR20180062130A (ko) * 2016-11-30 2018-06-08 주식회사 레인보우로보틱스 서비스 로봇
KR102639602B1 (ko) 2016-11-30 2024-02-22 주식회사 레인보우로보틱스 서비스 로봇
CN106956261A (zh) * 2017-04-11 2017-07-18 华南理工大学 一种具有安全识别区的人机交互机械臂系统及方法
WO2019085296A1 (zh) * 2017-11-03 2019-05-09 深圳市易特科信息技术有限公司 用于医院的导诊辅助机器人
CN109558020A (zh) * 2018-11-16 2019-04-02 深圳时空数字科技有限公司 存储设备、展示系统及其脚控式操作接口和控制方法
CN110333817A (zh) * 2019-07-31 2019-10-15 深圳市云充吧科技有限公司 一种移动电源充电终端
WO2022003830A1 (ja) * 2020-06-30 2022-01-06 日本電気株式会社 制御装置、制御方法、及びコンピュータ可読媒体

Similar Documents

Publication Publication Date Title
JP2008006551A (ja) 作動装置
US20210346557A1 (en) Robotic social interaction
US10852730B2 (en) Systems and methods for robotic mobile platforms
US9508235B2 (en) Projection unit for a self-directing mobile platform, transport robot and method for operating a self-directing mobile platform
US11731261B2 (en) Moving robot and operating method for the same
KR20190003121A (ko) 이동 로봇
JP6331567B2 (ja) 車両用表示入力装置
KR20190102148A (ko) 로봇
WO2020170334A1 (ja) エレベーターの乗場操作盤装置
JP2016012257A (ja) ロボット装置
JP5713938B2 (ja) 空気調和機の室内機
JP2022008645A (ja) 非接触入力システム及び方法
JP2021086217A (ja) 自律移動体システム、自律移動体の制御プログラムおよび自律移動体の制御方法
US11474527B2 (en) Moving apparatus, information processing apparatus, and method
US10445791B2 (en) Systems and methods for autonomous assistance and routing
KR20130045291A (ko) 자율주행 이동로봇 및 주행 제어 방법
JP2014218139A (ja) 運転支援装置
KR20210072304A (ko) 문답형 공유제어시스템 및 이를 구비한 이동로봇
JP2008194422A (ja) 避難誘導システムおよび誘導装置および視覚障害者案内装置
JP7103841B2 (ja) 案内システム及び案内用ロボット
US20210325983A1 (en) Information providing system and information providing method
US20170228103A1 (en) Light source device, electronic blackboard system, and method of controlling light source device
JP4519468B2 (ja) 機能案内装置
US11717955B2 (en) Robot system and method for controlling the same
US11960275B2 (en) Autonomous moving apparatus and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705