JP2003150569A - 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 - Google Patents
情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置Info
- Publication number
- JP2003150569A JP2003150569A JP2001343980A JP2001343980A JP2003150569A JP 2003150569 A JP2003150569 A JP 2003150569A JP 2001343980 A JP2001343980 A JP 2001343980A JP 2001343980 A JP2001343980 A JP 2001343980A JP 2003150569 A JP2003150569 A JP 2003150569A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image data
- information
- information processing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Robotics (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Control By Computers (AREA)
Abstract
ュエータ10051乃至1005M、センサ10071乃
至1007Nそれぞれどうしの間で、合成/統合部10
02、駆動制御部1004、および信号処理部1006
を経由し、ネットワーク1001を介して、各種の信号
が、必要に応じてやりとりされる。そして、SHARN
(Sensor, Human, Actuator, Real, Network)システムで
は、アクチュエータ10051乃至1005Mやセンサ1
0071乃至1007Nが協調して処理を分担することに
より、各アクチュエータ1005mや各センサ1007n
の機能が向上する。
Description
および情報処理方法、プログラムおよび記録媒体、並び
に情報処理装置に関し、特に、例えば、複数のユーザの
操作に応じて作動する複数の作動手段、またはその複数
の作動手段が作用する現実世界を検知する複数の検知手
段が協調して処理を分担することにより、高機能な処理
を行うことができるようにする情報処理システムおよび
情報処理方法、プログラムおよび記録媒体、並びに情報
処理装置に関する。
何らかの処理を行う物であるとする)によれば、ある処
理を、並列に分担して行うことにより、1つのプロセッ
サで処理を行う場合に比較して、単純には、処理速度
を、その複数のプロセッサの個数倍にすることができ
る。
セッサだけで処理を行う場合であっても、また、複数の
プロセッサで処理を分担して行う場合であっても、得ら
れる処理結果は変わらない。さらに、複数のプロセッサ
で処理を分担して行う場合における各プロセッサの機能
は、1つのプロセッサだけで処理を行う場合と変わらな
い。
つ集まっても、全体としての処理速度が、プロセッサの
数に応じて向上するだけであり、各プロセッサの機能は
変化しない。
場合には、個人個人が互いに協力しあう(協調する)こ
とによって、各個人が、普段の能力を越える働きをする
ことが経験的に認められる。
に、各プロセッサが協調して処理を分担すれば、各プロ
セッサの機能が高機能化し、全体としては、プロセッサ
の個数倍を越える処理能力を発揮し、さらに、全体とし
ての処理結果としても、付加価値をつけたものが得られ
ると考えられる。
には、同じような性格や、考え方、感性等の属性を有す
る人間が集まるよりも、異なる属性を有する人間が集ま
った方が、互いの刺激が強く、より自己啓発が進むと考
えられる。
を有するプロセッサを複数集めるよりは、異なる機能を
有するプロセッサを複数集めて、各プロセッサに協調し
て処理を分担させた方が、各プロセッサの機能がより高
機能化すると考えられる。
たものであり、多数が協調しながら処理を分担すること
により、各個の機能を向上させることができるようにす
るものである。
ムは、複数のユーザの操作に応じて作動する複数の作動
手段と、複数の作動手段が作用する現実世界を検知する
複数の検知手段と、複数の作動手段または複数の検知手
段との間で情報を送受信するための通信手段とを備え、
複数の作動手段または複数の検知手段が協調して処理を
分担することにより、高機能化することを特徴とする。
動手段または複数の検知手段に協調して処理を分担させ
ることにより、情報処理システムを高機能化する処理を
行う処理ステップを備えることを特徴とする。
手段または複数の検知手段に協調して処理を分担させる
ことにより、情報処理システムを高機能化する処理を行
う処理ステップを備えることを特徴とする。
段または複数の検知手段に協調して処理を分担させるこ
とにより、情報処理システムを高機能化する処理を行う
処理ステップを備えるコンピュータが読み取り可能なプ
ログラムが記録されていることを特徴とする。
応じて作動する作動手段と、作動手段が作用する現実世
界を検知する検知手段と、他の情報処理装置との間で情
報を送受信するための通信手段とを備え、作動手段また
は検知手段が他の情報処理装置と協調して処理を分担す
ることにより、高機能化することを特徴とする。
または検知手段に他の情報処理装置と協調して処理を分
担させることにより、情報処理装置を高機能化する処理
を行う処理ステップを備えることを特徴とする。
たは検知手段に他の情報処理装置と協調して処理を分担
させることにより、情報処理装置を高機能化する処理を
行う処理ステップを備えることを特徴とする。
は検知手段に他の情報処理装置と協調して処理を分担さ
せることにより、情報処理装置を高機能化する処理を行
う処理ステップを備えるコンピュータが読み取り可能な
プログラムが記録されていることを特徴とする。
報処理方法、並びに第1のプログラムおよび第1の記録
媒体においては、複数の作動手段または複数の検知手段
に協調して処理を分担させることにより、情報処理シス
テムが高機能化される。
理方法、並びに第2のプログラムおよび第2の記録媒体
においては、作動手段または検知手段に他の情報処理装
置と協調して処理を分担させることにより、情報処理装
置が高機能化される。
RNシステムの一実施の形態の構成例を示している。
N」は、センサ(Sensor)、人間(Human)、アクチュエー
タ(Actuator)、現実世界(自然)(Real)、ネットワーク
(Network)それぞれの頭文字を表している。
合成/統合部1002、駆動制御部1004、および信
号処理部1006を相互に接続している広帯域のネット
ワークで、このネットワーク1001を介することによ
って、合成/統合部1002、駆動制御部1004、お
よび信号処理部1006それぞれの間で、信号(情報)
のやりとりが行われる。なお、ネットワーク1001
は、有線のものであっても、無線のものであっても、さ
らには、有線と無線の混合のネットワークであってもか
まわない。また、このネットワーク1001が、「SH
ARN」のNが表すネットワーク(Network)に対応す
る。
1乃至1003Kそれぞれが出力する操作信号を受信し、
それらを合成または統合して、ネットワーク1001に
送信する。ここで、合成とは、複数の操作信号を、例え
ば、重み付け加算すること等によって、各操作信号を分
離することができない状態にすることを意味する。ま
た、統合は、例えば、複数の操作信号を多重化すること
等によって、各操作信号の分離が可能な状態で1つの信
号にまとめることを意味する。
K)は、ユーザUkによって操作され、その操作に対応
した操作信号を、合成/統合部1002に供給する。な
お、図1の実施の形態では(後述する図2においても同
様)、複数であるK個の操作部10031乃至1003K
が設けられている。また、この操作部1003kを操作
するユーザUkが、「SHARN」のHが表す人間(Huma
n)に対応する。
01を介して供給される信号を受信し、その信号に基づ
いて、アクチュエータ10051乃至1005Mそれぞれ
を駆動制御する。
・・・,M)は、駆動制御部1004からの制御にした
がって作動し、これにより、現実世界にある物体に、所
定の作用を与える。なお、図1の実施の形態では(後述
する図2においても同様)、複数であるM個のアクチュ
エータ10051乃至1005Mが設けられている。ま
た、このアクチュエータ1005mが、「SHARN」
のAが表すアクチュエータ(actuator)に対応し、さら
に、アクチュエータ1005mが作用する現実世界が、
「SHARN」のRが表す現実世界(Real)に対応する。
乃至1007Nそれぞれからの検知信号を受信し、必要
な信号処理を施して、ネットワーク1001に送信す
る。
N)は、アクチュエータ1005mが作用する現実世界
の状態を検知し、その検知した状態を表す検知信号を、
信号処理部1006に供給する。なお、図1の実施の形
態では(後述する図2においても同様)、複数であるN
個のセンサ10071乃至1007Nが設けられている。
また、このセンサ1007mが、「SHARN」のSが
表すセンサ(Sensor)に対応し、さらに、センサ1007
mが状態を検知する現実世界が、「SHARN」のRが
表す現実世界(Real)に対応する。
31乃至1003Kを区別する必要がない限り、操作部1
003と記述する。同様に、アクチュエータ10051
乃至1005Mについても、アクチュエータ1005と
記述し、センサ10071乃至1007Nについても、セ
ンサ1007と記述する。
Nシステムの他の一実施の形態の構成例を示している。
なお、図中、図1における場合と対応する部分について
は、同一の符号を付してあり、以下では、その説明は、
適宜省略する。
03は、合成/統合部1002を介して、アクチュエー
タ1005は、駆動制御部1004を介して、センサ1
007は、信号処理部1006を介して、それぞれネッ
トワーク1001に接続されていたが、図2の実施の形
態では、操作部1003、アクチュエータ1005、お
よびセンサ1007が、ネットワーク1001に直接接
続されている。
003が出力する操作信号は、ネットワーク1001を
介して、合成/統合部1002に供給される。また、駆
動制御部1004が出力する、アクチュエータ1005
を駆動制御するための信号は、ネットワーク1001を
介して、アクチュエータ1005に供給され、センサ1
007が出力する検知信号は、ネットワーク1001を
介して、信号処理部1006に供給される。
ムでは、操作部1003、アクチュエータ1005、セ
ンサ1007それぞれどうしの間で、合成/統合部10
02、駆動制御部1004、および信号処理部1006
を経由し、ネットワーク1001を介して、各種の信号
(情報)が、必要に応じてやりとりされる。さらに、操
作部10031乃至1003K相互間では合成統合部10
02を、アクチュエータ10051乃至1005M相互間
では駆動制御部1004を、センサ1007相互間では
信号処理部1006を、それぞれ経由し、ネットワーク
1001を介して、各種の信号がやりとりされる。そし
て、SHARNシステムでは、アクチュエータ1005
やセンサ1007が協調して処理を分担することによ
り、各アクチュエータ1005mや各センサ1007nの
機能が向上する。さらに、各アクチュエータ1005m
や各センサ1007nの機能が向上する結果、システム
全体の処理結果として、付加価値を付けたものが得られ
る。
て、操作部1003の数であるK、アクチュエータ10
05の数であるM、およびセンサ1007の数であるN
は、同一の値であっても良いし、異なる値であっても良
い。
した手術システムとしてのSHARN手術システムの構
成例を示している。
マニピュレータシステムであり、スレーブマニピュレー
タ61、マスタマニピュレータ621乃至62K、ネット
ワーク63、およびスーパドクタデータベース部64か
ら構成されている。
ーク63を介して供給される信号に基づいて作動し、手
術の対象である、例えば、犬等の動物に対して、径皮的
手術等を行う。なお、ここでは、スレーブマニピュレー
タ61が、動物に対して、径皮的手術を行うものとして
いるが、その他、スレーブマニピュレータ61は、動物
に対して、例えばトリミング等を行うものとすることが
可能である。
医であるユーザUkの操作と、スーパドクタデータベー
ス部64からネットワーク63を介して供給される情報
とに応じて作動する。また、マスタマニピュレータ62
kは、その作動の状態を検知し、その検知結果を、ネッ
トワーク63を介して、スーパドクタデータベース部6
4に送信する。
タマニピュレータ621乃至62Kが設けられているが、
以下、適宜、これらを特に区別する必要がない限り、マ
スタマニピュレータ62と記載する。
ータ61、マスタマニピュレータ621乃至62K、スー
パドクタデータベース部64それぞれの間での通信を可
能とする。
トワーク63を介して供給されるマスタマニピュレータ
62の作動の状態を受信し、その状態に基づいて、手術
に関する情報を生成する。さらに、スーパドクタデータ
ベース部64は、その手術に関する情報と、マスタマニ
ピュレータ62の状態に基づき、制御信号を生成し、ネ
ットワーク63を経由して、スレーブマニピュレータ6
1に供給することによって、スレーブマニピュレータ6
1を制御する。
タマニピュレータ62が、図1(および図2)の操作部
1003、アクチュエータ1005、およびセンサ10
07に対応し、ネットワーク63が、図1のネットワー
ク1001に対応し、スーパドクタデータベース部64
が、図1の合成/統合部1002、駆動制御部100
4、および信号処理部1006に対応する。
ータ61とマスタマニピュレータ62の外観構成例を示
している。
ータ61の外観構成例を、図4(B)は、マスタマニピ
ュレータ62の外観構成例を、それぞれ示している。
において、手術台1は、長方形状をしており、そこに
は、手術の対象となっている患者(図4の例では、犬)
が寝かされる。また、手術台1には、スレーブマニピュ
レータ部3Lおよびスレーブマニピュレータ部3Rが取
り付けられている。
ーブマニピュレータ部3R(以下、個々に区別する必要
がない場合、これらをまとめて、スレーブマニピュレー
タ部3と称する)は、後述するマスタマニピュレータ部
8Lおよびマスタマニピュレータ部8Rのそれぞれによ
り遠隔操作され、手術台1に寝かされている患者に対す
る径皮的手術を行う。
1の左側(手術台1を上から見た場合の左側)に設置さ
れ、その先端には、把持鉗子、メス、縫合器、または注
射器等の処置具で構成される先端部4Lが取り付けられ
ている。
1の右側に設置され、その先端には、把持鉗子、メス、
縫合器、または注射器等の処置具で構成される先端部4
Rが取り付けられている。
ームからなる関節構造を有している。さらに、スレーブ
マニピュレータ部3の各関節部分には、アクチュエータ
(図4においては図示せず)が配設されており、このア
クチュエータが作動することによって、アームが所定の
自由度をもって動き、これにより、スレーブマニピュレ
ータ部3は、各種の姿勢をとることができるようになっ
ている。
部分やアームの必要な部分には、先端部4Lや4Rその
他の部分が外部から受ける力やトルク(いずれも、大き
さおよび方向を含む)を検出し、さらには、スレーブマ
ニピュレータ部3の姿勢を検出するセンサ(図4におい
ては図示せず)が取り付けられている。
けられているセンサとアクチュエータは、後述する図7
において、センサ75とアクチュエータ76として、そ
れぞれ図示してある。
子その他を撮像するCCD(ChargeCoupled Device)カメ
ラ6が先端に取り付けられたカメラ部5が設置されてい
る。また、手術台1には、その四隅に、音を集音するた
めのマイク21乃至24が取り付けられている。
なるのを避けるため、1つのカメラ部5しか図示してい
ないが、カメラ部5は、患部の状態や、スレーブマニピ
ュレータ部3等を、様々な方向から観察することができ
るように、複数取り付けられている。
る関節構造を有しており、さらに、その各関節部分に
は、図示せぬアクチュエータが配設されている。そし
て、このアクチュエータが作動することによって、アー
ムが所定の自由度をもって動き、これにより、カメラ部
5に取り付けられたCCDカメラ6が各種の視点から撮
影(撮像)を行うことができるようになっている。
62において、操作台7には、ユーザUにより操作され
る、マスタマニピュレータ部8L,8R(以下、適宜、
両方含めて、マスタマニピュレータ部8という)がそれ
ぞれ設置されている。
の左側(操作台7を背にした場合の左側)に設置され、
その先端には、ユーザUの左手により保持されて操作さ
れる操作部9Lが取り付けられている。
の右側に設置され、その先端には、ユーザUの右手によ
り保持されて操作される操作部9Rが取り付けられてい
る。
宜、両方まとめた、操作部9という)が、図1の操作部
1003に対応する。
ニピュレータ部3と同様に、複数のアームからなる関節
構造を有しており、所定の自由度をもって動くようにな
っている。これにより、マスタマニピュレータ部8Lの
操作部9Lは、ユーザUの左手による操作によって3次
元的に移動し、また、マスタマニピュレータ部8Rの操
作部9Rも、ユーザUの右手による操作によって3次元
的に移動する。
部分には、アクチュエータ(図4においては図示せず)
が配設されており、このアクチュエータが作動すること
によって、アームが所定の自由度をもって動き、これに
より、マスタマニピュレータ部8は、ユーザUに対し
て、所定の反力、あるいは付勢力を与える。ここで、こ
の関節部分に設けられたアクチュエータが、図1のアク
チュエータ1005に対応する。
分やアームの必要な部分には、操作部9Lや9Rその他
の部分が外部から受ける力やトルク、さらには、マスタ
マニピュレータ部8の姿勢を検出(検知)するセンサ
(図4においては図示せず)が取り付けられている。こ
こで、このセンサが、図1のセンサ1007に対応す
る。
けられているセンサとアクチュエータは、後述する図8
において、センサ85とアクチュエータ86として、そ
れぞれ図示してある。
ュレータ部8を操作するために、操作台7の前に立った
場合の、ユーザUの正面方向)には、ユーザUが、マス
タマニピュレータ部8を操作しながら、そこに表示され
る画像を見ることができるように、モニタ10が設けら
れている。モニタ10には、カメラ部5のCCDカメラ
6により撮像された画像が表示される。
けられており、このスピーカ11からは、スレーブマニ
ピュレータ61の手術台1に取り付けられたマイク21
乃至24で集音された音が出力される。
ル12が設けられている。操作パネル12には、各種の
スイッチやボタン等が取り付けられており、ユーザによ
って、必要に応じて操作される。なお、操作パネル12
におけるスイッチ等としては、電源スイッチや、モニタ
10に表示される画像を切り換えるスイッチ等がある。
ータ62を操作するユーザUは、操作台7を背にして操
作台7とモニタ10の間に立ち、モニタ10に映し出さ
れるスレーブマニピュレータ部3の先端部4の様子を見
ながら、左手で、マスタマニピュレータ部8Lの操作部
9Lを3次元的に移動するように操作し、また右手で、
マスタマニピュレータ部8Rの操作部9Rを3次元的に
移動するように操作する。
レータ部8の操作に対応する操作信号が、ネットワーク
63を介して、スーパドクタデータベース部64に供給
され、スーパドクタデータベース部64は、その操作信
号を処理し、スレーブマニピュレータ61を制御する制
御信号を生成する。この制御信号は、ネットワーク63
を介して、スーパドクタデータベース部64からスレー
ブマニピュレータ61に供給される。スレーブマニピュ
レータ61では、スーパドクタデータベース部64から
の制御信号にしたがい、スレーブマニピュレータ部3が
作動する。これにより、スレーブマニピュレータ部3L
の先端部4Lが、マスタマニピュレータ部8Lの操作部
9Lの動きに同期して動くとともに、スレーブマニピュ
レータ部3Rの先端部4Rが、マスタマニピュレータ部
8Rの操作部9Rの動きに同期して動き、患者に対する
径皮的手術が行われる。
ュレータ部8の操作部9を、所定の状態としての、例え
ば、それぞれ所定の角度のロール(roll)回転、ピッチ
(pitch)回転、およびヨー(yaw)回転した状態で、操
作部9の作用点が所定の位置としての座標(x,y,
z)で特定される位置を経由するように操作しようとし
ても、実際の操作と目標とする操作に、ずれが生じる場
合がある。
X軸およびY軸の、Z軸を回転中心とする回転であり、
その回転角度は、図中、θyで示されている。ピッチ回
転とは、Z軸、およびθyだけヨー回転したX軸(図
中、X’で示す)の、ヨー回転したY軸(図中、Y’で
示す)を回転中心とする回転であり、その回転角度は、
図中、θpで示されている。ロール回転とは、θyだけヨ
ー回転したY軸(図中、Y’で示す)、およびθpだけ
ピッチ回転したZ軸(図中、Z’で示す)の、θyだけ
ヨー回転した後さらにθpだけピッチ回転したX軸(図
中、x軸で示す)を回転中心とする回転であり、その回
転角度は、図中、θrで示されている。
位置Aから、一定のふくらみをもって位置Bに至る軌跡
(目標軌跡)を描くように、スレーブマニピュレータ部
3の先端部4を移動させたい場合、ユーザU1乃至UKそ
れぞれは、目標軌跡に対応した軌跡(スレーブマニピュ
レータ部3およびマスタマニピュレータ部8の大きさ
等、その構造の違いにもよるが、ここでは、簡単のため
に同じ軌跡)を描くように、マスタマニピュレータ部8
の操作部9を移動させようとする。しかしながら、実際
には、ユーザU1乃至UKのマスタマニピュレータ部8
(操作部9)に対する操作技術のレベルにもよるが、図
6(B)の実線で示すように、図6(B)の点線で示さ
れる目標軌跡からずれた軌跡(操作軌跡)を描くよう
に、操作部9を移動させてしまうことがある。
ずれは、無作為に発生するため(一定の傾向をもって発
生するものではないため)、複数の操作軌跡(ユーザU
1乃至UKそれぞれの操作軌跡(図6(B)))を平均す
ることにより、目標軌跡により近い軌跡を得ることがで
きる。
は、マスタマニピュレータ621乃至62Kにおける操作
内容を合成し(例えば、平均し)、その合成した(平均
した)操作内容に基づいて、スレーブマニピュレータ6
1(スレーブマニピュレータ部3)を遠隔操作する。こ
れにより、スレーブマニピュレータ61において、図6
(C)に示すように、目標軌跡に近い軌跡を描くように
スレーブマニピュレータ部3の先端部4を移動させるこ
とができるようになっている。
の方向を示し、図6(B)中の点線の矢印は、操作部9
の移動方向を示し、図6(C)中の点線の矢印は、先端
部4の移動方向を示している。
は、世界の名医による過去の手術の技術的な情報である
手術技術情報を、例えば、症状別に記憶しており、その
手術技術情報に基づいて、マスタマニピュレータ621
乃至62Kにおける操作内容を修正する。即ち、スーパ
ドクタデータベース部64は、マスタマニピュレータ6
2 1乃至62Kにおける操作内容の他、記憶している手術
技術情報にも基づいて、スレーブマニピュレータ61を
制御する。
界各地に分散した獣医としてのユーザU1乃至UKそれぞ
れがマスタマニピュレータ621乃至62Kを操作するこ
とによる合同手術が、手術技術情報を参照しながら行わ
れることから、最高レベルの手術の実現が可能となる。
ータ61の電気的構成例を示している。
ネットワーク63に接続されており、スレーブマニピュ
レータ部3を制御する。
1は、制御部71、姿勢遷移機構部72、制御機構部7
3、および通信部74で構成されている。
た、スーパドクタデータベース部64によってネットワ
ーク63上に送出された制御信号としての姿勢パラメー
タを、姿勢遷移機構部72に供給するとともに、制御機
構部73を介して供給される、スレーブマニピュレータ
部3のセンサ75の出力に基づいて、スレーブマニピュ
レータ部3の先端部4の姿勢パラメータを算出し、通信
部74を介して、ネットワーク63に送出する。
端部4の姿勢パラメータは、例えば、先端部4(作用
点)の位置を特定する、X軸の値、Y軸の値、およびZ
軸の値からなる座標と、先端部4の角度を特定するヨー
角θy、ピッチ角θp、およびロール角θr等から構成さ
れる。先端部4の位置は、先端部4が移動可能な空間上
の所定の位置を原点として定義されたXYZ直交座標系
上の座標であり、また、先端部4の角度は、例えば、先
端部4について定義したXYZ直交座標系を基準とし
て、図5に示したように定義されるものである。なお、
以下、適宜、これらの位置と角度とを両方含めて、姿勢
という。
して供給される、スレーブマニピュレータ部3のセンサ
75の出力に基づいて、スレーブマニピュレータ部3の
先端部4が外部から受けた力F1やトルクT1を算出し、
通信部74を介して、ネットワーク63上に送出する。
レータ部3の先端部4の姿勢を、現在の姿勢から、制御
部71から供給された姿勢パラメータに対応する姿勢に
遷移させるための姿勢遷移情報を生成し、これを制御機
構部73に送出する。
らの姿勢遷移情報に従って、制御信号を生成し、これ
を、スレーブマニピュレータ部3に供給する。スレーブ
マニピュレータ3のアクチュエータ76は、制御機構部
73から供給された制御信号に従って駆動し、これによ
り、先端部4は、スーパドクタデータベース部64から
送信されてきた姿勢パラメータに対応する姿勢をとる。
ュレータ部3のセンサ75の出力を取得し、制御部71
に供給する。
の通信制御を行い、これにより、ネットワーク63から
送信されてくる情報を受信して、制御部71に供給する
とともに、制御部71から供給される情報を、ネットワ
ーク63に送信する。
に接続されており、マイク21乃至24それぞれで集音さ
れた音声データ、およびカメラ61乃至65それぞれで撮
像された画像データを、ネットワーク63を介して送信
する。
ラ6に対応するものである。また、カメラ61乃至65の
うち、カメラ61乃至64は、患者の患部等を、所定の視
点方向から撮像する小型のCCDカメラとなっており、
カメラ65は、スレーブマニピュレータ部4の周囲全体
の撮像が可能な全方位カメラとなっている。なお、全方
位カメラの詳細については、後述する。
タ62の電気的構成例を示している。
ットワーク63に接続されており、マスタマニピュレー
タ部8を制御する。
は、制御部81、姿勢遷移機構部82、制御機構部8
3、および通信部84で構成されている。
取得した、後述する基準姿勢パラメータと、力F1およ
びトルクT1(スレーブマニピュレータ部3の先端部4
が外部から受けた力およびトルク)に基づいて、後述す
る力FoおよびトルクToを算出し、制御機構部83に供
給する。
介して供給される、マスタマニピュレータ部8のセンサ
85の出力に基づいて、マスタマニピュレータ部8の操
作部9の姿勢パラメータを算出し、通信部84を介し
て、ネットワーク63に送信する。
部9の姿勢パラメータは、スレーブマニピュレータ部3
の先端部4の姿勢パラメータと同様に、操作部9(作用
点)の位置を特定する、X軸の値、Y軸の値、およびZ
軸の値からなる座標と、操作部9の角度を特定するヨー
角θy、ピッチ角θp、およびロール角θr等から構成さ
れている。操作部9の位置は、操作部9が移動可能な空
間上の所定の位置を原点として定義されたXYZ直交座
標系上の座標であり、また、先端部4の角度は、例え
ば、操作部9について定義したXYZ直交座標系を基準
として、図5に示したように定義されるものである。
9の姿勢パラメータと、上述のスレーブマニピュレータ
部3の先端部4の姿勢パラメータとは、同一のXYZ直
交座標系において定義しても良いし、異なるXYZ直交
座標系において定義しても良い。但し、先端部4と操作
部9の姿勢パラメータを、異なるXYZ直交座標系にお
いて定義する場合には、スーパドクタデータベース部6
4が、その異なるXYZ直交座標系どうしの対応関係を
認識している必要がある。
れた力F0とトルクT0に従って、制御信号を生成し、こ
れを、マスタマニピュレータ部8に送出する。マスタマ
ニピュレータ部8のアクチュエータ86は、この制御信
号に従って駆動し、これにより、マスタマニピュレータ
部8の操作部9は、制御部81により算出された力F 0
とトルクT0を、その操作部9を操作しているユーザU
に与える。
レータ部8のセンサ85の出力を、制御部81に供給す
る。
の通信制御を行い、ネットワーク63から送信されてく
る情報を受信して、制御部81に供給するとともに、制
御部81から供給される情報を、ネットワーク63に送
信する。
に接続されており、ネットワーク63から送信されてく
る画像データと音声データを受信し、モニタ10とスピ
ーカ11にそれぞれ供給する。これにより、モニタ10
では、スレーブマニピュレータ61のカメラ61乃至65
で撮像された画像が表示され、スピーカ11では、スレ
ーブマニピュレータ61のマイク21乃至24で集音され
た音声が出力される。
12が、ユーザUによって操作されることにより出力す
る操作信号を受信し、その操作信号に応じて、モニタ1
0に表示する画像や、スピーカ11から出力する音声を
切り換える。さらに、入出力制御装置54は、操作パネ
ル12からの操作信号を、必要に応じて、ネットワーク
63に送信する。
ベース部64の構成例を示している。
に接続されており、ネットワーク63を介しての通信制
御を行うことにより、ネットワーク63から送信されて
くる情報を受信して、姿勢パラメータ登録部22や姿勢
パラメータ制御部28に供給するとともに、姿勢パラメ
ータ制御部28から供給される情報を、ネットワーク6
3に送信する。
ク63から受信する情報としては、例えば、スレーブマ
ニピュレータ61が送信する先端部4の姿勢パラメータ
や、マスタマニピュレータ62が送信する操作部9の姿
勢パラメータ等がある。
装置21から供給される、マスタマニピュレータ62が
送信する操作部9の姿勢パラメータに基づき、マスタマ
ニピュレータ62が、どのような手術内容の操作をしよ
うとしたのかを認識し、その認識した手術内容と姿勢パ
ラメータとを、手術情報として、手術情報データベース
25に登録する。
ば、SHARN手術システムにおける手術を含め、世界
各国で行われた手術について、その手術後の患者の状態
に関する情報である手術経過情報を、例えば手術別に記
憶する。
を、各手術別に、手術経過情報データベース23に登録
する。なお、手術経過情報登録部24は、例えば、世界
各国の病院(SHARN手術システムを含む)における
カルテ等の内容が記憶されたデータベースから、ネット
ワーク63を介して、手術経過情報を収集し、手術経過
情報データベース23に登録する。また、手術経過情報
登録部24には、所定の操作者が操作を行うことによっ
て、手術経過情報を、直接入力することもでき、この場
合、手術経過情報登録部24は、その直接入力された手
術経過情報を、手術経過情報データベース23に登録す
る。
ータ登録部22から供給される手術情報を記憶する。
に記憶された手術情報が表す手術内容による手術が、成
功したかどうかを、手術経過情報データベース23の手
術経過情報を参照することによって判定し、成功した手
術については、その手術情報に基づいて、手術技術情報
データベース27を更新する。
26や手術技術情報登録部30から供給される、手術の
技術的な情報である手術技術情報を記憶する。即ち、手
術技術情報データベース27は、各手術について、症状
別に、その手術を行うのに最適な操作部9の操作方法
や、操作部9の操作として制限すべき操作内容等を、手
術技術情報として記憶する。
装置21で受信された、マスタマニピュレータ62の操
作部9の姿勢パラメータを受信し、必要に応じて、検索
部29を介して、手術技術情報を参照しながら、その受
信した姿勢パラメータを修正等し、基準姿勢パラメータ
として、入出力制御装置21に供給する。
の制御に従って、手術技術情報データベース27に記憶
された手術技術情報を検索し、その検索結果を、姿勢パ
ラメータ制御部28に供給する。
の操作者によって操作され、その操作に対応する手術技
術情報を、手術技術情報データベース27に登録する。
て、図7のスレーブマニピュレータ61の処理について
説明する。
2は、マイク21乃至24、およびカメラ61乃至65を動
作状態にし、マイク21乃至24それぞれで集音された音
声データ、およびカメラ61乃至65それぞれで撮像され
た画像データの送信を開始する。
乃至24それぞれで集音された音声データ、およびカメ
ラ61乃至65それぞれで撮像された画像データを受信
し、ネットワーク63を介して、スーパドクタデータベ
ース部64に送信する。なお、この画像データと音声デ
ータの送信は、その後、例えば、マスタマニピュレータ
62(図8)の操作パネル12が、その送信を停止する
ように操作されるまで続行される。
ピュレータ制御装置51が、スレーブマニピュレータ部
3の先端部4の姿勢パラメータを、スーパドクタデータ
ベース部64に送信する。
1において、制御機構部73は、スレーブマニピュレー
タ部3のセンサ75を動作状態にし、その出力を受信し
て、制御部71に供給する。制御部71は、制御機構部
73から供給されるセンサ75の出力に基づいて、スレ
ーブマニピュレータ部3の先端部4の姿勢パラメータを
求め、通信部74に供給する。通信部74は、制御部7
1からの姿勢パラメータを、ネットワーク63を介し
て、スーパドクタデータベース部64に送信する。
ータベース部64から、ネットワーク63を介して、姿
勢パラメータが送信されてくるので、スレーブマニピュ
レータ制御装置51の通信部74は、スーパドクタデー
タベース部64から姿勢パラメータが送信されてくるの
を待って、ステップS2に進み、その姿勢パラメータを
受信する。
御部71に供給され、制御部71は、ステップS3にお
いて、スレーブマニピュレータ部3の先端部4が、その
姿勢パラメータに対応する姿勢をとるように、スレーブ
マニピュレータ部3を制御する。
装置51の制御部71は、通信部74からの姿勢パラメ
ータを、姿勢遷移機構部72に供給する。姿勢遷移機構
部72は、スレーブマニピュレータ部3の先端部4の姿
勢を、現在の姿勢から、制御部71から供給された姿勢
パラメータに対応する姿勢に遷移させるための姿勢遷移
情報を生成し、制御機構部73に供給する。
らの姿勢遷移情報に従って制御信号を生成し、これを、
スレーブマニピュレータ部3に送出する。スレーブマニ
ピュレータ部3では、アクチュエータ76が、制御機構
部73からの制御信号に従って駆動し、これにより、先
端部4は、その姿勢を変化させ、通信部74で受信され
た姿勢パラメータ、即ち、スーパドクタデータベース部
64から送信されてきた姿勢パラメータに対応する姿勢
をとる。
ニピュレータ制御装置51は、ステップS3での制御
で、スレーブマニピュレータ部3の先端部4が姿勢を変
化させることで、先端部4が外部(患者の腹腔内)から
受けた力F1とトルクT1を、その先端部4の姿勢パラメ
ータとともに、ネットワーク63を介して、スーパドク
タデータベース部64に送信する。
1において、制御機構部73は、センサ75の出力を、
制御部71に供給し、制御部71は、そのセンサ75の
出力から、先端部4が外部から受けた力F1とトルクT
1、および先端部4の姿勢パラメータを算出する。さら
に、制御部71は、この力F1とトルクT1、および姿勢
パラメータを、通信部74に供給し、通信部74は、そ
の力F1とトルクT1、および姿勢パラメータを、ネット
ワーク63を介して、スーパドクタデータベース部64
に送信する。
様の処理が繰り返される。
いては、スレーブマニピュレータ部3の先端部4が、ス
ーパドクタデータベース部64から送信されてくる姿勢
パラメータに対応する姿勢に変化していくことによっ
て、患者に対する手術が行われる。
て、図8のマスタマニピュレータ62の処理について説
明する。
ス部64は、スレーブマニピュレータ61から送信され
てくる画像データと音声データを、ネットワーク63を
介して、マスタマニピュレータ62に送信してくるの
で、ステップS21では、その画像データと音声データ
の受信が開始される。
置54は、ネットワーク63を介して、スーパドクタデ
ータベース部64から送信されてくる画像データと音声
データを受信し、画像データを、モニタ10に供給する
とともに、音声データをスピーカ11に供給する。これ
により、モニタ10には、スレーブマニピュレータ61
(図7)のカメラ61乃至65で撮像された画像が表示さ
れ、また、スピーカ11からは、スレーブマニピュレー
タ61のマイク21乃至24で集音された音が出力され
る。
ータベース部64は、スレーブマニピュレータ61から
送信されてくる、先端部4の姿勢パラメータを、ネット
ワーク63を介して、マスタマニピュレータ62に送信
してくるので、ステップS21では、マスタマニピュレ
ータ制御装置53は、その姿勢パラメータを受信し、そ
の姿勢パラメータに基づいて、マスタマニピュレータ部
8の操作部9の姿勢を制御する。
において、通信部84は、ネットワーク63を介して、
スーパドクタデータベース部64から送信されてくる、
スレーブマニピュレータ部3の先端部4の姿勢パラメー
タを受信し、制御部81に供給する。制御部81は、通
信部84からの姿勢パラメータを受信し、姿勢遷移機構
部82に供給する。姿勢遷移機構部82は、マスタマニ
ピュレータ部8の操作部9の姿勢を、現在の姿勢から、
制御部81から供給された姿勢パラメータに対応する姿
勢に遷移させるための姿勢遷移情報を生成し、制御機構
部83に供給する。制御機構部83は、姿勢遷移機構部
82からの姿勢遷移情報に従って制御信号を生成し、こ
れを、マスタマニピュレータ部8に送出する。マスタマ
ニピュレータ部8のアクチュエータ86は、この制御信
号に従って駆動し、これにより、操作部9は、その姿勢
を変化させ、スレーブマニピュレータ部3の先端部4の
姿勢と同一の姿勢をとる。
マニピュレータ部8の操作部9の姿勢パラメータが、ネ
ットワーク63を介して、スーパドクタデータベース部
64に送信される。
置53において、制御機構部83は、マスタマニピュレ
ータ部8のセンサ85の出力を受信し、制御部81に供
給する。制御部81は、センサ85の出力から、マスタ
マニピュレータ部8の操作部9の姿勢パラメータを算出
し、通信部84に供給する。通信部84は、制御部81
からの操作部9の姿勢パラメータを、ネットワーク63
を介して、スーパドクタデータベース部64に送信す
る。
て、ユーザUがマスタマニピュレータ部8の操作部9を
操作することにより所定の姿勢にされた操作部9につい
て、その姿勢を表す姿勢パラメータが、スーパドクタデ
ータベース部64に送信される。
ニピュレータ制御装置53の通信部84は、ネットワー
ク63を介してスーパドクタデータベース部64から送
信されてくる、スレーブマニピュレータ部3の先端部4
の姿勢パラメータを、基準姿勢パラメータとして受信
し、ステップS24に進む。ステップS24では、マス
タマニピュレータ制御装置53の通信部84は、スーパ
ドクタデータベース部64から、先端部4の姿勢パラメ
ータとともに送信されてくる、先端部4が外部から受け
た力F1とトルクT1を受信する。この先端部4について
の姿勢パラメータ、および力F1とトルクT1は、通信部
84から制御部81に供給され、ステップS24からS
25に進む。
ップS22で取得した操作部9の姿勢パラメータと、ス
テップS23で取得した基準姿勢パラメータの差を算出
し、ステップS26に進む。
ップS25で算出した、操作部9の姿勢パラメータと基
準姿勢パラメータとの差(ずれ)の大きさに比例した大
きさで、ずれの方向とは逆方向の力F2とトルクT2を算
出し、ステップS27に進む。
ップS26で算出した力F2とトルクT2のそれぞれに、
ステップS24で取得した力F1およびトルクT1に比例
する力とトルクを加算し、操作部9を操作するユーザU
に知覚させる力FoおよびトルクToを算出する。すなわ
ち、制御部81は、例えば、式(1)に従って、力Fo
およびトルクToを算出する。
の操作部9を動かすのに、スレーブマニピュレータ部3
の先端部4を直接動かす場合に比べ、より大きな力が必
要なとき(いわゆる重いとき)、αおよびβは、1より
大きい値となり、また、操作部9を動かすのに、先端部
4を動かす場合に比べ、小さな力でよい場合(いわゆる
軽いとき)、αおよびβは、1より小さい値となる。ま
た、同じ力でそれらを動かす場合、αおよびβは、1と
なる。
マニピュレータ部8の操作部9を操作するユーザUに、
ステップS27で算出された力FoとトルクToを知覚さ
せるように、マスタマニピュレータ部8が制御される。
た基準姿勢パラメータと、ステップS26で得た力Fo
およびトルクToを、姿勢遷移機構部82に供給する。
姿勢遷移機構部82は、マスタマニピュレータ部8の操
作部9の姿勢を、現在の姿勢から、制御部81から供給
された基準姿勢パラメータに対応する姿勢に遷移させる
ための姿勢遷移情報であって、さらに、力Foおよびト
ルクToをユーザに知覚させることのできる加速度(角
加速度を含む)の情報を含むものを生成し、制御機構部
83に供給する。制御機構部83は、姿勢遷移機構部8
2からの姿勢遷移情報に従って制御信号を生成し、これ
を、マスタマニピュレータ部8に送出する。マスタマニ
ピュレータ部8のアクチュエータ86は、この制御信号
に従って駆動し、これにより、操作部9は、その姿勢
を、所定の加速度で変化させ、ユーザUに力Foおよび
トルクToを知覚させながら、スレーブマニピュレータ
部3の先端部4の姿勢と同一の姿勢をとる。
同様の処理が繰り返される。
oおよびトルクToを、ステップS25で算出されたずれ
の大きさに比例した大きさで、ずれの方向とは逆方向の
力F2およびトルクT2と、スレーブマニピュレータ部3
の先端部4が受けたに力F1とトルクT1に比例する力お
よびトルクとが加算されたものとしたので、ユーザU
に、操作部9の姿勢パラメータと基準姿勢パラメータと
のずれ、およびスレーブマニピュレータ部3の先端部4
が受ける反力を意識させることができる。
タ部8の操作部9を、基準姿勢パラメータに対応する姿
勢と異なる姿勢にするように操作した場合には、その姿
勢の異なり具合が大きいほど、大きな反力を受けるの
で、自身の操作が、スレーブマニピュレータ部3の先端
部4が実際にとった姿勢とどの程度異なるかを、いわば
感覚的に認識することができる。
ルクT2のみを知覚させるようにすることもできる。
て、図9のスーパドクタデータベース部64の処理につ
いて説明する。
出力制御装置21は、スレーブマニピュレータ61から
の画像データおよび音声データの受信と、その画像デー
タおよび音声データのマスタマニピュレータ62への送
信を開始する。
S1において、スレーブマニピュレータ61(図7)
は、カメラ61乃至65で撮像された画像データと、マイ
ク21乃至24で集音された音声データの、スーパドクタ
データベース部64への送信を開始するので、スーパド
クタデータベース部64の入出力制御装置21は、その
ようにしてスレーブマニピュレータ61からネットワー
ク63を介して送信されてくる画像データと音声データ
の受信を開始する。
マニピュレータ61から受信した画像データと音声デー
タの、マスタマニピュレータ62への送信を開始する。
ここで、マスタマニピュレータ62では、このようにし
て、入出力制御装置21から送信される画像データと音
声データの受信が、上述の図11のステップS21で開
始される。
置21は、図10のステップS1においてスレーブマニ
ピュレータ61から送信されてくる姿勢パラメータ(ス
レーブマニピュレータ部3の先端部4の姿勢パラメー
タ)を受信し、その姿勢パラメータを、基準姿勢パラメ
ータとして、マスタマニピュレータ62に送信する。こ
こで、この基準姿勢パラメータは、マスタマニピュレー
タ62において、上述の図11のステップS21で受信
され、これにより、操作部9(マスタマニピュレータ部
8の操作部9)は、その基準パラメータに対応する姿
勢、即ち、スレーブマニピュレータ部3の先端部4の姿
勢と同一の姿勢をとる。
御装置21は、スレーブマニピュレータ61から、その
先端部4についての姿勢パラメータと、力F1およびト
ルクT1が、図10のステップS4で送信されてくるの
を待って受信し、その姿勢パラメータを基準姿勢パラメ
ータとして、力F1およびトルクT1とともに、マスタマ
ニピュレータ62に送信する。ここで、マスタマニピュ
レータ62では、先端部4について姿勢パラメータは、
図11のステップS23で受信され、先端部4について
の力F1およびトルクT1は、図11のステップS24で
受信される。
御装置21は、マスタマニピュレータ621乃至62Kそ
れぞれが図11のステップS22で送信してくる操作部
9の姿勢パラメータを受信し、姿勢パラメータ登録部2
2および姿勢パラメータ制御部28に供給して、ステッ
プS44に進む。
部22は、マスタマニピュレータ621乃至62Kそれぞ
れの姿勢パラメータに基づいて、ユーザU1乃至UKが行
おうとしている手術内容を認識する。さらに、姿勢パラ
メータ登録部22は、その手術内容と対応する姿勢パラ
メータを、手術情報データベース25に供給して登録
し、ステップS45に進む。
部28が、マスタマニピュレータ621乃至62Kそれぞ
れからの操作部9の姿勢パラメータについて分散を計算
し、その分散が所定の閾値以上であるかどうかを判定す
る。
レータ621乃至62Kそれぞれからの操作部9の姿勢パ
ラメータの分散が所定の閾値以上でないと判定された場
合、即ち、マスタマニピュレータ621乃至62Kそれぞ
れのユーザU1乃至UKが、ほぼ同じような操作をした場
合、ステップS46に進み、姿勢パラメータ制御部28
は、マスタマニピュレータ621乃至62Kそれぞれから
の姿勢パラメータの、例えば平均値等の重み付け加算値
を求め、ステップS47に進む。
加算値としては、その複数の姿勢パラメータそれぞれに
対する重みを同一にした平均値を計算する他、複数の姿
勢パラメータそれぞれに対する重みを異なる値にしたも
のを計算することも可能である。即ち、姿勢パラメータ
に対する重みは、例えば、その姿勢パラメータを送信し
てきたマスタマニピュレータ62kを操作するユーザUk
の熟練度等に基づいて設定することが可能である。な
お、熟練度等に基づく重みは、例えば、マスタマニピュ
レータ62(図8)の操作パネル12を操作すること等
によって設定することが可能である。
部28は、検索部29に手術技術情報データベース27
を検索させることにより、ステップS46で求められた
重み付け加算値としての姿勢パラメータによる手術を制
限するような手術技術情報が、手術技術情報データベー
ス27に登録されているかどうかを判定する。
である姿勢パラメータによる手術を制限するような手術
技術情報が、手術技術情報データベース27に登録され
ていないと判定された場合、ステップS48をスキップ
して、ステップS49に進み、姿勢パラメータ制御部2
8は、重み付け加算値である姿勢パラメータを、入出力
制御装置21に供給し、入出力制御装置21は、姿勢パ
ラメータ制御部28からの姿勢パラメータを、スレーブ
マニピュレータ61に送信する。その後、ステップS4
2に戻り、以下、同様の処理が繰り返される。
タ61の先端部4の動きは、マスタマニピュレータ62
1乃至62KのユーザU1乃至UKそれぞれによる操作を平
均化したものに従うことなる。
加算値である姿勢パラメータによる手術を制限する手術
技術情報が、手術技術データベース27に登録されてい
ると判定された場合、即ち、重み付け加算値である姿勢
パラメータによる手術の内容が、例えば、過去に前例の
ないものである場合や、あるいは、過去に、良い手術経
過が得られなかったものである場合、ステップS48に
進み、姿勢パラメータ制御部28は、重み付け加算値で
ある姿勢パラメータを、その姿勢パラメータによる手術
を制限する手術技術情報に基づいて修正し、その手術技
術情報による制限の範囲内のものとする。そして、ステ
ップS49に進み、姿勢パラメータ制御部28は、修正
後の姿勢パラメータを、入出力制御装置21を介して、
スレーブマニピュレータ61に送信して、ステップS4
2に戻り、以下、同様の処理を繰り返す。
タ61の先端部4の動きは、マスタマニピュレータ62
1乃至62KのユーザU1乃至UKそれぞれによる操作を平
均化したものを手術技術情報に基づいて修正したものに
従うことなる。
ニピュレータ621乃至62Kそれぞれからの操作部9の
姿勢パラメータの分散が所定の閾値以上であると判定さ
れた場合、即ち、マスタマニピュレータ621乃至62K
それぞれのユーザU1乃至UKのうちの1以上が、他のユ
ーザと同じとはいえない程度の異なる操作をした場合、
ステップS50に進み、姿勢パラメータ制御部28は、
マスタマニピュレータ621乃至62Kそれぞれからの操
作部9の姿勢パラメータの中から、他の姿勢パラメータ
と異なる姿勢パラメータ(分散を大きくしている原因と
なっている姿勢パラメータ)(以下、適宜、特異パラメ
ータという)を検出する。
に、特異パラメータとなる姿勢パラメータは1つとす
る。
検出されると、ステップS51に進み、姿勢パラメータ
制御部28は、更新部26を制御することにより、手術
情報データベース25に記憶された、特異パラメータに
対応する手術情報が表す手術内容による手術が、過去に
成功したことがあるかどうかを、手術経過情報データベ
ース23の手術経過情報を参照させることによって判定
させる。
に対応する手術情報が表す手術内容による手術が、過去
に成功したことがないと判定された場合、ステップS5
2に進み、姿勢パラメータ制御部28は、その特異パラ
メータが、操作部9の誤操作等によるものであるとし
て、マスタマニピュレータ621乃至62Kそれぞれから
の操作部9の姿勢パラメータのうちの、特異パラメータ
を除いたものの、例えば平均値等の重み付け加算値を求
め、ステップS47に進む。
て、マスタマニピュレータ621乃至62Kそれぞれから
の操作部9の姿勢パラメータのうちの、特異パラメータ
を除いたものの重み付け加算値を対象に、上述した場合
と同様の処理が行われ、ステップS42に戻る。
タ61の先端部4の動きは、マスタマニピュレータ62
1乃至62KのユーザU1乃至UKそれぞれによる操作のう
ち、特に他の操作と異なった操作を除いたものを平均化
したもの(あるいは、その平均化した操作を手術技術情
報に基づいて修正したもの)に従うことなる。
メータに対応する手術情報が表す手術内容による手術
が、過去に成功したことがあると判定された場合、ステ
ップS53に進み、姿勢パラメータ制御部28は、更新
部26を制御することにより、手術技術情報データベー
ス27を更新させる。
メータに対応する手術情報が表す手術内容に基づいて、
その手術を行うのに最適な操作部9の操作方法(手順)
や、操作部9の操作として制限すべき操作内容等を、手
術技術情報として生成し、手術技術情報データベース2
7に供給して記憶させることにより、手術技術情報デー
タベース27を更新する。
メータ制御部28は、入出力制御装置21を制御するこ
とにより、特異パラメータである姿勢パラメータを、ス
レーブマニピュレータ61に送信し、ステップS42に
戻り、以下、同様の処理を繰り返す。
タ61の先端部4の動きは、マスタマニピュレータ62
1乃至62KのユーザU1乃至UKそれぞれによる操作のう
ち、特に他の操作と異なった操作に従うことになる。
2KのユーザU1乃至UKのうちの一人のユーザが、他の
ユーザとは異なる操作(ここでは、同一の操作と見なす
ことができない程度の異なる操作)を行ったが、そのよ
うな操作による手術が成功した前例がある場合には、ス
レーブマニピュレータ61の先端部4の動きは、他のユ
ーザとは異なる操作を行った一人のユーザによる操作に
従うことになる。
ちの一人のユーザが、他のユーザに比較して、手術技術
の熟練した、いわば名医である場合において、その名医
であるユーザが、最新の手術技術に基づき、他のユーザ
と異なる操作をしたときには、スレーブマニピュレータ
61の先端部4は、その名医のユーザの操作に対応して
動くことになる。
は、マスタマニピュレータ621乃至62Kそれぞれの操
作に基づく姿勢パラメータによって、スーパドクタデー
タベース部64における手術技術情報データベース27
の手術技術情報が、より良いものに更新されていく。さ
らに、スーパドクタデータベース部64では、マスタマ
ニピュレータ621乃至62Kそれぞれの操作に基づく姿
勢パラメータと、手術技術情報から、スレーブマニピュ
レータ61に提供する姿勢パラメータ(基準姿勢パラメ
ータ)が生成され、スレーブマニピュレータ61では、
その基準姿勢パラメータにしたがって先端部4の姿勢が
制御されることによって、患者の手術が行われる一方、
マスタマニピュレータ621乃至62Kでは、それぞれの
操作と、基準姿勢パラメータとのずれを、いわば矯正す
るように、操作部9を操作するユーザU1乃至UKに負荷
がかけられる。
は、多数のユーザとしての医者による技術と、過去の手
術によって構築され、さらに更新されていく手術技術情
報とに基づく、いわば最高レベルの手術が行われること
になる。
ーザである獣医の操作が、実際の手術としての先端部4
の動きに一致するように矯正されるので、ユーザである
獣医の手術技術の向上を、短時間で図ることができる。
は、図13に示すように、マスタマニピュレータ621
乃至62Kそれぞれの操作に基づいて、スーパドクタデ
ータベース部64の手術技術情報が、より良いものに更
新されていき、さらに、マスタマニピュレータ621乃
至62Kにおいては、手術技術情報の、いわばフィード
バックを受け、ユーザの操作が、手術技術情報に適合す
るように矯正される。
62Kそれぞれにおいては、それ単独の場合ではできな
かった、ユーザである医者の技術を短時間で向上させる
という高機能が実現されているということができるが、
これは、マスタマニピュレータ621乃至62Kと、スー
パドクタデータベース部64とが、図13において点線
で囲むように、まるで1つの装置であるかのようになっ
て、マスタマニピュレータ621乃至62Kそれぞれの操
作に基づいて、スーパドクタデータベース部64の手術
技術情報が、より良いものに更新されることにより、結
果として、マスタマニピュレータ621乃至62Kそれぞ
れが、手術技術情報を、より良いものに更新するという
処理を、互いに協調しながら分担することとなっている
からである。
部64が、単に、マスタマニピュレータ621乃至62K
それぞれの操作内容を記憶し、マスタマニピュレータ6
21乃至62Kそれぞれにフィードバックするというだけ
では、マスタマニピュレータ621乃至62Kそれぞれ
が、ユーザによる操作内容を、スーパドクタデータベー
ス部64に供給するという処理を、単に分担しているだ
けとなり、マスタマニピュレータ621乃至62Kそれぞ
れにおいて、ユーザである獣医の技術を向上させるとい
う高機能を実現することはできない。
用したデザインシステムとしてのSHARNデザインシ
ステムの構成例を示している。
イン用のマニピュレータシステムであり、擬似スレーブ
マニピュレータ41、マスタマニピュレータ421乃至
42K、ネットワーク43、およびスーパデザイナデー
タベース部44から構成されている。
トワーク43を介して供給される信号に基づいて作動
し、デザインの対象に対して、所定のデザインを施す。
なお、ここでは、例えば、PDA(Personal Digital As
sistant)を、デザインの対象とする。但し、デザインの
対象は、PDAに限定されるものではない。
の操作と、スーパデザイナデータベース部44からネッ
トワーク43を介して供給される情報とに応じて作動す
る。また、マスタマニピュレータ42kは、その作動の
状態を検知し、その検知結果を、ネットワーク43を介
して、スーパデザイナデータベース部44に送信する。
スタマニピュレータ421乃至42Kが設けられている
が、以下、適宜、これらを特に区別する必要がない限
り、マスタマニピュレータ42と記載する。
ュレータ41、マスタマニピュレータ421乃至42K、
スーパデザイナデータベース部44それぞれの間での通
信を可能とする。
ットワーク43を介して供給されるマスタマニピュレー
タ42の作動の状態を受信し、その状態に基づいて、デ
ザインに関する情報を生成する。さらに、スーパデザイ
ナデータベース部44は、そのデザインに関する情報
と、マスタマニピュレータ42の状態に基づき、制御信
号を生成し、ネットワーク43を経由して、擬似スレー
ブマニピュレータ41に供給することによって、擬似ス
レーブマニピュレータ41を制御する。
スタマニピュレータ42が、図1(および図2)の操作
部1003、アクチュエータ1005、およびセンサ1
007に対応し、ネットワーク43が、図1のネットワ
ーク1001に対応し、スーパデザイナデータベース部
44が、図1の合成/統合部1002、駆動制御部10
04、および信号処理部1006に対応する。
似スレーブマニピュレータ41は、実際の作業を行うマ
ニピュレータではなく、マスタマニピュレータ42にし
たがって、仮想的に作業を行うマニピュレータとなって
いる。但し、擬似スレーブマニピュレータ41は、実際
の作業を行うマニピュレータとして構成することも可能
である。
ニピュレータ41の電気的構成例を示している。なお、
図中、図7のスレーブマニピュレータ61における場合
と対応する部分については、同一の符号を付してあり、
以下では、その説明は、適宜省略する。
7のスレーブマニピュレータ部3と擬似的に同一の機能
を有するもので、例えば、CPUがプログラムを実行す
ることにより実現される。そして、擬似スレーブマニピ
ュレータ部77は、スレーブマニピュレータ制御装置5
1の制御にしたがい、デザインの対象に対して、各種の
作用を仮想的に施す。
は、デザイン情報データベース78に記憶されている、
PDAのデザイン用のデータから特定される仮想的なP
DAに対して、スレーブマニピュレータ制御装置51の
制御にしたがい、仮想的な先端部(図4(A)のスレー
ブマニピュレータ61における先端部4Lと4Rに相当
する)によって各種の処理を施す。
は、図7のスレーブマニピュレータ部3と同様に、仮想
的なPDAに対し、仮想的な先端部によって操作を施す
ことにより、その仮想的な先端部が、仮想的なPDAか
ら受ける力F1やトルクT1等に対応する信号、即ち、図
7のスレーブマニピュレータ部3のセンサ75の出力に
対応する信号を計算し、制御機構部73に供給する。
なPDAの外観構成を特定するためのデータとしてのデ
ザイン情報を記憶する。即ち、デザイン情報データベー
ス78は、マスタマニピュレータ421乃至42Kのユー
ザU1乃至UKそれぞれが、マスタマニピュレータ421
乃至42Kを操作することによってデザインしたPDA
のデザイン情報を記憶する。
レータ部77の内部データに基づいて、仮想的な先端部
等の状態を表す画像データを生成する。さらに、画像生
成部79は、デザイン情報データベース78に記憶され
たデザイン情報から、仮想的なPDAの画像データを生
成する。そして、画像生成部79は、仮想的な先端部等
の画像データと、仮想的なPDAの画像データとを合成
し、これにより、擬似スレーブマニピュレータ部77が
実際のマニピュレータであり、実際のPDAに対して作
業を行っていれば、図7のスレーブマニピュレータ61
のカメラ61乃至65によって撮像されたであろう画像の
画像データを生成する。この画像データは、画像生成部
79から入出力制御装置80に供給される。
に接続されており、画像生成部79から供給される画像
データを、ネットワーク43を介して、スーパデザイナ
データベース部44に送信する。また、入出力制御装置
80は、デザイン情報データベース78に記憶された、
ユーザU1乃至UKそれぞれがデザインしたPDAについ
てのデザイン情報を、ネットワーク43を介して、スー
パデザイナデータベース部44に送信する。
レータ42の電気的構成例を示している。なお、図中、
図8のマスタマニピュレータ62と対応する部分につい
ては、同一の符号を付してあり、以下では、その説明
は、適宜省略する。即ち、図14のマスタマニピュレー
タ42は、スピーカ11が設けられていない他は、図8
のマスタマニピュレータ62と同様に構成されている。
従って、図示しないが、マスタマニピュレータ42の外
観構成も、図4(B)に示したマスタマニピュレータ6
2の外観構成と基本的に同一である。
データベース部44の構成例を示している。なお、図
中、図9のスーパドクタデータベース部64における場
合と対応する部分については、同一の符号を付してあ
り、以下では、その説明は、適宜省略する。
スレーブマニピュレータ41の入出力制御装置80がネ
ットワーク43を介して送信してくる、デザイン情報デ
ータベース78に記憶された、ユーザU1乃至UKそれぞ
れがデザインしたPDAについてのデザイン情報を受信
し、デザイン情報データベース92に供給して登録す
る。なお、ユーザUkがデザインしたPDAについての
デザイン情報の、擬似スレーブマニピュレータ41から
スーパデザイナデータベース部44への転送は、例え
ば、ユーザUkが、自身のPDAのデザインを登録する
ように、マスタマニピュレータ42の操作部12を操作
することによって行われる。
ン情報登録部91からのデザイン情報を記憶する。
タベース92に記憶されたデザイン情報によって特定さ
れるPDAのデザインを評価する。
ザイン情報データベース92に記憶されたデザイン情報
によって特定されるPDAの外観構成を、例えば、イン
ターネット上のWebページに公開して、人気投票を行
い、その投票結果に基づいて、PDAのデザインを評価
する。あるいは、また、デザイン評価部93は、例え
ば、デザイン情報データベース92に記憶されたデザイ
ン情報によって特定されるPDAが、既に商品化されて
販売されている場合には、ネットワーク43を介して、
そのPDAの販売個数を収集し、その販売個数に基づい
て、PDAのデザインを評価する。
勢パラメータ登録部22から供給される特異デザイン情
報を記憶し、流行デザイン情報データベース95は、更
新部26から供給される流行デザイン情報を記憶する。
情報データベース92に記憶されたデザイン情報のう
ち、デザイン評価部93による評価が高いものを意味
し、特異デザイン情報とは、流行デザイン情報から、い
わばはずれたデザイン(以下、適宜、特異デザインとい
う)のデザイン情報を意味する。
ータベース78、図17のデザイン情報データベース9
2、特異デザイン情報データベース94、流行デザイン
情報データベース95に記憶されるPDAのデザイン情
報を示している。
(A)に示すように、PDAの横の長さp1、縦の長さ
p2、PDAの表示部としてのLCDの横の長さp3、
その縦の長さp4、PDAの重心の位置p6、PDAに
設けられたボタンの位置p7,p8等を採用することが
できる。
に、PDAが円弧状の丸みを有する場合には、その円弧
の半径p9,p10,p11,p12等を、PDAのデ
ザイン情報として採用することができる。
て、図15の擬似スレーブマニピュレータ41の処理に
ついて説明する。
80は、画像生成部79で生成された画像データの送信
を開始する。
6)のユーザUkが、デザインを開始するように、操作
パネル12を操作すると、その操作に対応する操作信号
(以下、適宜、開始信号という)が、入出力制御装置5
4から、ネットワーク43を介して、擬似スレーブマニ
ピュレータ41とスーパデザイナデータベース部44に
送信される。
号は、擬似スレーブマニピュレータ41の入出力制御装
置80で受信され、この場合、入出力制御装置80は、
ユーザUk用の画像データを生成するように、画像生成
部79に供給する。これにより、画像生成部79は、ユ
ーザUk用に、画像データの生成を開始し、入出力制御
装置80は、そのユーザUk用に生成された画像データ
(以下、適宜、ユーザUk用の画像データという)の送
信を開始する。なお、この画像データの送信は、その
後、例えば、マスタマニピュレータ42k(図16)の
操作パネル12が、その送信を停止するように操作され
るまで続行される。
ニピュレータ制御装置51が、擬似スレーブマニピュレ
ータ部77の仮想的な先端部の姿勢パラメータを、スー
パデザイナデータベース部44に送信する。
1において、制御機構部73は、擬似スレーブマニピュ
レータ部77が出力する仮想的な先端部等の状態に関す
る信号(以下、適宜、状態信号という)を受信して、制
御部71に供給する。制御部71は、制御機構部73か
ら供給される状態信号に基づいて、擬似スレーブマニピ
ュレータ部77の仮想的な先端部の姿勢パラメータを求
め、通信部74に供給する。通信部74は、制御部71
からの姿勢パラメータを、ネットワーク43を介して、
スーパデザイナデータベース部44に送信する。
データベース部44から、ネットワーク43を介して、
姿勢パラメータが送信されてくるので、スレーブマニピ
ュレータ制御装置51の通信部74は、スーパドクタデ
ータベース部64から姿勢パラメータが送信されてくる
のを待って、ステップS62に進み、その姿勢パラメー
タを受信する。
御部71に供給され、制御部71は、ステップS63に
おいて、擬似スレーブマニピュレータ部77の仮想的な
先端部が、その姿勢パラメータに対応する姿勢をとるよ
うに、擬似スレーブマニピュレータ部77を制御する。
装置51の制御部71は、通信部74からの姿勢パラメ
ータを、姿勢遷移機構部72に供給する。姿勢遷移機構
部72は、擬似スレーブマニピュレータ部77の仮想的
な先端部の姿勢を、現在の姿勢から、制御部71から供
給された姿勢パラメータに対応する姿勢に遷移させるた
めの姿勢遷移情報を生成し、制御機構部73に供給す
る。
らの姿勢遷移情報に従って制御信号を生成し、これを、
擬似スレーブマニピュレータ部77に送出する。擬似ス
レーブマニピュレータ部77は、制御機構部73からの
制御信号に従って、仮想的な先端部の姿勢を変化させ、
通信部74で受信された姿勢パラメータに対応する姿勢
をとらせる。
マニピュレータ制御装置51は、ステップS63での制
御で、擬似スレーブマニピュレータ部77の仮想的な先
端部が姿勢を変化させることで、仮想的な先端部が外部
(デザインの対象である仮想的なPDA)から受けた力
F1とトルクT1を、その仮想的な先端部の姿勢パラメー
タとともに、ネットワーク43を介して、スーパデザイ
ナデータベース部44に送信する。
1において、制御機構部73は、擬似スレーブマニピュ
レータ部77が出力する状態信号を、制御部71に供給
し、制御部71は、その状態信号から、仮想的な先端部
が外部から受けた力F1とトルクT1、および仮想的な先
端部の姿勢パラメータを算出する。さらに、制御部71
は、この力F1とトルクT1、および姿勢パラメータを、
通信部74に供給し、通信部74は、その力F1とトル
クT1、および姿勢パラメータを、ネットワーク43を
介して、スーパデザイナデータベース部44に送信す
る。
同様の処理が繰り返される。
においては、擬似スレーブマニピュレータ部77の仮想
的な先端部が、スーパデザイナデータベース部44から
送信されてくる姿勢パラメータに対応する姿勢に変化し
ていくことによって、PDAに対してデザインが施され
る。
ば、PDAが、模型用の材料として用いられる発泡プラ
スチックやABS(Acrylonitrile Butadiene Styrene)
樹脂等で構成されているとして、力F1とトルクT1を計
算するようにすることができる。
て、図16のマスタマニピュレータ42の処理について
説明する。
ース部44は、擬似スレーブマニピュレータ41から送
信されてくる画像データを、ネットワーク43を介し
て、マスタマニピュレータ42に送信してくるので、ス
テップS71では、その画像データの受信が開始され
る。
置54は、ネットワーク43を介して、スーパデザイナ
データベース部44から送信されてくる画像データを受
信し、画像データを、モニタ10に供給する。これによ
り、モニタ10には、擬似スレーブマニピュレータ部7
7(図15)がPDAに対して処理を施している様子を
表す画像が表示される。
データベース部44は、擬似スレーブマニピュレータ4
1から送信されてくる、仮想的な先端部の姿勢パラメー
タを、ネットワーク43を介して、マスタマニピュレー
タ42に送信してくるので、ステップS71では、マス
タマニピュレータ制御装置53は、その姿勢パラメータ
を受信し、その姿勢パラメータに基づいて、マスタマニ
ピュレータ部8の操作部9の姿勢を制御する。
において、通信部84は、ネットワーク43を介して、
スーパデザイナデータベース部44から送信されてく
る、擬似スレーブマニピュレータ部77の仮想的な先端
部の姿勢パラメータを受信し、制御部81に供給する。
制御部81は、通信部84からの姿勢パラメータを受信
し、姿勢遷移機構部82に供給する。姿勢遷移機構部8
2は、マスタマニピュレータ部8の操作部9の姿勢を、
現在の姿勢から、制御部81から供給された姿勢パラメ
ータに対応する姿勢に遷移させるための姿勢遷移情報を
生成し、制御機構部83に供給する。制御機構部83
は、姿勢遷移機構部82からの姿勢遷移情報に従って制
御信号を生成し、これを、マスタマニピュレータ部8に
送出する。マスタマニピュレータ部8のアクチュエータ
86は、この制御信号に従って駆動し、これにより、操
作部9は、その姿勢を変化させ、擬似スレーブマニピュ
レータ部77の仮想的な先端部の姿勢と同一の姿勢をと
る。
マニピュレータ部8の操作部9の姿勢パラメータが、ネ
ットワーク43を介して、スーパデザイナデータベース
部44に送信される。
置53において、制御機構部83は、マスタマニピュレ
ータ部8のセンサ85の出力を受信し、制御部81に供
給する。制御部81は、センサ85の出力から、マスタ
マニピュレータ部8の操作部9の姿勢パラメータを算出
し、通信部84に供給する。通信部84は、制御部81
からの操作部9の姿勢パラメータを、ネットワーク43
を介して、スーパデザイナデータベース部44に送信す
る。
ザの操作によって変化したマスタマニピュレータ部8の
操作部9の姿勢を表す姿勢パラメータが、スーパデザイ
ナデータベース部44に送信される。
ニピュレータ制御装置53の通信部84は、ネットワー
ク43を介してスーパデザイナデータベース部44から
送信されてくる、擬似スレーブマニピュレータ部77の
仮想的な先端部の姿勢パラメータを、基準姿勢パラメー
タとして受信し、ステップS74に進む。ステップS7
4では、マスタマニピュレータ制御装置53の通信部8
4は、スーパデザイナデータベース部44から、仮想的
な先端部の姿勢パラメータとともに送信されてくる、仮
想的な先端部が外部から受けた力F1とトルクT1を受信
する。この仮想的な先端部についての姿勢パラメータ、
および力F1とトルクT1は、通信部84から制御部81
に供給され、ステップS74からS75に進む。
ップS72で取得した操作部9の姿勢パラメータと、ス
テップS73で取得した基準姿勢パラメータの差を算出
し、ステップS76に進む。
ップS75で算出した、操作部9の姿勢パラメータと基
準姿勢パラメータとの差(ずれ)の大きさに比例した大
きさで、ずれの方向とは逆方向の力F2とトルクT2を算
出し、ステップS77に進む。
ップS76で算出した力F2とトルクT2のそれぞれに、
ステップS74で取得した力F1およびトルクT1に比例
する力とトルクを加算し、操作部9を操作するユーザU
に知覚させる力FoおよびトルクToを算出する。すなわ
ち、制御部81は、例えば、上述の式(1)に従って、
力FoおよびトルクToを算出する。
マニピュレータ部8の操作部9を操作するユーザU
kに、ステップS77で算出された力FoとトルクToを
知覚させるように、マスタマニピュレータ部8が制御さ
れる。
た基準姿勢パラメータと、ステップS76で得た力Fo
およびトルクToを、姿勢遷移機構部82に供給する。
姿勢遷移機構部82は、マスタマニピュレータ部8の操
作部9の姿勢を、現在の姿勢から、制御部81から供給
された基準姿勢パラメータに対応する姿勢に遷移させる
ための姿勢遷移情報であって、さらに、力Foおよびト
ルクToをユーザに知覚させることのできる加速度(上
述したように、角加速度を含む)の情報を含むものを生
成し、制御機構部83に供給する。制御機構部83は、
姿勢遷移機構部82からの姿勢遷移情報に従って制御信
号を生成し、これを、マスタマニピュレータ部8に送出
する。マスタマニピュレータ部8のアクチュエータ86
は、この制御信号に従って駆動し、これにより、操作部
9は、その姿勢を、所定の加速度で変化させ、ユーザU
に力FoおよびトルクToを知覚させながら、擬似スレー
ブマニピュレータ部77の仮想的な先端部の姿勢と同一
の姿勢をとる。
同様の処理が繰り返される。
oおよびトルクToを、ステップS75で算出されたずれ
の大きさに比例した大きさで、ずれの方向とは逆方向の
力F2とトルクT2と、擬似スレーブマニピュレータ部7
7の仮想的な先端部が受けたに力F1とトルクT1に比例
する力とトルクとが加算されたものとしたので、ユーザ
Uに、操作部9の姿勢パラメータと基準姿勢パラメータ
とのずれ、および擬似スレーブマニピュレータ部77の
仮想的な先端部が受ける反力を意識させることができ
る。
ータ部8の操作部9を、基準姿勢パラメータに対応する
姿勢と異なる姿勢にするように操作した場合には、その
姿勢の異なり具合が大きいほど、大きな反力を受けるの
で、自身の操作が、擬似スレーブマニピュレータ部77
の仮想的な先端部が実際にとった姿勢とどの程度異なる
かを、いわば感覚的に認識することができる。
て、図17のスーパデザイナデータベース部44の処理
について説明する。なお、スーパデザイナデータベース
部44は、開始信号を送信してきたマスタマニピュレー
タ42kごとに、そのマスタマニピュレータ42kと擬似
スレーブマニピュレータ41を制御する処理として、図
17のフローチャートに従った処理(以下、適宜、制御
処理という)を行う。従って、擬似スレーブマニピュレ
ータ41でも、開始信号を送信したマスタマニピュレー
タ42kごとに対して、上述の処理が行われる。
出力制御装置21は、擬似スレーブマニピュレータ41
からの画像データの受信と、その画像データのマスタマ
ニピュレータ42kへの送信を開始する。
S61において、擬似スレーブマニピュレータ41(図
15)は、画像データの、スーパデザイナデータベース
部44への送信を開始するので、スーパデザイナデータ
ベース部44の入出力制御装置21は、そのようにして
擬似スレーブマニピュレータ41からネットワーク43
を介して送信されてくる画像データの受信を開始する。
ーブマニピュレータ41から受信した画像データの、マ
スタマニピュレータ42kへの送信を開始する。ここ
で、マスタマニピュレータ42では、このようにして、
入出力制御装置21から送信される画像データの受信
が、上述の図20のステップS71で開始される。
置21は、図19のステップS61において擬似スレー
ブマニピュレータ41から送信されてくる姿勢パラメー
タ(擬似スレーブマニピュレータ部77の仮想的な先端
部の姿勢パラメータ)を受信し、その姿勢パラメータ
を、基準姿勢パラメータとして、マスタマニピュレータ
42kに送信する。ここで、この基準姿勢パラメータ
は、マスタマニピュレータ42kにおいて、上述の図2
0のステップS71で受信され、これにより、操作部9
(マスタマニピュレータ部8の操作部9)は、その基準
パラメータに対応する姿勢、即ち、擬似スレーブマニピ
ュレータ部77の仮想的な先端部の姿勢と同一の姿勢を
とる。
御装置21は、擬似スレーブマニピュレータ41から、
その仮想的な先端部についての姿勢パラメータと、力F
1およびトルクT1が、図19のステップS64で送信さ
れてくるのを待って受信し、その姿勢パラメータを基準
姿勢パラメータとして、力F1およびトルクT1ととも
に、マスタマニピュレータ42kに送信する。ここで、
マスタマニピュレータ42kでは、仮想的な先端部につ
いて姿勢パラメータは、図20のステップS73で受信
され、仮想的な先端部についての力F1およびトルクT1
は、図20のステップS74で受信される。
御装置21は、マスタマニピュレータ42kが図20の
ステップS72で送信してくる操作部9の姿勢パラメー
タを受信し、姿勢パラメータ制御部28に供給して、ス
テップS94に進む。
部28は、検索部29に流行デザイン情報データベース
95を検索させることにより、ステップS93でマスタ
マニピュレータ42kから受信した姿勢パラメータによ
るデザインを制限するような流行デザイン情報が、流行
デザイン情報データベース95に登録されているかどう
かを判定する。
レータ42kからの姿勢パラメータによるデザインを制
限するような流行デザイン情報が、流行デザイン情報デ
ータベース95に登録されていないと判定された場合、
即ち、姿勢パラメータによるデザインが、流行デザイン
情報が表す、流行しているデザインから、それほどはず
れるもの(特異デザイン)ではない場合、ステップS9
9に進み、姿勢パラメータ制御部28は、マスタマニピ
ュレータ42kからの姿勢パラメータを、入出力制御装
置21に供給し、入出力制御装置21は、姿勢パラメー
タ制御部28からの姿勢パラメータを、擬似スレーブマ
ニピュレータ41に送信する。その後、ステップS92
に戻り、以下、同様の処理が繰り返される。
レータ41の仮想的な先端部の動きは、マスタマニピュ
レータ42kのユーザUkによる操作に従うことなる。
ニピュレータ42kからの姿勢パラメータによるデザイ
ンを制限するような流行デザイン情報が、流行デザイン
情報データベース95に登録されていると判定された場
合、即ち、姿勢パラメータによるデザインが、流行デザ
イン情報が表す、流行しているデザインからはずれるも
の(特異デザイン)である場合(現在の流行からすれ
ば、突飛なデザインである場合)、ステップS95に進
み、姿勢パラメータ制御部28は、姿勢パラメータ登録
部22を制御することにより、マスタマニピュレータ4
2kからの姿勢パラメータによる特異デザインを表す特
異デザイン情報を、特異デザイン情報データベース94
に登録させ、ステップS96に進む。
のステップS95で特異デザイン情報データベース94
に登録された特異デザイン情報(以下、適宜、直前特異
デザイン情報という)の頻度が所定の閾値より大である
かどうかを判定する。
ン情報の頻度が所定の閾値より大でないと判定された場
合、即ち、直前特異デザイン情報が表す特異デザインを
施すような操作が、1以上のユーザによってそれほど行
われていない場合、ステップS97に進み、姿勢パラメ
ータ制御部28は、マスタマニピュレータ42kからの
姿勢パラメータを、その姿勢パラメータによるデザイン
を制限する流行デザイン情報に基づいて修正し、その流
行デザイン情報による制限の範囲内のものとする。そし
て、ステップS99に進み、姿勢パラメータ制御部28
は、修正後の姿勢パラメータを、入出力制御装置21を
介して、擬似スレーブマニピュレータ41に送信して、
ステップS92に戻り、以下、同様の処理を繰り返す。
レータ41の仮想的な先端部の動きは、マスタマニピュ
レータ42kのユーザUkによる操作を流行デザイン情報
に基づいて修正したもの、つまり、ユーザが行おうとし
た突飛なデザイン(特異デザイン)を、流行のデザイン
からあまりかけ離れたものとならないように修正したも
のに従うことなる。
デザイン情報の頻度が大であると判定された場合、即
ち、直前特異デザイン情報が表す特異デザインを施すよ
うな操作が、1以上のユーザによって多数行われ、その
結果、現在の流行が、直前特異デザイン情報が表すデザ
インに変化してきたと推測される場合、ステップS98
に進み、更新部26は、直前特異デザイン情報を、特異
デザイン情報データベース94から読み出し、流行デザ
イン情報として、流行デザイン情報データベース95に
転送して追加記憶させる。
ラメータ制御部28は、マスタマニピュレータ42kか
らの姿勢パラメータを、入出力制御装置21に供給し、
入出力制御装置21は、姿勢パラメータ制御部28から
の姿勢パラメータを、擬似スレーブマニピュレータ41
に送信する。その後、ステップS92に戻り、以下、同
様の処理が繰り返される。
レータ41の仮想的な先端部の動きは、マスタマニピュ
レータ42kのユーザUkによる操作に従うことなる。
姿勢パラメータによるデザインが、流行デザイン情報が
表す、流行しているデザインからはずれる特異デザイン
である場合(現在の流行からすれば、突飛なデザインで
ある場合)、最初のうちは、そのような特異デザインを
行おうとする操作は、流行デザイン情報に基づいて修正
される。しかしながら、最初は、特異デザインであって
も、その特異デザインを施すような操作が多数行われた
場合には、特異デザインが多数に受け入れられ、現在の
流行が、その特異デザインに変化したと推測される。そ
こで、この場合には、流行デザイン情報データベース9
5に、その特異デザイン情報が、流行デザイン情報とし
て追加記憶され、さらに、そのような特異デザインを施
そうとするユーザの操作も、流行デザイン情報によって
制限(修正)されないようになる。
1の仮想的な先端部は、最初は、特異デザインを施すよ
うな操作に従わなかったのが、その特異デザインが多数
に認知されてくると、その特異デザインを施す操作に従
って動くようになる。即ち、例えば、図18(A)に示
したようなPDAのデザインが流行している場合におい
て、図18(B)に示したようなPDAのデザインを施
すように、マスタマニピュレータ42を操作しても、最
初のうちは、その操作が制限されるが、そのような操作
が多数行われていくうちに、その制限がされなくなり、
図18(B)のPDAのデザインを施すことが可能にな
っていく。
ンシステムでは、マスタマニピュレータ421乃至42K
を操作するユーザU1乃至UKそれぞれによって行われる
デザインに基づいて、流行デザイン情報データベース9
5の更新(上述の場合には、特異デザイン情報の追加記
憶)が行われるが、さらに、このSHARNデザインシ
ステムでは、他の一般ユーザによる評価にも基づいて、
流行デザイン情報データベース95の更新が行われるよ
うになっている。
て、他の一般ユーザによる評価に基づく、流行デザイン
情報データベース95の更新処理について説明する。
デザイン評価部93は、デザイン情報登録部91によっ
てデザイン情報データベース92に登録されたデザイン
情報によるデザインを評価する評価情報を収集する。
ザイン情報データベース92に記憶されたデザイン情報
を公開しているWebページについて、一般ユーザが行
ったデザイン情報の人気投票結果を、評価情報として、
ネットワーク43を介して収集する。また、デザイン評
価部93は、デザイン情報データベース92に記憶され
たデザイン情報によって特定されるPDAの販売個数
を、評価情報として、ネットワーク43を介して収集す
る。
ン評価部93は、デザイン情報データベース92に記憶
されているデザイン情報それぞれに対し、ステップS1
11で収集した評価情報に基づき、評価値を計算し、そ
の評価値によって、デザイン情報データベース92を更
新する。
は、デザイン情報が、前回の更新処理で得られた評価値
(以下、適宜、前回の評価値という)と対応付けられて
記憶されており、ステップS112では、デザイン情報
について新たに計算された評価値(以下、適宜、今回の
評価値という)によって、各デザイン情報に対応付けら
れている評価値(前回の評価値)が更新される。
が大きいほど、評価の程度が高いものとする。
26は、評価値が所定の閾値ε1以上で、かつ評価値の
変化の割合が閾値+ε2以上のデザイン情報が、デザイ
ン情報データベース92に登録されているかどうかを判
定する。
の閾値ε1以上で、かつ評価値の変化の割合が+ε2以上
のデザイン情報が、デザイン情報データベース92に登
録されていると判定された場合、即ち、評価値自体が大
きく、さらに、評価値の変化(伸び)も大きいデザイン
情報(以下、適宜、人気デザイン情報という)が存在す
る場合、ステップS114に進み、更新部26は、その
人気デザイン情報が、流行デザイン情報として、流行デ
ザイン情報データベース95に既に登録されているかど
うかを判定する。
情報が、流行デザイン情報として、流行デザイン情報デ
ータベース95に既に登録されていると判定された場
合、ステップS111に戻り、以下、同様の処理を繰り
返す。
ザイン情報が、流行デザイン情報データベース95に登
録されていないと判定された場合、ステップS115に
進み、更新部26は、デザイン情報データベース92か
ら、人気デザイン情報を読み出し、流行デザイン情報と
して、流行デザイン情報データベース95に供給して追
加記憶させ、これにより、流行デザイン情報データベー
ス95を更新して、ステップS111に戻る。
が所定の閾値ε1以上で、かつ評価値の変化の割合が+
ε2以上のデザイン情報が、デザイン情報データベース
92に登録されていないと判定された場合、即ち、人気
デザイン情報が存在しない場合、ステップS116に進
み、更新部26は、評価値の変化の割合が所定の閾値ε
3回以上続けて0以下になっているデザイン情報が、デ
ザイン情報データベース92に登録されているかどうか
を判定する。
の割合が所定の閾値ε3回以上続けて0以下になってい
るデザイン情報が存在すると判定された場合、即ち、評
価値が変化しないか、または下降する一方のデザイン情
報(以下、適宜、不人気デザイン情報という)が存在す
る場合、ステップS117に進み、更新部26は、不人
気デザイン情報が、流行デザイン情報として、流行デザ
イン情報データベース95に登録されているかどうかを
判定する。
ン情報が、流行デザイン情報として、流行デザイン情報
データベース95に登録されていると判定された場合、
ステップS118に進み、更新部26は、その流行デザ
イン情報としての不人気デザイン情報を、流行デザイン
情報データベース95から削除し、これにより、流行デ
ザイン情報データベース95を更新して、ステップS1
11に戻る。
デザイン情報が、流行デザイン情報データベース95に
登録されていないと判定された場合、ステップS118
をスキップして、ステップS111に戻る。
ンシステムでは、マスタマニピュレータ421乃至42K
それぞれの操作に基づく姿勢パラメータによって、スー
パデザイナデータベース部44における流行デザイン情
報データベース95の流行デザイン情報が、より良いも
の(現在の流行にあったデザイン)に更新されていく。
さらに、スーパデザイナデータベース部44における流
行デザイン情報データベース95の流行デザイン情報
は、一般のユーザによる評価にも基づいて、より良いも
のに更新されていく。さらに、スーパデザイナデータベ
ース部44では、マスタマニピュレータ42kの操作に
基づく姿勢パラメータと、流行デザイン情報から、擬似
スレーブマニピュレータ41に提供する姿勢パラメータ
(基準姿勢パラメータ)が生成され、擬似スレーブマニ
ピュレータ41では、その基準姿勢パラメータにしたが
って仮想的な先端部の姿勢が制御されることによって、
デザインが施される一方、マスタマニピュレータ42k
では、そのユーザUkの操作と、基準姿勢パラメータと
のずれを、いわば矯正するように、操作部9を操作する
ユーザUkに負荷がかけられる。
1では、ユーザUkのデザインセンスと、その他の多数
のユーザのデザインセンスから構築され、更新されてい
く流行デザイン情報とに基づく、いわば流行に沿ったデ
ザインが施されることになる。
ユーザUkの操作が、流行デザイン情報に基づいて矯正
されるので、ユーザUkのデザイン技術の向上を短時間
で図ることができる。
テムでは、図23に示すように、マスタマニピュレータ
421乃至42Kそれぞれの操作に基づいて、スーパデザ
イナデータベース部44の流行デザイン情報が、より良
いものに更新されていき、さらに、マスタマニピュレー
タ421乃至42Kにおいては、流行デザイン情報の、い
わばフィードバックを受け、ユーザの操作が、流行デザ
イン情報に適合するように矯正される。
42Kそれぞれにおいては、それ単独の場合ではできな
かった、ユーザU1乃至UKそれぞれのデザイン技術を向
上させるという高機能が実現されているということがで
きるが、これは、マスタマニピュレータ421乃至42K
と、スーパデザイナデータベース部44とが、図23に
おいて点線で囲むように、まるで1つの装置であるかの
ようになって、マスタマニピュレータ421乃至42Kそ
れぞれの操作に基づいて、スーパデザイナデータベース
部44の流行デザイン情報が、より良いものに更新され
ることにより、結果として、マスタマニピュレータ42
1乃至42Kそれぞれが、流行デザイン情報を、より良い
ものに更新するという処理を、互いに協調しながら分担
することとなっているからである。
ス部44が、単に、マスタマニピュレータ421乃至4
2Kそれぞれの操作内容を記憶し、マスタマニピュレー
タ42 1乃至42Kそれぞれにフィードバックするという
だけでは、マスタマニピュレータ421乃至42Kそれぞ
れが、ユーザによる操作内容を、スーパデザイナデータ
ベース部44に供給するという処理を、単に分担してい
るだけとなり、マスタマニピュレータ421乃至42Kそ
れぞれにおいて、ユーザU1乃至UKのデザイン技術を向
上させるという高機能を実現することはできない。
用した移動体システムとしてのSHARN移動体システ
ムの構成例を示している。
移動体(例えば、自動車など)1011,1012,・・
・、各移動体101kに設けられた全方位カメラ10
2k、およびネットワーク104から構成されている。
運転操作するユーザUkによる操作に応じて作動するこ
とにより、道路上等を移動する。移動体101kに設け
られた全方位カメラ102kは、自身を中心とする全方
位の画像を撮像(検知)する。従って、ある被写体10
3を見通すことのできる位置にある移動体101kの全
方位カメラ102kにおいては、特に、被写体103が
存在する方向を意識しなくても、被写体103を含む画
像を撮像することができる。ネットワーク104は、任
意の移動体101kと101k'の間の無線通信を可能と
するネットワークである。
kにおいて得られる、自身を中心とする全方位の画像
を、全方位画像という。
介して、他の移動体101k'と通信する。そして、移動
体101kは、他の移動体101k'で撮像された画像デ
ータを、ネットワーク104を介して受信し、その画像
データを処理することによって、付加価値を付けた画像
データを生成する。
移動体101kが、図1(および図2)の操作部100
3、アクチュエータ1005、合成/統合部1002、
駆動制御部1004、および信号処理部1006に対応
し、全方位カメラ102kが、図1のセンサ1007に
対応し、ネットワーク104が、図1のネットワーク1
001に対応する。
101kだけでなく、固定局としての情報処理装置10
5も行うことができるようになっている。そして、固定
局である情報処理装置105でも、移動体101kにお
ける場合と同様に、他の移動体101k'で撮像された画
像データを、ネットワーク104を介して受信し、その
画像データを処理することによって、付加価値を付けた
画像データを生成することができる。
RN移動体システムの機能について概説する。
能として、ある図示しない移動体101kは、所望の移
動体である、例えば、移動体1018を指定し、その移
動体1018の現在地から全方位カメラ1028によって
撮像された全方位画像データを、ネットワーク104を
介して取得することができる。
は、ある被写体103について、所望の視点方向v上に
位置する移動体(図25においては、移動体1017)
を指定し、その移動体1017の現在地から全方位カメ
ラ1027によって撮像された全方位画像データを、ネ
ットワーク104を介して取得することができる。この
場合、その全方位画像データには、被写体103を所定
の視点方向vから見た画像が含まれることになる。
kは、複数の移動体(図25においては、被写体103
を囲む点線の円上に位置する移動体1011,1012,
1013,1014,1015,1016)それぞれによっ
て撮像された、被写体103を多数の視点方向から見た
画像を含む全方位画像データを、ネットワーク104を
介して取得し、その複数の全方位画像データを処理する
ことによって、被写体103を、視点を変えながら見た
画像(被写体103を、その周囲を一周しながら撮像し
たような画像)(以下、適宜、視点可変画像という)
を、即座に得ることができる。
1k、並びに1011,1012,1013,1014,1
015、および1016が、視点可変画像を得るための処
理を協調しながら分担することで実現されるが、この点
についての詳細は、後述する。
を示している。
とA/D(Analog/Digital)変換部112で構成されてい
る。
部118から供給される制御信号にしたがって、全方位
画像を撮像(撮影)し、その結果得られるアナログの画
像信号を、A/D変換部112に供給する。また、撮像
装置111は、全方位画像を撮像したときのズームに関
するズーム情報等を、スケール加工部113に供給す
る。
らのアナログの画像信号をA/D変換し、これにより、
ディジタルの全方位画像データを得て、スケール加工部
113に供給する。
12k(のA/D変換部112)から供給される全方位
画像データのスケールを、同じく全方位カメラ112k
(の撮像装置111)から供給されるズーム情報に基づ
いて変換する。
メラ102kにおいて、任意のズーム倍率で撮像された
全方位画像データを、所定のズーム倍率で撮像されたも
のに変換する。
画像データは、画像データベース114に供給され、画
像データベース114は、スケール加工部113からの
全方位画像データを、必要な情報と対応付けて記憶す
る。また、画像データベース114は、後述するように
して、制御部118からバスBus1を介して供給される画
像データ等も記憶(登録)する。
像装置111のズーム倍率など)やコマンドを入力する
ときに操作され、その入力は、バスBus1を介して制御部
118に供給されて処理される。また、操作部115
は、移動体101kを制御するためのハンドルや、アク
セル、ブレーキ等も含んでいる。
れる情報を、ネットワーク104(図24)を介して送
信する。受信部117は、ネットワーク104を介して
送信されてくる情報を受信し、バスBus1上に出力する。
れており、そのバスBus1とBus2に接続されている各ブロ
ックを制御する。
て供給される画像データから、表示部122に表示させ
る画像を生成するための加工処理を行い、バスbus2上に
出力する。
部121と位置検出部123を参照し、記憶部121に
記憶された情報と、位置検出部123が出力する情報と
を比較し、その比較結果を、バスBus2を介して、制御部
118に通知する。
118から供給される情報等を一時記憶する。
Crystal Display)やCRT(CathodRay Tube)等で構成さ
れ、バスBus2を介して供給される画像データにしたがっ
て、画像を表示する。
bal Positioning System)等で構成され、移動体101k
の現在地を検出し、バスBus2上に出力する。
したデータである地図データを記憶しており、バスBus2
を介して、他のブロックから参照される。
御部118から供給される制御信号にしたがって、所定
の座標等を演算する。
の下、バスBus2を介して供給される画像データから所定
の領域を切り出し、バスBus2上に出力する。
の下、バスBus2を介して供給される画像データを、後述
する歪みを除去した画像データに変換し、バスbus2上に
出力する。
の構成例を示している。
部203の上部に配置された支持体201によって支持
されることによって構成されており、集光部202の周
囲360度の方向を撮像することができるようになって
いる。
い透明材料からなり、ガラス面での光の屈折を最小化す
るために、入射光がガラス面と直交するように集光部2
02の後述する焦点を中心とした球面になっている。
り、支持体201を介して入射する周囲の光を、撮像部
203の方向に反射する。
変換素子で構成され、そこに入射する光を電気信号とし
ての画像信号に変換する。この撮像部203で得られる
画像信号が、撮像装置111の出力として、図26のA
/D変換部112に供給される。
撮像装置111の構成や集光の原理については、例え
ば、「移動ロボット用全方位視覚センサの開発」、自動
化技術第29巻第6号(1997年)(以下、適宜、文
献1という)に開示されているため、ここでは、簡単に
説明する。
て撮像された全方位画像データの例を示している。
する2つの円の円周F1とF2によって区分される。な
お、図28では、円周F1の方が、円周F2よりも半径
が大きいものとなっている。
1の内側で、かつ小さい円周F2の外側になっている領
域R1、大きい円周F1の外側の領域R2、小さい円周
R2に囲まれた領域(内側の領域)R3から構成され
る。
域R1においては、集光部202で反射された、周囲か
らの光に対応する画像データが撮像されており、領域R
2においては、集光部202の外側の部分が撮像されて
いる。また、領域R3には、撮像部203自身が撮像さ
れている。
1には、複数の建物が撮像されているが、円周F1に近
い方向に、建物の上部が撮像され、円周F2に近い方向
に、建物の下部が撮像されている。
202を構成する双曲面について説明する。
されており、双曲面の軸に対する垂直面により、双曲面
を切断して得られた双曲面の凸型先頭部の凸状面に、鏡
面を形成したものとなっている。
葉双曲面を用いることができ、二葉双曲面は、図29に
示すように、双曲線を軸(Z軸)回りに回転して得られ
る曲面であり、Z>0の領域に存在する下に凸の双曲面
H1と、Z<0の領域に存在する上に凸の双曲面H2か
ら構成される。
2のうち、Z>0の領域にある双曲面H1を利用する。
なお、以下、適宜、Z軸を、双曲線の中心軸または単に
軸ともいう。
標系において、二葉双曲面H1とH2は、式(2)で示
される。
は、双曲面H1およびH2の形状を定義する定数であ
る。即ち、定数bは、原点Oから、双曲面H1(H2)
とZ軸との交点までの距離を表す。また、定数aは、そ
の交点を通る、XY平面と平行な平面と、双曲面H1
(H2)の漸近面A1との交線が描く円の半径を表す。
曲面H1およびH2の焦点の位置を定義する定数であ
る。即ち、Z軸上の+cの位置(0,0,+c)が、双
曲面H2の焦点f1となり、Z軸上の−cの位置(0,
0,−c)が、双曲面H1の焦点f2となる。
関係を有する。
双曲面H1で構成されるとした場合、撮像部203は、
図30に示すように、そのレンズの中心軸がZ軸に一致
し、かつ、レンズ中心が、双曲面H1の焦点f2に一致
するように配置される。
データは、上述の図28に示したようなものとなるが、
いま、この全方位画像データについて、図31に示すよ
うに、その左上の点を原点Oとするとともに、左から右
方向にx軸をとり、上から下方向にy軸をとった2次元
直交座標系を定義する。
円の中心点C1の座標を(X0 、Y0 )とするととも
に、円周F1の円の半径をrF1とし、円周F2の円の半
径をrF2とすると、円周F1の外側の領域R2を構成す
る点(x,y)は、式(4)により表され、円周F2の
内側の領域R3を構成する点(x,y)は、式(5)に
より表される。
画像データのスケールを変換する前に、式(4)で表さ
れる領域R2を構成する画素値と、式(5)で表される
領域R3を構成する画素値を、例えば、0に変換する。
中心点C1の座標(X0 、Y0 )、並びに半径rF1お
よびrF2が必要となるが、これらの情報は、撮像装置1
11からスケール加工部113に対して、ズーム情報と
ともに供給されるようになっている。なお、撮像装置1
11(図26)は、ズーム情報や、中心点C1の座標
(X0 、Y0 )、並びに半径rF1およびrF2の他、撮
像時の露出時間や、絞り等の、撮像装置111の設定に
関する情報を、撮像情報として、スケール加工部113
に出力するようになっている。
露出時間や絞りは、固定であるとする。
1の画像データである全方位画像データについては、所
望の被写体が表示されている部分等の、全方位画像デー
タの一部分だけが必要な場合がある。
データの一部分を切り出すようになっているが、その切
り出しは、図32に示すように行われる。
通る半径方向の2つの直線Lc1とL c2に囲まれ、かつ中
心点C1を中心とする2つの円の円周Fc1とFc2に囲ま
れる略扇形の領域R11の画像データを切り出すように
なっている。
1に示したように、中心点C1に近づくほど狭まったも
のとなり、逆に、中心点C1から遠ざかるほど広がった
ものとなるような歪みを有する。このことは、切り出し
部126が全方位画像データから切り出す略扇形の画像
データについても同様であり、このようは歪みのある画
像データは、図26の表示部122で表示等するにあた
って、歪みのないものに変換する必要がある。
うな全方位画像データの歪みは、中心点C1を通る円の
円周方向の歪みと、半径方向の歪みとに分けて考えるこ
とができる。
と、図28や図31の全方位画像データの、中心点C1
を中心とするある円の円周上においては、スケールが一
定であり、従って、歪みはない。
202としての双曲面H1を示している。
Y,Z)から、Z軸に向かい、X軸(XZ平面)と角度
θをつくるように、光線rが入射している。この光線r
は、双曲面H1で反射され、後述する図34に図示して
ある撮像部203の受光面(画像面)A3上の点p
(x,y)に到達する。そして、この場合、点p(x,
y)は、X軸(XZ平面)との間で、光線rがX軸との
間でつくるのと同一の角度θをつくる。
くるように入射する光線r’を考えた場合、この光線
r’も、双曲面H1で反射され、受光面(画像面)A3
上の点p’(x’,y’)に到達する。そして、この場
合も、点p’(x’,y’)は、X軸との間で、光線
r’がX軸との間でつくるのと同一の角度θ’をつく
る。
(後述する)が同一であれば、光線rおよびr’は、受
光面A3上の、位置は異なるが、Z軸から同一の距離r
pだけ離れた点で受光される。
の光線それぞれは、受光面A3上の、Z軸から同一の距
離にある点であって、X軸との間で、光線とX軸とがつ
くるのと同一の角度をつくる点で受光される。
との角度が等角度の複数の光線は、受光面A3の、Z軸
を中心とする円周上に、等間隔で入射することになるか
ら、全方位画像データにおいて、受光面A3とZ軸との
交点にあたる中心点C1を中心とする円の円周方向に
は、歪みは生じない。
の、中心点C1を通る半径方向の直線上においては、中
心点C1に近づくほど、スケールが小さくなり、中心点
C1から離れるほど、スケールが大きくなることから、
全方位画像データは、半径方向の歪みを有する。
202としての双曲面H1を示している。
で、焦点f1に向かって入射する光線r1は、双曲面H
1で反射され、焦点f2に向かっていき、撮像部203
の受光面(画像面)A3で受光される。
焦点f1を通り、XY面に平行な面と、焦点f1に向か
って入射する光線とがつくる角度を意味する。また、撮
像部203の受光面A3は、撮像装置111の焦点距離
をfとすると、焦点f2から、Z軸に沿って、fだけ離
れた原点O方向に位置する。
かって入射する光線r2は、双曲面H1で反射され、焦
点f2に向かっていき、受光面A3で受光される。Z軸
に対して仰角2△d度で、焦点f1に向かって入射する
光線r3は、双曲面H1で反射され、焦点f2に向かっ
ていき、受光面A3で受光される。仰角が△d度ずつ大
きくなる光線r4,r5,r6も、同様にして、受光面
A3で受光される。
r1乃至r6それぞれが、受光面A3で受光される点ど
うしの間隔は、図34の拡大図に示すように、等間隔に
はならず、Z軸に近い点どうしの間隔ほど狭くなる(Z
軸から離れた点どうしの間隔ほど広くなる)。即ち、仰
角が大きい光線どうしの間隔ほど狭くなる(仰角が小さ
い光線どうしの間隔ほど広くなる)。
光面A3上で受光される点どうしの間隔が、上述のよう
に、等間隔にならないことから、全方位画像データに
は、半径方向の歪みが生じる。
みを除去するには、仰角が等角度の光線の、受光面A3
上での受光点どうしの間隔が、等間隔になるようにすれ
ば良い。
体上のある点P(X,Y,Z)から、焦点f1に向かっ
て、仰角α度で入射する光線rを考える。
様に、集光部202としての双曲面H1で反射され、焦
点f2に向かっていき、受光面A3で受光される。
rが、焦点f2を通り、XY平面に平行な平面とつくる
角度をγ度とする。さらに、X軸とY軸とで定義される
2次元直交座標系において、光線rが受光面A3で受光
された点(受光点)pの座標を(x,y)で表し、その
点p(x,y)とZ軸との距離をRと表す。
れる双曲面H1において、光線rが反射される点の座標
を求めることにより、次式で表すことができる。
ことができる。
が求められる。
る。
(12)に示すように定義する。
を代入することにより、式(13)が求められる。
2次方程式とすることができる。
得られる。
よって求めることができる。
5)で定義されるものであり、また、式(15)中のA
とBは、それぞれ、式(11)と(12)で定義される
ものである。
は、次式で求めることができる。
y)との距離Rは、√(x2+y2)で表されるから、式
(17)は、次式のように変形することができる。
求め、その角度γを用いて、式(18)を計算すること
により、Z軸に対して仰角α度で、焦点f1に向かって
入射する光線rが、受光面A3において受光される点p
(x,y)のZ軸からの距離Rを算出することができ
る。
(例えば、0度乃至80度など)を等角度△dに分割
し、各仰角△d,2△d,3△d,・・・で入射する光
線が、受光面A3上で受光される各点p1,p2,p3
・・・について、Z軸からの距離Rp1,Rp2,Pp3・・
・を求めておき、隣接する点どうしの距離の差|Rp1−
R p2|,|Rp2−Pp3|,・・・が、一定値になるよう
に、撮像装置111が出力する全方位画像データを変換
することにより、その半径方向の歪みを除去した全方位
画像データを得ることができることになる。
ータの変換は、図26の画像変換部127が行う。
ように、制御部118から、上述した半径方向の歪みが
ある全方位画像データ(以下、適宜、歪み全方位画像デ
ータという)とともに、中心点C1、円周F1の円の半
径rF1、および円周F2の円の半径rF2を受信する。
を中心とする半径rF1の円の円周F1と、中心点C1を
中心とする半径rF2の円の円周F2とで囲まれる領域R
1内において、中心点C1を中心とする、上述のRp1,
Rp2,Pp3・・・を半径とする複数の同心円を描く。さ
らに、画像変換部127は、その複数の同心円の円周を
等分する、中心点C1を通る複数の直線を描く。これに
より、画像変換部127は、領域R1において、複数の
同心円と、複数の直線とで形成される多数の交点を得
る。
線とで形成される多数の交点を、以下、適宜、変換対象
点という。
接するものどうしが等間隔になるように配置すること
で、歪みのある全方位画像データを、その歪みを除去し
た画像データに変換することができる。
示したのと同一の略扇形の領域R11の画像データを、
歪みのないものに変換することを考える。
すように、中心点C1を中心とする複数の同心円の円弧
F11,F12,F13,F14,F15,F16それ
ぞれと、中心点C1を通る複数の直線L1,L2,L
3,L4,L5,L6それぞれとの交点である多数の変
換対象点が存在する。
する多数の変換対象点を、図37(B)に示すように、
隣接するものどうしが等間隔になるように配置する。
の円弧F11,F12,F13,F14,F15,F1
6それぞれに対応する、等間隔に配置された横方向の直
線L21,L22,L23,L24,L25,L26
と、図37(A)の直線L1,L2,L3,L4,L
5,L6それぞれに対応する、等間隔に配置された縦方
向の直線L11,L12,L13,L14,L15,L
16を想定し、その横方向の直線L21乃至L26それ
ぞれと、縦方向の直線L11乃至L16それぞれとの交
点上に、対応する変換対象点を変換する(割り当て
る)。
て、円弧F14と、直線L5との交点である変換対象点
p11は、図37(B)の、円弧F14に対応する直線
L24と、直線L5に対応する直線L15との交点p1
2に変換される。
うに、変換対象点の位置を変換(変更)することによっ
て、半径方向の歪みを有する画像データを、その歪みを
除去した画像データに変換するが、変換対象点は、上述
したように、中心点C1を中心とする円と、中心点C1
を通る直線との交点である。従って、変換対象点は、撮
像部203(図27)の受光面A3(図34、図35)
を構成する画素の画素中心に一致するとは限らず、むし
ろ、一般には、一致しないことが多い。
ずれているのが一般的であるから、画像変換部127に
おいて、変換対象点の位置を変換する前に、その変換対
象点における画素値を求める必要がある。
における画素値を、例えば、次のようにして求めるよう
になっている。
が、図38に示すように、受光面A3上の隣接する2×
2の4画素P1,P2,P3,P4それぞれの画素中心
CP1,CP2,CP3,CP4を頂点とする長方形(正方形)
の範囲内にあるとする。なお、図38の実施の形態にお
いては、上下、または左右方向に隣接する画素中心どう
しの距離が1であるとしてある。
P1よりも距離αだけ右方向の、距離βだけ下方向の点で
ある場合、画像変換部127は、例えば、次式で求めら
れる画素値Ssを、変換対象点p11の画素値とする。
c,Sdは、画素P1,P2,P3,P4それぞれの画素
値を表す。また、式(19)において、αおよびβは、
0以上1以下の範囲の値で、変換対象点p11の位置に
対応するものである。
上述したように、全方位カメラ102kにおいて、任意
のズーム倍率で撮像された全方位画像データを、所定の
ズーム倍率で撮像されたものに変換する。このズーム倍
率の変換は、単純な画素の補間や間引きと、ローパスフ
ィルタによる必要なフィルタリング等によって実現する
ことも可能であるが、倍率を向上させる場合には、単純
な画素の補間ではなく、例えば、本件出願人が先に提案
しているクラス分類適応処理を利用することができる。
適応処理とからなり、クラス分類処理によって、データ
が、その性質に基づいてクラス分けされ、各クラスごと
に適応処理が施される。
(以下、適宜、低倍率画像という)を、高倍率の画像
(以下、適宜、高倍率画像という)に変換する場合を例
に説明する。
成する画素(以下、適宜、低倍率画素という)と、所定
のタップ係数との線形結合により、その低倍率画像の空
間解像度を向上させた高倍率画像の画素の予測値を求め
ることで、その低倍率画像の倍率を高くした画像が得ら
れる。
像を教師データとするとともに、その高倍率画像の解像
度を劣化させた低倍率画像を生徒データとして、高倍率
画像を構成する画素(以下、適宜、高倍率画素という)
の画素値yの予測値E[y]を、幾つかの低倍率画素
(低倍率画像を構成する画素)の画素値x1,x2,・・
・の集合と、所定のタップ係数w1,w2,・・・の線形
結合により規定される線形1次結合モデルにより求める
ことを考える。この場合、予測値E[y]は、次式で表
すことができる。
数wjの集合でなる行列W、生徒データxijの集合でな
る行列X、および予測値E[yj]の集合でなる行列
Y’を、
合(i件目の教師データyiの予測に用いる生徒データ
の集合)の中のj番目の生徒データを意味し、行列Wの
成分wjは、生徒データの集合の中のj番目の生徒デー
タとの積が演算されるタップ係数を表す。また、y
iは、i件目の教師データを表し、従って、E[yi]
は、i件目の教師データの予測値を表す。なお、式(2
0)の左辺におけるyは、行列Yの成分yiのサフィッ
クスiを省略したものであり、また、式(20)の右辺
におけるx1,x2,・・・も、行列Xの成分xijのサフ
ィックスiを省略したものである。
用して、高倍率画素の画素値yに近い予測値E[y]を
求めることを考える。この場合、教師データとなる高倍
率画素の真の画素値yの集合でなる行列Y、および高倍
率画素の画素値yに対する予測値E[y]の残差eの集
合でなる行列Eを、
が成立する。
測値E[y]を求めるためのタップ係数wjは、自乗誤
差
で微分したものが0になる場合、即ち、次式を満たすタ
ップ係数wjが、高倍率画素の画素値yに近い予測値E
[y]を求めるため最適値ということになる。
wjで微分することにより、次式が成立する。
5)が得られる。
生徒データxij、タップ係数wj、教師データyi、およ
び残差eiの関係を考慮すると、式(25)から、次の
ような正規方程式を得ることができる。
行列(共分散行列)Aおよびベクトルvを、
うに定義すると、式 AW=v ・・・(27) で表すことができる。
データxijおよび教師データyiのセットを、ある程度
の数だけ用意することで、求めるべきタップ係数wjの
数Jと同じ数だけたてることができ、従って、式(2
7)を、ベクトルWについて解くことで(但し、式(2
7)を解くには、式(27)における行列Aが正則であ
る必要がある)、最適なタップ係数wjを求めることが
できる。なお、式(27)を解くにあたっては、例え
ば、掃き出し法(Gauss-Jordanの消去法)などを用いる
ことが可能である。
用いて、最適なタップ係数wjを求める学習をしてお
き、さらに、そのタップ係数wjを用い、式(20)に
より、教師データyに近い予測値E[y]を求めるのが
適応処理である。
ていないが、高倍率画像に含まれる成分が再現される点
で、単なる補間とは異なる。即ち、適応処理では、式
(20)だけを見る限りは、いわゆる補間フィルタを用
いての単なる補間と同一に見えるが、その補間フィルタ
のタップ係数に相当するタップ係数wが、教師データy
を用いての、いわば学習により求められるため、高倍率
画像に含まれる成分を再現することができる。このこと
から、適応処理は、いわば画像の創造(解像度創造)作
用がある処理ということができる。
適応処理を行うクラス分類適応処理回路によって実現さ
れるスケール加工部113の構成例を示している。な
お、ここでは、スケール加工部113は、全方位画像デ
ータを、所定の固定倍率の画像データに変換するが、全
方位画像データの倍率が所定の固定倍率よりも低い場合
には、クラス分類適応処理によって、全方位画像データ
を、その倍率よりも高い固定倍率の画像データに変換
し、逆に、全方位画像データの倍率が所定の固定倍率よ
りも高い場合には、間引き等を行って、全方位画像デー
タを、その倍率よりも低い固定倍率の画像データに変換
するようになっており、図39においては、全方位画像
データを、その倍率よりも高い固定倍率の画像データに
変換する部分を構成するクラス分類適応処理回路を示し
ている。
タ(全方位画像データ)である低倍率画像データは、バ
ッファ231に供給され、バッファ231は、そこに供
給される低倍率画像データを一時記憶する。
和演算回路236において求めようとする固定倍率の画
像データの画素(以下、適宜、固定倍率画素という)
を、順次、注目画素とし、さらに、その注目画素を予測
するのに用いる低倍率画像データの画素を、バッファ2
31から抽出し、予測タップとする。
ば、注目画素としての固定倍率画素に対応する位置に対
して近い位置にある低倍率画素の幾つかを、予測タップ
として、バッファ231から読み出す。
目画素について、予測タップを得ると、その注目画素に
ついての予測タップを、積和演算回路236に供給す
る。
制御回路237から制御信号が供給されるようになって
おり、予測タップ抽出回路232は、制御回路237か
らの制御信号にしたがって、予測タップを構成する低倍
率画素、即ち、予測タップの構造を決定する。
102kの撮像装置111が出力する撮像情報が供給さ
れるようになっており、制御回路237は、その撮像情
報のうちの、例えば、ズーム情報に基づいて、そのズー
ム情報が表す倍率に適した処理が行われるようにするた
めの制御信号を生成し、予測タップ抽出回路232、ク
ラスタップ抽出回路233、および係数記憶部235に
供給する。
ズーム情報が表すズーム倍率が小さいほど、注目画素に
対応する位置からより近い位置にある低倍率画素を用い
て予測タップを構成することを指示する制御信号(ズー
ム倍率が大きいほど、注目画素に対応する位置からより
遠い位置にある低倍率画素を用いて予測タップを構成す
ることを指示する制御信号)を生成し、予測タップ抽出
回路232に供給する。
のような制御信号にしたがい、低倍率画像のズーム倍率
によって異なる構造の予測タップを構成する。
目画素を、幾つかのクラスのうちのいずれかに分類する
ためのクラス分類に用いる低倍率画素を、バッファ23
1から抽出し、クラスタップとする。
制御回路237から供給される制御信号にしたがい、ク
ラスタップを構成させる低倍率画素、即ち、クラスタッ
プの構造を決定する。
タップ抽出回路233に対して、予測タップ抽出回路2
32に対するのと同様の制御信号を供給するようになっ
ており、従って、クラスタップ抽出回路233は、ズー
ム情報が表すズーム倍率が小さいほど、注目画素に対応
する位置からより近い位置にある低倍率画素を用いてク
ラスタップを構成する(ズーム倍率が大きいほど、注目
画素に対応する位置からより遠い位置にある低倍率画素
を用いてクラスタップを構成する)。
に、例えば、予測タップ抽出回路232で得られる予測
タップと、クラスタップ抽出回路233で得られるクラ
スタップとは、同一のタップ構造を有するものとする。
但し、勿論、予測タップとクラスタップとは、独立
(別)のタップ構造を有するものとすることが可能であ
る。
れる、注目画素についてのクラスタップは、クラス分類
回路234に供給される。クラス分類回路234は、ク
ラスタップ抽出回路233からのクラスタップに基づ
き、注目画素をクラス分類し、その結果得られるクラス
に対応するクラスコードを出力する。
例えば、ADRC(Adaptive Dynamic Range Coding)等を採
用することができる。
成する画素の画素値が、ADRC処理され、その結果得られ
るADRCコードにしたがって、注目画素のクラスが決定さ
れる。
クラスタップを構成する画素値の最大値MAXと最小値MIN
が検出され、DR=MAX-MINを、集合の局所的なダイナミッ
クレンジとし、このダイナミックレンジDRに基づいて、
クラスタップを構成する画素がKビットに再量子化され
る。即ち、クラスタップを構成する各画素の画素値か
ら、最小値MINが減算され、その減算値がDR/2Kで除算
(量子化)される。そして、以上のようにして得られ
る、クラスタップを構成するKビットの各画素の画素値
を、所定の順番で並べたビット列が、ADRCコードとして
出力される。従って、クラスタップが、例えば、1ビッ
トADRC処理された場合には、そのクラスタップを構成す
る各画素の画素値は、最小値MINが減算された後に、最
大値MAXと最小値MINとの平均値で除算され、これによ
り、各画素の画素値が1ビットとされる(2値化され
る)。そして、その1ビットの画素値を所定の順番で並
べたビット列が、ADRCコードとして出力される。
ば、クラスタップを構成する画素のレベル分布(画素値
分布)のパターンを、そのままクラスコードとして出力
させることも可能であるが、この場合、クラスタップ
が、N個の画素で構成され、各画素に、Kビットが割り
当てられているとすると、クラス分類回路234が出力
するクラスコードの場合の数は、(2N)K通りとなり、
画素のビット数Kに指数的に比例した膨大な数となる。
は、クラスタップの情報量を、上述のADRC処理や、ある
いはベクトル量子化等によって圧縮してから、クラス分
類を行うのが好ましい。
クラス分類を行うようにしが、クラス分類は、低倍率画
素とともに(または、低倍率画素ではなく)、撮像情報
に含まれるズーム情報や露出時間等を、クラスタップと
して行うことが可能である。
ードは、係数記憶部235に、アドレスとして与えられ
る。
ことにより得られるタップ係数を記憶しており、クラス
分類回路234が出力するクラスコードに対応するアド
レスに記憶されているタップ係数を、積和演算回路23
6に出力する。
うに、複数セットの教師データと生徒データを用いた学
習を行うことにより得られる複数セットのタップ係数が
記憶されている。係数記憶部235において、複数セッ
トのタップ係数のうち、どのセットのタップ係数を用い
るかは、制御回路237からの制御信号にしたがって決
定される。
バンクで構成されており、各バンクには、複数のズーム
倍率の範囲ごとに学習を行うことにより得られた複数セ
ットのタップ係数のうちの対応するセットが記憶されて
いる。制御回路237は、撮像情報におけるズーム情報
に基づいて、そのズーム情報が表すズーム倍率に対応す
るバンクを指示する制御信号を生成し、係数記憶部23
5に供給する。係数記憶部235は、制御回路237か
らの制御信号にしたがってバンク切り換えを行うことに
より、使用するバンクを選択し、その選択したバンクに
記憶されているタップ係数のセットの中から、クラス分
類回路234より供給されるクラスコードに対応するも
のを、積和演算回路236に出力する。
路232が出力する予測タップと、係数記憶部235が
出力するタップ係数とを取得し、その予測タップとタッ
プ係数とを用いて、式(20)に示した線形予測演算
(積和演算)を行い、その演算結果を、注目画素となっ
ている固定倍率画素の画素値として出力する。
5に記憶させるタップ係数の学習処理を行う学習装置の
一実施の形態の構成例を示している。
られる学習用データが供給される。ここで、学習用デー
タとしては、固定倍率の画像データ(以下、適宜、固定
倍率画像データという)が用いられる。
れる、学習用データとしての固定倍率画像データを、学
習の教師となる教師データとして記憶する。そして、生
徒データ生成回路243は、制御回路251から供給さ
れる制御信号にしたがい、教師データメモリ242に記
憶された教師データから、学習の生徒となる生徒データ
を生成する。
倍率の範囲が設定されており、制御回路251は、その
複数のズーム倍率の範囲のうちの、ある範囲を、注目範
囲として選択する。そして、制御回路251は、その注
目範囲のズーム倍率の代表値(例えば、注目範囲内のズ
ーム倍率の中心値)を決定し、そのズーム倍率の代表値
に基づいて、制御信号を生成して、生徒データ生成回路
243、予測タップ抽出回路245、およびクラスタッ
プ抽出回路246に供給する。
タメモリ242に記憶された教師データとしての固定倍
率画像データを、代表値のズーム倍率の画像データとす
るための間引き率を計算し、その間引き率で、教師デー
タを間引くことを指示する制御信号を、生徒データ生成
回路243に供給する。
な制御信号にしたがい、教師データメモリ242に記憶
された教師データを間引き、これにより、代表値のズー
ム倍率の画像データを、生徒データとして生成する。こ
の生徒データは、生徒データ生成回路243から生徒デ
ータメモリ244に供給されて記憶される。
データについて、生徒データが求められ、生徒データメ
モリ244に記憶されると、予測タップ抽出回路245
は、教師データメモリ242に記憶された教師データ
を、順次、注目画素とし、さらに、その注目画素を予測
するのに用いる生徒データを、生徒データメモリ244
から抽出し、予測タップとする。
ム倍率に基づいて、図39の制御回路237と同様の制
御信号を生成し、予測タップ抽出回路245に供給する
ようになっている。そして、予測タップ抽出回路245
は、制御回路251から供給される制御信号にしたが
い、図39の予測タップ抽出回路232における場合と
同一の予測タップを構成する。
45で得られた予測タップは、正規方程式加算回路24
8に供給される。
目画素のクラス分類に用いる生徒データを、生徒データ
メモリ244から抽出し、クラスタップとして、クラス
分類回路247に供給する。
ム倍率に基づいて、図39の制御回路237と同様の制
御信号を生成し、クラスタップ抽出回路246に供給す
るようになっている。そして、クラスタップ抽出回路2
46は、制御回路251から供給される制御信号にした
がい、図39のクラスタップ抽出回路233における場
合と同一のクラスタップを構成する。
出回路246から、注目画素についてのクラスタップが
供給されると、そのクラスタップを用い、図39のクラ
ス分類回路234と同一のクラス分類を行い、注目画素
のクラスを表すクラスコードを、正規方程式加算回路2
48に供給する。
メモリ242から、注目画素となっている教師データを
読み出し、予測タップ抽出回路245からの予測タップ
を構成する生徒データ、および注目画素としての教師デ
ータを対象とした足し込みを、クラス分類回路247か
ら供給されるクラスごとに行う。
ス分類回路247から供給されるクラスコードに対応す
るクラスごとに、予測タップ(生徒データ)を用い、式
(27)の行列Aにおける各コンポーネントとなってい
る、生徒データどうしの乗算(xinxim)と、サメーシ
ョン(Σ)に相当する演算を行う。
はり、クラス分類回路247から供給されるクラスコー
ドに対応するクラスごとに、予測タップ(生徒データ)
および注目画素(教師データ)を用い、式(27)のベ
クトルvにおける各コンポーネントとなっている、生徒
データと教師データの乗算(xinyi)と、サメーショ
ン(Σ)に相当する演算を行う。
込みを、教師データメモリ242に記憶された教師デー
タすべてを注目画素として行い、これにより、各クラス
について、式(27)に示した正規方程式をたてる。
規方程式加算回路248においてクラスごとに生成され
た正規方程式を解くことにより、クラスごとに、タップ
係数を求め、係数メモリ250の、各クラスに対応する
アドレスに供給する。これにより、係数メモリ250で
は、タップ係数決定回路249から供給されるクラスご
とのタップ係数が記憶される。
ータによっては、正規方程式加算回路248において、
タップ係数を求めるのに必要な数の正規方程式が得られ
ないクラスが生じる場合があり得るが、タップ係数決定
回路249は、そのようなクラスについては、例えば、
デフォルトのタップ係数を出力する。
について、タップ係数のセットが求められると、制御回
路251は、注目範囲を、他のズーム倍率の範囲に変更
し、図40の学習装置では、以下、同様の処理が繰り返
される。これにより、制御回路251に設定されている
複数のズーム倍率の範囲それぞれに対応するタップ係数
のセットが求められる。
5の構成例を示している。
撮像ポイント算出部262から構成されており、制御部
118(図26)からの要求に応じて、所望の被写体を
撮像する位置(座標)(例えば、緯度と経度など)とし
ての撮像ポイントを計算する。
給されるようになっている。この被写体情報は、例え
ば、操作部115が、ユーザによって操作されることに
より入力され、制御部118を介して、検索部261に
供給される。ここで、被写体情報は、所望の被写体を特
定するための情報で、被写体の名前(例えば、「東京タ
ワー」や「国会議事堂」など)や、住所などを用いるこ
とができる。
と、地図データベース124に記憶された地図データを
参照し、その被写体情報によって特定される被写体の位
置(座標)(例えば、緯度と経度など)を検索する。そ
して、検索部261は、被写体の位置(以下、適宜、被
写体ポイントという)を、撮像ポイント算出部262に
供給する。
RN移動体システムにおいては、第1乃至第3の3つの
機能が実現される。この第1乃至第3の機能のうち、第
1の機能については、撮像ポイントを決定する必要がな
く、撮像ポイントを決定する必要があるのは、第2およ
び第3の機能を実現する場合だけである。
被写体を、所望の視点方向vから見た画像を得る場合に
は、次のようにして、撮像ポイントが求められる。
所望の視点方向vを表す視点情報が、ユーザが操作部1
15を操作することによって入力される。
撮像ポイント算出部262に供給される。
を実現する場合、検索部261からの被写体ポイントの
位置にある被写体を、視点情報が表す視点方向vから見
た画像を撮像するのに適した位置としての撮像ポイント
を算出する。
データベース124に記憶された地図データを参照する
ことにより、例えば、図42に示すように、被写体を撮
像するのに適した場所の範囲を、被写体ポイントから距
離Rp2以上離れており、かつ、距離Rp1より近い、いわ
ゆるドーナツ状の範囲(以下、適宜、適切範囲という)
に設定する。
写体ポイントに対して、視点情報が表す視点方向vから
向かう線分と、移動体101kが移動することのできる
道路等との交点のうち、適切範囲内にあるものすべて
を、撮像ポイントの候補として検出する。
像ポイントの候補から、例えば、任意の1つを選択し、
その選択した撮像ポイントを、制御部118に供給す
る。
第2の機能を実現するにあたって、視点方向v上の1つ
の位置だけが撮像ポイントとされるが、視点方向v上の
複数の位置を撮像ポイントとすることも可能である。ま
た、複数の撮像ポイントの候補から、1つの撮像ポイン
トを選択する方法としては、例えば、被写体ポイントか
ら最も近いまたは遠いものを選択する方法等がある。
被写体を、視点を変えながら見渡した視点可変画像を得
る場合には、次のようにして、撮像ポイントが求められ
る。
の機能を実現する場合、地図データベース124に記憶
された地図データを参照することにより、例えば、図4
3(A)に示すように、検索部261から供給される被
写体ポイントを中心とし、被写体を撮像するのに適した
距離R(例えば、図42における距離Rp1とRp2の平均
値など)を半径とする円を求め、その円(円周)と、移
動体101kが移動することのできる道路等との交点を
求める。そして、撮像ポイント算出部262は、その交
点のすべてを撮像ポイントとして求め、制御部118に
供給する。
した視点可変画像を得るには、理想的には、その被写体
を、その360度の各方向から、いわば万遍なく撮像し
た画像が必要となる。
各方向から見ることのできるすべての位置が、被写体ポ
イントを中心とした、距離Rを半径とする円と、移動体
101kが移動することのできる道路等との交点とし
て、必ずしも得られるとは限らない。
Rを半径とする円と、移動体101 kが移動することの
できる道路等との交点を、撮像ポイントとするのでは、
被写体ポイントから同一距離にある撮像ポイントを得る
ことはできるが、道路の存在状況によっては、被写体
を、特定の方向から見ることのできる撮像ポイントが得
られない場合がある。
第3の機能を実現する場合、例えば、図43(B)に示
すようにして、撮像ポイントを求めるようにすることが
できる。
2は、被写体ポイントを中心とする360度の方向を、
幾つかの方向に等分する。ここで、図43(B)の実施
の形態では、被写体ポイントの中心とする360度の方
向が、45度ずつ異なる8つの方向に等分されている。
の8つの方向それぞれが視点情報であるとして、その8
つの方向それぞれについて、図42で説明した場合と同
様に、撮像ポイントを求める。この場合、被写体を、4
5度ずつ異なる方向から見ることのできる8つの撮像ポ
イントが得られることになる。即ち、この場合、被写体
ポイントから各撮像ポイントまでの距離は、一般に同一
にならないが、被写体を、その360度の各方向から万
遍なく見ることのできる撮像ポイントを得ることができ
る。
ス114に、全方位画像データが記憶されるときのフォ
ーマットを示している。
ば、1枚の全方位画像データが、図44に示すように、
ヘッダ部とデータ部を設けて管理される。
属性情報、撮像情報等が配置され、データ部には、画像
データ(全方位画像データ)が配置される。
配置される全方位画像データについて固有のIDであり、
制御部118が、画像データベース114に登録する。
画像IDとしては、例えば、対応する全方位画像データを
撮像した移動体101kの移動体ID、その撮像を行った
年月日、その年月日における何枚目の撮像であるか、な
どの情報を組み合わせたものを用いることが可能であ
る。ここで、移動体101kの移動体IDは、例えば、制
御部118が記憶しているものとする。
画像データの各種の属性の情報を表す。属性情報として
は、例えば、全方位画像データに含まれる被写体を特定
する被写体情報や、被写体ポイント、全方位画像データ
を撮像した撮像ポイント、その撮像ポイントから見た被
写体の方向(視点方向)を表す視点情報等がある。な
お、属性情報は、制御部118によって、画像データベ
ース114に登録される。
11が出力する、その撮像装置111の設定に関する情
報であり、スケール加工部113によって、画像データ
ベース114に登録される。
1k'の全方位カメラ102kで撮像された画像データ
や、他の移動体101k'が、さらに他の移動体101
k''から受信して、その画像データベース114(移動
体101k'の画像データベース114)に記憶した画像
データを受信することができるようになっており、移動
体101kの画像データベース114には、自身の全方
位カメラ102kで撮像された画像データの他、上述し
たようして、他の移動体101k'から受信した画像デー
タも記憶されるようになっている。
119の構成例を示している。
画像データが供給されるようになっており、画像メモリ
271は、その画像データを記憶する。
とともに、その画像データについての、図44に示した
ヘッダ部に配置された情報(以下、適宜、ヘッダ情報と
いう)も供給されるようになっており、画像メモリ27
1は、画像データを、そのヘッダ情報とともに記憶す
る。
位画像データ(ヘッダ情報も含む)を記憶することので
きる記憶容量を有している。
のスケール加工部113と同様に構成されており、制御
部118からの制御にしたがい、画像メモリ271に記
憶された画像データを、拡大または縮小する。
作することによって、画像の拡大または縮小を指示した
場合には、制御部118は、その指示にしたがって、ス
ケール加工部272を制御することにより、画像メモリ
271に記憶された画像データを拡大または縮小する。
リ271に複数の画像データが記憶された場合に、必要
に応じて、その複数の画像データを、その画像データに
表示されている被写体の大きさを一定にするように拡大
または縮小する。
視点を変えながら見渡した視点可変画像を生成するた
め、画像メモリ271には、図43で説明したような、
同一の被写体を、複数の方向から撮像した複数の画像デ
ータが、画像メモリ271に記憶される。
した複数の画像データ(以下、適宜、異方向画像データ
という)が、図43(A)に示したように、被写体ポイ
ントから同一の距離だけ離れた撮像ポイントで撮像され
たものである場合には、各撮像ポイントにおける撮像時
のズーム倍率が異なっていても、スケール加工部113
において、同一のズーム倍率(固定倍率)の画像データ
に変換されるから、各異方向画像データに写っている被
写体の大きさは、同一になる。
が、図43(B)に示したように、被写体ポイントから
の距離が異なる複数の撮像ポイントで撮像されたもので
ある場合には、スケール加工部113において、その複
数の異方向画像データのズーム倍率を同一に変換して
も、各異方向画像データに写っている被写体の大きさは
同一にならない。即ち、各異方向画像データに写ってい
る被写体の大きさは、その異方向画像データを撮像した
撮像ポイントが、被写体ポイントから、どれだけ離れて
いるかによって異なるものとなる。
モリ271に、複数の異方向画像データが記憶された場
合には、その複数の異方向画像データに写っている同一
の被写体の大きさ(スケール)をあわせるために、画像
メモリ271に記憶された異方向画像データを拡大また
は縮小する。
大率または縮小率は、そのヘッダ情報に含まれる撮像ポ
イントと被写体ポイントとの間の距離に基づき、画像メ
モリ271に記憶された複数の異方向画像データに写っ
ている同一の被写体の大きさ(スケール)を同一にする
ように決定される。
て、画像メモリ271に記憶された画像データを拡大ま
たは縮小すると、その拡大または縮小後の画像データ
を、例えば、画像メモリ271の、元の画像データに上
書きする形で書き込む。
らの制御にしたがい、第3の機能を実現する場合におい
て、画像メモリ271に記憶された複数枚の異方向画像
データにおける、対応する画素どうしを検出する。
リ271に記憶された複数の異方向画像データそれぞれ
のヘッダ情報の中の視点情報を参照することにより、視
点情報が表す視点方向が、ある方向を基準方向として、
時計回りまたは反時計回り方向になる順番(以下、適
宜、視点方向順という)を認識する。さらに、対応画素
演算部273は、視点方向順で、i+1番目の異方向画
像データに写っている被写体部分の各画素が、i番目の
異方向画像データに写っている被写体部分のどの画素に
対応するかを検出する。
ば、いわゆるブロックマッチングなどを用いて行うこと
が可能である。
1に記憶された複数の異方向画像データすべてについ
て、上述したような画素の対応関係を検出すると、その
画素の対応関係を、画像生成部274に供給する。
2の機能を実現する場合には、画像メモリ271に記憶
された画像データを読み出し、表示メモリ276に供給
する。
実現する場合には、画像メモリ271に記憶された複数
の異方向画像データを用いて、視点を時計回りまたは反
時計回り方向に変えながら、被写体を見渡した視点可変
画像データを生成する。
異方向画像データを、対応画素演算部273から供給さ
れる画素の対応関係に基づいて、対応する画素どうしを
対応させるように空間方向の位置あわせをしながら、動
画のフレームとして並べることにより、視点を時計回り
または反時計回り方向に変えながら被写体を撮像したな
らば得られるであろう動画データとしての視点可変画像
データを生成する。
の異方向画像データを、視点方向順に、順次、第1フレ
ーム、第2フレーム、・・・として配置して、動画デー
タとしての視点可変画像データを生成した場合には、異
方向画像データの枚数や、撮像ポイントの粗密によっ
て、視点可変画像データが、滑らかな動画にならないこ
とがある。
271に記憶された複数の異方向画像データを、その視
点方向に対応した順番のフレームに配置するようになっ
ている。
ーム/秒として、3秒間で、被写体の周囲を1周する
(360度回転する)ような視点可変画像データを生成
するとした場合、視点可変画像データは、90フレーム
(=30フレーム/秒×3秒)で構成する必要があり、
さらに、その視点可変画像データの隣接フレーム間にお
ける視点方向の変化は、4度(=360度/90フレー
ム)とする必要がある。
視点方向が4×(i−1)度に最も近い異方向画像デー
タを、第iフレームに配置する。
されないフレームが生ずることがある。そこで、画像生
成部274は、異方向画像データが配置されないフレー
ム(以下、適宜、未配置フレームという)については、
補間フレーム生成部275を制御することにより、異方
向画像データが配置されるフレーム(以下、適宜、既配
置フレームという)を用いて補間を行わせ、未配置フレ
ームに配置する画像データを生成させる。即ち、補間フ
レーム生成部275は、例えば、未配置フレームから最
も近い位置にある、時間的に先行する既配置フレーム
と、時間的に後行する既配置フレームとを用いて補間を
行い、未配置フレームの画像データを生成する。なお、
この未配置フレームの補間は、その未配置フレームか
ら、その補間に用いられる、時間的に先行または後行す
る既配置フレームそれぞれまでの時間的距離を考慮して
行われる。
上述したように、既配置フレームの画像データを用い
て、単なる補間を行うことにより、未配置フレームの画
像データを生成する他、例えば、既配置フレームの画像
データを用いて、クラス分類適応処理を行うことによ
り、未配置フレームの画像データを生成するようにする
ことが可能である。
要な補間を行い、動画データとしての視点可変画像デー
タを最終的に完成すると、その視点可変画像データを、
表示メモリ276に供給して記憶させる。
は、表示部122(図26)に供給されて表示される。
について説明する。
移動体101kが、いわば主の移動体(以下、主移動体
という)となり、他の移動体101k'が、いわば従の移
動体(以下、従移動体という)となって、その従移動体
としての移動体101k'に対して各種の要求を行う処理
と、他の移動体101k'が主移動体となった場合に、そ
の主移動体の要求に応じて行う処理とに、大きく分ける
ことができる。
動体とするとともに、移動体101k 'を従移動体とし
て、主移動体としての移動体101kが行う処理(主移
動体の処理)と、従移動体としての移動体101k'が行
う処理(従移動体の処理)について説明する。
て、主移動体の処理について説明する。
制御部118は、ユーザUkが操作部115を操作する
ことにより、何らかの入力を行ったかどうかを判定す
る。ステップS201において、何らの入力も行われて
いないと判定された場合、ステップS201に戻る。
Ukによって、何らかの入力が行われたと判定された場
合、ステップS202に進み、制御部118は、そのユ
ーザUkからの入力が、何を要求するものであるかを判
定する。
らの入力が、全方位画像データを要求するものであると
判定された場合、ステップS203に進み、後述する全
方位画像取得処理が行われ、ステップS201に戻る。
Ukからの入力が、所望の被写体を、所望の視点方向か
ら撮像した画像データ(以下、適宜、視点指定画像デー
タという)を要求するものであると判定された場合、ス
テップS204に進み、後述する視点指定画像取得処理
が行われ、ステップS201に戻る。
ザUkからの入力が、視点可変画像データを要求するも
のであると判定された場合、ステップS205に進み、
後述する視点可変画像取得処理が行われ、ステップS2
01に戻る。
ップS203における全方位画像取得処理、ステップS
204における視点指定画像取得処理、ステップS20
5における視点可変画像取得処理に、それぞれ対応す
る。
て、図46のステップS203における全方位画像取得
処理について説明する。
テップS211において、制御部118は、ユーザUk
が操作部115を操作することにより、他の移動体(従
移動体)を特定する移動体IDの入力があったかどうかを
判定する。
よる移動体IDの入力がなかったと判定された場合、ステ
ップS212に進み、制御部118は、全方位カメラ1
02 kの撮像装置111に対して、撮像の要求を行う。
撮像装置111は、制御部118からの要求に応じて、
全方位画像データを撮像し、A/D変換部112を介し
て、スケール加工部113に供給する。
02kから、全方位画像データが供給されると、ステッ
プS213において、その全方位画像データを、固定倍
率の全方位画像データに変換し(スケール加工し)、ス
テップS214に進み、画像データベース114に供給
して登録する。
118は、直前のステップS214で画像データベース
114に登録された全方位画像データを読み出し、画像
変換部127に供給して、その全方位画像データの歪み
を除去する画像変換を行わせる。
118は、画像変換後(歪み除去後)の全方位画像デー
タを、表示画像加工部119に供給し、表示部122に
表示させる画像データ(以下、適宜、表示データとい
う)を生成させる。
(図45)では、画像メモリ271において、制御部1
18からの全方位画像データが記憶される。この画像メ
モリ271に記憶された全方位画像データは、必要に応
じて、スケール加工部272において、そのスケールが
調整され、画像生成部274を介して、表示メモリ27
6に供給される。
介して供給される全方位画像データを、表示データとし
て記憶し、表示部122に供給する。これにより、ステ
ップS216では、表示部122において、全方位画像
データが表示され、全方位画像取得処理を終了する。
移動体が、現在地で撮像した全方位画像データ(静止
画)が表示される。
Ukによる移動体IDの入力があったと判定された場合、
ステップS217に進み、制御部118は、送信部11
6を制御することにより、画像データを要求するリクエ
スト信号を、それに、ユーザUkが入力した移動体IDを
含めて送信させる。
号に含まれる移動体IDによって特定される移動体(従移
動体)は、現在地における全方位画像データを撮像し
て、主移動体である移動体101kに送信してくるの
で、ステップS218において、受信部117が、その
全方位画像データが送信されてくるのを待って受信す
る。なお、従移動体は、全方位画像データを、図44に
示した画像データベース114の記憶フォーマットと同
様のフォーマットで送信してくるようになっている。
117で受信された全方位画像データは、画像データベ
ース114に供給されて登録される。そして、以後、ス
テップS215,S216において、上述した場合と同
様の処理が行われ、全方位画像取得処理を終了する。
ーザUkが入力した移動体IDによって特定される従移動
体が、現在地で撮像した全方位画像データ(静止画)が
表示される。
て、図46のステップS204における視点指定画像取
得処理について説明する。
制御部118は、表示部122を制御することにより、
被写体情報と視点情報の入力を要求するメッセージを表
示させ、ステップS222に進み、制御部118は、ユ
ーザUkが操作部115を操作することにより、被写体
情報と視点情報を入力したかどうかを判定する。
よび視点情報の入力が行われていないと判定された場
合、ステップS211に戻り、再度、ユーザに対して、
被写体情報および視点情報の入力が要求される。
情報および視点情報の入力があったと判定された場合、
ステップS223に進み、制御部118は、その被写体
情報および視点情報を、座標演算部125に供給し、撮
像ポイントを計算させる。即ち、この場合、座標演算部
125は、図42で説明したようにして、1つの撮像ポ
イントを求め、制御部118に供給する。
撮像ポイントを、記憶部121に供給して記憶させ、ス
テップS224に進み、画像データベース114を参照
することにより、ステップS223で得られた撮像ポイ
ントから、ユーザUkが入力した被写体情報によって特
定される被写体が写った全方位画像データが、既に登録
されているかどうかを判定する。なお、この判定は、画
像データベース114におけるヘッダ部(図44)の情
報(ヘッダ情報)を参照することによって行うことがで
きる。
23で得られた撮像ポイントから、ユーザUkが入力し
た被写体情報によって特定される被写体が写った全方位
画像データが、画像データベース114に、既に登録さ
れていると判定された場合、即ち、ユーザUkが入力し
た視点情報が表す視点方向から、同じくユーザUkが入
力した被写体情報によって特定される被写体を見た場合
の全方位画像データを、過去に、自身で撮像したか、ま
たは、他の移動体から受信したことがあり、その全方位
画像データが、画像データベース114に既に登録され
ている場合、ステップS225に進み、制御部118
は、その全方位画像データを、画像データベース114
から読み出し、ステップS232に進む。
プS223で得られた撮像ポイントから、ユーザUkが
入力した被写体情報によって特定される被写体が写った
全方位画像データが、画像データベース114に登録さ
れていないと判定された場合、ステップS226に進
み、比較部120は、現在地が、記憶部121に記憶さ
れた撮像ポイントと一致するかどうかを判定する。
0において、位置検出部123で検出されている現在地
が、ステップS223で記憶部121に記憶された撮像
ポイントと一致するかどうかが判定される。
憶部121に記憶された撮像ポイントと一致すると判定
された場合、即ち、主移動体自身が、撮像ポイントに位
置している場合、ステップS227に進み、制御部11
8は、全方位カメラ102kの撮像装置111に対し
て、撮像の要求を行う。撮像装置111は、制御部11
8からの要求に応じて、全方位画像データを撮像し、A
/D変換部112を介して、スケール加工部113に供
給する。
タが供給されると、ステップS228において、その全
方位画像データを、固定倍率の全方位画像データに変換
し(スケール加工し)、ステップS229に進み、画像
データベース114に供給して登録する。そして、制御
部118は、ステップS229で画像データベース11
4に登録された全方位画像データを読み出し、ステップ
S232に進む。
が、記憶部121に記憶された撮像ポイントと一致しな
いと判定された場合、ステップS230に進み、制御部
118は、送信部116を制御することにより、画像デ
ータを要求するリクエスト信号を、それに、ステップS
233で求められた撮像ポイントを含めて送信させる。
号に含まれる撮像ポイントを現在地とする移動体(従移
動体)は、現在地(従って、撮像ポイント)における全
方位画像データを撮像等して、主移動体である移動体1
01kに送信してくるので、ステップS231におい
て、受信部117が、その全方位画像データが送信され
てくるのを待って受信する。
において、後述する図50の従移動体の処理が行われる
ことにより、リクエスト信号に含まれる撮像ポイントか
ら撮像した同一の全方位画像データが送信されてくるこ
とが考えられるが、このように、同一の全方位画像デー
タが、複数の従移動体から送信されてきた場合は、受信
部117は、例えば、その複数の同一の全方位画像デー
タのうちの1つを選択するようになっている。後述する
図49のステップS250においても同様である。
117で受信された全方位画像データは、画像データベ
ース114に供給されて登録される。そして、制御部1
18は、ステップS229で画像データベース114に
登録した全方位画像データを読み出し、ステップS23
2に進む。
画像データベース114から読み出した全方位画像デー
タ、即ち、ユーザUkが入力した視点情報が表す視点方
向から、同じくユーザUkが入力した被写体情報によっ
て特定される被写体を見た場合の全方位画像データであ
る視点指定画像データを、そのヘッダ情報とともに、切
り出し部126に供給し、その視点指定画像データか
ら、ユーザUkが入力した被写体情報によって特定され
る被写体が写っている部分を切り出させる。
像データにおいて、被写体が写っている部分は、そのヘ
ッダ情報の中の被写体ポイントと撮像ポイントとから認
識することができる。そこで、切り出し部126は、視
点指定画像データである全方位画像データから、被写体
が写っている部分を含む、図32に示したような、中心
点C1を中心とする円の円弧FC1およびFC2、並びに中
心点C1を通る直線L C1およびLC2で囲まれる領域を切
り出し、その切り出した領域の画像データ(以下、適
宜、切り出し画像データという)を、制御部118に供
給する。
信すると、ステップS233に進み、その切り出し画像
データを、画像変換部127に供給して、その歪みを除
去する画像変換を行わせる。
118は、画像変換後(歪み除去後)の切り出し画像デ
ータを、表示画像加工部119に供給し、表示データを
生成させる。
(図45)では、画像メモリ271において、制御部1
18からの切り出し画像データが記憶される。この画像
メモリ271に記憶された切り出し画像データは、必要
に応じて、スケール加工部272において、そのスケー
ルが調整され、画像生成部274を介して、表示メモリ
276に供給される。
介して供給される切り出し画像データを、表示データと
して記憶し、表示部122に供給する。これにより、ス
テップS234では、表示部122において、切り出し
画像データが表示され、視点指定画像取得処理を終了す
る。
ーザが所望する被写体を、ユーザが所望する視点方向か
ら撮像した画像(静止画)が表示される。
て、図46のステップS205における視点可変画像取
得処理について説明する。
制御部118は、表示部122を制御することにより、
被写体情報の入力を要求するメッセージを表示させ、ス
テップS242に進み、制御部118は、ユーザUkが
操作部115を操作することにより、被写体情報を入力
したかどうかを判定する。
入力が行われていないと判定された場合、ステップS2
41に戻り、再度、ユーザに対して、被写体情報の入力
が要求される。
情報の入力があったと判定された場合、ステップS24
3に進み、制御部118は、その被写体情報を、座標演
算部125に供給し、撮像ポイントを計算させる。即
ち、この場合、座標演算部125は、図43で説明した
ようにして、被写体情報によって特定される被写体を撮
像する複数の撮像ポイントを求め、制御部118に供給
する。
複数の撮像ポイントを、記憶部121に供給して記憶さ
せ、ステップS244に進み、画像データベース114
を参照することにより、記憶部121に記憶された複数
の撮像ポイントの中に、被写体情報によって特定される
被写体についての撮影ポイントとして、画像データベー
ス114に、既に登録されているものがあるかどうかを
判定する。
に記憶された撮像ポイントの中に、被写体情報によって
特定される被写体についての撮影ポイントとして、画像
データベース114に既に登録されているものがあると
判定された場合、即ち、記憶部121に記憶された撮像
ポイントから、被写体情報によって特定される被写体を
撮像した全方位画像データが、画像データベース114
に既に登録されている場合、ステップS245に進み、
制御部118は、その全方位画像データを、画像データ
ベース114から読み出し、ステップS246に進む。
画像データベース114から読み出した全方位画像デー
タを、そのヘッダ情報とともに、切り出し部126に供
給し、その全方位画像データから、ユーザUkが入力し
た被写体情報によって特定される被写体が写っている部
分を切り出させる。
において、被写体が写っている部分は、そのヘッダ情報
の中の被写体ポイントと撮像ポイントとから認識するこ
とができるので、切り出し部126は、全方位画像デー
タから、被写体が写っている部分を含む画像データを切
り出し、その結果得られる切り出し画像データ(ヘッダ
情報を含む)を、制御部118に供給する。
し部126から供給される切り出し画像データを、その
内蔵するメモリ(図示せず)に一時記憶し、ステップS
247に進む。
記憶部121に記憶された複数の撮像ポイントのうち、
ステップS245で画像データベース114から読み出
した全方位画像データの撮像ポイントと一致するものを
消去し、ステップS248に進む。
ザUkが入力した被写体情報によって特定される被写体
についての全方位画像データが得られていない視点方向
にある撮像ポイントだけが記憶された状態となる。
像ポイントの中に、被写体情報によって特定される被写
体についての撮影ポイントとして、画像データベース1
14に、既に登録されているものが2以上ある場合に
は、上述のステップS245乃至S247の処理は、そ
の既に登録されている2以上の撮像ポイントそれぞれに
ついて行われる。
121に記憶された撮像ポイントの中に、被写体情報に
よって特定される被写体についての撮影ポイントとし
て、画像データベース114に登録されているものがな
いと判定された場合、即ち、記憶部121に記憶された
撮像ポイントから、被写体情報によって特定される被写
体を撮像した全方位画像データが、画像データベース1
14に登録されていない場合、ステップS248に進
み、制御部118は、送信部116を制御することによ
り、画像データを要求するリクエスト信号を、それに、
記憶部121に記憶されている撮像ポイントを含めて送
信させ、ステップS249に進む。
ステップS248で送信したリクエスト信号に対応し
て、移動体(従移動体)から、そのリクエスト信号に含
まれるいずれかの撮像ポイントで撮像された全方位画像
データが送信されてきたかどうかを判定し、送信されて
きたと判定した場合、ステップS250に進み、受信部
117は、その全方位画像データを受信する。そして、
受信部117は、ステップS254に進み、ステップS
250で受信した全方位画像データを、画像データベー
ス114に供給して登録し、ステップS255に進む。
(従移動体)から、全方位画像データが送信されてきて
いないと判定された場合、ステップS251に進み、比
較部120は、図48のステップS226における場合
と同様にして、現在地が、記憶部121に記憶されたい
ずれかの撮像ポイントと一致するかどうかを判定する。
憶部121に記憶された撮像ポイントのいずれとも一致
しないと判定された場合、ステップS252乃至S25
6をスキップして、ステップS257に進む。
が、記憶部121に記憶された撮像ポイントのいずれか
と一致すると判定された場合、即ち、主移動体自身が、
撮像ポイントに位置している場合、ステップS252に
進み、制御部118は、全方位カメラ102kの撮像装
置111に対して、撮像の要求を行う。撮像装置111
は、制御部118からの要求に応じて、全方位画像デー
タを撮像し、A/D変換部112を介して、スケール加
工部113に供給する。
て、全方位画像データが供給されると、ステップS25
3において、その全方位画像データを、固定倍率の全方
位画像データに変換し(スケール加工し)、ステップS
254に進み、画像データベース114に供給して登録
し、ステップS255に進む。
記憶部121に記憶された撮像ポイントのうち、ステッ
プS254で画像データベース114に記憶された全方
位画像データの撮像ポイントと一致するものを消去し、
ステップS256に進む。
ステップS254で画像データベース114に登録した
全方位画像データを読み出し、ステップS246におけ
る場合と同様に、そのヘッダ情報とともに、切り出し部
126に供給する。これにより、切り出し部126は、
制御部118からのヘッダ情報に基づき、同じく制御部
118からの全方位画像データから、ユーザUkが入力
した被写体情報によって特定される被写体が写っている
部分を切り出す。そして、切り出し部126は、その結
果得られる切り出し画像データを、制御部118に供給
し、制御部118は、切り出し部126から供給される
切り出し画像データを、その内蔵するメモリに一時記憶
して、ステップS257に進む。
記憶部121に撮像ポイントが記憶されていないか、ま
たは、ステップS248でリクエスト信号を送信してか
ら所定の時間が経過したかどうかを判定する。ステップ
S257において、記憶部121に撮像ポイントが記憶
されており、かつリクエスト信号を送信してから所定の
時間が経過していないと判定された場合、ステップS2
49に戻り、以下、同様の処理が繰り返される。
121に撮像ポイントが記憶されていないか、またはリ
クエスト信号を送信してから所定の時間が経過したと判
定された場合、即ち、ユーザUkが入力した被写体情報
によって特定される被写体を、ステップS243で求め
られた複数の撮像ポイントすべてから撮像した全方位画
像データが得られるか、または、そのような全方位画像
データが、リクエスト信号を送信してから所定の時間が
経過しても得られなかった場合、ステップS258に進
み、制御部118は、記憶部121の記憶内容をクリア
し、ステップS259に進む。
その内蔵するメモリに記憶されている切り出し画像デー
タすべてを、画像変換部127に供給し、その歪みを除
去する画像変換を行わせる。
118は、画像変換後(歪み除去後)の切り出し画像デ
ータを、表示画像加工部119に供給し、表示データを
生成させる。
(図45)では、画像メモリ271において、制御部1
18から供給される切り出し画像データが、上述の異方
向画像データとして記憶される。この画像メモリ271
に記憶された異方向画像データは、必要に応じて、スケ
ール加工部272において、そのスケールが調整され
る。
モリ271に記憶された異方向画像データについて、上
述したようにして、画素の対応関係を検出し、画像生成
部274に供給する。
記憶された異方向画像データを用い、対応画素演算部2
73からの画素の対応関係を参照しながら、視点可変画
像データ、即ち、視点を時計回りまたは反時計回り方向
に変えながら、ユーザUkが入力した被写体情報によっ
て特定される被写体を撮像した画像データを生成し、表
示データとして、表示メモリ276に供給される。
介して供給される視点可変画像データを、表示データと
して記憶し、表示部122に供給する。これにより、ス
テップS260では、表示部122において、動画デー
タである視点可変画像データが表示され、視点可変画像
取得処理を終了する。
ーザが所望する被写体を、その周囲を一周しながら撮像
したような動画が表示される。
画像生成部274において、画像メモリ271に記憶さ
れた異方向画像データを用いて、視点可変画像データが
生成される場合には、図45で説明したように、視点可
変画像としての動画を構成するフレームのうち、画像メ
モリ271に記憶された異方向画像データが配置されな
いもの(未配置フレーム)については、その未配置フレ
ームに配置する画像データが、補間フレーム生成部27
5において生成される。
が少ないほど動きが滑らかなもの(時間方向の解像度が
高いもの)となるが、このことは、異方向画像データが
多数集まるほど、視点可変画像の画質が向上することを
意味する。
について説明する。
おいて、受信部117が、他の移動体である主移動体か
らリクエスト信号が送信されてきたかどうかを判定し、
送信されてきていないと判定した場合、ステップS27
1に戻る。
エスト信号が送信されてきたと判定された場合、受信部
117は、そのリクエスト信号を受信して、制御部11
8に供給し、ステップS272に進む。
受信部117からのリクエスト信号に、移動体IDが含ま
れるかどうかを判定し、含まれると判定した場合、ステ
ップS273に進む。
リクエスト信号に含まれる移動体IDが、自身の移動体ID
と一致するかどうかを判定する。ここで、制御部118
は、自身の移動体IDを、例えば、その内蔵するメモリに
記憶している。
号に含まれる移動体IDが、自身の移動体IDと一致しない
と判定された場合、ステップS271に戻り、以下、同
様の処理を繰り返す。
スト信号に含まれる移動体IDが、自身の移動体IDと一致
すると判定された場合、ステップS274に進み、制御
部118は、撮像装置111に対して、撮像の要求を行
う。撮像装置111は、制御部118からの要求に応じ
て、全方位画像データを撮像し、A/D変換部112を
介して、スケール加工部113に供給する。
タが供給されると、ステップS275において、その全
方位画像データを、固定倍率の全方位画像データに変換
し(スケール加工し)、ステップS276に進み、画像
データベース114に供給して登録し、ステップS27
7に進む。
ステップS276で画像データベース114に登録した
全方位画像データを、ヘッダ情報とともに読み出し、送
信部116に供給して、リクエスト信号を送信してきた
主移動体に送信させる。そして、ステップS271に戻
り、以下、同様の処理が繰り返される。なお、リクエス
ト信号には、そのリクエスト信号を送信してきた移動体
の移動体IDが含められており、ステップS277(後述
するステップS282およびS288においても同様)
では、その移動体IDを宛先として、全方位画像データ
が送信される。
スト信号に、移動体IDが含まれていないと判定された場
合、ステップS278に進み、制御部118は、リクエ
スト信号に、1以上の撮像ポイントが含まれているかど
うかを判定する。ステップS278において、リクエス
ト信号に、撮像ポイントが含まれていないと判定された
場合、ステップS271に戻り、以下、同様の処理を繰
り返す。
スト信号に、1以上の撮像ポイントが含まれていると判
定された場合、ステップS279に進み、制御部118
は、リクエスト信号に含まれている1以上の撮像ポイン
トを、記憶部121に供給して記憶させる。
指定画像取得処理が行われる場合には、リクエスト信号
には、1つの撮影ポイントだけが含まれ、図49の視点
可変画像取得処理が行われる場合には、リクエスト信号
には、1以上の撮影ポイントが含まれる。
118は、画像データベース114を参照することによ
り、記憶部121に記憶された1以上の撮像ポイントの
中に、画像データベース114に記憶されている全方位
画像データの撮影ポイントと一致するものがあるかどう
かを判定する。
に記憶された1以上の撮像ポイントの中に、画像データ
ベース114に記憶されている全方位画像データの撮影
ポイントと一致するものがあると判定された場合、即
ち、記憶部121に記憶された撮像ポイントから撮像し
た全方位画像データが、画像データベース114に既に
登録されている場合、ステップS282に進み、制御部
118は、その全方位画像データを、画像データベース
114から読み出し、ステップS282に進む。
画像データベース114から読み出した全方位画像デー
タを、そのヘッダ情報とともに、送信部116に供給
し、リクエスト信号を送信してきた主移動体に送信させ
る。そして、ステップS283に進み、制御部118
は、記憶部121に記憶された1以上の撮像ポイントの
うち、ステップS281で画像データベース114から
読み出した全方位画像データの撮像ポイントと一致する
ものを消去し、ステップS284に進む。
撮像ポイントの中に、画像データベース114に記憶さ
れている全方位画像データの撮影ポイントと一致するも
のが複数ある場合には、上述のステップS281乃至S
283の処理は、その複数の撮像ポイントそれぞれにつ
いて行われる。
121に記憶された1以上の撮像ポイントの中に、画像
データベース114に記憶されている全方位画像データ
の撮影ポイントと一致するものがないと判定された場
合、即ち、主移動体が要求する全方位画像データが、従
移動体の画像データベース114には登録されていない
場合、ステップS284に進み、比較部120が、図4
8のステップS226にで説明したようにして、現在地
が、記憶部121に記憶されたいずれかの撮像ポイント
と一致するかどうかを判定する。
憶部121に記憶された撮像ポイントのいずれかと一致
すると判定された場合、即ち、従移動体が、リクエスト
信号に含まれている撮像ポイントのうちのいずれかに位
置している場合、ステップS285に進み、制御部11
8は、撮像装置111に対して、撮像の要求を行う。撮
像装置111は、制御部118からの要求に応じて、全
方位画像データを撮像し、A/D変換部112を介し
て、スケール加工部113に供給する。
タが供給されると、ステップS286において、その全
方位画像データを、固定倍率の全方位画像データに変換
し(スケール加工し)、ステップS287に進み、画像
データベース114に供給して登録し、ステップS28
8に進む。
ステップS287で画像データベース114に登録した
全方位画像データを、ヘッダ情報とともに読み出し、送
信部116に供給して、リクエスト信号を送信してきた
主移動体に送信させる。
118が、記憶部121に記憶された1以上の撮像ポイ
ントのうち、ステップS287で画像データベース11
4に記憶された全方位画像データの撮像ポイントと一致
するものを消去し、ステップS284に戻る。
が、記憶部121に記憶された撮像ポイントのいずれと
も一致しないと判定された場合、ステップS290に進
み、制御部118は、記憶部121に撮像ポイントが記
憶されていないか、または、主移動体からのリクエスト
信号を受信してから所定の時間が経過したかどうかを判
定する。ステップS290において、記憶部121に撮
像ポイントが記憶されており、かつリクエスト信号を受
信してから所定の時間が経過していないと判定された場
合、ステップS284に戻り、以下、同様の処理が繰り
返される。
121に撮像ポイントが記憶されていないか、またはリ
クエスト信号を送信してから所定の時間が経過したと判
定された場合、即ち、リクエスト信号に含まれる1以上
の撮像ポイントそれぞれから撮像した全方位画像データ
すべてを主移動体に送信したか、または、リクエスト信
号を受信してから所定の時間が経過しても、そのリクエ
スト信号に含まれる1以上の撮像ポイントそれぞれから
撮像した全方位画像データの一部もしくは全部が得られ
なかった場合、ステップS291に進み、制御部118
は、記憶部121の記憶内容をクリアする。そして、ス
テップS271に戻り、以下、同様の処理を繰り返す。
号に、自身の移動体IDが含まれている場合には、現在地
を撮像ポイントとして、全方位画像データを撮像し、主
移動体に送信する。また、従移動体は、リクエスト信号
に、1以上の撮像ポイントが含まれており、その撮像ポ
イントの全方位画像データが画像データベース114に
記憶されている場合には、その全方位画像データを、主
移動体に送信し、記憶されていない場合において、自身
の現在地が撮像ポイントに一致するときには、その撮像
ポイントである現在地で全方位画像データを撮像し、主
移動体に送信する。
動体IDを含めて送信した場合には、その移動体IDの従移
動体から、その従移動体が現在地において撮像した全方
位画像データを得ることができる(第1の機能)。
つの撮像ポイントを含めて送信した場合には、その撮像
ポイントを現在地とする従移動体から、その従移動体が
現在地で撮像した全方位画像データを得ることができ
る。あるいは、また、主移動体は、リクエスト信号に含
まれる撮像ポイントの全方位画像データを有している従
移動体から、その全方位画像データを得ることができ
る。その結果、主移動体は、所望の視点方向から、所望
の被写体を見た姿が写っている全方位画像データを得る
ことができる(第2の機能)。
複数の撮像ポイントを含めて送信した場合には、その複
数の撮像ポイントをそれぞれ現在地とする複数の従移動
体から、各従移動体が現在地で撮像した全方位画像デー
タを得ることができる。あるいは、また、主移動体は、
リクエスト信号に含まれる各撮像ポイントの全方位画像
データを有している各従移動体から、その全方位画像デ
ータを得ることができる。その結果、主移動体は、所望
の被写体を、複数の視点方向から見た姿が映っている複
数の全方位画像データを得ることができ、さらには、そ
のような複数の全方位画像データから、所望の被写体
を、その周りから見渡したような動画である視点可変画
像を得ることができる。
101Kそれぞれの全方位カメラ1021,1022,・
・・,102Kにおいては、それ単独で、視点可変画像
を得ようとすると、被写体の周りを移動し、複数の視点
方向から被写体を撮像することにより、複数の全方位画
像データを得る必要があるから、即座に、視点可変画像
を得ることはできない。
複数の移動体どうしが協調して(協力しあって)、複数
の撮像ポイントそれぞれから撮像した全方位画像データ
を取得する。即ち、主移動体が、複数の撮像ポイントそ
れぞれから撮像した全方位画像データを、従移動体に要
求し、その全方位画像データを有する従移動体、または
その全方位画像データを撮像しうる従移動体は、その全
方位画像データを、主移動体に提供する。
像データを有する従移動体、または必要な全方位画像デ
ータを撮像しうる従移動体の協力によって、必要な全方
位画像データを得て、自身の全方位カメラだけでは得ら
れなかった視点可変画像、即ち、所望の被写体が単に写
っているのではなく、その周囲を移動しながら撮像した
ような姿が映っているという付加価値が付いた動画像を
得ることができる。
カメラだけでは困難であった、視点可変画像を生成(撮
像)するという高機能が実現されているということがで
きるが、これは、主移動体と、1以上の従移動体とが、
図51において点線で囲むように、まるで1つの装置で
あるかのようになって、従移動体が、主移動体が要求す
る撮像ポイントの全方位画像データを提供し、主移動体
が、そのようにして従移動体から提供される全方位画像
データを用いて視点可変画像データを生成することによ
り、結果として、複数の移動体の全方位カメラそれぞれ
が、視点可変画像データを撮像(生成)するという処理
を、互いに協調しながら分担することとなっているから
である。
た全方位画像データを、主移動体に提供するというだけ
では、従移動体が、全方位画像データを集めるという処
理を、単に分担しているだけとなり、主移動体におい
て、視点可変画像の生成に必要な画像を得られず、従っ
て、視点可変画像を生成するという高機能を実現するこ
とはできない。
て、上述のように、複数の移動体の全方位カメラそれぞ
れが、視点可変画像データを撮像(生成)するという処
理を、互いに協調しながら分担する場合には、視点可変
画像データを、即座に得ることができるから、この点に
注目すれば、いわばリアルタイムの協調分担が行われて
いるということができる。
述のようなリアルタイムの協調分担が行われることによ
り、主移動体となった移動体の画像データベース114
には、所定の被写体について視点可変画像を生成するの
に必要な複数の撮像ポイントから撮像された全方位画像
データが蓄積される。その結果、所定の被写体につい
て、視点可変画像の生成の要求が多い場合には、その要
求回数に応じて時間解像度の高い視点可変画像が生成さ
れるようになる。
レートを30フレーム/秒として、3秒間で、被写体の
周囲を1周するような視点可変画像を生成する場合に
は、理想的には、その被写体を、4度ずつ異なる視点方
向から撮像した90枚の画像(異方向画像)が必要であ
り、この90枚の異方向画像が集まれば、フレームレー
トが30フレーム/秒で、3秒間の間に被写体の周囲を
1周するという条件下において、最も時間解像度の高い
視点可変画像を得ることができる。
された全方位画像(90枚の異方向画像となる全方位画
像)を得る必要があるが、いま、説明を簡単にするため
に、いずれの移動体の画像データベース114にも全方
位画像データが記憶されていないと仮定すると、ある1
つの移動体Aが、視点可変画像取得処理(図49)にお
いて、所定の被写体についての90カ所の撮像ポイント
を含むリクエスト信号を送信しても、その90カ所のそ
れぞれに、他の移動体が存在するとは限らず、従って、
90カ所の撮像ポイントそれぞれで撮像された全方位画
像すべては、一般には、集まらない。
よる視点可変画像取得処理によって、90カ所の撮像ポ
イントのうちの、例えば1/3の30カ所の撮像ポイン
トの全方位画像が集まり、その画像データベース114
に登録されたとすると、その後、他の移動体Bが、視点
可変画像取得処理(図49)において、所定の被写体に
ついての90カ所の撮像ポイントを含むリクエスト信号
を送信した場合には、移動体Bは、少なくとも、移動体
Aの画像データベース114に記憶されている30カ所
の全方位画像を得ることができる。さらに、この場合、
残りの60カ所の撮像ポイントのうちのいずれかに、他
の移動体が位置している可能性が高く、移動体Bは、そ
のような他の移動体から、残りの60カ所のうちのいず
れかの撮像ポイントの全方位画像を得ることができる。
動体から、視点可変画像の生成の要求があると、その要
求回数に応じて、多数の撮像ポイントの全方位画像が得
られることとなり、その結果、時間解像度の高い視点可
変画像が生成されるようになる。
多い所定の被写体については、その要求回数に応じて、
時間解像度の高いという付加価値が付いた視点可変画像
が生成されるようになるが、これも、複数の移動体の全
方位カメラそれぞれが、視点可変画像データを撮像(生
成)するという処理を、互いに協調しながら分担するこ
ととなっているからである。但し、時間解像度の高いと
いう付加価値が付いた視点可変画像が生成されることに
注目すると、時間解像度が高くなるのは、所定の被写体
についての視点可変画像の生成の要求が何度も行われる
ことによるものであるから、ある程度の時間の経過が必
要であり、従って、上述のリアルタイムの協調分担に対
して、長期的な協調分担が行われているということがで
きる。
おいて、全方位カメラ102kにより撮像を行うように
したが、移動体101kでは、通常のカメラで撮像を行
うようにすることも可能である。
他、船舶や航空機等を採用することも可能である。
体システムにおいて、付加価値のある画像として、被写
体を、その周囲を移動しながら撮像したような視点可変
画像を生成するようにしたが、付加価値のある画像とし
ては、その他、例えば、いわゆる三角測量を利用して、
3次元画像を生成するようにすることも可能である。
アにより行うこともできるし、ソフトウェアにより行う
こともできる。一連の処理をソフトウェアによって行う
場合には、そのソフトウェアを構成するプログラムが、
汎用のコンピュータ等にインストールされる。
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
いる記録媒体としてのハードディスク2105やROM
2103に予め記録しておくことができる。
ルディスク、CD-ROM(Compact DiscRead Only Memory),
MO(Magneto optical)ディスク,DVD(Digital Versatile
Disc)、磁気ディスク、半導体メモリなどのリムーバブ
ル記録媒体2111に、一時的あるいは永続的に格納
(記録)しておくことができる。このようなリムーバブ
ル記録媒体2111は、いわゆるパッケージソフトウエ
アとして提供することができる。
ーバブル記録媒体2111からコンピュータにインスト
ールする他、ダウンロードサイトから、ディジタル衛星
放送用の人工衛星を介して、コンピュータに無線で転送
したり、LAN(Local Area Network)、インターネットと
いったネットワークを介して、コンピュータに有線で転
送し、コンピュータでは、そのようにして転送されてく
るプログラムを、通信部2108で受信し、内蔵するハ
ードディスク2105にインストールすることができ
る。
Unit)2102を内蔵している。CPU2102には、バ
ス2101を介して、入出力インタフェース2110が
接続されており、CPU2102は、入出力インタフェー
ス2110を介して、ユーザによって、キーボードや、
マウス、マイク等で構成される入力部2107が操作等
されることにより指令が入力されると、それにしたがっ
て、ROM(Read Only Memory)2103に格納されている
プログラムを実行する。あるいは、また、CPU2102
は、ハードディスク2105に格納されているプログラ
ム、衛星若しくはネットワークから転送され、通信部2
108で受信されてハードディスク2105にインスト
ールされたプログラム、またはドライブ2109に装着
されたリムーバブル記録媒体2111から読み出されて
ハードディスク2105にインストールされたプログラ
ムを、RAM(Random Access Memory)2104にロードし
て実行する。これにより、CPU2102は、上述したフ
ローチャートにしたがった処理、あるいは上述したブロ
ック図の構成により行われる処理を行う。そして、CPU
2102は、その処理結果を、必要に応じて、例えば、
入出力インタフェース2110を介して、LCD(Liquid C
ryStal Display)やスピーカ等で構成される出力部21
06から出力、あるいは、通信部2108から送信、さ
らには、ハードディスク2105に記録等させる。
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
情報処理方法、並びに第1のプログラムおよび第1の記
録媒体によれば、複数の作動手段または複数の検知手段
が協調して処理を分担するので、情報処理システムが高
機能化される。
理方法、並びに第2のプログラムおよび第2の記録媒体
によれば、作動手段または検知手段が他の情報処理装置
と協調して処理を分担するので、情報処理装置が高機能
化される。
の形態の構成例を示すブロック図である。
実施の形態の構成例を示すブロック図である。
システムの一実施の形態の構成例を示すブロック図であ
る。
レータ62の外観構成例を示す斜視図である。
明する図である。
である。
示すブロック図である。
すブロック図である。
例を示すブロック図である。
るフローチャートである。
フローチャートである。
明するフローチャートである。
説明するための図である。
ザインシステムの一実施の形態の構成例を示すブロック
図である。
成例を示すブロック図である。
示すブロック図である。
構成例を示すブロック図である。
明するフローチャートである。
フローチャートである。
(制御処理)を説明するフローチャートである。
(更新処理)を説明するフローチャートである。
担を説明するための図である。
動体システムの構成例を示す図である。
明するための図である。
ク図である。
る。
である。
説明するための図である。
ための図である。
めの図である。
めの図である。
の変換を説明するための図である。
るための図である。
ブロック図である。
例を示すブロック図である。
ック図である。
ある。
ある。
を示す図である。
ブロック図である。
ある。
トである。
ートである。
ートである。
ある。
を説明するための図である。
態の構成例を示すブロック図である。
レーブマニピュレータ部, 4L,4R 先端部, 5
カメラ部, 6(61乃至65) カメラ,8L,8R
マスタマニピュレータ部, 9L,9R 操作部,
10 モニタ, 11 スピーカ, 12 操作パネ
ル, 21 入出力制御装置, 22姿勢パラメータ登
録部, 23 手術経過情報データベース, 24 手
術経過情報登録部, 25 手術情報データベース,
26 更新部, 27 手術技術情報データベース,
28 姿勢パラメータ制御部, 29 検索部, 30
手術技術情報登録部, 41 擬似スレーブマニピュレ
ータ, 421乃至42K マスタマニピュレータ, 4
3 ネットワーク, 44 スーパデザイナデータベー
ス部, 51 スレーブマニピュレータ制御装置, 5
2 入出力制御装置, 53 マスタマニピュレータ制
御装置, 54 入出力制御装置,61 スレーブマニ
ピュレータ, 621乃至62K マスタマニピュレー
タ,63 ネットワーク, 64 スーパドクタデータ
ベース部, 71 制御部,72 姿勢遷移機構部,
73 制御機構部, 74 通信部, 75 センサ,
76 アクチュエータ, 77 擬似スレーブマニピ
ュレータ, 78デザイン情報データベース, 79
画像生成部, 80 入出力制御装置,81 制御部,
82 姿勢遷移機構部, 83 制御機構部, 84
通信部, 85 センサ, 86 アクチュエータ,
91 デザイン情報登録部,92 デザイン情報デー
タベース, 93 デザイン評価部, 94 特異デザ
イン情報データベース, 95 流行デザイン情報デー
タベース, 96 更新部, 1011乃至101K 移
動体, 1021乃至102K 全方位カメラ,103
被写体, 104 ネットワーク, 105 情報処理
装置, 111撮像装置, 112 A/D変換部,
113 スケール加工部, 114画像データベース,
115 操作部, 116 送信部, 117 受信
部,118 制御部, 119 表示画像加工部, 1
20 比較部, 121記憶部, 122 表示部,
123 位置検出部, 124 地図データベース,
125 座標演算部, 126 切り出し部, 127
画像変換部,201 支持体, 202 集光部,
203 撮像部, 231 バッファ,232 予測タ
ップ抽出回路, 233 クラスタップ抽出回路, 2
34クラス分類回路, 235 係数記憶部, 236
積和演算回路, 237制御回路, 242 教師デ
ータメモリ, 243 生徒データ生成回路, 244
生徒データメモリ, 245 予測タップ抽出回路,
246 クラスタップ抽出回路, 247 クラス分
類回路, 248 正規方程式加算回路,249 タッ
プ係数決定回路, 250 係数メモリ, 251 制
御回路,261 検索部, 262 撮像ポイント算出
部, 271 画像メモリ, 272 スケール加工
部, 273 対応画素演算部, 274 画像生成
部,275 補間フレーム生成部, 276 表示メモ
リ, 1001 ネットワーク, 1002 合成/統
合部, 10031乃至1003K 操作部, 1004
駆動制御部, 10051乃至1005M アクチュエ
ータ, 1006 信号処理部, 10071乃至10
07N センサ, 2101 バス, 2102CPU,
2103 ROM, 2104 RAM, 2105 ハード
ディスク,2106 出力部, 2107 入力部,
2108 通信部, 2109 ドライブ, 2110
入出力インタフェース, 2111 リムーバブル記
録媒体
Claims (12)
- 【請求項1】 複数のユーザの操作に応じて作動する複
数の作動手段と、 前記複数の作動手段が作用する現実世界を検知する複数
の検知手段と、 前記複数の作動手段または複数の検知手段との間で情報
を送受信するための通信手段と を備え、 前記複数の作動手段または複数の検知手段が協調して処
理を分担することにより、高機能化することを特徴とす
る情報処理システム。 - 【請求項2】 前記複数の作動手段の機能が高機能化す
ることを特徴とする請求項1に記載の情報処理システ
ム。 - 【請求項3】 前記複数の検知手段の機能が高機能化す
ることを特徴とする請求項1に記載の情報処理システ
ム。 - 【請求項4】 複数のユーザの操作に応じて作動する複
数の作動手段と、 前記複数の作動手段が作用する現実世界を検知する複数
の検知手段と、 前記複数の作動手段または複数の検知手段との間で情報
を送受信するための通信手段とを備える情報処理システ
ムの情報処理方法であって、 前記複数の作動手段または複数の検知手段に協調して処
理を分担させることにより、前記情報処理システムを高
機能化する処理を行う処理ステップを備えることを特徴
とする情報処理方法。 - 【請求項5】 複数のユーザの操作に応じて作動する複
数の作動手段と、 前記複数の作動手段が作用する現実世界を検知する複数
の検知手段と、 前記複数の作動手段または複数の検知手段との間で情報
を送受信するための通信手段とを備える情報処理システ
ム用のプログラムであって、 前記複数の作動手段または複数の検知手段に協調して処
理を分担させることにより、前記情報処理システムを高
機能化する処理を行う処理ステップを備えることを特徴
とするコンピュータが読み取り可能なプログラム。 - 【請求項6】 複数のユーザの操作に応じて作動する複
数の作動手段と、 前記複数の作動手段が作用する現実世界を検知する複数
の検知手段と、 前記複数の作動手段または複数の検知手段との間で情報
を送受信するための通信手段とを備える情報処理システ
ム用のプログラムが記録されている記録媒体であって、 前記複数の作動手段または複数の検知手段に協調して処
理を分担させることにより、前記情報処理システムを高
機能化する処理を行う処理ステップを備えるコンピュー
タが読み取り可能なプログラムが記録されていることを
特徴とする記録媒体。 - 【請求項7】 所定の情報処理を行う情報処理装置であ
って、 ユーザの操作に応じて作動する作動手段と、 前記作動手段が作用する現実世界を検知する検知手段
と、 他の情報処理装置との間で情報を送受信するための通信
手段とを備え、 前記作動手段または検知手段が前記他の情報処理装置と
協調して処理を分担することにより、高機能化すること
を特徴とする情報処理装置。 - 【請求項8】 前記作動手段の機能が高機能化すること
を特徴とする請求項7に記載の情報処理装置。 - 【請求項9】 前記検知手段の機能が高機能化すること
を特徴とする請求項7に記載の情報処理装置。 - 【請求項10】 所定の情報処理を行う情報処理装置の
情報処理方法であって、 前記情報処理装置は、 ユーザの操作に応じて作動する作動手段と、 前記作動手段が作用する現実世界を検知する検知手段
と、 他の情報処理装置との間で情報を送受信するための通信
手段とを備え、 前記作動手段または検知手段に前記他の情報処理装置と
協調して処理を分担させることにより、前記情報処理装
置を高機能化する処理を行う処理ステップを備えること
を特徴とする情報処理方法。 - 【請求項11】 所定の情報処理を行う情報処理装置用
のプログラムであって、 前記情報処理装置は、 ユーザの操作に応じて作動する作動手段と、 前記作動手段が作用する現実世界を検知する検知手段
と、 他の情報処理装置との間で情報を送受信する通信手段と
を備え、 前記作動手段または検知手段に前記他の情報処理装置と
協調して処理を分担させることにより、前記情報処理装
置を高機能化する処理を行う処理ステップを備えること
を特徴とするコンピュータが読み取り可能なプログラ
ム。 - 【請求項12】 所定の情報処理を行う情報処理装置用
のプログラムが記録されている記録媒体であって、 前記情報処理装置は、 ユーザの操作に応じて作動する作動手段と、 前記作動手段が作用する現実世界を検知する検知手段
と、 他の情報処理装置との間で情報を送受信するための通信
手段とを備え、 前記作動手段または検知手段に前記他の情報処理装置と
協調して処理を分担させることにより、前記情報処理装
置を高機能化する処理を行う処理ステップを備えるコン
ピュータが読み取り可能なプログラムが記録されている
ことを特徴とする記録媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001343980A JP4032410B2 (ja) | 2001-11-09 | 2001-11-09 | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 |
US10/494,598 US8255462B2 (en) | 2001-11-09 | 2002-10-23 | Information processing system and information processing apparatus |
EP02770237A EP1443416A4 (en) | 2001-11-09 | 2002-10-23 | INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING DEVICE |
PCT/JP2002/010979 WO2003040940A1 (fr) | 2001-11-09 | 2002-10-23 | Systeme et appareil pour le traitement d'informations |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001343980A JP4032410B2 (ja) | 2001-11-09 | 2001-11-09 | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003150569A true JP2003150569A (ja) | 2003-05-23 |
JP4032410B2 JP4032410B2 (ja) | 2008-01-16 |
Family
ID=19157569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001343980A Expired - Fee Related JP4032410B2 (ja) | 2001-11-09 | 2001-11-09 | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8255462B2 (ja) |
EP (1) | EP1443416A4 (ja) |
JP (1) | JP4032410B2 (ja) |
WO (1) | WO2003040940A1 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011093888A1 (en) * | 2010-01-29 | 2011-08-04 | Hewlett-Packard Development Company L.P. | Optical sensor networks and methods for fabricating the same |
US8094230B2 (en) | 2006-09-21 | 2012-01-10 | Sony Corporation | Image processing apparatus, image processing method, and program |
JPWO2015129474A1 (ja) * | 2014-02-28 | 2017-03-30 | ソニー株式会社 | ロボットアーム装置、ロボットアーム制御方法及びプログラム |
JP2018089736A (ja) * | 2016-12-01 | 2018-06-14 | トヨタ自動車株式会社 | マスタスレーブシステム |
JP2018517506A (ja) * | 2015-06-09 | 2018-07-05 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 外科的処置アトラスを用いた手術システムの構成 |
JP2019526328A (ja) * | 2016-09-06 | 2019-09-19 | ヴェリリー ライフ サイエンシズ エルエルシー | 手術ミスを防止するためのシステムおよび方法 |
JP2020040184A (ja) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体 |
JP2020046893A (ja) * | 2018-09-19 | 2020-03-26 | 尚紀 北村 | 手術支援システム及び仮想手術支援システム |
US10912619B2 (en) | 2015-11-12 | 2021-02-09 | Intuitive Surgical Operations, Inc. | Surgical system with training or assist functions |
US11992960B2 (en) | 2018-09-12 | 2024-05-28 | Canon Kabushiki Kaisha | Robot system, control apparatus of robot system, control method of robot system, imaging apparatus, and storage medium |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005026488A1 (ja) * | 2003-09-08 | 2005-03-24 | Sony Corporation | 制御装置および制御方法、記録媒体、プログラム、並びに建造物 |
US8660794B2 (en) * | 2007-07-13 | 2014-02-25 | Dash Navigation, Inc. | System and method for providing shared information about traveled road segments |
JP2010079569A (ja) * | 2008-09-25 | 2010-04-08 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
KR101552306B1 (ko) * | 2009-04-13 | 2015-09-10 | 삼성전자주식회사 | 휴대 단말기의 태깅 방법 및 장치 |
EP2453325A1 (en) * | 2010-11-16 | 2012-05-16 | Universal Robots ApS | Method and means for controlling a robot |
JP5800616B2 (ja) * | 2011-07-15 | 2015-10-28 | オリンパス株式会社 | マニピュレータシステム |
EP2760642B1 (en) | 2011-09-28 | 2015-11-18 | Universal Robots A/S | Calibration and programming of robots |
SG11201607059UA (en) | 2014-03-04 | 2016-09-29 | Universal Robots As | Safety system for industrial robot |
KR102431743B1 (ko) | 2014-09-26 | 2022-08-11 | 테라다인 인코퍼레이티드 | 파지 그리퍼 |
KR102603939B1 (ko) | 2015-07-08 | 2023-11-20 | 유니버셜 로보츠 에이/에스 | 제3자 기여를 가진 산업용 로봇의 최종 사용자 프로그래밍 확장 방법 |
US20170090718A1 (en) | 2015-09-25 | 2017-03-30 | International Business Machines Corporation | Linking selected messages in electronic message threads |
TWI805545B (zh) | 2016-04-12 | 2023-06-21 | 丹麥商環球機器人公司 | 用於藉由示範來程式化機器人之方法和電腦程式產品 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3539645B2 (ja) * | 1995-02-16 | 2004-07-07 | 株式会社日立製作所 | 遠隔手術支援装置 |
JP3577359B2 (ja) | 1995-04-26 | 2004-10-13 | 本田技研工業株式会社 | 車両用撮影システム |
US6167296A (en) * | 1996-06-28 | 2000-12-26 | The Board Of Trustees Of The Leland Stanford Junior University | Method for volumetric image navigation |
JP3882858B2 (ja) | 1996-07-03 | 2007-02-21 | 株式会社セガ | 乗り物遊戯装置 |
US6364888B1 (en) * | 1996-09-09 | 2002-04-02 | Intuitive Surgical, Inc. | Alignment of master and slave in a minimally invasive surgical apparatus |
US6331181B1 (en) * | 1998-12-08 | 2001-12-18 | Intuitive Surgical, Inc. | Surgical robotic tools, data architecture, and use |
JP3175623B2 (ja) | 1997-03-21 | 2001-06-11 | 株式会社デンソー | ロボットの制御装置 |
JPH11243508A (ja) | 1998-02-25 | 1999-09-07 | Matsushita Electric Ind Co Ltd | 画像表示装置 |
JP3472957B2 (ja) | 1998-09-17 | 2003-12-02 | 株式会社日立製作所 | マスタスレーブマニピュレータ |
US6659939B2 (en) * | 1998-11-20 | 2003-12-09 | Intuitive Surgical, Inc. | Cooperative minimally invasive telesurgical system |
US6360250B1 (en) * | 1998-12-28 | 2002-03-19 | Lucent Technologies Inc. | Apparatus and method for sharing information in simultaneously viewed documents on a communication system |
US6334141B1 (en) * | 1999-02-02 | 2001-12-25 | International Business Machines Corporation | Distributed server for real-time collaboration |
JP2000242333A (ja) | 1999-02-24 | 2000-09-08 | Matsushita Electric Ind Co Ltd | 自律走行ロボットの動作管理方法およびシステム |
JP2000283785A (ja) | 1999-03-31 | 2000-10-13 | Toshiba Corp | カーナビゲーションシステムおよび方法 |
US6594552B1 (en) * | 1999-04-07 | 2003-07-15 | Intuitive Surgical, Inc. | Grip strength with tactile feedback for robotic surgery |
JP2000342498A (ja) * | 1999-06-09 | 2000-12-12 | Toyota Autom Loom Works Ltd | 清掃ロボット |
JP3513055B2 (ja) | 1999-08-06 | 2004-03-31 | 株式会社東芝 | データ処理システム |
JP2001145637A (ja) | 1999-11-24 | 2001-05-29 | Olympus Optical Co Ltd | マニピュレータ制御装置 |
JP2001189927A (ja) | 1999-12-28 | 2001-07-10 | Tokyo Gas Co Ltd | 移動ステーションおよび制御ステーションならびに擬似体験システム |
JP2001285894A (ja) | 2000-03-31 | 2001-10-12 | Olympus Optical Co Ltd | 3次元画像データの掲載方法 |
JP2001301592A (ja) * | 2000-04-19 | 2001-10-31 | Sumitomo Denko Brake Systems Kk | 車両用液圧ブレーキシステムの制御方法 |
JP2001301552A (ja) | 2000-04-24 | 2001-10-31 | Daihatsu Motor Co Ltd | 車両用後側方監視装置及びその制御方法 |
US7299403B1 (en) * | 2000-10-11 | 2007-11-20 | Cisco Technology, Inc. | Methods and apparatus for obtaining a state of a browser |
JP4655175B2 (ja) | 2000-12-19 | 2011-03-23 | ソニー株式会社 | マニピュレータシステム、マスタマニピュレータ、スレーブマニピュレータ及びそれらの制御方法、並びに記録媒体 |
US20020129106A1 (en) * | 2001-03-12 | 2002-09-12 | Surgency, Inc. | User-extensible system for manipulating information in a collaborative environment |
US6587750B2 (en) * | 2001-09-25 | 2003-07-01 | Intuitive Surgical, Inc. | Removable infinite roll master grip handle and touch sensor for robotic surgery |
-
2001
- 2001-11-09 JP JP2001343980A patent/JP4032410B2/ja not_active Expired - Fee Related
-
2002
- 2002-10-23 US US10/494,598 patent/US8255462B2/en not_active Expired - Fee Related
- 2002-10-23 WO PCT/JP2002/010979 patent/WO2003040940A1/ja active Application Filing
- 2002-10-23 EP EP02770237A patent/EP1443416A4/en not_active Withdrawn
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8094230B2 (en) | 2006-09-21 | 2012-01-10 | Sony Corporation | Image processing apparatus, image processing method, and program |
WO2011093888A1 (en) * | 2010-01-29 | 2011-08-04 | Hewlett-Packard Development Company L.P. | Optical sensor networks and methods for fabricating the same |
JPWO2015129474A1 (ja) * | 2014-02-28 | 2017-03-30 | ソニー株式会社 | ロボットアーム装置、ロボットアーム制御方法及びプログラム |
US11633245B2 (en) | 2014-02-28 | 2023-04-25 | Sony Corporation | Robot arm apparatus and robot arm control method |
US10561469B2 (en) | 2014-02-28 | 2020-02-18 | Sony Corporation | Robot arm apparatus and robot arm control method |
US11737841B2 (en) | 2015-06-09 | 2023-08-29 | Intuitive Surgical Operations, Inc. | Configuring surgical system with surgical procedures atlas |
JP2018517506A (ja) * | 2015-06-09 | 2018-07-05 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 外科的処置アトラスを用いた手術システムの構成 |
JP7166760B2 (ja) | 2015-06-09 | 2022-11-08 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 外科的処置アトラスを用いた手術システムの構成 |
US11058501B2 (en) | 2015-06-09 | 2021-07-13 | Intuitive Surgical Operations, Inc. | Configuring surgical system with surgical procedures atlas |
US10912619B2 (en) | 2015-11-12 | 2021-02-09 | Intuitive Surgical Operations, Inc. | Surgical system with training or assist functions |
US11751957B2 (en) | 2015-11-12 | 2023-09-12 | Intuitive Surgical Operations, Inc. | Surgical system with training or assist functions |
JP2019526328A (ja) * | 2016-09-06 | 2019-09-19 | ヴェリリー ライフ サイエンシズ エルエルシー | 手術ミスを防止するためのシステムおよび方法 |
JP7035309B2 (ja) | 2016-12-01 | 2022-03-15 | トヨタ自動車株式会社 | マスタスレーブシステム |
JP2018089736A (ja) * | 2016-12-01 | 2018-06-14 | トヨタ自動車株式会社 | マスタスレーブシステム |
WO2020054281A1 (ja) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御装置、ロボットシステムの制御方法、撮像装置、制御プログラム及び記録媒体 |
JP7163115B2 (ja) | 2018-09-12 | 2022-10-31 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体 |
JP2020040184A (ja) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体 |
JP7423726B2 (ja) | 2018-09-12 | 2024-01-29 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、ロボットシステムを用いた物品の製造方法、制御装置、操作装置、操作装置の制御方法、撮像装置、撮像装置の制御方法、制御プログラム及び記録媒体 |
US11992960B2 (en) | 2018-09-12 | 2024-05-28 | Canon Kabushiki Kaisha | Robot system, control apparatus of robot system, control method of robot system, imaging apparatus, and storage medium |
JP2020046893A (ja) * | 2018-09-19 | 2020-03-26 | 尚紀 北村 | 手術支援システム及び仮想手術支援システム |
Also Published As
Publication number | Publication date |
---|---|
EP1443416A1 (en) | 2004-08-04 |
US8255462B2 (en) | 2012-08-28 |
EP1443416A4 (en) | 2010-04-07 |
WO2003040940A1 (fr) | 2003-05-15 |
US20040268264A1 (en) | 2004-12-30 |
JP4032410B2 (ja) | 2008-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4032410B2 (ja) | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 | |
EP3781896B1 (en) | System for locating and identifying an object in unconstrained environments | |
Ruesch et al. | Multimodal saliency-based bottom-up attention a framework for the humanoid robot icub | |
US8355816B2 (en) | Action teaching system and action teaching method | |
JP4211292B2 (ja) | 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体 | |
JP4825980B2 (ja) | 魚眼カメラの校正方法。 | |
JP4825971B2 (ja) | 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。 | |
JPH06501585A (ja) | 全視野静止カメラオリエンテーションシステム | |
Berton et al. | Anthropomorphic visual sensors | |
JP4406824B2 (ja) | 画像表示装置、画素データ取得方法、およびその方法を実行させるためのプログラム | |
CN113689577A (zh) | 虚拟三维模型与实体模型匹配的方法、系统、设备及介质 | |
JP2003346152A (ja) | 物体認識装置及び方法並びにロボット装置 | |
Du et al. | Human–robot collaborative control in a virtual-reality-based telepresence system | |
WO2018116582A1 (ja) | 制御装置、制御方法、及び医療用観察システム | |
JP4123760B2 (ja) | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、情報処理装置、並びに制御装置および制御方法 | |
JP2003346185A (ja) | 情報表示システム及び携帯情報端末 | |
JPWO2017179136A1 (ja) | 全天球カメラロボット高度調整システム、全天球カメラロボット高度調整方法及びプログラム | |
WO2022091787A1 (ja) | コミュニケーションシステム、ロボット、及び記憶媒体 | |
Bourbakis et al. | A 2D vibration array for sensing dynamic changes and 3D space for Blinds' navigation | |
JP2003153253A (ja) | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、移動体、並びに情報処理装置 | |
CN115471731A (zh) | 图像处理方法、装置、存储介质及设备 | |
JP2023512616A (ja) | 顕微鏡システムを制御する装置、方法およびコンピュータプログラム | |
Gulrez et al. | Precision position tracking in virtual reality environments using sensor networks | |
Sakurai et al. | Recognizing pointing behavior using image processing for human-robot interaction | |
CN115209032B (zh) | 基于清洁机器人的图像采集方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061026 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071014 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4032410 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131102 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |