WO2021230364A1 - 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム - Google Patents
遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム Download PDFInfo
- Publication number
- WO2021230364A1 WO2021230364A1 PCT/JP2021/018476 JP2021018476W WO2021230364A1 WO 2021230364 A1 WO2021230364 A1 WO 2021230364A1 JP 2021018476 W JP2021018476 W JP 2021018476W WO 2021230364 A1 WO2021230364 A1 WO 2021230364A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- data
- motion detection
- video
- posture
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
- G09G2340/125—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Manipulator (AREA)
- Selective Calling Equipment (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
複雑な映像処理を行うことなくVR酔いを低減する。表示部に接続されるユーザ装置からネットワークを介して送られる制御信号により動作し、かつ姿勢を変化させることが可能な可動部を備える遠隔作業装置において、前記可動部に設置されたカメラから当該カメラにより得られる映像データを取得する映像データ取得部と、動きセンサから前記可動部の前記姿勢の変化を表す動き検出データを取得する動き検出データ取得部と、取得された前記映像データおよび前記動き検出データを、前記ネットワークを介して前記ユーザ装置へ送信するデータ送信部とを具備する。
Description
この発明の実施形態は、例えば、ユーザ装置が遠隔地に配置された遠隔作業装置をネットワークを介して制御する遠隔制御システムと、このシステムで使用される遠隔作業装置、映像処理装置およびプログラムに関する。
ユーザが、表示装置に表示される映像を見ながら、遠隔地にある作業装置をネットワークを介して遠隔制御するシステムが開発されている。この種のシステムは、例えば、ユーザの頭部にヘッドマウントディスプレイ(Head Mount Display:HMD)(以後ヘッドセットとも称する)を装着する。そしてユーザが、遠隔地に存在するロボットが撮像した映像をヘッドセットにより見ながら自身の体を動かすかまたはコントローラを操作することで、上記ロボットの動きを遠隔制御するように構成されている。
ところで、この種のシステムでは、例えば、拡張現実(Augmented Reality;AR)の技術または仮想現実(Virtual Reality:VR)の技術を用いて、ロボットから送られる映像をもとにAR映像またはVR映像を生成し、ヘッドセットに表示するようにしている。また、その際、ユーザが自身の体の動きまたはコントローラの操作に追従して表示映像が変化するいわゆるトラッキング制御を行っている。この結果、ユーザは操作中に高い没入感を得ることができる。
しかし、AR映像またはVR映像の生成から表示までに描画遅延(Latency)がある。描画遅延(Latency)には、遠隔地のロボットで生成された映像がネットワークを介してヘッドセット側の装置に伝送される際の伝送遅延が含まれる。しかも、この伝送遅延は一定ではなく、例えばネットワークの混雑の度合いや各装置のプロセッサの負荷変動により遅延量が変化する。このため、ユーザが体を動かすかまたはコントローラを操作してから、それに応じた映像がヘッドセットに表示されるまでの間に時間的なずれが発生し、これが原因となってユーザは酔ったような感覚、いわゆる「VR酔い(Virtual Reality Sickness)」等と呼ばれる)に陥ることがある。このVR酔いは、遅延量が一定の場合でも発生するが、特に、上記伝送遅延の遅延量が時間変動を起こすいわゆるジッタを含んでいる場合に、顕著に現れる。
そこで、上記ユーザの動きまたはコントローラの操作時点からそれに応じて映像が表示されるまでの時間ずれの影響を低減するために、例えばヘッドセット側の装置で映像に対しリプロジェクション処理を行う技術が提案されている(例えば特許文献1を参照)。
ところが、リプロジェクション処理では、例えば以下のような処理が行われる。その一つは、映像の生成時点におけるユーザの視点位置と視線方向を前提に生成された映像を、映像表示時点における視点位置および視線方向を用いて補正することで、映像生成から表示までの時間差を吸収する。また、他の処理は、ストリーム配信において、ビデオストリームが時間通りに到着しないエラーが発生した場合に、前回の復号映像を再利用してヘッドセットの最新の位置・姿勢に合うように前回の復号映像に対してリプロジェクション処理を施すことで、通信遅延に対処する。すなわち、リプロジェクション処理は、ヘッドセット側の装置において複雑な映像処理を行って表示映像を補正するものとなっている。このため、ヘッドセット側の装置ではリプロジェクション処理によるプロセッサの処理負荷が非常に大きくなり、高性能のプロセッサが必要となって装置が高価になる場合がある。
この発明は上記事情に着目してなされたもので、一側面では、複雑な映像処理を行うことなくVR酔いを低減する技術を提供しようとするものである。
上記課題を解決するためにこの発明の第1の態様は、表示部に接続されるユーザ装置と、前記ユーザ装置からネットワークを介して送られる制御信号により動作する遠隔作業装置とを具備する遠隔制御システムにあって、前記遠隔作業装置には、姿勢を変化させることが可能な可動部と、前記可動部に設置されたカメラから当該カメラにより得られる映像データを取得する映像データ取得部と、動きセンサから前記可動部の前記姿勢の変化を表す動き検出データを取得する動き検出データ取得部と、取得された前記映像データおよび前記動き検出データを前記ネットワークを介して前記ユーザ装置へ送信するデータ送信部とを備える。一方、前記ユーザ装置には、前記遠隔作業装置から送信された前記映像データおよび前記動き検出データを前記ネットワークを介して受信するデータ受信部と、受信された前記動き検出データに基づいて、前記可動部の前記姿勢が変化している期間を判定する判定部と、前記判定部の判定結果に基づいて、前記可動部の姿勢が変化している期間に受信された前記映像データに対し没入感を低下させる処理を行う映像処理部と、前記没入感を低下させる処理が行われた後のデータを前記表示部へ出力する出力部とを備えるようにしたものである。
この発明の第2の態様は、表示部に接続されるユーザ装置からネットワークを介して送られる制御信号により動作し、かつ姿勢を変化させることが可能な可動部を備える遠隔作業装置にあって、前記可動部に設置されたカメラから当該カメラにより得られる映像データを取得する映像データ取得部と、動きセンサから前記可動部の前記姿勢の変化を表す動き検出データを取得する動き検出データ取得部と、取得された前記映像データおよび前記動き検出データを、前記ネットワークを介して前記ユーザ装置へ送信するデータ送信部とを具備するようにしたものである。
この発明の第3の態様は、表示部に接続されるユーザ装置と、前記ユーザ装置からネットワークを介して送られる制御信号により動作し、かつ姿勢を変化させることが可能な可動部を備える遠隔作業装置とのうちの、いずれか一方に設けられる映像処理装置にあって、前記可動部に設置されたカメラにより得られる映像データを取得する映像データ取得部と、動きセンサにより得られる、前記可動部の前記姿勢の変化を表す動き検出データを取得する動き検出データ取得部と、取得された前記動き検出データに基づいて、前記可動部の前記姿勢が変化している期間を判定する判定部と、前記判定部の判定結果に基づいて、前記可動部の姿勢が変化している期間に取得された前記映像データに対し没入感を低下させる処理を行う映像処理部と、前記没入感を低下させる処理が行われた後のデータを前記表示部へ出力する出力部とを具備するようにしたものである。
この発明の第1の態様によれば、遠隔作業装置において取得された映像データと、遠隔作業装置の姿勢の変化を表す動き検出データが、ネットワークを介して遠隔作業装置からユーザ装置へ送信される。これに対しユーザ装置においては、上記動き検出データをもとに上記遠隔作業装置の姿勢の変化が変化している期間が判定され、この期間に上記遠隔作業装置から受信された映像データに対し没入感を低下させる処理が行われ、その処理後のデータが表示部へ出力され、表示される。このため、遠隔作業装置から送られる映像データに伝送遅延があっても、またユーザ装置による表示処理動作に描画遅延があっても、その影響によりユーザがVR酔いを起こす不具合は軽減される。
この発明の第2の態様によれば、遠隔作業装置おいて、動き検出データをもとに遠隔作業装置が動いている期間が判定され、遠隔作業装置の姿勢の変化が変化している期間にカメラにより得られた映像データに対し没入感を低下させる処理が行われる。そして、この没入感の低下処理がなされたデータが、遠隔作業装置からユーザ装置へ送信される。
従って、遠隔作業装置が動いている期間には、没入感が低下するように処理が施された映像データが遠隔作業装置からユーザ装置へ送信されて、表示部に表示されることになる。このため、遠隔作業装置から送信される映像データに伝送遅延があっても、またユーザ装置または表示部において映像表示処理の描画遅延があっても、その影響によりユーザがVR酔いを起こす不具合は軽減される。
また第2の態様によれば、遠隔作業装置において映像に対し没入感を低下させる処理が行われるので、ユーザ装置の処理負荷を軽減することができ、また没入感を低下させるための処理機能を持たない汎用のユーザ装置を使用することが可能となる。
この発明の第3の態様によれば、遠隔作業装置またはユーザ装置のいずれかにおいて、遠隔作業装置の姿勢の変化が変化している期間に得られた映像データに対し、没入感を低下させるための処理が行われ、その処理後のデータがユーザ装置から表示部へ出力される。このため、遠隔作業装置から送信される映像データに伝送遅延があっても、またユーザ装置または表示部において映像表示処理の描画遅延があっても、その影響によりユーザがVR酔いを起こす不具合は軽減される。
すなわちこの発明の各態様によれば、複雑な映像処理を行うことなくVR酔いを低減する技術を提供することができる。
以下、図面を参照してこの発明に係わるいくつかの実施形態を説明する。
[第1の実施形態]
(構成例)
(1)システム
図1は、この発明の第1の実施形態に係る遠隔制御システムの全体構成を示す図である。
(構成例)
(1)システム
図1は、この発明の第1の実施形態に係る遠隔制御システムの全体構成を示す図である。
第1の実施形態に係る遠隔制御システムは、ヘッドマウントディスプレイ(HMD)1と、ユーザ装置として動作する情報処理装置2と、上記情報処理装置2との間でネットワーク4を介して通信が可能な遠隔作業装置3とを備えている。なお、ここではユーザ装置が情報処理装置2のみを含む場合を例にとって説明するが、ユーザ装置は情報処理装置2とHMD1の両方を含んでいてもよい。
ネットワーク4は、例えばインターネット等の公衆IP(Internet Protocol)網と、当該公衆IP網にアクセスするためのアクセス網とからなり、アクセス網にはLAN(Local Area Network)、無線LAN、公衆有線ネットワーク、公衆移動通信ネットワーク、CATV(Cable Television)ネットワークが用いられる。
(2)装置
(2-1)遠隔作業装置3
遠隔作業装置3は、例えば遠隔地で動作する人型のロボットからなる。なお、遠隔作業装置3を以後ロボットとも呼ぶ。ロボット3Aは、胴体部、頭部、腕部および脚部からなり、頭部、腕部および脚部はそれぞれサーボ機構を備える駆動部により所定の可動範囲内で動作し、これにより姿勢が種々変化するように構成されている。
(2-1)遠隔作業装置3
遠隔作業装置3は、例えば遠隔地で動作する人型のロボットからなる。なお、遠隔作業装置3を以後ロボットとも呼ぶ。ロボット3Aは、胴体部、頭部、腕部および脚部からなり、頭部、腕部および脚部はそれぞれサーボ機構を備える駆動部により所定の可動範囲内で動作し、これにより姿勢が種々変化するように構成されている。
ロボット3Aの頭部前面部、つまり顔に相当する部位には、撮像デバイスとしてのカメラ34が設置されている。またロボット3Aの頭部内にはその動きを検出するために動きセンサが設けられている。なお、ロボット3Aの側頭部に相当する部位にはマイクロフォン36も設置されている。
図2は、ロボット3Aのハードウェア構成を示すブロック図である。
ロボット3Aは、例えば制御部31を備える。制御部31は、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを有する。この制御部31には、記憶部32と、センサインタフェース(センサI/F)33と、駆動インタフェース(駆動I/F)37と、通信インタフェース(通信I/F)39が、バス30を介して接続されている。
ロボット3Aは、例えば制御部31を備える。制御部31は、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを有する。この制御部31には、記憶部32と、センサインタフェース(センサI/F)33と、駆動インタフェース(駆動I/F)37と、通信インタフェース(通信I/F)39が、バス30を介して接続されている。
記憶部32は、記憶媒体として例えばSolid State Drive(SSD)等の随時書込みおよび読出しが可能な不揮発性メモリを用いたもので、プログラム記憶領域とデータ記憶領域とを有する。プログラム記憶領域には、ロボット3Aの動作を実現するための各種アプリケーション・プログラムが格納される。データ記憶領域は、ロボット3Aの動作過程で取得或いは生成された各種データを保存するために用いられる。なお、記憶媒体としては、他にRead Only Memory(ROM)やRandom Access Memory(RAM)等を併用することも可能である。
センサI/F33には、上記カメラ34、動きセンサ35およびマイクロフォン36が接続される。カメラ34は、例えば二眼カメラからなり、ロボット3Aの前方向を所定の視野角(例えば130度)の範囲で撮像し、得られた立体映像データをセンサI/F33へ出力する。動きセンサ35は、例えば6軸の加速度センサからなり、ロボット3Aの頭部の6軸方向の動きを検出してその検出データをセンサI/F33へ出力する。なお、マイクロフォン36は、ロボット3Aの周囲の音を検出し、得られた音声データをセンサI/F33へ出力する。
駆動I/F37には、上記頭部、腕部および脚部を駆動するための駆動部38が接続される。駆動I/F37は、制御部31から出力される制御信号を駆動信号に変換し、変換された駆動信号を駆動部38へ出力して駆動部38を動作させる。
通信I/F39は、例えば、無線LAN、近距離無線データ通信規格(例えばBluetooth(登録商標))、または公衆移動通信ネットワークに対応したインタフェースを備え、ネットワーク4を介して情報処理装置2との間でデータ伝送を行う。なお、通信I/F30は、公衆有線網や有線LAN、CATVネットワーク等の有線網に対応するインタフェースを備えていてもよい。
制御部31は、情報処理装置2から送られる遠隔制御信号に従い駆動部38を動作させて、上記ロボット3Aの頭部、腕部および脚部の姿勢を変化させる。制御対象となる動作としては、例えば、頭部をパン方向またはチルト方向等へそれぞれ回動させることで、カメラ34による撮像方向を可変制御する。また、脚部を駆動することで、ロボット3Aを前後方向または左右方向に歩行動作させるか、もしくは上下方向に屈伸動作させるといった種々の動作が想定される。なお、遠隔作業装置は人型のロボット3A以外に、例えば産業用ロボットや単に監視カメラが設置された架台であってもよい。
また制御部31は、上記カメラ34により得られた立体映像データをセンサI/F33を介して受信する。そして、受信された上記立体映像データを所定のフォーマットに従いパケットデータ化し、このパケットデータを通信I/F39から情報処理装置2に向け送信する処理を行う。なお、その際、マイクロフォン36により検出された音声データを上記立体映像データに多重化して送信することも可能である。
さらに制御部31は、上記動きセンサ35により検出された頭部の姿勢の変化を表すデータをセンサI/F33を介して受信する。そして、受信された上記検出データに検出時刻を表す時刻データを付与して動き検出データを生成し、この動き検出データを通信I/F39から情報処理装置2に向け送信する処理を行う。上記時刻データは、後述する情報処理装置2において上記立体映像データを表示する際に、当該立体映像に対するユーザの没入感を制御するために使用される。
(2-2)ヘッドマウントディスプレイ(HMD)1
HMD1は、例えばゴーグル型をなし、ユーザの頭部に着脱自在に装着される。図3は、HMD1のハードウェア構成を示すブロック図である。
HMD1は、例えばゴーグル型をなし、ユーザの頭部に着脱自在に装着される。図3は、HMD1のハードウェア構成を示すブロック図である。
HMD1は、例えばCPUを有する制御部11に対し、記憶部12と、表示インタフェース(表示I/F)13と、センサインタフェース(センサI/F)15と、通信インタフェース(通信I/F)17を、バス10を介して接続したものとなっている。なお、上記制御部11には、他に、各種スイッチやマイクロフォン、スピーカ、カメラ、位置センサ等のデバイスが接続されてもよい。
記憶部12は、記憶媒体として例えばSSD等の随時書込みおよび読出しが可能な不揮発性メモリを用いたもので、プログラム記憶領域とデータ記憶領域とを有する。プログラム記憶領域には、HMD1の動作を実現するための各種アプリケーション・プログラムが格納される。データ記憶領域は、HMD1の動作過程で取得或いは生成された各種データを保存するために用いられる。なお、記憶媒体としては、他にROMやRAM等を併用することも可能である。
表示I/F13には表示部14が接続される。表示部14は、例えば、有機EL(Electro Luminescence)ディスプレイからなる表示パネルを、仮想現実(Virtual Reality:VR)表示に対応するためにユーザの左右の眼に対応して2枚備える。なお、表示パネルは1枚であってもよい。また表示部14は、有機ELディスプレイに限られるものではなく、例えば液晶ディスプレイ(Liquid Cristal Display:LCD)や7セグメントを用いた表示器等の、他のタイプの表示器であってもよい。表示I/F13は、後述する情報処理装置2により生成された映像データを表示部14に表示させる。
センサI/F15には、動きセンサ16が接続される。動きセンサ16は、例えば6軸の角速度センサ(ジャイロセンサ)からなり、HMD1の動き、つまりユーザの頭部の動きを検出するために使用される。なお、検出対象となる頭部の動きは、例えば6軸方向の動きであることが好ましいが、パンおよびチルトの2軸方向の動きだけでもよい。センサI/F15は、上記動きセンサ16の出力信号をもとに、ユーザの頭部の動きを表す動きデータを生成する。
なお、センサI/F15には、上記動きセンサ16の他に、磁気センサ、加速度センサ、位置センサ、赤外センサ、輝度センサ、近接センサ、カメラ等が接続されてもよい。またセンサI/F15には、ユーザの頭部の動きのほか、ユーザの視線の動きを検出するためのセンサが接続されてもよい。ユーザの視線の動きは、例えばユーザの眼球を撮像するカメラを用いることで検出可能である。
通信I/F17には、例えばUniversal Serial Bus(USB)ケーブル等の信号ケーブルを使用した有線インタフェースが用いられる。そして通信I/F17は、制御部11の制御の下、情報処理装置2から送信される映像データを受信すると共に、上記センサI/F15により生成された動きデータ等を情報処理装置2へ転送する。なお、通信I/F17には、近距離無線データ通信規格(例えばBluetooth(登録商標))が使用されてもよい。
なお、この例では、HMD1として制御部11および記憶部12を備えた多機能型のデバイスを例にとって説明している。しかし、HMD1は、表示部14、表示I/F13、動きセンサ16およびセンサI/F15のみを有する標準型または簡易型のデバイスであってもよい。
(2-3)情報処理装置2
図4および図5は、それぞれユーザ装置として使用される情報処理装置2のハードウェアおよびソフトウェアの構成を示すブロック図である。
図4および図5は、それぞれユーザ装置として使用される情報処理装置2のハードウェアおよびソフトウェアの構成を示すブロック図である。
情報処理装置2は、例えばスマートフォンやタブレット型端末等の携帯情報端末、またはノート型もしくは据え置き型のパーソナルコンピュータにより構成される。情報処理装置2は、CPU等のハードウェアプロセッサを有する制御部21に、バス20を介して記憶部22、入出力インタフェース(入出力I/F)23および通信インタフェース(通信I/F)24を接続したものとなっている。
入出力I/F23には、上記USBケーブルまたは無線インタフェースを介して上記HMD1が接続される。また入出力I/F23には、コントローラ等の操作部256が接続される。操作部25は、ユーザがロボット3Aの動作を制御する際に、その制御対象部位、制御方向および制御量を入力するために使用される。
通信I/F24は、例えば、無線LAN、近距離無線データ通信規格(例えばBluetooth(登録商標))または公衆移動通信ネットワークに対応したインタフェースを備え、ネットワーク4を介してロボット3Aとの間でデータ伝送を行う。なお、通信I/F24は、公衆有線網や有線LAN、CATVネットワーク等の有線網に対応するインタフェースを備えていてもよい。
記憶部22は、記憶媒体として、例えば、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM等の不揮発性メモリと、RAM等の揮発性メモリとを組み合わせて構成される。その記憶領域には、プログラム記憶領域と、データ記憶領域とが設けられる。プログラム記憶領域には、OS等のミドルウェアに加えて、この発明の第1の実施形態に係る各種制御処理を実行するために必要なアプリケーション・プログラムが格納される。
データ記憶領域には、映像コンテンツ記憶部221が設けられている。映像コンテンツ記憶部221は、ロボット3Aから送信される立体映像データを表示させる際に、当該立体映像データに対し所定の処理を行うためのバッファメモリとして使用される。
制御部21は、この発明の第1の実施形態を実現するための制御処理機能として、操作データ取得部211と、動き制御データ生成部212と、遠隔制御信号送信部213と、映像コンテンツ受信部214と、映像処理部215と、映像表示制御部216とを備えている。これらの制御処理機能は、いずれも上記記憶部22内のプログラム記憶領域に格納されたアプリケーション・プログラムを制御部21のハードウェアプロセッサに実行させることにより実現される。
操作データ取得部211は、操作部25において入力された操作データを入出力I/F23を介して受信する。またそれと共に、HMD1の動きセンサ16により得られた動き検出データを入出力I/F23を介して受信する。そして操作データ取得部211は、受信された上記操作データおよび動き検出データを動き制御データ生成部212に渡す。
動き制御データ生成部212は、上記操作データおよび動き検出データをもとに、ロボット3Aの動きを制御するための動き制御データを生成する。動き制御データには、ロボット3Aの制御対象部位、制御方向および制御量を表す情報が含まれる。
遠隔制御信号送信部213は、上記動き制御データ生成部212により生成された上記動き制御データを含む遠隔制御信号を、通信I/F24からロボット3Aへ向け送信する処理を行う。
映像コンテンツ受信部214は、ロボット3Aからネットワーク4を介して送られる映像コンテンツ、つまり立体映像データを通信I/F24を介して受信する。そして、受信された立体映像データをデパケットおよび復号処理したのち、映像コンテンツ記憶部221に保存させる処理を行う。
映像処理部215は、上記映像コンテンツ記憶部221から立体映像データを読み出してARまたはVR表示のための表示データを生成し、生成された表示データを入出力I/F23からHMD1へ出力する。
映像表示制御部216は、ロボット3Aから送信される動き検出データを通信I/F24を介して受信する。そして、受信された動き検出データをもとにロボット3Aの頭部の姿勢が変化している期間を判定し、この頭部の姿勢が変化している期間中に、上記映像処理部215により生成される表示データに対し没入感を低下させるための処理を行う。
(動作例)
次に、以上のように構成された遠隔制御システムの動作例を説明する。図6は情報処理装置2の処理手順と処理内容を示すフローチャートである。
次に、以上のように構成された遠隔制御システムの動作例を説明する。図6は情報処理装置2の処理手順と処理内容を示すフローチャートである。
ユーザが自身の頭部にHMD1を装着したのち情報処理装置2を起動すると、まずHMD1の通信I/F17と情報処理装置2の入出力I/F23との間が接続され、さらに情報処理装置2の通信I/F24とロボット3Aの通信I/F39との間にネットワーク4を介して通信リンクが形成される。
この状態で、ユーザがロボット3Aを動作させるために操作部25を操作する、その操作データが情報処理装置2に入力される。なお、ユーザが自身の頭を動かした場合にも、その動きが動きセンサ16により検出されて情報処理装置2入力される。情報処理装置2は、操作データ取得部211の制御の下、ステップS11により上記操作データおよび動き検出データを取得する。そして情報処理装置2は、動き制御データ生成部212の制御の下、ステップS12において、取得された上記各データをもとにロボット3Aの動きを制御するための動き制御データを生成する。
例えば、動き制御データ生成部212は、操作データからロボット3Aの制御対象部位とその制御方向および制御量を認識する。一例を述べれば、脚部の前後方向または左右方向の移動量を認識する。また、動き検出データからは、ロボット3Aの頭部の向きの変化量を認識する。
情報処理装置2は、遠隔制御信号送信部213の制御の下、ステップS13において、上記動き制御データ生成部212により生成された動き制御データを含む遠隔制御信号を生成し、生成された上記遠隔制御信号を通信I/F24からロボット3Aに向け送信する。
これに対しロボット3Aは、制御部31の制御の下、上記情報処理装置2から送信された遠隔制御信号を受信すると、この遠隔制御信号から動き制御データを抽出し、この動き制御データに含まれる制御対象部位、制御方向および制御量を指定する情報に基づいて、駆動I/F37により対応する駆動部38を動作させる。例えば、制御対象部位が脚部または頭部であれば、これらに対応する駆動部38を動作させる。この結果ロボット3Aは、例えば前後方向または左右方向に歩行移動したり、頭部の向きを変化させる。
またロボット3Aの制御部31は、上記脚部または頭部を動作させている状態で、頭部に取り付けられたカメラ34から立体映像データをセンサI/F33を介して取り込む。またそれと共に、動きセンサ35から頭部の動き検出データをセンサI/F33を介して取り込む。そして、取り込んだ上記映像データおよび動き検出データを通信I/F39から情報処理装置2へ送信する。なお、上記立体映像データには、マイクロフォン36により検出された音声データを多重化して送信することも可能である。また、上記検出データには、検出時刻を表す時刻データが付与される。
これに対し情報処理装置2は、上記ロボット3Aから送信された立体映像データを、映像コンテンツ受信部214の制御の下、ステップS14により受信する。このステップS14では、例えば、受信された上記立体映像データをデパケットおよび復号処理したのち、映像コンテンツ記憶部221に保存する処理が行われる。そして情報処理装置2は、映像処理部215の制御の下、上記映像コンテンツ記憶部221から立体映像データを読み出し、読み出された立体映像データに、必要に応じて付加情報等を付加する等の情報付加処理を行って表示データを生成する。そして、生成された表示データを、ステップS18により入出力I/F23からHMD1へ出力する。この結果、HMD1の表示部14には、ロボット3Aのカメラ34により撮像された立体映像がほぼリアルタイムに表示される。
ところで、上記立体映像の表示処理に際し情報処理装置2は、表示された立体映像に対するユーザの没入感を制御する処理を以下のように実行する。
すなわち、情報処理装置2は、映像表示制御部216の制御の下、ステップS15において、上記ロボット3Aから送信される動き検出データを受信する。そして、ステップS16において、受信された上記動き検出データをもとにロボット3Aの頭部が動いている期間、つまり姿勢が変化している期間を判定する。この判定の結果、ロボット3Aの姿勢が変化している期間が検出されたとする。この場合映像表示制御部216は、ステップS17において、上記映像処理部215により生成される表示データに対し、検出された上記頭部姿勢が変化している期間にユーザの没入感を低下させる。
すなわち、情報処理装置2は、映像表示制御部216の制御の下、ステップS15において、上記ロボット3Aから送信される動き検出データを受信する。そして、ステップS16において、受信された上記動き検出データをもとにロボット3Aの頭部が動いている期間、つまり姿勢が変化している期間を判定する。この判定の結果、ロボット3Aの姿勢が変化している期間が検出されたとする。この場合映像表示制御部216は、ステップS17において、上記映像処理部215により生成される表示データに対し、検出された上記頭部姿勢が変化している期間にユーザの没入感を低下させる。
没入感を低下させる処理としては、例えば、上記立体映像の表示を静止させるかまたは消去する処理が考えられる。消去処理としては、例えば表示データを白、黒、グレーまたは所定の色の単一色画像データに置換するものや、記憶部32に予め記憶しておいた所定の待機画像データに置換するもの等が考えられる。このとき、上記単一色の画像データまたは待機画像データには、ロボット3Aが動作中である旨のメッセージまたはマーク、アイコン、アバタが重畳されてもよい。
また、没入感を低下させる別の処理としては、例えば、表示データを半透明または画素密度の粗い状態にしたり、表示データのサイズを縮小してHMD1の表示部14の任意の位置に表示させるものも考えられる。この場合、表示データの表示位置は中央部に限らずどの位置でもよい。要するに、表示映像に対するユーザの没入感を低下させることが可能な表示手法であれば、どのような手法を用いてもよい。
さらには、ロボット3Aから送られる音声データに置換してまたは重畳して、ロボット3Aが動作中である旨の音声メッセージまたはメロディや鳴音を、HMD1に内蔵されているスピーカから出力させるようにしてもよい。
(作用・効果)
以上述べたように第1の実施形態に係わる遠隔制御システムでは、ロボット3Aにおいて、その頭部、腕部または脚部等の所定の部位の姿勢の変化を動きセンサ35により検出し、検出された動きを表すデータをカメラ34により得られた立体映像データと共にネットワーク4を介して情報処理装置2へ送信する。一方、情報処理装置2においては、上記ロボット3Aから送られた立体映像データを含む表示データをHMD1へ出力して表示させると共に、同時にロボット3Aから送られる動き検出データに基づいてロボット3Aの姿勢が変化している期間を判定し、当該期間に上記表示データに対しユーザが受ける没入感を低下させる処理を行うようにしている。
以上述べたように第1の実施形態に係わる遠隔制御システムでは、ロボット3Aにおいて、その頭部、腕部または脚部等の所定の部位の姿勢の変化を動きセンサ35により検出し、検出された動きを表すデータをカメラ34により得られた立体映像データと共にネットワーク4を介して情報処理装置2へ送信する。一方、情報処理装置2においては、上記ロボット3Aから送られた立体映像データを含む表示データをHMD1へ出力して表示させると共に、同時にロボット3Aから送られる動き検出データに基づいてロボット3Aの姿勢が変化している期間を判定し、当該期間に上記表示データに対しユーザが受ける没入感を低下させる処理を行うようにしている。
従って、ロボット3Aが動いている期間には、没入感が低下するように処理が施された表示データがHMD1に供給され、表示されることになる。このため、ロボット3Aから送られる映像データに伝送遅延があっても、また情報処理装置2またはHMD1により表示処理動作に描画遅延があっても、その影響によりユーザがVR酔いを起こす不具合は軽減される。
[第2の実施形態]
この発明の第2の実施形態は、遠隔作業装置としてのロボットにおいて、動きセンサの検出データをもとにロボットが動作中であるか否かを判定し、ロボットの姿勢が変化している期間にカメラにより得られた映像データに対し没入感を低下させる処理を行う。そして、この没入感の低下処理がなされた映像データを、ロボットからユーザ装置としての情報処理装置へ送信するようにしたものである。
この発明の第2の実施形態は、遠隔作業装置としてのロボットにおいて、動きセンサの検出データをもとにロボットが動作中であるか否かを判定し、ロボットの姿勢が変化している期間にカメラにより得られた映像データに対し没入感を低下させる処理を行う。そして、この没入感の低下処理がなされた映像データを、ロボットからユーザ装置としての情報処理装置へ送信するようにしたものである。
(構成例)
図7は、この発明の第2の実施形態に係わる遠隔作業装置としてのロボット3Bのソフトウェア構成を示すブロック図である。なお、ロボット3Bのハードウェア構成については、図2と同一なので図示を省略する。
図7は、この発明の第2の実施形態に係わる遠隔作業装置としてのロボット3Bのソフトウェア構成を示すブロック図である。なお、ロボット3Bのハードウェア構成については、図2と同一なので図示を省略する。
ロボット3Bの制御部31は、この発明の第2の実施形態に係わる制御処理部として、遠隔制御信号受信部311と、動き制御データ抽出部312と、駆動制御部313と、映像データ取得部314と、動き検出データ取得部315と、映像処理部316とを備えている。これらの制御処理部はいずれも、記憶部32に記憶されたプログラムを上記制御部31のハードウェアプロセッサに実行させることにより実現される。
遠隔制御信号受信部311は、情報処理装置2から送信された遠隔制御信号を通信I/F39を介して受信し、受信された遠隔制御信号を動き制御データ抽出部312に渡す処理を行う。
動き制御データ抽出部312は、上記遠隔制御信号から動き制御データを抽出して駆動制御部313に渡す処理を行う。
駆動制御部313は、抽出された上記動き制御データに含まれる制御対象部位を指定する情報に基づいて対応する駆動部38を選択し、上記動き制御データに含まれる制御方向および制御量を指定する情報に基づいて、上記選択された駆動部38を駆動するための駆動制御信号を生成する。そして、生成された上記駆動制御信号を駆動I/F37から駆動部38へ出力する処理を行う。
映像データ取得部314は、カメラ34により撮像された立体映像データをセンサI/F33を介して受信し、後述する映像処理のために映像データ記憶部321に一時保存させる処理を行う。
動き検出データ取得部315は、動きセンサ35により検出されるロボット3Bの頭部の動きを表すデータをセンサI/F33を介して取り込む。そして、取り込んだ上記動き検出データをもとにロボット3Bの頭部の姿勢が変化している期間を判定し、その判定結果を示す情報を映像処理部316に通知する処理を行う。
映像処理部316は、上記動き検出データ取得部315から通知された判定結果を示す情報に従い、頭部の姿勢が変化していない期間には、映像データ記憶部321に保存されている立体映像データをそのまま通信I/F39から情報処理装置2へ送信する処理を行う。一方、頭部の姿勢が変化している期間には、映像処理部316は、映像データ記憶部321に保存されている立体映像データに対し没入感を低下させる処理を施し、その処理後のデータを通信I/F39から情報処理装置2へ送信する処理を行う。
(動作例)
次に、以上のように構成されたロボット3Bの動作を説明する。図8はその制御処理の手順と処理内容を示すフローチャートである。
次に、以上のように構成されたロボット3Bの動作を説明する。図8はその制御処理の手順と処理内容を示すフローチャートである。
情報処理装置2から、動き制御データを含む遠隔制御信号が送られると、ロボット3Bは、遠隔制御信号受信部311の制御の下、ステップS21により、上記遠隔制御信号を通信I/F39を介して受信する。そして、動き制御データ抽出部312の制御の下で、ステップS22により上記遠隔制御信号から動き制御データを抽出する。
次にロボット3Bは、駆動制御部313の制御の下、ステップS23において、上記動き制御データに含まれる制御対象部位を指定する情報に基づいて対応する駆動部38を選択する。そして、上記動き制御データに含まれる制御方向および制御量を指定する情報に基づいて、上記選択された駆動部38を駆動するための駆動制御信号を生成し、生成された上記駆動制御信号を駆動I/F37から駆動部38へ出力する。この結果、駆動部38が駆動され対応する部位が動作する。
例えば、制御対象部位が脚部であれば、それに対応する駆動部38が駆動され、ロボット3Bは例えば前後方向に歩行動作する。また、制御対象部位が頭部であれば、それに対応する駆動部38が駆動され、頭部の向きがパン方向またはチルト方向に変化する。
一方、上記脚部または頭部が動作している状態で、ロボット3Bの制御部31は、映像データ取得部314の制御の下、ステップS24において、頭部に取り付けられたカメラ34から立体映像データをセンサI/F33を介して取り込み、当該立体映像データを映像データ記憶部321に一時保存させる。
またそれと共に、ロボット3Bの制御部31は、動き検出データ取得部315の制御の下、ステップS25において、動きセンサ35からロボット3Bの頭部の動き、つまり姿勢の変化を表す動き検出データをセンサI/F33を介して取り込む。そして、取り込んだ上記動き検出データに基づいて、ステップS26により、ロボット3Bの頭部が動いている期間を判定する。
ロボット3Bの制御部31は、続いて映像処理部316の制御の下、上記判定結果に基づいて以下のように映像データの送信処理を行う。すなわち、上記ステップS26により得られた判定結果が、ロボット3Bの頭部の姿勢が変化していないことを示す場合には、映像データ記憶部321から立体映像データを読み出して、当該立体映像データをステップS28により通信I/F39から情報処理装置2へ送信する。
これに対し、上記ステップS26による判定の結果、ロボット3Bの頭部の姿勢が変化している期間には、映像処理部316は、ステップS27において、映像データ記憶部321に保存されている立体映像データに対し没入感を低下させる処理を行う。そして、その処理後のデータを通信I/F39から情報処理装置2へ送信する。
ここで、没入感を低下させる処理としては、例えば以下のような処理が用いられる。例えば、上記立体映像データを静止させるか、白、黒、グレーまたは所定の色の単一色画像データに置換する。または上記立体映像データを、記憶部32に別途記憶しておいた所定の待機画像データに置換するようにしてもよい。このとき、上記待機画像データには、ロボット3Bが動いている旨のメッセージまたはマーク、アイコン、アバタが重畳されてもよい。
さらに、没入感を低下させる別の処理としては、例えば、立体映像データを半透明または画素密度の粗い状態に加工処理したり、立体映像のフレームサイズを縮小するようにしてもよい。また、フレームサイズを縮小する場合、立体映像データの位置は中央部に限らずどの位置でもよい。要するに、ロボット3Bから送られる映像データに対するユーザの没入感を低下させることが可能な映像処理の手法であれば、どのような手法を用いてもよい。
なお、補助的に、マイクロフォン36により検出されるロボット3Bの周辺音に、ロボット3Bが動作中である旨の音声メッセージ、メロディまたは鳴音を重畳または置換する処理を制御部31により行い、当該処理後の音声データを通信I/F39から情報処理装置2へ送信するようにしてもよい。
(作用・効果)
以上述べたようにこの発明の第2の実施形態では、ロボット3Bにおいて、動きセンサ35による動き検出データをもとにロボット3Bの姿勢が変化している期間を判定し、ロボット3Bの姿勢が変化している期間にカメラ34により得られた立体映像データに対し没入感を低下させる処理を行い、この没入感の低下処理がなされた映像データを、ロボット3Bから情報処理装置2へ送信するようにしている。
以上述べたようにこの発明の第2の実施形態では、ロボット3Bにおいて、動きセンサ35による動き検出データをもとにロボット3Bの姿勢が変化している期間を判定し、ロボット3Bの姿勢が変化している期間にカメラ34により得られた立体映像データに対し没入感を低下させる処理を行い、この没入感の低下処理がなされた映像データを、ロボット3Bから情報処理装置2へ送信するようにしている。
従って、ロボット3Bの姿勢が変化している期間には、没入感が低下するように処理が施された映像データがロボット3Bから情報処理装置2へ送信されて、HMD1に表示されることになる。このため、ロボット3Bから送信される映像データに伝送遅延があっても、また情報処理装置2またはHMD1において映像表示処理の描画遅延があっても、その影響によりユーザがVR酔いを起こす不具合は軽減される。
また第2の実施形態によれば、ロボット3Bにおいて立体映像に対し没入感を低下させる処理を行っているので、情報処理装置2の処理負荷を軽減することができ、また没入感を低下させるための処理機能を持たない汎用の情報処理装置を使用できる利点がある。
[その他の実施形態]
(1)第1および第2の実施形態では、ロボット3A,3Bの前後または左右方向への歩行動作や頭部の向きをパン方向またはチルト方向へ変える動作が検出されたときに、カメラ34により得られた立体映像に対し没入感を低下させる処理を行う場合を例にとって説明した。しかしこの発明はそれに限らず、ロボット3A,3Bの頭部を左右に傾げる動作やお辞儀動作、脚部を使って屈伸する動作が検出されたときに、カメラ34により得られた立体映像に対し没入感を低下させる処理を行うようにしてもよい。
(1)第1および第2の実施形態では、ロボット3A,3Bの前後または左右方向への歩行動作や頭部の向きをパン方向またはチルト方向へ変える動作が検出されたときに、カメラ34により得られた立体映像に対し没入感を低下させる処理を行う場合を例にとって説明した。しかしこの発明はそれに限らず、ロボット3A,3Bの頭部を左右に傾げる動作やお辞儀動作、脚部を使って屈伸する動作が検出されたときに、カメラ34により得られた立体映像に対し没入感を低下させる処理を行うようにしてもよい。
(2)第1および第2の実施形態では、情報処理装置2から送られる遠隔制御信号に応じてロボット3A,3Bが動作するときのその動きを動きセンサ35により検出し、この動きが検出されている期間に得られる映像データに対し没入感を低下させる処理を行うようにした。しかし、この発明はそれに限るものではなく、ロボット3A,3Bが、情報処理装置2からの遠隔制御信号によらずに自律動作する場合や、他の情報処理装置またはロボットに付属するコントローラから送信される遠隔制御信号により動作する場合の、ロボット3A,3Bの動きを検出し、この動きが検出されている期間に得られる映像データに対し没入感を低下させる処理を行うようにしてもよい。
(3)第1の実施形態では、HMD1とは別に設けた情報処理装置2により、ロボット3Aとの間のデータ通信および映像表示制御を行うようにした。しかし、HMD1が情報処理装置2の機能を備える場合、つまり情報処理装置と一体型のHMDを使用する場合には、HMD1においてロボット3Aとの間のデータ通信および映像表示制御を行うように構成してもよい。
(4)その他、遠隔作業装置の種類と構成、撮像デバイスや動きセンサの種類と構成、情報処理装置の構成、没入感を低下させる処理等についても、この発明の要旨を逸脱することなく種々の改良や変形を行うことができる。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1…ヘッドマウントディスプレイ(HMD)
2…情報処理装置
3A,3B…ロボット
4…ネットワーク
10,20,30…バス
11,21,31…制御部
12,22,32…記憶部
13…表示インタフェース(表示I/F)
14…表示部
15,33…センサインタフェース(センサI/F)
16,35…動きセンサ
17,24,39…通信インタフェース(通信I/F)
23…入出力インタフェース(入出力I/F)
25…操作部
34…カメラ
36…マイクロフォン
37…駆動インタフェース(駆動I/F)
38…駆動部
211…操作データ取得部
212…動き制御データ生成部
213…遠隔制御信号送信部
214…映像コンテンツ受信部
215,316…映像処理部
216…映像表示制御部
221…映像コンテンツ記憶部
311…遠隔制御信号受信部
312…動き制御データ抽出部
313…駆動制御部
314…映像データ取得部
315…動き検出データ取得部
321…映像データ記憶部
2…情報処理装置
3A,3B…ロボット
4…ネットワーク
10,20,30…バス
11,21,31…制御部
12,22,32…記憶部
13…表示インタフェース(表示I/F)
14…表示部
15,33…センサインタフェース(センサI/F)
16,35…動きセンサ
17,24,39…通信インタフェース(通信I/F)
23…入出力インタフェース(入出力I/F)
25…操作部
34…カメラ
36…マイクロフォン
37…駆動インタフェース(駆動I/F)
38…駆動部
211…操作データ取得部
212…動き制御データ生成部
213…遠隔制御信号送信部
214…映像コンテンツ受信部
215,316…映像処理部
216…映像表示制御部
221…映像コンテンツ記憶部
311…遠隔制御信号受信部
312…動き制御データ抽出部
313…駆動制御部
314…映像データ取得部
315…動き検出データ取得部
321…映像データ記憶部
Claims (6)
- 表示部に接続されるユーザ装置と、前記ユーザ装置からネットワークを介して送られる制御信号により動作する遠隔作業装置とを具備する遠隔制御システムであって、
前記遠隔作業装置は、
姿勢を変化させることが可能な可動部と、
前記可動部に設置されたカメラから出力される映像データを取得する映像データ取得部と、
動きセンサから、前記可動部の前記姿勢の変化を表す動き検出データを取得する動き検出データ取得部と、
取得された前記映像データおよび前記動き検出データを、前記ネットワークを介して前記ユーザ装置へ送信するデータ送信部と
を備え、
前記ユーザ装置は、
前記遠隔作業装置から送信された前記映像データおよび前記動き検出データを、前記ネットワークを介して受信するデータ受信部と、
受信された前記動き検出データに基づいて、前記可動部の前記姿勢が変化している期間を判定する判定部と、
前記判定部の判定結果に基づいて、前記可動部の前記姿勢が変化している期間に受信された前記映像データに対し没入感を低下させる処理を行う映像処理部と、
前記没入感を低下させる処理が行われた後のデータを前記表示部へ出力する出力部と を備える遠隔制御システム。 - 表示部に接続されるユーザ装置からネットワークを介して送られる制御信号により動作し、かつ姿勢を変化させることが可能な可動部を備える遠隔作業装置であって、
前記可動部に設置されたカメラから出力される映像データを取得する映像データ取得部と、
動きセンサから、前記可動部の前記姿勢の変化を表す動き検出データを取得する動き検出データ取得部と、
取得された前記映像データおよび前記動き検出データを、前記ネットワークを介して前記ユーザ装置へ送信するデータ送信部と
を具備する遠隔作業装置。 - 表示部に接続されるユーザ装置と、前記ユーザ装置からネットワークを介して送られる制御信号により動作し、かつ姿勢を変化させることが可能な可動部を備える遠隔作業装置とのうちの、いずれか一方に設けられる映像処理装置であって、
前記可動部に設置されたカメラから出力される映像データを取得する映像データ取得部と、
動きセンサにより得られる、前記可動部の前記姿勢の変化を表す動き検出データを取得する動き検出データ取得部と、
取得された前記動き検出データに基づいて、前記可動部の前記姿勢が変化している期間を判定する判定部と、
前記判定部の判定結果に基づいて、前記可動部の姿勢が変化している期間に取得された前記映像データに対し没入感を低下させる処理を行う映像処理部と、
前記没入感を低下させる処理が行われた後のデータを前記表示部へ出力する出力部と を具備する映像処理装置。 - 前記映像処理部は、前記可動部の姿勢が変化している期間に取得された前記映像データに対し、映像の静止、単一色の静止画像データへの置換、映像の半透明化、画素の低密度化、およびフレームサイズの縮小のうちいずれかの処理を行う、請求項3に記載の映像処理装置。
- 前記映像処理部は、前記可動部の姿勢が変化している期間に取得された前記映像データを、前記遠隔作業装置が動いている旨の情報が付加された待機画像データに置換する、請求項3に記載の映像処理装置。
- 請求項3乃至5のいずれかに記載の映像処理装置が備える各部による処理を、前記映像処理装置が備えるプロセッサに実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21805315.5A EP4152310A4 (en) | 2020-05-14 | 2021-05-14 | REMOTE CONTROL SYSTEM, ASSOCIATED REMOTE ACTUATING DEVICE, VIDEO PROCESSING DEVICE AND PROGRAM |
CN202180035011.1A CN115552891A (zh) | 2020-05-14 | 2021-05-14 | 远程控制系统和其远程作业装置、影像处理装置及程序 |
US18/054,242 US20230076335A1 (en) | 2020-05-14 | 2022-11-10 | Remote control system, and remote operation apparatus, video image processing apparatus, and computer-readable medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020085315A JP6801136B1 (ja) | 2020-05-14 | 2020-05-14 | 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム |
JP2020-085315 | 2020-05-14 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US18/054,242 Continuation US20230076335A1 (en) | 2020-05-14 | 2022-11-10 | Remote control system, and remote operation apparatus, video image processing apparatus, and computer-readable medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021230364A1 true WO2021230364A1 (ja) | 2021-11-18 |
Family
ID=73741043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/018476 WO2021230364A1 (ja) | 2020-05-14 | 2021-05-14 | 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230076335A1 (ja) |
EP (1) | EP4152310A4 (ja) |
JP (1) | JP6801136B1 (ja) |
CN (1) | CN115552891A (ja) |
WO (1) | WO2021230364A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05228855A (ja) * | 1992-02-19 | 1993-09-07 | Yaskawa Electric Corp | テレイグジスタンス視覚装置 |
JP2002135641A (ja) * | 2000-10-27 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | 視点・視線自由移動カメラシステム |
JP2017201742A (ja) * | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | 処理装置および画像決定方法 |
JP2019106628A (ja) | 2017-12-12 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像補正装置、画像補正方法およびプログラム |
WO2019176035A1 (ja) * | 2018-03-14 | 2019-09-19 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成システム、および画像生成方法 |
JP6655751B1 (ja) * | 2019-07-25 | 2020-02-26 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 映像表示制御装置、方法およびプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010050645A (ja) * | 2008-08-20 | 2010-03-04 | Olympus Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
TW201502581A (zh) * | 2013-07-11 | 2015-01-16 | Seiko Epson Corp | 頭部配戴型顯示裝置及頭部配戴型顯示裝置之控制方法 |
US9999835B2 (en) * | 2015-02-05 | 2018-06-19 | Sony Interactive Entertainment Inc. | Motion sickness monitoring and application of supplemental sound to counteract sickness |
US10162412B2 (en) * | 2015-03-27 | 2018-12-25 | Seiko Epson Corporation | Display, control method of display, and program |
JP6799603B2 (ja) * | 2016-09-14 | 2020-12-16 | 株式会社スクウェア・エニックス | 映像表示システム及び映像表示方法、映像表示プログラム |
EP3622487B1 (en) * | 2017-05-18 | 2021-12-22 | Samsung Electronics Co., Ltd. | Method for providing 360-degree video and device for supporting the same |
CN109426345A (zh) * | 2017-08-31 | 2019-03-05 | 北京网秦天下科技有限公司 | Vr设备及其自适应显示方法 |
KR20190101323A (ko) * | 2019-08-12 | 2019-08-30 | 엘지전자 주식회사 | Ar 모드 및 vr 모드를 제공하는 xr 디바이스 및 그 제어 방법 |
-
2020
- 2020-05-14 JP JP2020085315A patent/JP6801136B1/ja active Active
-
2021
- 2021-05-14 CN CN202180035011.1A patent/CN115552891A/zh active Pending
- 2021-05-14 EP EP21805315.5A patent/EP4152310A4/en active Pending
- 2021-05-14 WO PCT/JP2021/018476 patent/WO2021230364A1/ja unknown
-
2022
- 2022-11-10 US US18/054,242 patent/US20230076335A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05228855A (ja) * | 1992-02-19 | 1993-09-07 | Yaskawa Electric Corp | テレイグジスタンス視覚装置 |
JP2002135641A (ja) * | 2000-10-27 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | 視点・視線自由移動カメラシステム |
JP2017201742A (ja) * | 2016-05-02 | 2017-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | 処理装置および画像決定方法 |
JP2019106628A (ja) | 2017-12-12 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像補正装置、画像補正方法およびプログラム |
WO2019176035A1 (ja) * | 2018-03-14 | 2019-09-19 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成システム、および画像生成方法 |
JP6655751B1 (ja) * | 2019-07-25 | 2020-02-26 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 映像表示制御装置、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4152310A1 (en) | 2023-03-22 |
EP4152310A4 (en) | 2023-11-08 |
CN115552891A (zh) | 2022-12-30 |
JP6801136B1 (ja) | 2020-12-16 |
JP2021180425A (ja) | 2021-11-18 |
US20230076335A1 (en) | 2023-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3379525B1 (en) | Image processing device and image generation method | |
WO2016013272A1 (ja) | 情報処理装置及び情報処理方法、並びに画像表示システム | |
US20230071690A1 (en) | Remote control system, remote operation apparatus, video image processing apparatus, and computer-readable medium | |
JP7242448B2 (ja) | 仮想現実制御装置、仮想現実制御方法およびプログラム | |
WO2021230364A1 (ja) | 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム | |
US20230069407A1 (en) | Remote operation apparatus and computer-readable medium | |
WO2021014673A1 (ja) | 映像表示制御装置、方法およびプログラム | |
JPWO2019176035A1 (ja) | 画像生成装置、画像生成システム、および画像生成方法 | |
KR102044003B1 (ko) | 영상 회의를 위한 전자 장치 및 그의 동작 방법 | |
JP6442619B2 (ja) | 情報処理装置 | |
WO2022220049A1 (ja) | システム、情報処理方法および情報処理プログラム | |
JPWO2019229816A1 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
WO2022149496A1 (ja) | エンタテインメントシステムおよびロボット | |
WO2022149497A1 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
WO2022255058A1 (ja) | 情報処理装置および画像生成方法 | |
WO2022113834A1 (ja) | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム | |
WO2023234097A1 (ja) | ヘッドマウントディスプレイおよびコンテンツ表示システム | |
JP2022184456A (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21805315 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2021805315 Country of ref document: EP Effective date: 20221214 |