JP7280346B2 - リモート操作指示システム、及びマウント型デバイス - Google Patents

リモート操作指示システム、及びマウント型デバイス Download PDF

Info

Publication number
JP7280346B2
JP7280346B2 JP2021503296A JP2021503296A JP7280346B2 JP 7280346 B2 JP7280346 B2 JP 7280346B2 JP 2021503296 A JP2021503296 A JP 2021503296A JP 2021503296 A JP2021503296 A JP 2021503296A JP 7280346 B2 JP7280346 B2 JP 7280346B2
Authority
JP
Japan
Prior art keywords
image
worker
display
line
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021503296A
Other languages
English (en)
Other versions
JPWO2020178960A1 (ja
Inventor
治 川前
万寿男 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2020178960A1 publication Critical patent/JPWO2020178960A1/ja
Priority to JP2023078231A priority Critical patent/JP7550916B2/ja
Application granted granted Critical
Publication of JP7280346B2 publication Critical patent/JP7280346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、リモート操作指示システム、及びマウント型デバイスに関する。
製造現場や工事現場等の作業現場では、ヘッドマウントディスプレイ装置の導入が進められている。ヘッドマウントディスプレイ装置には、指示者(オペレータ)からの指示等の各種情報が表示される。作業現場の作業者は、ヘッドマウントディスプレイを装着し、オペレータからの情報を見ながら作業を行う。
特許文献1には、ヘッドマウントディスプレイ装置を含む作業支援システム等の従来技術が開示されている。特許文献1では、作業者は、ヘッドマウントディスプレイと作業者の視線方向を撮影するカメラを装着する。オペレータは、情報処理装置で指示者の指示に対応する指示画像を生成し、作業者のヘッドマウントディスプレイに表示させる。ヘッドマウントディスプレイは、半透過型であり、作業者の視野にオペレータの指示画像を重ね合わせる。
特開2013-16020号公報
しかしながら、特許文献1の方法では、指示者は、作業者の視野範囲でしか作業現場を確認することができない。このため、指示者は、視野範囲の近傍に優先すべき事象が発生した場合でも、これを把握できず、作業者への指示が遅れる可能性がある。また、指示者に対し表示されるカメラの撮影画像は、作業者の視線の動きに応じて揺れるため、指示者が不快な酔いを感じてしまうということがある。
本発明は、上記の点を鑑みてなされたものであり、その目的は、指示者が不快な酔いを感じることのないリモート操作指示システム、及びマウント型デバイスを提供することにある。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。本発明の代表的な実施の形態によるリモート操作指示システムは、作業者が装着するマウント型デバイスと、指示者が作業現場を確認し、指示を出す操作指示装置と、マウント型デバイスと操作指示装置との間でデータの送受信を行うネットワークと、を備えている。
マウント型デバイスは、作業者の視野よりも広い範囲で作業現場を撮影するカメラと、作業者の視線をセンサ情報として取得するセンサと、センサ情報を用いて作業者の視線の方向の動きを視線動き情報として検出する視線動き検出部と、を有する。マウント型デバイスは、カメラの撮影画像データ及び視線動き情報をネットワークを介して操作指示装置へ送信する。
操作指示装置は、カメラの撮影画像から作業者の視野範囲より広い範囲の第1画像を切り出し、第1画像を視線動き情報を用いて補正し、補正した第1画像をディスプレイに表示させる表示設定部と、作業者に対する指示画像を生成する指示画像生成部と、を有する。操作指示装置は、指示画像をネットワークを介してマウント型デバイスへ送信する。
本発明によれば、指示者が不快な酔いを感じることのないリモート操作指示システム、及びマウント型デバイスが提供される。
本発明の実施の形態1に係るリモート操作指示システムの概要を説明する図である。 本発明の実施の形態1に係るリモート操作指示システムの動作の一例を説明する図である。 本発明の実施の形態1に係るマウント型デバイスの構成の一例を示すブロック図である。 本発明の実施の形態1に係る操作指示装置の構成の一例を示すブロック図である。 作業者の視野範囲における画像の一例を示す図である。 作業者の視線の動きの検出処理を示すフロー図である。 本発明の実施の形態1に係るリモート操作指示システムの動作の他の例を説明する図である。 操作指示装置における表示範囲の設定に係るフローを示す図である。 マウント型デバイスの構成の一例を示す外形図である。 マウント型デバイスの構成の他の例を示す外形図である。 マウント型デバイスの構成の他の例を示す外形図である。 本発明の実施の形態2に係るリモート操作指示システムの概要を説明する図である。 本発明の実施の形態3に係るリモート操作指示システムの概要を説明する図である。 設備カメラの撮影範囲における作業者の視線を検出する処理の一例を示すフロー図である。 本発明の実施の形態4に係るリモート操作指示システムの概要を説明する図である。
以下、図面を参照しながら本発明の実施形態について説明する。
(実施の形態1)
図1~図11を用いて、実施の形態1について説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって、適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。
図1は、本発明の実施の形態1に係るリモート操作指示システムの概要を説明する図である。図1に示すリモート操作指示システム100は、作業者2が作業を行う作業者サイト102と、指示者6が作業者2に対する作業指示を行う指示者サイト106とがネットワーク1を介して接続されている。作業者サイト102において、1aは作業者サイト102とネットワーク1との間で送受信される送受信データ、3は被操作対象、4はマウント型デバイス、5はマウント型デバイス4に装着されたカメラが撮影する撮影範囲である。一方、指示者サイト106において、1bは指示者サイト106とネットワーク1との間で送受信される送受信データ、7は操作指示装置、7aは操作指示装置7のメインディスプレイ、7bは操作指示装置7のサブディスプレイである。
マウント型デバイス4は、ディスプレイやカメラを含む。マウント型デバイス4は、カメラが撮影した撮影画像から作業者2の視野に相当する範囲の画像を切り出し、切り出した画像をディスプレイに映し出す。あるいは、作業者2は、ディスプレイ越しに、被操作対象3を見る。
作業者2は、マウント型デバイス4を装着し、カメラは被操作対象3を含む領域を撮影する。すなわち、作業者2は、マウント型デバイス4の装着者である。カメラの撮影範囲5は、マウント型デバイス4のディスプレイに表示される視野より十分広い範囲をカバーしている。カメラの撮影画像は、データ化され、送受信データ1aとしてネットワーク1へ送信される。そして、送受信データ1aは、送受信データ1bとしてネットワーク1から指示者サイト106の操作指示装置7へ送信される。
操作指示装置7は、指示者6の操作により作業者2への作業指示を行う装置である。操作指示装置7は、ネットワーク1と接続可能な、例えばパソコン等で構成される。操作指示装置7は、送受信データ1bから取得したカメラの撮影画像から、作業者2の視野範囲の画像を切り出し、切り出した画像をサブディスプレイ7bに映し出す。また、操作指示装置7は、カメラの撮影画像から、作業者2の視野範囲よりも広い範囲の画像を切り出し、切り出した画像をメインディスプレイ7aに映し出す。したがって、操作指示装置7は、範囲の異なる複数の画像を指示者6に提供する。これにより、指示者6は、作業者2が何を見ているのかを把握するとともに、その周辺の作業現場の様子を視認することができる。
指示者6が、操作指示装置7に作業者2への作業指示を入力すると、操作指示装置7は、操作指示画像(以下「指示画像」とも称する)を生成し、指示画像をサブディスプレイ7bの画像に重畳表示させる。これにより、指示者6は、指示画像受信後のマウント型デバイス4のディスプレイの表示内容を確認することができる。指示画像は、送受信データ1bとして送信された後、ネットワーク1から送受信データ1aとしてマウント型デバイス4に送信される。マウント型デバイス4は、送受信データ1aを用いて、受信した指示画像をディスプレイに表示する。作業者2は、被操作対象3に重ねて指示画像を確認することができる。これにより、作業の正確性が向上する。
図2は、本発明の実施の形態1に係るリモート操作指示システムの動作の一例を説明する図である。図2には、マウント型デバイス4のカメラ405の撮影範囲5a、5d、操作指示装置7のメインディスプレイ7aに表示される画像の表示範囲9、マウント型デバイス4のディスプレイの表示範囲8a~8dの関係が示されている。なお、すでに述べた通り、マウント型デバイス4のディスプレイの表示範囲は、サブディスプレイ7bの表示範囲と等しい。
作業者2の視線中心がA点にある時、カメラ405撮影範囲は5aで囲まれた領域であり、マウント型デバイス4の表示範囲は8aで囲まれた領域である。指示者6は、操作指示装置7を操作し、カメラの撮影範囲5aからメインディスプレイ7aに表示する領域として表示範囲9を切り出す。これにより指示者6は、被操作対象3を適切な大きさ、解像度で確認できるようになる。マウント型デバイス4の表示範囲8aは、作業者2の視野範囲に相当する領域である。作業者2は、マウント型デバイス4のディスプレイに表示された表示範囲8aの画像を確認しながら作業を行う。表示範囲8aの画像は、サブディスプレイ7bにも表示され、指示者6と作業者2との間で画像が共有される。また、メインディスプレイ7aに、表示範囲8aの外枠が表示され、広い範囲の作業現場の中で、作業者の視野がどの位置にあるのかを容易に確認することができる。
作業者2は、作業中にその視線を移動させることがある。視線の移動は、作業工程において必然の場合もあるが、作業工程とは関係ない動きによるものも多い。作業者の視野が移動することにより、作業者2の視野範囲も移動する。例えば、図2のように視線中心がAからB、C、Dと順次動くにつれ、視野範囲は8aから、8b、8c、8dへと順次移動する。これらの動きに合わせて、カメラの撮影範囲も順次移動する。例えば、視線中心がDに移動した場合、カメラの撮影範囲は5dとなる。
本実施の形態では、このような視線の方向の動きに対して、メインディスプレイ7aの表示範囲9が固定されている。操作指示装置7は、視線の方向の動きに合わせてカメラの撮影画像から切り出した画像を補正し、メインディスプレイ7aの表示範囲9を設定する。そうすると、作業者の視線がA-B-C-Dへと順次動く場合でも、メインディスプレイ7aの表示範囲9は固定される。これにより、指示者6は、安定した画像を観ることが可能となる。なお、ここでは、メインディスプレイ7aの表示範囲9が固定される場合が示されているが、作業工程において必然で、指示者6に予測可能な動きであれば、操作指示装置7は、表示範囲9を作業者2の視線の動きに追随させてもよい。この場合、作業者2の視線の移動に全て追従させるのではなく、所定の時間の範囲で視線がどの方向を向いていたかを検出し、それに合わせてゆっくりと表示範囲を追従させるようにすれば、指示者6の酔いが抑えられる。
図3は、本発明の実施の形態1に係るマウント型デバイスの構成の一例を示すブロック図である。図3に示すマウント型デバイス4において、401は加速度・ジャイロセンサ、402は視線動き検出部、403はデータ多重・分離部、404はネットワークIF(インタフェース)部、405はカメラ、406は表示切り出し部、407は制御部、408はディスプレイ(作業者用ディスプレイ)、409は合成部、410は指示画像再構築部、411はスピーカ、412は内部バスである。
加速度・ジャイロセンサ401は、加速度センサやジャイロセンサ等を含むセンサ群である。加速度・ジャイロセンサ401は、各センサを用いてマウント型デバイス4を装着している作業者2の視線をセンサ情報として取得する。加速度・ジャイロセンサ401は、各センサが取得したセンサ情報を視線動き検出部402へ出力する。
視線動き検出部402は、加速度・ジャイロセンサ401から出力されたセンサ情報を用いて、作業者2の視線の動きを検出する。例えば、視線動き検出部402は、取得時刻が異なる複数のセンサ情報を用いて視線の動きを検出する。視線動き検出部402は、検出した視線の動きを視線動き情報として、内部バス412を介しデータ多重・分離部403へ送信する。
カメラ405は、作業者2の正面方向の領域を、作業者2の視線が動く範囲よりも広角に撮影する。カメラの撮影画像は表示切り出し部406及びデータ多重・分離部403へ送信される。表示切り出し部406は、カメラの撮影画像から、作業者2の視野範囲の画像を切り出し、切り出した画像を合成部409へ送信する。なお、作業者2の視野範囲の画像を得るために、標準画角のカメラがマウント型デバイス4に追加されてもよい。
操作指示装置7から出力される指示画像は、ネットワークIF部404を介し、送受信データ1aとしてデータ多重・分離部403で受信され、データ多重・分離部403から内部バス412を介して指示画像再構築部410へ送信される。具体的に述べると、データ多重・分離部403は、例えば、受信した送受信データ1aから、指示画像に関するデータを分離し、分離した指示画像データを指示画像再構築部410へ送信する。また、データ多重・分離部403は、例えば、受信した送受信データ1aから、指示者6の音声に関するデータを分離し、音声データをスピーカ411へ送信する。
データ多重・分離部403は、カメラの撮影画像をデータ化し、撮影画像データを、送受信データ1aとしてネットワークIF部404を介して操作指示装置7へ送信する。その際、データ多重・分離部403は、作業者2の視線動き情報や作業者2の音声データを撮影画像データと多重化させ、これらを多重化させたデータを送受信データ1aとして送信してもよい。
指示画像再構築部410は、受信した送受信データ1aから指示画像を再構築し、再構築した指示画像を合成部409へ送信する。合成部409は、表示切り出し部406において切り出された画像と、指示画像再構築部410において再構築された指示画像とを合成し、合成した画像をディスプレイ408へ送信し、カメラ405により撮影された画像(切り出された画像)と指示画像とを重畳させた画像をディスプレイ408に表示させる。
スピーカ411は、データ多重・分離部403から送信された音声データを音声に変換し、指示者6の音声を出力する。
制御部407は、マウント型デバイス4を構成する各部の制御や、内部バス412の割り当て等を行い、マウント型デバイス4における各処理を実行させる。視線動き検出部402、データ多重・分離部403、表示切り出し部406、合成部409、指示画像再構築部410は、ハードウェアで構成されてもよいし、制御部407で実行されるソフトウェアにより実現されてもよい。
図4は、本発明の実施の形態1に係る操作指示装置の構成の一例を示すブロック図である。図4に示す操作指示装置7において、701はユーザIF部、702は指示画像生成部、703はデータ多重・分離部、704はネットワークIF部、705は制御部、7aはメインディスプレイ、706は表示設定部、707はカメラ撮影画像再構築部、7bはサブディスプレイ、708は視線範囲切り出し・指示画像合成部(以下合成部と記す)、709はマイク、710は内部バスである。
ユーザIF部701は、指示者6からの入力を受け付ける機能ブロックである。ユーザIF部701は、例えばキーボード、操作ボタン、マウス、タッチパネル等の入力装置である。指示者6は、ユーザIF部701から入力操作を行い、制御部705を介して、操作指示装置7に所定の処理を実行させる。
指示画像生成部702は、作業工程に適した指示画像を生成し、指示画像データをデータ多重・分離部703へ送信する。指示画像データは、送受信データ1bとしてネットワークIF部704を介してネットワーク1へ送信される。その際、データ多重・分離部703は、例えば、指示画像データ、指示者6の音声データ等を多重化し、多重化したデータを送受信データ1bとして、ネットワークIF部704を介して送信してもよい。
データ多重・分離部703は、マウント型デバイス4から受信した送受信データ1bから、撮影画像データを分離し、内部バス710を介して撮影画像データを合成部708へ送信する。また、データ多重・分離部703は、受信した送受信データ1bから作業者2の視線動き情報を分離し、分離した視線動き情報を表示設定部706や合成部708等に送信する。また、データ多重・分離部703は、受信した送受信データ1bからや作業者2の音声データを分離し、分離した音声データを図示しないスピーカへ送信してもよい。
データ多重・分離部703から送信された撮影画像データは、カメラ撮影画像再構築部707において撮影画像に再構築される。再構築されたカメラ撮影画像は、表示設定部706及び合成部708へ送信される。
制御部705は、操作指示装置7を構成する各部の制御や、内部バス710の割り当て等を行い、操作指示装置7における各処理を実行させる。また、制御部705は、表示設定部706において撮影画像の切り出す範囲を設定し、設定値を表示設定部706へ送信する。
表示設定部706は、制御部705から送信された設定値に従って、カメラ撮影画像からメインディスプレイ7aに表示する範囲の画像(第1画像)を切り取る。このとき、切り取った画像に対し、視線動き情報を用いた視線の動き補正が行われる。表示設定部706は、図2を用いて説明したように、作業者の視線が動いた場合でも、メインディスプレイ7aに表示させる画像の表示範囲9を固定させる。
合成部708は、撮影画像から作業者2の視野範囲の画像(第2画像)を切り出し、指示画像と合成して、これらを合成した画像をサブディスプレイ7bに表示させる。合成部708において切り出される画像に対しても、視線動き情報を用いた視線の動き補正がおこなわれてもよい。マイク709は、指示者6の音声を音声データに変換し、音声データをデータ多重・分離部703へ送信する。
なお、サブディスプレイ7bの表示画像は、マウント型デバイス4に追加される標準画角のカメラの撮影画像と、指示画像とを合成したものでもよい。また、合成部708で生成される表示画像は、メインディスプレイ7aで表示されてもよい。この場合、サブディスプレイ7bが設けられなくてもよい。そして、メインディスプレイ7aは、表示設定部706で生成された画像と、合成部708で生成された画像とを、ピクチャインピクチャの方法で表示しても良いし、指示者6が任意に切り替えて表示してもよい。
図5は、作業者の視野範囲における画像の一例を示す図である。具体的に述べると、図5には、マウント型デバイス4のディスプレイ408、及び操作指示装置7のサブディスプレイ7bに表示される画像が示されている。図5において、20a~20dは指示画像であり、指示画像20a~20dは、作業者2の視野画像に合成して表示される。指示画像20a、20cは指示内容を文字で伝える画像であり、指示画像20b、20dは、作業対象をハイライトする画像である。作業者2は、指示画像を見ることにより作業内容を容易に理解することが可能となる。
図6は、作業者の視線の動きの検出処理を示すフロー図である。図3を用いて説明したように、作業者2の視線の動きは、加速度・ジャイロセンサ401、視線動き検出部402を用いて検出される。図6は、これを代替する方法であり、操作指示装置7において、撮影画像を用いて視線の動きを検出するフローを示している。これにより、センサ群が省かれたコストダウンされたマウント型デバイス4を用いることが可能となる。
視線の動きの検出が開始されると(S1)、操作指示装置7は、時刻Tn、Tn+1におけるそれぞれの撮影画像を取得する(S2~S3)。作業者2が視線を移動させた場合、作業者2が装着しているカメラで撮影する撮影画像の撮影範囲も移動する。操作指示装置7は、例えば時刻Tnの画像を基準として、時刻Tn+1の画像をどれだけずらせば一致するのかを画像マッチングを行うことによりで評価する(S4)。ステップS4で行われる画像ずらし量と画像ずらし方向とが視線の移動を表す視線移動情報となる。
操作指示装置7は、ステップS4において得られた視線移動情報に対し、異常値の除去などのフィルタリングを行い、視線移動量を決定する(S5)。操作指示装置7は、視線移動量に対応した相対座標値を算出し、出力する(S6)。相対座標値を出力することにより、カメラの方向が変わっても、操作指示装置の表示範囲9を同じ表示範囲で出力することが可能となる。
操作指示装置7は、ステップS6における相対座標値の出力後、視線の動き検出処理の継続の有無を決定する(S7)。視線の動き検出処理を継続する場合(No)、操作指示装置7は、ステップS2~S6の処理を繰り返す。一方、視線の動き検出処理を継続しない場合(Yes)、視線の動き検出処理を終了する(S8)。なお、図6のフローは、例えば制御部705において実行されてもよいし、他の構成要素により実行されてもよい。
図7は、本発明の実施の形態1に係るリモート操作指示システムの動作の他の例を説明する図である。図7は、作業者2の視野範囲外に優先処理事象が発生した場合における動作を示している。図7には、カメラ405の撮影範囲5a、メインディスプレイ7aの表示範囲9、マウント型デバイス4のディスプレイ408の表示範囲8a、8eが示されている。
作業者2の視線が点Aにあるとき、ディスプレイ408には、表示範囲8aの画像が表示されている。また、操作指示装置7のメインディスプレイ7aには、表示範囲9の画像が表示されている。
このとき、作業者2の視野外にある表示範囲8eに優先処理事象11が現れると、指示者6は、メインディスプレイ7aの画面で優先処理事象11を認識する。そして、指示者6は、指示画像20を作成し、作成した指示画像20を操作指示装置7からマウント型デバイス4へ送信させる。マウント型デバイス4は、受信した送受信データ1aから指示画像20に関するデータを分離し、分離したデータを用いて指示画像20をディスプレイ408の表示範囲8aに合成する。
指示画像20は、作業者2に対し視野範囲外にある優先処理事象11へ視線を向けさせるものであればよい。図7に示す指示画像20は、優先処理事象11の少なくとも一部を含む範囲の中心点Eに向かう矢印の画像であり、作業者2に視線移動を促すものである。指示画像20に従い、作業者2が視線の中心を点Eに動かすと、表示範囲8eがディスプレイ408に映し出される。これにより、作業者2は速やかに、優先処理事象11に対応することが可能となる。
図8は、操作指示装置における表示範囲の設定に係るフローを示す図である。図8のフローは、作業者2の視線範囲の画像が、常に操作指示装置7のメインディスプレイ7aの表示範囲内に在るように、また、メインディスプレイ7aの表示範囲がカメラ405の撮影範囲内に収まるようにするものである。
図8の処理が開始されると(S10)、条件1として、マウント型デバイス4の表示領域、すなわち、サブディスプレイ7bに表示されるべき画像の一部が、メインディスプレイ7aの表示範囲の外側にはみ出す可能性が評価される(S11)。ステップS11において、サブディスプレイ7bに表示されるべき画像の一部が、メインディスプレイ7aの表示範囲の外側にはみ出す可能性がないと判断された場合(No)、ステップS12の処理が実行される。ステップS12では、条件2として、メインディスプレイ7aの表示範囲の一部がカメラ405の撮影範囲の外側にはみ出す可能性が評価される。
サブディスプレイ7bに表示されるべき画像の一部が、メインディスプレイ7aの表示範囲の外側にはみ出す可能性があると判断された場合(S11、Yes)、又はメインディスプレイ7aの表示範囲の一部がカメラ405の撮影範囲の外側にはみ出す可能性があると判断された場合(S12、Yes)、カメラ405の撮影範囲、メインディスプレイ7aの表示範囲、マウント型デバイス4のディスプレイ408の表示範囲の関係が適切な状態でないことになる。
この場合、表示範囲の再設定が行われる(S13)。例えば、メインディスプレイ7aの表示範囲を調整し、メインディスプレイ7aの表示範囲の中心と作業者2の視線中心が一致させるようにする。作業者2の視線中心とカメラ405の撮影範囲の中心は一致しているので、カメラ405の撮影範囲、メインディスプレイ7aの表示範囲、ディスプレイ408の表示範囲の中心が一致し、カメラの撮影範囲>メインディスプレイ7aの表示範囲>ディスプレイ408の表示範囲、の関係が確保される。なお“>”は、包含の関係にあることを表す。ただし、視線の移動に追従させて、メインディスプレイ7aの表示範囲の再設定をすぐに行ってしまうと、作業者2が頭部を動かしたり、視線を動かしたりした場合に、表示範囲が一緒に動いてしまうため、指示者が不快な酔いを感じてしまうおそれがある。そのため、表示範囲の再設定は、視線の移動に対してゆっくり行うか、一定時間以上の平均の移動量を計算して行ってもよい。
一方、ステップS12において、メインディスプレイ7aの表示範囲の一部がカメラ405の撮影範囲の外側にはみ出す可能性はないと判断された場合(No)、ステップS11の処理が再度行われる。
ステップS14では、表示範囲の再設定プロセスを終了するかどうかが判断される。表示範囲の再設定プロセスを継続すると判断された場合(No)、ステップS11~S13の処理が再実行される。一方、表示範囲の再設定プロセスを終了すると判断された場合(Yes)、表示範囲の再設定プロセスは終了する(S15)。
図9は、マウント型デバイスの構成の一例を示す外形図である。図9において、42はカメラ・センサユニット、43は制御ユニット、411a、411bはスピーカ、45a、45b、45cはホルダーである。
ホルダー45aは頭頂部に、ホルダー45bは後頭部と左右側頭部に、めがね型のホルダー45cは鼻部に接する。ホルダー45a~45cにより、マウント型デバイス4は、作業者2の頭部に装着される。
カメラ・センサユニット42は、例えば加速度・ジャイロセンサ401及びカメラ405を含むユニットである。カメラ・センサユニット42は、作業者2の前方を撮影するとともに、作業者2の頭部の動きを計測して視線の動きに関するセンサ情報を取得する。あるいは、カメラ・センサユニット42は、瞳の角度から直接、視線の方向を検出するトラッキング技術により、視線の方向を検出するようにしてもよい。カメラ・センサユニット42は、図9のように頭頂部のホルダー45aに設置されてもよいし、その他の場所に設置されてもよい。
スピーカ411a、411bはホルダー45bの作業者2の耳に近い箇所に設置される。ディスプレイ408は作業者2の前方に配置され、作業者2は、めがね型のホルダー45c越しに、ディスプレイ408に表示される画像を見る。
制御ユニット43は、例えば図3の視線動き検出部402、データ多重・分離部403、ネットワークIF部404、表示切り出し部406、制御部407、合成部409、指示画像再構築部410等を含むユニットである。なお、ディスプレイ408と制御ユニット43とが一体で構成されてもよい。この場合、例えばスマートフォンが用いられてもよい。
図10は、マウント型デバイスの構成の他の例を示す外形図である。図10では、図9と同一の構成要素には、図9と同一の符号が付されている。図10では、ディスプレイ408に代えて、プロジェクタ46aとスクリーン408aとからなるプロジェクタ型のディスプレイが設けられている。
スクリーン408aは、例えば透過型のスクリーンで構成される。この場合、作業者2は、スクリーン越しに自身の視野範囲の実景を確認することができる。プロジェクタ46aがスクリーン408aに投射する画像は、例えば操作指示装置7からの指示画像である。作業者2は、スクリーン408aで視野画像と指示画像を合成して観ることができる。このため、図10の構成では、合成部409は設けられなくてもよい。
図11は、マウント型デバイスの構成の他の例を示す外形図である。図11においても、図9と同一の構成要素には、図9と同一の符号が付されている。図11では、3Dカメラ47a、47bが設けられている。また、図11では、ディスプレイ408に代えて、3Dディスプレイ408bが設けられている。また、ホルダー45cに代えて、シャッタ付きホルダー48bが設けられている。
3Dカメラ47aは、作業者2の右側のホルダー45bに設置される。3Dカメラ47bは、作業者2の左側のホルダー45bに設置される。3Dカメラ47a、47bは、互いに左右視差のある画像をそれぞれ撮影し、撮影画像を3Dディスプレイ408bへ出力する。3Dディスプレイ408bは、例えば、3Dカメラ47a、47bの撮影画像を時分割で交互に表示する。
シャッタ付きホルダー48bは、例えば液晶シャッタを有する。シャッタ付きホルダー48bは、3Dディスプレイ408bに表示される左右の撮影画像にあわせて、シャッタのON/OFFを繰り返す。具体的に述べると、シャッタ付きホルダー48bは、3Dカメラ47aの右側画像が表示されているとき、右目で3Dディスプレイ408bを見ることができるようにシャッタを制御し、3Dカメラ47bの左側画像が表示されているとき、左目で3Dディスプレイ408bを見ることができるようにシャッタを制御する。シャッタの制御により、作業者2は3D画像を見ることができる。
図11の構成によれば、作業者2が自身の前景を3D画像として観ることができることに加え、画像の奥行き情報が得られる。例えば、3D画像(3Dカメラ47a、47bの撮影画像)を操作指示装置7へ送信されると、指示者6は、作業対象の奥行きを考慮した3D指示画像を作成することができる。このような画像の奥行き情報が作業者2にフィードバックされれば、作業の正確さが改善される。
また、図11の構成に対応させて、操作指示装置7には、3Dディスプレイがサブディスプレイ7bとして設けられてもよい。この場合、合成部708には、カメラの撮影画像に変えて3Dカメラの3D画像が供給される。
<本実施の形態による主な効果>
本実施の形態によれば、メインディスプレイ7aには、作業者2の視線範囲よりも広い範囲の画像が表示される。この構成によれば、作業者2の視線が動いても、メインディスプレイ7aに表示される画像に与える影響が抑えられるので、指示者6が不快な酔いを感じることがなくなる。
また、本実施の形態によれば、指示者6は、サブディスプレイ7bに表示される作業者の視野範囲の画像を見ながら指示画像を作成することができる。また、マウント型デバイス4のディスプレイ408に、指示画像が重畳して表示される。この構成によれば、指示者6は、作業現場の広い範囲を見ながら、作業者2への指示を的確に行うことが可能となる。
また、本実施の形態によれば、制御部705は撮影画像の切り出す範囲を設定する。この構成によれば、使用状況を考慮してメインディスプレイ7aに表示される画像の範囲を適宜変更することが可能となる。
また、本実施の形態によれば、作業者2の視線が動いた場合でも、メインディスプレイ7aに表示される撮影画像の範囲が固定される。この構成によれば、指示者6に対し表示される撮影画像が作業者2の視線の動きに応じて揺れることがなくなる。これにより、指示者6が不快な酔いを感じることがより一層なくなる。
また、本実施の形態によれば、作業者2の視野範囲外に優先処理事象11が発生した場合、指示者6は作業者2に優先処理事象11へ視線を向けさせる指示画像を生成する。この構成によれば、作業者2は、優先処理事象11へ視線を向けることができ、速やかに、優先処理事象11に対応することが可能となる。
(実施の形態2)
次に、実施の形態2について説明する。なお、以下では、前述の実施の形態と重複する箇所については、原則として説明を省略する。
図12は、本発明の実施の形態2に係るリモート操作指示システムの概要を説明する図である。図12では、作業者2に代えて作業用ロボット12が用いられている。指示者6は、作業用ロボット12をリモート操作して、作業を実施する。作業用ロボット12の先端には、操作ヘッド13が取り付けられている。作業用ロボット12は、位置決めが行われ、操作ヘッド13を用いて被操作対象3に対する所定の作業等を行う。
マウント型デバイス4aは、操作ヘッド13の作業範囲全体が見える位置に設置されている。マウント型デバイス4aは、マウント型デバイス4からディスプレイ408が省略された構成となっている。マウント型デバイス4aは、広角のカメラを備えており、カメラで撮影した作業現場の撮影画像の撮影画像データ及び作業用ロボットの動き情報を操作指示装置7へ送信する。勿論、マウント型デバイス4aの設置場所はこの位置に限定されない。
操作指示装置7のメインディスプレイ7aやサブディスプレイ7bには、受信した撮影画像から切り出された画像が表示される。このとき、表示設定部706は、撮影画像から切り出した画像(第3画像)に対し、作業用ロボット12の動き情報を用いた補正を行う。
指示者6は、表示された画像を見ながら、作業用ロボット12に対し位置決めの指示や操作ヘッド13への作業指示を生成する。具体的に述べると、本実施の形態では、図4の指示画像生成部702は、作業指示生成部として機能し、指示者6による入力操作に基づき、作業指示生成部は作業指示を生成する。生成された作業指示等が送信されることで、作業用ロボット12に対するリモート操作が行われる。
なお、撮影画像は、マウント型デバイス4aから操作指示装置7へ送信されてもよいし、作業用ロボット12を介して送信されてもよい。また、作業指示は、マウント型デバイス4aを介して作業用ロボット12へ送信されてもよいし、作業用ロボット12へ直接送信されてもよい。
本実施の形態によれば、リモート操作指示システムに作業用ロボットを用いることが可能となる。
(実施の形態3)
次に、実施の形態3について説明する。図13は、本発明の実施の形態3に係るリモート操作指示システムの概要を説明する図である。図13には、作業現場を含む作業者サイトのみが示されている。作業者サイトは、例えば倉庫や病院等の限られたエリアの施設である。作業者サイトには、施設の様子をモニタリングする設備カメラ14が設置されている。設備カメラ14は、リモート操作指示システム用に新たに設けられてもよいし、例えば防犯カメラ等、別の目的で設置されているカメラを、設備カメラ14として利用してもよい。設備カメラ14は、広角に施設内を撮影し、撮影範囲15の撮影画像を得る。設備カメラ14は、ネットワーク機能を備え、撮像画像を送受信データ1cとして、ネットワーク1を介して操作指示装置7へ送信する。
作業者2は、例えば標準画角のカメラ405を有するマウント型デバイス4を装着している。カメラ405は、撮影範囲16の撮影画像を生成し、撮影画像データは、送受信データ1aとして操作指示装置7へ送信される。
操作指示装置7は、設備カメラ14から送信された撮影範囲15の撮影画像、及びマウント型デバイス4から送信された撮影範囲16の撮影画像を用いて、作業者2の視線、すなわち、撮影範囲16が撮影範囲15のどの位置にあるかを検出する。
設備カメラ14の撮影範囲15の中心と、マウント型デバイス4のカメラ405の撮影範囲16の中心は一致しない場合がほとんどである。このため、撮影範囲16が撮影範囲15のどの位置にあるかを検出するためには、撮影範囲16の中心が、設備カメラの撮影範囲15のどの位置にあるかを求める処理が必要となる。
以下、図14を用いて、作業者の視線(すなわち撮影範囲16)を検出する処理を説明する。図14は、設備カメラの撮影範囲における作業者の視線を検出する処理の一例を示すフロー図である。なお、図14に係る処理は、操作指示装置7の制御部705において実行されてもよいし、その他の機能ブロックにおいて実行されてもよい。
作業者の視線を検出する処理が開始されると(S20)、操作指示装置7は、設備カメラ14の撮影画像を取得し(S21)、マウント型デバイス4の撮影画像を取得する(S22)。作業者2が視線を移動させた場合、マウント型デバイス4のカメラ405の撮影範囲16は移動するが、設備カメラ14の撮影範囲15は移動しない。そこで、操作指示装置7は、撮影範囲16の撮影画像と撮影範囲15の撮影画像とで画像マッチング処理を行い(S23)、撮影範囲16における撮影範囲15の位置を、作業者2の視線を示す視線値として検出する(S24)。例えば、撮影範囲16の中心が作業者2の視線であり、撮影範囲16の中心の座標位置を視線値として検出してもよい。
作業者2の視線の動きは、マウント型デバイス4に搭載されているセンサ群で追跡可能である(S30)。そこで、操作指示装置7は、ステップS24で算出された求めた視線値を初期値として、ステップS30において取得したセンサ情報を用いて視線の移動を追跡する動き補正を行い(S25)、視線の撮影範囲15における撮影範囲16の視線値(座標位置)を出力する(S26)。
そして、視線検出処理を終了するかどうかが判断され(S27)、視線検出処理を継続する場合(No)、リフレッシュ処理を行うかが判断される(S28)。リフレッシュ処理を行うと判断された場合(Yes)、ステップS21の処理が実行される。一方、リフレッシュ処理を行わないと判断された場合(No)、ステップS25の処理が実行される。ステップS27において、視線検出処理を終了すると判断された場合(No)、視線検出処理は終了する(S8)。
本実施の形態によれば、設備カメラ14を活用したリモート操作指示システムが実現可能となる。また、既存のカメラを設備カメラ14として利用することも可能である。
(実施の形態4)
次に、実施の形態4について説明する。図15は、本発明の実施の形態4に係るリモート操作指示システムの概要を説明する図である。図15では、作業者に代えて、自動運転装置19aを備えた自動車(移動体)17が示されている。自動車17は、フロントカメラ18a、リアカメラ18b、サイドカメラ18c、18d備えている。フロントカメラ18a、リアカメラ18b、サイドカメラ18c、18dは、対応するそれぞれの範囲を撮影し、それぞれの撮影画像を生成する。自動車17は、ネットワーク1と接続されており、これらの撮影画像データを送受信データ1dとして操作指示装置7へ送信する。なお、前進時における自動車17(作業者に相当)の視線は、フロントカメラ18aの撮影領域にある。また、後退時における自動車17(作業者に相当)の視線は、リアカメラ18bの撮影領域にあるとしてもよい。
これらの撮影画像は、例えば操作指示装置7のディスプレイに表示され、指示者6は、ディスプレイに表示される撮影画像を見ながら、作業領域に相当する広い範囲(例えば、自動車17の全周域)を観察することができる。
緊急事態を感知すると、指示者6は緊急処理操作命令を送信し、緊急処理装置19b及び自動運転装置19aにより、自動車17は路側帯等の安全な場所に停止する。緊急処理命令は、図示しない緊急処理命令部により生成される。緊急処理命令部の機能は、例えば、図4の指示画像生成部702が有していても良いし、指示画像生成部702とは別に緊急処理命令部が設けられてもよい。なお、移動体として自動車17が例示されているが、移動体はこれに限定されるものではない。
本実施の形態によれば、リモート操作指示システムを、自動運転装置19aを備えた自動車17に適用することができ、自動車17の安全性を向上させることが可能となる。
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることが可能である。なお、図面に記載した各部材や相対的なサイズは、本発明を分かりやすく説明するため簡素化・理想化しており、実装上はより複雑な形状となる場合がある。
また、各構成要素は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実装されてもよい。また、マイクロプロセッサユニット、CPU等が動作プログラムを解釈して実行することにより各構成要素をソフトウェアで実装してもよい。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用してもよい。
1…ネットワーク、1a~1d…送受信データ、2…作業者、3…被操作対象、4…マウント型デバイス、5、5a、5b…撮影範囲、6…指示者、7…操作指示装置、7a…メインディスプレイ、7b…サブディスプレイ、8a~8e撮影範囲、9…表示範囲、401…加速度・ジャイロセンサ、402…視線動き検出部、403…データ多重・分離部、404…ネットワークIF部、405…カメラ、406…表示切り出し部、407…制御部、408…ディスプレイ、409…合成部、410…指示画像再構築部、411…スピーカ、412…内部バス、701…ユーザIF部、702…指示画像生成部、703…データ多重・分離部、704…ネットワークIF部、705…制御部、706…表示設定部、707…カメラ撮影画像再構築部、708…視線範囲切り出し・指示画像合成部、709…マイク、20、20a~20d…指示画像、11…優先処理事象、42…カメラ・センサユニット、43…制御ユニット、411a、411b…スピーカ、45a~45c…ホルダー、46a…プロジェクタ、408a…スクリーン、47a、47b…3Dカメラ、408b…3Dディスプレイ、48b…シャッタ付きホルダー、12…作業用ロボット、13…操作ヘッド、4a…マウント型デバイス、14…設備カメラ、15…撮影範囲、16…撮影範囲、17…自動車、18a…フロントカメラ、18b…リアカメラ、18c、18d…サイドカメラ、19a…自動運転装置、19b…緊急処理装置、21…内部バス

Claims (6)

  1. 作業者が装着するマウント型デバイスと、
    指示者が作業現場を確認し、指示を出す操作指示装置と、
    前記マウント型デバイスと前記操作指示装置との間でデータの送受信を行うネットワークと、を備えたリモート操作指示システムであって、
    前記マウント型デバイスは、
    前記作業者の視野よりも広い範囲で作業現場を撮影するカメラと、
    前記作業者の視線をセンサ情報として取得するセンサと、
    前記センサ情報を用いて前記作業者の前記視線の方向の動きを視線動き情報として検出する視線動き検出部と、を有し、
    前記カメラの撮影画像データ及び前記視線動き情報を前記ネットワークを介して前記操作指示装置へ送信し、
    前記操作指示装置は、
    前記カメラの撮影画像から前記作業者の視野範囲より広い範囲の第1画像を切り出し、前記第1画像を前記視線動き情報を用いて補正し、補正した前記第1画像をディスプレイに表示させる表示設定部と、
    前記作業者に対する指示画像を生成する指示画像生成部と、
    前記撮影画像から前記作業者の視野範囲の第2画像を切り出し、前記第2画像と前記指示画像とを重畳してサブディスプレイに表示させる合成部と、を有し、
    前記指示画像を前記ネットワークを介して前記マウント型デバイスへ送信する、
    リモート操作指示システム。
  2. 請求項1に記載のリモート操作指示システムにおいて、
    前記マウント型デバイスは、作業者の視野に前記指示画像を重畳して表示する作業者用ディスプレイを備えている、
    リモート操作指示システム。
  3. 請求項1に記載のリモート操作指示システムにおいて、
    前記操作指示装置は、前記表示設定部において前記撮影画像を切り出す範囲を設定する制御部を備えている、
    リモート操作指示システム。
  4. 請求項1に記載のリモート操作指示システムにおいて、
    前記表示設定部は、前記作業者の視線が動いた場合でも、前記ディスプレイに表示させる前記第1画像の範囲を固定する、
    リモート操作指示システム。
  5. 請求項1に記載のリモート操作指示システムにおいて、
    前記作業者の視野範囲外に優先処理事象が発生した場合、前記指示者は前記作業者に前記優先処理事象へ視線を向けさせる前記指示画像を生成し、前記操作指示装置は、前記優先処理事象へ視線を向けさせる前記指示画像を前記マウント型デバイスへ送信する、
    リモート操作指示システム。
  6. 請求項に記載のリモート操作指示システムにおいて、
    前記カメラの撮影範囲は、前記操作指示装置で切り出して表示される前記第1画像の範囲を包含し、
    前記第1画像の範囲は、前記第2画像の範囲を包含している、
    リモート操作指示システム。
JP2021503296A 2019-03-04 2019-03-04 リモート操作指示システム、及びマウント型デバイス Active JP7280346B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023078231A JP7550916B2 (ja) 2019-03-04 2023-05-11 リモート操作指示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/008456 WO2020178960A1 (ja) 2019-03-04 2019-03-04 リモート操作指示システム、及びマウント型デバイス

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023078231A Division JP7550916B2 (ja) 2019-03-04 2023-05-11 リモート操作指示システム

Publications (2)

Publication Number Publication Date
JPWO2020178960A1 JPWO2020178960A1 (ja) 2020-09-10
JP7280346B2 true JP7280346B2 (ja) 2023-05-23

Family

ID=72337728

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021503296A Active JP7280346B2 (ja) 2019-03-04 2019-03-04 リモート操作指示システム、及びマウント型デバイス
JP2023078231A Active JP7550916B2 (ja) 2019-03-04 2023-05-11 リモート操作指示システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023078231A Active JP7550916B2 (ja) 2019-03-04 2023-05-11 リモート操作指示システム

Country Status (4)

Country Link
US (2) US11915339B2 (ja)
JP (2) JP7280346B2 (ja)
CN (1) CN113519166A (ja)
WO (1) WO2020178960A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7502154B2 (ja) 2020-11-12 2024-06-18 株式会社Nttドコモ 制御装置、及びロボット

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056631A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理システム及び情報処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3217723B2 (ja) * 1997-03-13 2001-10-15 ▲すすむ▼ 舘 遠隔通信システム及び遠隔通信方法
JP2006200080A (ja) 2005-01-21 2006-08-03 Tanizawa Seisakusho Ltd 撮影用広角レンズを備えたヘルメット
JP2013016020A (ja) 2011-07-04 2013-01-24 Nec Corp 作業支援システム、装置、方法及びプログラム
JP2015095802A (ja) 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
JP6707823B2 (ja) * 2015-09-03 2020-06-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US10162412B2 (en) 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
JP6586834B2 (ja) 2015-09-14 2019-10-09 富士通株式会社 作業支援方法、作業支援プログラム、及び作業支援システム
JP6886236B2 (ja) * 2015-09-30 2021-06-16 富士通株式会社 視野誘導方法、視野誘導プログラム、及び視野誘導装置
JP2018082363A (ja) * 2016-11-18 2018-05-24 セイコーエプソン株式会社 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6779835B2 (ja) * 2017-06-15 2020-11-04 株式会社日立製作所 監視制御システム、監視制御装置及び監視制御方法
JP6971069B2 (ja) * 2017-07-05 2021-11-24 ヤフー株式会社 監視プログラム、監視方法、及び監視装置
US11809622B2 (en) * 2020-12-21 2023-11-07 Samsung Electronics Co., Ltd. Electronic device and method for eye-tracking of user and providing augmented reality service thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056631A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理システム及び情報処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
佐川 浩彦(外6名),「拡張現実感による遠隔作業支援システムの開発」,電子情報通信学会論文誌D,日本,電子情報通信学会,2015年01月01日,Vol.J98-D, No.1,第258~268頁,[online], [令和4年8月15日検索], インターネット, <URL: https://search.ieice.org/bin/summary.php?id=j98-d_1_258>,ISSN: 1881-0225,<DOI: 10.14923/transinfj.2014JDP7059>.
宮内 竜(外2名),「画像の揺れを安定化 移動体の遠隔操作性を高める」,画像ラボ,日本,日本工業出版株式会社,2006年12月01日,Vol.17, No.12,第1~6頁,ISSN:0915-6755.

Also Published As

Publication number Publication date
JP2023100936A (ja) 2023-07-19
US11915339B2 (en) 2024-02-27
CN113519166A (zh) 2021-10-19
JP7550916B2 (ja) 2024-09-13
JPWO2020178960A1 (ja) 2020-09-10
US20220148230A1 (en) 2022-05-12
WO2020178960A1 (ja) 2020-09-10
US20240177363A1 (en) 2024-05-30

Similar Documents

Publication Publication Date Title
US10365490B2 (en) Head-mounted display, head-up display and picture displaying method
JP6493361B2 (ja) 車両用装置、車両用プログラム、フィルタ設計プログラム
JP4965800B2 (ja) 画像表示システム
CN111169382B (zh) 驾驶辅助装置、驾驶辅助系统、驾驶辅助方法以及程序
WO2015060393A1 (ja) 遠隔行動誘導システム及びその処理方法
US20240177363A1 (en) Remote operation instructing system, and mount type device
JP2016224086A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018182570A (ja) 視線情報共有方法および視線情報共有システム
EP3136724B1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
JP2011010126A (ja) 画像処理装置、画像処理方法
JP2011085830A (ja) 映像表示システム
US20150350637A1 (en) Electronic apparatus and display processing method
JP2018121287A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
CN111722401A (zh) 显示装置、显示控制方法以及显示系统
JP2015007722A (ja) 画像表示装置
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム
CN115561897A (zh) 佩戴型显示装置
JP2020006419A (ja) 溶接面、溶接支援方法及び制御プログラム
WO2021220407A1 (ja) ヘッドマウントディスプレイ装置および表示制御方法
WO2015115103A1 (ja) 画像処理装置、カメラシステム、および画像処理方法
JP7528951B2 (ja) 表示端末装置
CN110709920B (zh) 图像处理设备及其控制方法
JP2023132157A (ja) 画像表示装置、画像表示方法、及びプログラム
CN117111731A (zh) 信息处理设备和方法、头戴式显示设备和计算机可读介质
CN118574016A (zh) 处理器、显示控制方法及记录介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150