JP6886236B2 - 視野誘導方法、視野誘導プログラム、及び視野誘導装置 - Google Patents

視野誘導方法、視野誘導プログラム、及び視野誘導装置 Download PDF

Info

Publication number
JP6886236B2
JP6886236B2 JP2015195040A JP2015195040A JP6886236B2 JP 6886236 B2 JP6886236 B2 JP 6886236B2 JP 2015195040 A JP2015195040 A JP 2015195040A JP 2015195040 A JP2015195040 A JP 2015195040A JP 6886236 B2 JP6886236 B2 JP 6886236B2
Authority
JP
Japan
Prior art keywords
icon
guidance
target
display device
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015195040A
Other languages
English (en)
Other versions
JP2017068689A (ja
Inventor
静子 松添
静子 松添
山 姜
山 姜
純也 藤本
純也 藤本
桂樹 岡林
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015195040A priority Critical patent/JP6886236B2/ja
Priority to US15/277,025 priority patent/US10901571B2/en
Publication of JP2017068689A publication Critical patent/JP2017068689A/ja
Application granted granted Critical
Publication of JP6886236B2 publication Critical patent/JP6886236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Description

本発明は、視野誘導方法、視野誘導プログラム、及び視野誘導装置に関する。
近年、少子高齢化などの社会問題の影響もあり、様々な作業現場(例えば、工場やプラントの保守、点検等)において労働力不足や現場技術者の育成などの課題に直面している。これらの課題の解決策の一つとして、作業現場での業務を効率化するための遠隔作業支援システムに期待が集まっている。
AR(Augmented Reality)技術を利用したナビゲーションによって、作業現場の作業員が装着している端末装置に、視野外のオブジェクトへの誘導を行う技術等が提案されている。
特開5324714号公報 特開2007−133464号公報
Shunichi Kasahara and Jun Rekimoto, "JackIn: Integrating First-Person View with Out-of-Body Vision Generation for Human-Human Augmentation (AH2014)" [online]、[平成27年5月29日]、インターネット<URL:https://vimeo.com/88523949>
作業現場において作業中の作業員の視野範囲に作業対象となるターゲットが存在しない場合がある。既存の視野外へのオブジェクトへ作業員を誘導する技術では、作業員は、ターゲットの位置、方向、距離などを直感的に把握することが難しいといった問題がある。
したがって、1つの側面では、本発明は、ターゲットへのユーザ誘導を円滑に行うことを目的とする。
一態様によれば、予め記憶した空間情報の中からターゲット情報を検出し、前記空間情報が規定する空間における表示装置の位置とターゲット情報が規定するターゲットの位置を計測し、計測した前記表示装置の位置と前記ターゲットの位置とに基づいて前記表示装置に表示するアイコンの位置と該アイコンの動きを決定し、前記表示装置において決定した前記位置で決定した前記動きをする前記アイコンを表示させ、前記表示装置の位置の変化に応じて、該表示装置に表示する前記アイコンの位置及び動きを変更させ、視野外のターゲットの検出に応じて前記アイコンを表示する際には、視野の特定位置に対応する位置から該視野の前記特定位置よりも外側の位置に対応する位置へと該アイコンの表示位置を移動させ、該アイコンの動きを、前記表示装置が前記ターゲットに近付くにつれて遅くし、該ターゲットが該視野の該特定位置となったとき、該アイコンを該外側の位置から該特定位置にゆっくりと戻し、消失させる処理をコンピュータが行う誘導支援方法が提供される。
また、上記課題を解決するための手段として、上記方法を行う装置、コンピュータに上記処理を実行させるためのプログラム、及び、そのプログラムを記憶した記憶媒体とすることもできる。
ターゲットへのユーザ誘導を円滑に行うことができる。
遠隔作業支援システムの一例を説明するための図である。 遠隔作業支援システムのハードウェア構成を示す図である。 作業員の視野外に対象物がある場合の例を示す図である。 3つの誘導要素を表す誘導アイコンの例を示す図である。 情報伝達の違いを説明するための図である。 異なる情報種別を区別容易とする視覚効果の例を示す図である。 優先度の認知を容易とする視覚効果の例を示す図である。 他の視覚効果の特徴により誘目性の高くする例を示す図である。 色相による優先度を区別する場合の例について示す図である。 遠隔作業支援システムにおける機能構成例を示す図である。 データセットAのデータ構成例を示す図である。 データセットBのデータ構成例を示す図である。 データセットCのデータ構成例を示す図である。 データセットDのデータ構成例を示す図である。 第1の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第1の実施例における相対誘導目標位置を説明するための図である。 第1の実施例における誘導目標までの位置関係を説明するための図である。 第1の実施例における誘導アイコンの動作例を示す図である。 第2の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第2の実施例における誘導アイコンの振動方法を説明するための図である。 第3の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第4の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第4の実施例における振動領域内の移動変化例について説明するための図である。 第5の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第5の実施例における振動領域内の移動変化例について説明するための図である。 第6の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 誘導アイコンの形状と回転の例を示す図である。 第7の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第8の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第8の実施例における誘導アイコンの移動例を示す図である。 第9の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 誘導アイコンの視覚効果の変化例を説明するための図である。 第10の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。 第11の実施例における誘導アイコン視覚効果決定処理を説明するためのフローチャート図である。 第11の実施例の適用の有無による誘導アイコンの表示例を示す図である。 第11の実施例の適用有りの場合の誘導アイコンの他の表示例(その1)を示す図である。 第12の実施例の適用の有無による誘導アイコンの表示例を示す図である。 複数の誘導アイコンの優先度の他の表示例を示す図である。
以下、本発明の実施の形態を図面に基づいて説明する。先ず、AR(Augmented Reality)を利用したナビゲーションによって、誘導対象(ターゲット)へと誘導する技術について説明する。
特許文献1では、ユーザが所持する端末の機能により、ユーザの現在位置、姿勢、及び視野を算出し、その情報を用いて、視野外のオブジェクトをデータベースから検索する。そして、視野境界に近いオブジェクト情報(方向及び距離)を画面に表示する。
この技術では、複数のオブジェクトの存在も想定しており、現在位置からの距離を指標として、より近いものを画面に情報を表示するオブジェクトとして選択している。また、この指標をもとにオブジェクトの大きさを変えて区別可能に表示してもよい。
誘導対象の位置や方向、距離を把握するためには、複数の情報(例えば、矢印、数値、建物の名称等)を参照し、情報ごとにその内容を理解する必要がある。
人間の記憶には限界があり、注意を向けるべき対象の数が増えた場合や、多くの脳内処理ステップが必要となる情報の内容を理解するケースが増えた場合、この脳内の注意力や記憶領域を使い果たしてしまうことがある。これが、認知的負荷が多くかかっている状態である。そうなると、他の情報に関する認知処理は停止してしまい、何らかの作業を行う上で、認知的負荷がかかると作業全体が長期化する要因となる。
特許文献1に記載の技術を使用した場合は、複数の情報に注意を向け、どの情報が何を表しているのか判別し、各々の情報を個別に脳で処理することになる。例えば、テキスト情報は左脳、絵や図形などは右脳で処理される。従って、多くの処理ステップが必要となる。また、テキスト情報など論理的思考を得意とする左脳は、脳内処理速度や記憶容量の許容量の許容範囲が右脳に比べて低いとされている。このように、端末のユーザには多くの認知的負荷がかかるため、視野誘導に多くの時間を費やす可能性が高い。
特許文献2では、表示する画像を、建物の領域、道路の領域、空の領域に分割し、空の領域にアイコンを配置して表示させることで、対象物及びアイコンの視認性を良くする技術である。
しかしながら、対象物は視野内に限られており、特許文献2のアイコンの表示では、視野外の対象物の方向及び距離を表すことができない。
非特許文献1では、HMD(Head Mounted Display)を装着した作業員の視野を作業対象が見えるように誘導する。誘導する作業対象の位置情報は、矢印(誘導する目標の方向)と円弧の曲率(誘導目標までの距離:曲率が大きいほど距離が近い)を用いる。
非特許文献1では、対象物への方向や距離を提示することができるが、現在位置から誘導目標までの距離が大きい場合には円弧の曲率変化が分かり難く、誘導目標までの残りの距離が素早く把握できない。即ち、曲率が大きくなるとHMDに表示される円弧が円全体のごく一部になり易く、ほとんど直線のように見えてしまう。認知的負荷がかかる要因を完全に解消できない。
本実施の形態では、振動するアイコンを視野領域内で動かすことで、方向、距離、誘導の進捗度の3要素をまとめて作業員等のユーザに提示する視野誘導方法、視野誘導プログラム、及び視野誘導装置を提供する。
以下、図1に示すような、遠隔地で作業する作業員2と、指示者1が作業員2へ指示を行う遠隔作業支援システム1000において、視野誘導を行う場合を説明する。本実施の形態は、遠隔から視野外のターゲットへの方向、距離、誘導の進捗度の3要素(以下、「3つの誘導要素」という)をまとめて表示する形態に適用でき、図1に示すような形態に限定されない。
図1は、遠隔作業支援システムの一例を説明するための図である。図1に示す遠隔作業支援システム1000では、作業現場の新人等の未熟な作業員2が、作業に熟達した熟練者である指示者1からの指示に基づき作業を行う場合を示している。
作業現場に居る作業員2は、作業員端末201と、表示デバイス21dと、カメラ21cとを装着している。作業員端末201は、表示デバイス21dと、カメラ21cの各々とBluetooth(登録商標)等の近距離無線通信により接続可能である。
作業員2のカメラ21cが捕えたカメラ画像2cは、作業員端末201の無線ネットワーク通信機能により、現場の状況として遠隔に居る指示者1の遠隔支援装置101に送信される。カメラ画像2cと共に、作業員2の音声が送信されてもよい。カメラ画像2cで表される範囲は、後述される視野7dの範囲に相当する。以下、視野7dとして説明される場合は、最も新しいカメラ画像2cで表される範囲を意図するものとする。
指示者装置101は、指示者1によって操作される。指示者装置101では、遠隔地の作業員端末201から送信されるカメラ画像2cからパノラマ画像4を生成して表示する。指示者1は、指示者装置101に表示されたパノラマ画像4から遠隔地の作業現場の状況を把握する。パノラマ画像4は、カメラ画像2cを受信する毎に更新される。
指示者1が、例えば、カメラ画像2c内において指示したい箇所をクリックする。指示者1がクリックしたカメラ画像2c内の位置情報、指示内容2g等を含む指示情報2fが、遠隔支援装置101から作業員2の作業員端末201へと送信される。
作業員2では、作業員端末201が受信した指示情報2fに基づいて、表示デバイス21dに視覚アノテーションで指示内容2gが表示される。
作業員端末201は、スマートデバイス等の情報処理端末であり、種々の通信機能等を有する。表示デバイス21dは、例えば、HMDであり、ウェアラブルな音声の入出力可能な表示装置である。
カメラ21cは、例えば、HMCであり、ウェアラブルなCCD(Charge Coupled Device)等の小型カメラである。
表示デバイス21d及びカメラ21cとは、作業員2の頭部に装着され、近距離無線通信等により作業員端末201と通信可能な装置である。
作業現場にて、作業員2のカメラ21cが撮像した現場の環境を示すカメラ画像2cが、作業員端末201から遠隔支援装置101へと送信される。カメラ画像2cは、遠隔支援装置101に表示される。
指示者1は、表示されたカメラ画像2c上で指示内容2gを入力すると、指示情報2fが作業員端末201へ送信される。作業員端末201は、指示情報2fを受信すると、カメラ画像2cと指示内容2gとを合成した画像を表示デバイス21dに表示する。
一方、作業員2と指示者1とは、音声通話が可能であり、作業員端末201と遠隔支援装置101との間で音声ストリーム配信が行われる。
図2は、遠隔作業支援システムのハードウェア構成を示す図である。図2において、遠隔支援装置101は、CPU(Central Processing Unit)111と、メモリ112と、HDD(Hard Disk Drive)113と、入力装置114と、表示装置115と、音声入出力装置116と、ネットワーク通信部117と、ドライブ装置118と、を有する。
CPU111は、メモリ112に格納されたプログラムに従って遠隔支援装置101を制御する。メモリ112には、RAM(Random Access Memory)、ROM(Read Only Memory)等が用いられ、CPU111にて実行されるプログラム、CPU111での処理に必要なデータ、CPU111での処理にて得られたデータ等を記憶又は一時保存する。
HDD113は、補助記憶装置として利用され、各種処理を実行するためのプログラム等のデータを格納する。HDD113に格納されているプログラムの一部がメモリ112にロードされ、CPU111に実行されることによって、各種処理が実現される。
入力装置114は、マウス等のポインティングデバイス、キーボード等を有し、指示者1が遠隔支援装置101による処理に必要な各種情報を入力するために用いられる。表示装置115は、CPU111の制御のもとに必要な各種情報を表示する。入力装置114と表示装置115とは、一体化したタッチパネル等によるユーザインタフェースであってもよい。
音声入出力装置116は、音声を入力するマイクロフォン及び音声を出力するスピーカを有する。ネットワーク通信部117は、有線又は無線などのネットワークを通じて通信を行う。ネットワーク通信部117による通信は無線又は有線に限定されるものではない。
遠隔支援装置101によって行われる処理を実現するプログラムは、例えば、CD−ROM(Compact Disc Read-Only Memory)等の記憶媒体119によって遠隔支援装置101に提供される。
ドライブ装置118は、ドライブ装置118にセットされた記憶媒体119(例えば、CD−ROM等)と遠隔支援装置101とのインターフェースを行う。
また、記憶媒体119に、後述される本実施の形態に係る種々の処理を実現するプログラムを格納し、この記憶媒体119に格納されたプログラムは、ドライブ装置118を介して遠隔支援装置101にインストールされる。インストールされたプログラムは、遠隔支援装置101により実行可能となる。
尚、プログラムを格納する記憶媒体119はCD−ROMに限定されず、コンピュータが読み取り可能な、構造(structure)を有する1つ以上の非一時的(non-transitory)な、有形(tangible)な媒体であればよい。コンピュータ読取可能な記憶媒体として、CD−ROMの他に、DVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリであっても良い。
作業員2は、作業員端末201と、表示デバイス21dと、カメラ21cとを装備する。作業員端末201は、CPU211と、メモリ212と、RTC(Real Time Clock)213と、IMU(Inertial Measurement Unit)215と、短距離無線通信部216と、ネットワーク通信部217とを有する。
CPU211は、メモリ212に格納されたプログラムに従って作業員端末201を制御する。メモリ212には、RAM(Random Access Memory)、ROM(Read Only Memory)等が用いられ、CPU211にて実行されるプログラム、CPU211での処理に必要なデータ、CPU211での処理にて得られたデータ等を記憶又は一時保存する。メモリ212に格納されているプログラムが、CPU211に実行されることによって、各種処理が実現される。
RTC213は、現在時刻を計測するデバイスである。IMU(Inertial Measurement Unit)215は、慣性センサを有し、加速度計測及びジャイロ機能し、作業員2の動きを計測するデバイスであり、作業員2の動きを示す動き情報を出力する。
短距離無線通信部216は、表示デバイス21d及びカメラ21cの各々と短距離無線通信を行う。短距離無線通信は、Bluetooth(登録商標)等であればよい。ネットワーク通信部217は、ネットワークを介して無線通信によって、姿勢情報が付加されたカメラ画像2cを遠隔支援装置101へ送信し、また、遠隔支援装置101から指示情報2fを受信する。
表示デバイス21dは、短距離無線通信機能と、音声入出力部とを有する、例えば、メガネ形状の頭部の視線方向に装着可能なウェアラブルタイプの表示装置である。表示デバイス21dは、透過性の表示部を有し、作業員2は肉眼で視線方向の現実の光景を目視できることが望ましい。表示デバイス21dは、作業員端末201から短距離無線通信によって受信した指示情報2fに含まれる指示内容2gを表示する。
カメラ21cは、短距離無線通信機能を有する。カメラ21cは、作業員2の頭部に装着されることで、作業員2の視線方向の映像を捕えて、短距離無線通信により作業員端末201へカメラ画像2cを送信する。カメラ21cは、表示デバイス21dと一体化された装置であってもよい。
図3は、作業員の視野外に対象物がある場合の例を示す図である。図3において、作業員2の視野7aの外側に作業の対象物8aが存在する場合、指示者1は、対象物8aへ誘導するための3つの誘導要素を作業員2に伝達しなければならない。
3つの誘導要素が作業員2に伝達できた場合に、作業員2の視野7b内に対象物8aが出現する。
発明者等は、人は、動く物体に対して無意識に追視する特性(眼球運動反射)、また、危険回避のため、動作体に無意識(本能的)に反応する反射行動に着目した。本実施の形態における3つの誘導要素を表す誘導アイコン9の例について説明する。
以下の説明において、指示者1が作業員2を誘導したい場所、又は、作業員2に作業させたい対象物8a等の誘導先を誘導目標8t(図4)という。
図4は、3つの誘導要素を表す誘導アイコンの例を示す図である。作業員2の視野7bに対して、左下方向に所定距離以上に離れて誘導目標8tがある場合で説明する。
誘導アイコン9は、視野7b内で、誘導目標8tがある方向に表示される。また、誘導アイコン9は、誘導目標8tまでの距離に応じた移動軌跡7q、及び、移動速度で動く。誘導目標8tが所定距離以上に離れて遠くにある場合、大きく速い振動、又は、大きく速い動きで移動軌跡7qを描き、作業員2が誘導目標8tに接近するに従って、小さくゆっくりとした振動で、移動軌跡7qを描く。
作業員2は、誘導アイコン9の動きが変化することで、近づいていること、即ち、誘導の進捗度、を同時に認識できる。
このような誘導アイコン9の動き及び変化により、作業員2は、人の眼球運動反射及び反射行動により、方向、距離、誘導の進捗度の3つの情報を素早く判断できる。即ち、本実施の形態における誘導アイコン9は、作業員2に対して、無意識のうちに頭部の移動を誘発させることができる。
図5は、情報伝達の違いを説明するための図である。図5において、数値や矢印等による誘導目標8tへの誘導情報の場合には、感覚器官(視覚)から大脳、そして頭部を動かす筋肉への神経経路5aによって情報伝達が行われる。
一方、人間には動く物体に対して無意識に追視する特性(眼球運動反射)が備わっており、振動などの動きを伴った誘導アイコン9を使用することで頭部の移動を自然に誘発することができる。
誘導アイコン9の場合、反射行動は大脳を経由せずに運動の指令を、神経経路5bによって筋肉に伝達可能なため、文字情報で距離などを表現する場合に比べて反応時間が短くなると考えられている。
このように認知的負荷が軽減されるため、大脳を他の作業のために使用できる。よって、誘導に伴う頭部移動と並行して別の作業も遂行可能となり、業務全体の効率を良くする効果もある。
誘導アイコン9と複数のコンテンツ3とを表示デバイス21dに表示した場合、誘導アイコン9とコンテンツ3とが混在するため、区別し辛くなる恐れがある。本実施の形態では、誘導アイコン9とコンテンツ3のように異なる情報種別を視覚効果によって区別する。
図6は、異なる情報種別を区別容易とする視覚効果の例を示す図である。図6(A)では、1つの誘導アイコン9と、複数のコンテンツ3とが表示デバイス21dに表示された例を示している。
視野内7bにおいて、複数のコンテンツ3は、高鮮明度で表示される。各コンテンツ3では、エッジもくっきりと示し、透明化させていない。一方、誘導アイコン9は、コンテンツ3より鮮明度を下げてぼんやりと表示されている。
このように、鮮明度、透明度の視覚効果を誘導アイコン9とコンテンツ3とで使い分けることで、作業員2は、直感的に誘導アイコン9とコンテンツ3とを区別できる。
図6(B)では、図6(A)と同様に、1つの誘導アイコン9と、複数のコンテンツ3とが表示デバイス21dに表示された例を示している。この例では、視野内7bにおいて、誘導アイコン9の視覚効果を、コンテンツ3より透明度を上げてぼんやりと表示させている。
上述したように、誘導アイコン9を、コンテンツ3で使用している視覚効果の強調度を逆にする、又は、未使用の視覚効果の使用することで、作業員2は、誘導アイコン9とコンテンツ3とを区別できる。
複数の誘導アイコン9を表示デバイス21dに表示した場合(場合によってはコンテンツ3も表示される)、複数の誘導アイコン9が混在することで、優先度を判断し難くなる場合がある。本実施の形態では視覚効果によって優先度の認知を容易とする。
図7は、優先度の認知を容易とする視覚効果の例を示す図である。図7(A)では、8個の誘導アイコン9は全て同じ視覚効果の特徴で表示デバイス21dに表示した例を示している。この表示例では、8個の誘導アイコン9は、左側、上側、右側に点在しており、作業員2は、優先的にどの誘導アイコン9に従えば良いのかを判断することが困難である。
図7(B)では、複数の誘導アイコン9のうち、2つの誘導アイコン9a及び9bを、視覚効果の特徴に差を与えることで、優先度が高いことを示している。この例では、優先度の高い誘導アイコン9a及び9bとその他のアイコンの色相差を大きくしている。赤い程優先度が高いことを表す。最も赤い誘導アイコン9aが優先順1位を表し、オレンジの誘導アイコン9bは優先順2位を表している。誘導アイコン9a及び9b以外の誘導アイコン9では、全て薄い黄色で示され、視覚効果の特徴に差が無く、優先度が無いことを表している。
高い優先度を表す視覚効果の特徴例として、色鮮やかにする、輪郭をはっきりさせる、不透明度を高くする等がある。このように、人の注意を引き付けるような誘目性を利用することで、作業員2は、瞬時に優先度を把握できる。
視覚効果の特徴と誘目性の関係は、
・色: 明度や彩度が高いものほど誘目性が高い
・大きさ: 大きいものほど誘目性が高い
・輪郭: はっきりしているほど誘目性が高い
・点滅: 速いほど誘目性が高い(速すぎると認識できなくなる場合がある)
である。
色と輪郭について図8に例を示す。図8は、他の視覚効果の特徴により誘目性高くする例を示す図である。図8(A)では、色により誘目性を高くする例を示している。表示デバイス21dにより複数の誘導アイコン9が視野7b内に表示されている。この複数の誘導アイコン9のうち濃い色順に誘導アイコン9が一番目につき易いことが分かる。
図8(B)では、輪郭により誘目性を高くする例を示している。表示デバイス21dにより複数の誘導アイコン9が視野7b内に表示されている。この複数の誘導アイコン9のうち輪郭がはっきりする誘導アイコン9が一番目につき易いことが分かる。
図9は、色相による優先度を区別する場合の例について示す図である。図9において、赤、黄、緑、青、紫、赤へと変化する色相環300において、赤から緑へと変化する色相環300の一部を利用した場合、赤の位置で優先順1位とし、オレンジの位置で優先順2位とし、黄の位置でそれ以外を示すようにしてもよい。
以下に、上述した実施の形態を実現する遠隔作業支援システム1000について説明する。先ず、機能構成について説明する。
図10は、遠隔作業支援システムにおける機能構成例を示す図である。図10において、遠隔支援装置101は、パノラマ画像生成部143と、指示情報生成部145と、指示情報送信部147とを有する。メモリ112又はHDD113には、後述されるデータセットA、B、及びC等が記憶される。
パノラマ画像生成部143は、作業員端末201からパノラマ画像生成用データ287を受信する毎に、カメラ画像2cを繋ぎ合わせて、パノラマ画像4を生成する。生成されたパノラマ画像4は、表示装置115に表示される。パノラマ画像4では、カメラ画像2cを受信する毎に、視野7bの領域がタイムリーに更新される。
指示情報生成部145は、指示者1による、パノラマ画像4に対する操作、指示内容の入力、及び、音声入力等に基づいて、誘導支援に係るデータセットA、B、又はC等が生成される。指示者1は、複数の指示を指定できる。
指示情報送信部147は、指示情報生成部145によって生成されたデータセットA、B、又はC等を含む指示情報2fを作業員端末201へ送信することで提供する。
データセットAは、指示毎に、現在のカメラ画像2cに重畳させる指示の位置と、作業の優先度等とを指定したリストである。
データセットBは、指示毎に、指示を表示する位置、コンテンツ内容等を示したリストである。新たな指示内容に変更される場合に、コンテンツ内容が設定され、前回と同様である場合には、特に設定されない。前回と同様である場合には、空欄としてもよいし、又は、変更無しを示す情報が設定されてもよい。
データセットCは、指示毎に、アイコンデータを記憶したリストである。新たなアイコンデータに変更される場合に、アイコンデータが設定され、前回と同様である場合には、特に設定されない。前回と同様である場合には、空欄としてもよいし、又は、変更無しを示す情報が設定されてもよい。
作業員端末201は、動き情報取得部261と、頭部位置・姿勢推定部262と、カメラ画像取得部263と、画像・姿勢情報送信部264と、視野範囲推定部265と、コンテンツ位置算出部266と、誘導目標情報取得部271と、誘導支援画像生成部272と、誘導支援画像表示部273とを有する。メモリ212には、データセットA、B、C、及びD、パノラマ画像生成用データ287、誘導アイコンDB281、コンテンツDB283等が記憶される。
動き情報取得部261は、IMUから動き情報を取得して頭部位置・姿勢推定部262に与える。頭部位置・姿勢推定部262は、動き情報に基づいて、作業員2の頭部位置及び姿勢を推定する。推定した頭部位置及び姿勢を示す情報を含むデータセットDがメモリ212に記憶される。推定した頭部位置及び姿勢を示す情報は、画像・姿勢情報送信部264へも提供される。
カメラ画像取得部263は、近距離無線通信部216を介してカメラ21cからカメラ21cが撮像したカメラ画像2cを取得し、画像・姿勢情報送信部264へ提供する。画像・姿勢情報送信部264は、頭部位置・姿勢推定部262によって推定された頭部位置及び姿勢を示す情報と、カメラ画像取得部263から受信したカメラ画像2cとを含むパノラマ画像生成用データ287を生成して、ネットワーク通信部217により遠隔支援装置101へと送信する。
視野範囲推定部265は、データセットDに基づいて、現在の視野範囲を推定する。推定された現在の視野範囲を示す現在の視野範囲を追加したデータセットD'がメモリ212に出力される。データセットD'は、コンテンツ位置算出部266と、誘導支援画像生成部272とによって参照される。
コンテンツ位置算出部266は、コンテンツDB283から最新のデータセットB'を取得して、データセットD'の視野範囲に基づいて、最新のデータセットB'の各コンテンツの描画位置を算出する。データセットB'は、遠隔支援装置101から受信したデータセットBに対して、コンテンツ内容に変化がない場合に、コンテンツDB283が既に記憶している既存のコンテンツ内容が設定されたリストである。算出したコンテンツの描画位置は、最新のデータセットB'に追加され、データセットB''がメモリ212に生成される。
誘導目標情報取得部271は、遠隔支援装置101の指示情報送信部147からデータセットAを受信し、誘導支援画像生成部272に通知する。誘導目標とは、指示者1が作業員2を誘導したい場所、又は、作業員2に作業させたい誘導目標8t等の誘導先に相当する。誘導目標情報は、作業員2の誘導先となる場所、誘導目標8t等の少なくとも位置情報を含む。
誘導支援画像生成部272は、描画位置に、誘導アイコンとコンテンツ内容とを合成して、誘導支援画像を生成する。誘導支援画像生成部272は、更に、誘導アイコン位置算出部272aと、誘導アイコン視覚効果決定部272bと、重畳部272cとを有する。誘導アイコンDB281は、誘導支援画像生成部272によってアクセスされる。
誘導アイコン位置算出部272aは、データセットD'の現在の視野範囲に基づいて、データセットAで指定される指示毎に、誘導アイコンの描画位置と、目標までの距離とを算出する。データセットAにおいて指示毎に、算出した誘導アイコンの描画位置と、目標までの距離とを追加したデータセットA'で、メモリ212内のデータセットAを置き換える。
誘導アイコン視覚効果決定部272bは、データセットA'の指示毎に、誘導アイコンの視覚効果のパラメータ(アイコン視覚効果パラメータ)を決定して、データセットA'に追加したデータセットA''で、メモリ212内のデータセットA'を置き換える。
重畳部272cは、データセットA''、データセットB''、及びデータセットC'を参照して、誘導アイコンに視覚効果を適用して誘導アイコンの描画位置に配置し、コンテンツ内容をコンテンツ描画位置に配置して、誘導アイコンとコンテンツ内容とを重畳することで、誘導支援画像を生成する。重畳部272cは、指示IDを用いて、全ての指示に対する誘導アイコンとコンテンツ内容と合成する。
誘導支援画像表示部273は、誘導アイコンとコンテンツ内容とが重畳された誘導支援画像を表示デバイス21dに表示する。
次に、本実施の形態における、種々のデータセットについて説明する。図11は、データセットAのデータ構成例を示す図である。図11において、データセットAは、作業員端末201において、指示毎の誘導アイコン9の視覚効果に関する情報を管理するためのテーブルである。データセットAのテーブル遷移をデータセットA'、A''で示す。
データセットAは、遠隔支援装置101の指示情報送信部147から受信した初期時のデータ構成を示し、指示ID、コンテンツ位置、優先度等の項目を有する。
指示IDは、遠隔支援装置101の指示情報生成部145が指示者1の指示毎に付与したIDである。コンテンツ位置は、指示内容を表示する位置を示し、視野7b内に定めた基準点からの相対位置で示される。優先度は、指示の優先度を示す。優先度の設定がない場合は、全て同じ数値で設定されていてもよい。
データセットA'は、データセットAに対して、誘導アイコン描画位置と、目標までの距離の項目が追加されたテーブルである。誘導アイコン描画位置と、目標までの距離は、作業員端末201の誘導アイコン位置算出部272aによって算出された値を示す。誘導アイコンの描画位置は、視野7b内における誘導アイコン9の描画位置を示す。目標までの距離は、視野7bの中心(以下、単に、視野中心という)から誘導目標8tまでの視線の移動距離を示す。
データセットA''は、データセットA'に対して、作業員端末201の誘導アイコン視覚効果決定部272bによって、アイコン視覚効果パラメータの項目が追加されたテーブルである。アイコン視覚効果パラメータは、誘導アイコン視覚効果決定部272bによって決定された、誘導アイコン9とコンテンツ3を区別しやすくし誘目性を高くするための1以上のパラメータの値が示される。
図12は、データセットBのデータ構成例を示す図である。図12において、データセットBは、作業員端末201において、指示毎のコンテンツ3の表示情報を管理するためのテーブルである。データセットBのテーブル遷移をデータセットB'、B''で示す。
データセットBは、遠隔支援装置101の指示情報送信部147から受信した初期時のデータ構成を示し、指示ID、コンテンツ位置、コンテンツ内容等の項目を有する。
指示IDは、遠隔支援装置101の指示情報生成部145が指示者1の指示毎に付与したIDであり、データセットAに一覧される指示IDと一致する。コンテンツ位置は、指示内容を表示する位置を示し、視野7b内に定めた基準点からの相対位置で示される。コンテンツ内容は、表示する指示内容を示す。コンテンツ内容が空欄、又は、変更なしを示す特定の値の場合、指示IDに対する指示内容に変化がないことを示す。
データセットB'は、データセットBに対して、コンテンツ内容が変更の無い指示に対して、コンテンツDB283から指示IDの一致するコンテンツ内容を取得して設定したリストである。この例では、指示ID「T2」のコンテンツ内容に変化が無いため、コンテンツDB283から指示ID「T2」のコンテンツ内容「Content-T2」が設定された場合を示している。
データセットB''は、データセットB'に対して、コンテンツ描画位置の項目が追加されたテーブルである。コンテンツ描画位置は、作業員端末201の誘導アイコン位置算出部272aによって算出された値を示し、視野7b内におけるコンテンツ3の描画位置を示す。
図13は、データセットCのデータ構成例を示す図である。図13において、データセットCは、作業員端末201において、指示毎の誘導アイコン9のデータを管理するためのテーブルである。データセットCのテーブル遷移をデータセットC'で示す。
データセットCは、遠隔支援装置101の指示情報送信部147から受信した初期時のデータ構成を示し、指示ID、誘導アイコンデータ等の項目を有する。
指示IDは、遠隔支援装置101の指示情報生成部145が指示者1の指示毎に付与したIDであり、データセットAに一覧される指示IDと一致する。誘導アイコンデータは、誘導アイコン9のデータを示す。誘導アイコンデータが空欄、又は、変更なしを示す特定の値の場合、指示IDに対する誘導アイコンデータに変化がないことを示す。
データセットC'は、データセットCに対して、誘導アイコンデータが変更の無い指示に対して、誘導アイコンDB281から指示IDの一致する誘導アイコンデータを取得して設定したリストである。この例では、指示ID「T1」の誘導アイコンデータに変化が無いため、誘導アイコンDB281から指示ID「T1」の誘導アイコンデータ「Icon-T1」が設定された場合を示している。
図14は、データセットDのデータ構成例を示す図である。図14において、データセットDは、作業員端末201の頭部位置・姿勢推定部262によって生成されるデータセットであり、生成時には現在の頭部位置・姿勢情報を示す。
データセットD'は、データセットDに対して、視野範囲推定部265が推定した視野7bの範囲を示す現在の視野範囲情報が追加されたデータセットである。
次に、誘導支援画像生成部272によって行われる誘導支援画像生成処理について説明する。
<第1の実施例>
誘導支援画像生成部272において、3つの誘導要素の距離と進捗度とを誘導アイコン9の振動の速さで表す場合、誘導アイコン視覚効果決定部272bによる誘導アイコン視覚効果決定処理を抑止してもよい。この場合を誘導支援画像生成処理の第1の実施例として説明する。
図15は、第1の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。誘導支援画像生成部272において、誘導アイコン位置算出部272aは、データセットAを参照して、コンテンツ位置を取得する(ステップS501)。
また、誘導アイコン位置算出部272aは、データセットD'を参照して、現在の頭部位置・姿勢情報を取得し(ステップS502)、更に、視野範囲を取得する(ステップS503)。
誘導アイコン位置算出部272aは、現在の頭部位置・姿勢情報に基づいて、誘導目標の相対位置(単に、相対誘導目標位置という)を算出する(ステップS504)。相対誘導目標位置は、指示者1が作業員2又は作業員2の視線の誘導先となるターゲット位置、指示者1が作業員2に操作させたい誘導目標8tの位置等である。
誘導アイコン位置算出部272aは、相対誘導目標位置と、視野範囲とを、表示デバイス21dの表示画面の座標系に変換する(ステップS505)。
誘導アイコン位置算出部272aは、相対誘導目標位置に応じた、視野7bの境界上の位置を算出し(ステップS506−1)、振動領域6rを決定する(ステップS507−1)。また、誘導アイコン位置算出部272aは、相対誘導目標位置を用いて、誘導目標8tまでの距離L(後述)を算出し(ステップS506−2)、誘導アイコン9の移動量を決定する(ステップS507−2)。
ステップS506−1及びS507−1による処理は、ステップS506−2及びS507−2による処理の後に行われてもよい。
誘導アイコン位置算出部272aは、振動領域6r(図17)及び移動量に基づいて、誘導アイコン9の位置を更新する(ステップS508)。誘導アイコン9の位置の更新に応じて、重畳部272cは、誘導アイコン9の画像とコンテンツ3の内容とを重畳して、誘導支援画像を生成する(ステップS510)。
一方、誘導アイコン9の位置の更新毎に、誘導アイコン位置算出部272aは、誘導目標情報が更新されたか否かを判断する(ステップS511)。誘導アイコン位置算出部272aは、新たなデータセットAを受信したか否かを判断すればよい。
誘導目標情報が更新された場合(ステップS511のYES)、誘導アイコン位置算出部272aは、ステップS501へと戻り、新たなデータセットAを参照してコンテンツ位置を取得して、上述した同様の処理を繰り返す。
一方、誘導目標情報が更新されていない場合(ステップS511のNO)、誘導アイコン位置算出部272aは、ステップS502へと戻り、データセットD'を参照して、現在の頭部位置・姿勢情報を取得して、上述した同様の処理を繰り返す。
図16は、第1の実施例における相対誘導目標位置を説明するための図である。作業員2の頭部の位置がある程度固定されている場合は、頭部姿勢の2つの回転角度(yaw, pitch)で表す。実環境下での誘導目標8tは固定であるが、頭部姿勢が変化することで誘導目標8tの相対位置は連動して変化する。
図17は、第1の実施例における誘導目標までの位置関係を説明するための図である。図17では、視野7b外に誘導目標8tが存在する場合の誘導目標8tと視野境界上の交点(xedge、yedge)との位置関係を示している。
図15のステップS505で変換した相対誘導目標位置を(x、y)とした時の、視野中心から誘導目標8tまでの距離Lは、
Figure 0006886236

で表される。
そして、相対誘導目標位置と作業員2の視野中心を通る直線は、
Figure 0006886236

で表される。
視野7b外の誘導目標8tの場合、視野境界上の上側の交点座標(xedge、yedge)は、
edge=verticalVA÷2
を(式1)のyへ代入し、
Figure 0006886236

を得る。
以下同様に、下側の交点座標(xedge、yedge)は、
edge=-verticalVA÷2
を(式1)のyへ代入し、
Figure 0006886236

を得る。
左側の交点座標(xedge、yedge)は、
edge=holizontalVA÷2
を(式1)のxへ代入し、
Figure 0006886236

を得る。
右側の交点座標(xedge、yedge)は、
edge=-holizontalVA÷2
を(式1)のxへ代入し、
Figure 0006886236

を得る。
なお、verticalVAは垂直視野範囲(画角)であり、holizontalVAは水平視野範囲(画角)である。また、視野7b内の誘導目標8t'の場合、誘導目標8t'の相対誘導目標位置(x'、y')を誘導アイコン9'の位置とすればよい。
図18は、第1の実施例における誘導アイコンの動作例を示す図である。図18では、作業現場に居る作業員2の頭部の動きに応じた、誘導アイコン9の動作例を示す。図18において、θyawは頭部姿勢の水平方向の変化角度を示し、θpitchは垂直方向の変化角度を示す。
図18(A)では、作業現場に居る作業員2が正面を向いている状態と、その状態における作業員2の視野7bの画像とを示している。指示者1は、遠隔支援装置101に表示されたパノラマ画像4上で視野7b外の右上にある誘導目標8tをクリックすると、作業員2の表示デバイス21dにおいて、作業員2の視野7b内に、移動軌跡7qを描いて比較的速く移動する誘導アイコン9が表示される。
作業員2が、移動する誘導アイコン9へ視線を向けるため、頭部を右方向へ回転する(図18(B))。頭部の動きに応じて、作業員2の表示デバイス21dに表示される誘導アイコン9は、視野7bの中央上辺りに移動し、図18(A)の動きより遅く移動しながら移動軌跡7qを描く。
更に、作業員2が、誘導アイコン9を視線で追うようにして、斜め右上に頭部を回転
すると(図18(C))、頭部のその動きに応じて、作業員2の表示デバイス21dに表示される誘導アイコン9は、視野7bの右上に移動し、図18(B)の動きより更に遅く移動しながら移動軌跡7qを描く。
図18(A)、図18(B)、及び図18(C)において、誘導アイコン9は、移動軌跡7pにより、視線を移動させる方向を示している。また、誘導アイコン9は、視野中心から誘導目標8tまでの視線の移動距離Lが短くなるにつれて、移動量は小さくなる。即ち、移動軌跡7qの長さは短くなり、移動速度は遅くなる。更に、この移動量の大から小への変化は、誘導の進捗度を表している。
図18において、移動軌跡7qは、誘導アイコン9の振動の大きさを示してもよい。誘導アイコン9の動き、変化等によって、3つの誘導要素を視認可能に表現できればよく、振動に限定されない。また、種々の変形例については後述される。
変化等を与えた誘導アイコン9は、単に、数値や矢印等による誘導目標8tへの誘導情報を読み取る場合に比べて、認知的負荷を軽減できる。
以下、誘導アイコン9の振動方法、もしくは、それに準じる視覚効果について説明する。
<第2の実施例>
視野7b内の、視野中心と誘導目標8tとを直線上で、誘導アイコン9が移動しながら振動することで、3つの誘導要素を表現する第2の実施例における誘導支援画像生成処理について説明する。
図19は、第2の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第2の実施例における誘導支援画像生成処理は、図20と共に説明される。図20は、第2の実施例における誘導アイコンの振動方法を説明するための図である。
誘導支援画像生成部272において、誘導アイコン位置算出部272aは、データセットAを参照して、コンテンツ位置を取得する(ステップS501)。
また、誘導アイコン位置算出部272aは、データセットD'を参照して、現在の頭部位置・姿勢情報を取得し(ステップS502)、ステップS503〜S507(図15)を行う。その後、誘導アイコン位置算出部272aは、誘導アイコン位置の更新を行う(ステップS508−2:誘導アイコン位置の更新処理)。
誘導アイコン位置算出部272aは、視野中心Cと相対誘導目標位置Tとを結ぶ線分CTの式を算出する(ステップS508−21)。また、誘導アイコン位置算出部272aは、振動領域6rの境界と線分CTの2つの交点座標を算出する(ステップS508−22)。
次に、誘導アイコン位置算出部272aは、2つの交点間の線分CT上を視野7bの内側又は外側(In/Out)方向に、誘導アイコン9を算出した移動量だけ移動する(ステップS508−23)。
そして、誘導アイコン位置算出部272aは、振動領域6rにおいて、誘導アイコン9が衝突したか否かの衝突判定を行う(ステップS508−24)。誘導アイコン9が2つの交点のいずれにも衝突していない場合(ステップS508−24のNO)、誘導アイコン位置算出部272aは、誘導目標情報が更新されたか否かを判断する(ステップS511)。
誘導目標情報が更新された場合(ステップS511のYES)、誘導アイコン位置算出部272aは、ステップS501へと戻り、新たなデータセットAを参照してコンテンツ位置を取得して、上述した同様の処理を繰り返す。
一方、誘導目標情報が更新されていない場合(ステップS511のNO)、誘導アイコン位置算出部272aは、ステップS502へと戻り、データセットD'を参照して、現在の頭部位置・姿勢情報を取得して、上述した同様の処理を繰り返す。
一方、誘導アイコン9が2つの交点のいずれかに衝突した場合(ステップS508−24のYES)、誘導アイコン位置算出部272aは、移動方向を反転させる(ステップS508−25)。
次に、誘導アイコン視覚効果決定部272bが、誘導アイコン9の視覚効果を決定する(ステップS509)。そして、重畳部272cは、誘導アイコン9の画像とコンテンツ3の内容とを重畳して、誘導支援画像を生成する(ステップS510)。
一方、誘導アイコン9の位置の更新毎に、誘導アイコン位置算出部272aは、誘導目標情報が更新されたか否かを判断する(ステップS511)。誘導アイコン位置算出部272aは、新たなデータセットAを受信したか否かを判断すればよい。
誘導目標情報が更新された場合(ステップS511のYES)、誘導アイコン位置算出部272aは、ステップS501へと戻り、新たなデータセットAを参照してコンテンツ位置を取得して、上述した同様の処理を繰り返す。
一方、誘導目標情報が更新されていない場合(ステップS511のNO)、誘導アイコン位置算出部272aは、ステップS502へと戻り、データセットD'を参照して、現在の頭部位置・姿勢情報を取得して、上述した同様の処理を繰り返す。
第2の実施例では、誘導アイコン9は算出した2つの交点間を行き来して振動する。誘導アイコン9の移動量は、頭部姿勢と連動して変化する誘導目標8tと視野中心との距離Lに応じて変化する。例えば、距離Lに比例/反比例、距離Lの2乗に比例等の様々な設定が可能である。移動量は、移動速度又は振動速度であるともいえる。
<第3の実施例>
誘導アイコン9の点滅を振動に準じる視覚効果と捉える。視野7b内の境界付近で、誘導アイコン9を点滅させる第3の実施例における誘導支援画像生成処理について説明する。第3の実施例における点滅頻度が、第2の実施例における移動量(移動速度又は振動速度)に相当する。
図21は、第3の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第3の実施例における誘導支援画像生成処理では、第1の実施例における誘導支援画像生成処理(図15)と異なる処理のみ説明し、同様の処理についてはその説明を省略する。図21において、ステップS507−3及びS507−4が、第1の実施例における処理と異なっており、また、第1の実施例におけるステップS507−1は省略される点も異なっている。
誘導アイコン位置算出部272aは、誘導アイコン9の点滅頻度を決定する(ステップS507−3)。点滅頻度は、誘導目標8tと視野中心との距離Lの変化に合わせて、頻度を増減させる。そして、誘導アイコン位置算出部272aは、決定した点滅頻度に基づき誘導アイコン9の表示/非表示を切り替える(ステップS507−4)。
<第4の実施例>
振動領域6r内に定めた対象との衝突の検出に応じて、誘導アイコン9の移動方向を変更する第4の実施例における誘導支援画像生成処理について説明する。第4の実施例では、誘導アイコン9の位置を変更する処理が異なる以外は、第1の実施例における誘導支援画像生成処理と同様であるため、同様の符号を付し、その説明を省略する。
図22は、第4の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第4の実施例における誘導支援画像生成処理では、第1の実施例における誘導支援画像生成処理(図15)と異なる処理のみ説明し、同様の処理についてはその説明を省略する。図22において、ステップS508−4が、第1の実施例におけるステップS508での処理と異なっている。
ステップS508−4において、誘導アイコン位置算出部272aは、誘導アイコン9を任意の方向へ移動量だけ移動させ(ステップS508−41)、対象への衝突判定を行う(ステップS508−42)。誘導アイコン9が対象に衝突していない場合(ステップS508−42のNO)、誘導アイコン位置算出部272aは、誘導目標情報が更新されたか否かを判断する(ステップS511)。
誘導目標情報が更新された場合(ステップS511のYES)、誘導アイコン位置算出部272aは、ステップS501へと戻り、新たなデータセットAを参照してコンテンツ位置を取得して、上述した同様の処理を繰り返す。
一方、誘導目標情報が更新されていない場合(ステップS511のNO)、誘導アイコン位置算出部272aは、ステップS502へと戻り、データセットD'を参照して、現在の頭部位置・姿勢情報を取得して、上述した同様の処理を繰り返す。
一方、誘導アイコン9が対象に衝突した場合(ステップS508−24のYES)、誘導アイコン位置算出部272aは、移動方向を変更する(ステップS508−43)。移動方向の変更は、誘導アイコン9の移動量をx、yに分割した時のそれぞれの移動量を乱数で決定してもよい。移動方向の変更後の処理は、第1の実施例と同様であるのでその説明を省略する。
図23は、第4の実施例における振動領域内の移動変化例について説明するための図である。図23(A)では、半円を振動領域6rとした場合の移動変化例を示している。この例では、衝突を判定する対象は、振動領域6rの境界である。
振動領域6r内の(1)〜(5)の矢印は、誘導アイコン9の移動方向例を示している。誘導アイコン9は、対象内で移動し、対象の周辺との衝突時に、移動方向を変える。対象は、半円に限定されない。対象の形状は、任意でよい。
図23(B)では、振動領域6rの境界、及び、振動領域6r内における媒質粒子が、衝突を判定する対象となる。媒質粒子の運動は、ブラウン運動を適用すればよい。
<第5の実施例>
視野7b内の誘導アイコン9の衝突を、視野7bの境界面と境界以外の面との反発係数を変える第5の実施例における誘導支援画像生成処理について説明する。第5の実施例では、誘導アイコン9の衝突時の反発係数を変える処理が異なる以外は、第1の実施例における誘導支援画像生成処理と同様であるため、同様の符号を付し、その説明を省略する。
図24は、第5の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第5の実施例における誘導支援画像生成処理では、第1の実施例における誘導支援画像生成処理(図15)と異なる処理のみ説明し、同様の処理についてはその説明を省略する。図24において、ステップS508−5が、第1の実施例におけるステップS508での処理と異なっている。
ステップS508−5において、誘導アイコン位置算出部272aは、誘導アイコン9を任意の方向へ移動量だけ移動させ(ステップS508−51)、対象への衝突判定を行う(ステップS508−52)。誘導アイコン9が対象に衝突していない場合(ステップS508−52のNO)、誘導アイコン位置算出部272aは、誘導目標情報が更新されたか否かを判断する(ステップS511)。
誘導目標情報が更新された場合(ステップS511のYES)、誘導アイコン位置算出部272aは、ステップS501へと戻り、新たなデータセットAを参照してコンテンツ位置を取得して、上述した同様の処理を繰り返す。
一方、誘導目標情報が更新されていない場合(ステップS511のNO)、誘導アイコン位置算出部272aは、ステップS502へと戻り、データセットD'を参照して、現在の頭部位置・姿勢情報を取得して、上述した同様の処理を繰り返す。
一方、誘導アイコン9が対象に衝突した場合(ステップS508−24のYES)、誘導アイコン位置算出部272aは、衝突面が振動領域6rの境界であったか、視野7bの境界であったかを判定する(ステップS508−53)。
衝突面が振動領域6rの境界であった場合、誘導アイコン位置算出部272aは、振動領域6rの境界用の反発係数を選択する(ステップS508−54)。一方、衝突面が視野7bの境界であった場合、誘導アイコン位置算出部272aは、視野7bの境界用の反発係数を選択する(ステップS508−54)。
誘導アイコン位置算出部272aは、選択した反発係数を用いて、衝突後の誘導アイコン9の移動量を補正して(ステップS508−56)、移動方向を変更する(ステップS508−57)。移動方向の変更後の処理は、第1の実施例と同様であるのでその説明を省略する。
図25は、第5の実施例における振動領域内の移動変化例について説明するための図である。図25では、振動領域6rは、図23(A)と同様に半円であるが、誘導アイコン9が衝突した面が視野7bの境界であるのか、半円の周辺に相当する振動領域6rの境界であるのかで、反発係数が変化する様子を示している。
視野7bと振動領域6rとの境界での衝突における反発係数は、視野7bの境界(半円形状の振動領域6rの中心を通る直線部分)での反発係数より高い値が選択される。誘導アイコン9の衝突後の移動量が反発係数で変化することにより、不規則な動きが表現され、作業員2の視線を誘導し易くなる。
<第6の実施例>
誘導アイコン9の2次元平面での回転を振動に準じる視覚効果と捉え、誘導アイコン9の移動量の替りに回転角度を定める第6の実施例における誘導支援画像生成処理について説明する。
図26は、第6の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第6の実施例における誘導支援画像生成処理では、第3の実施例における誘導支援画像生成処理(図21)と異なる処理のみ説明し、同様の処理についてはその説明を省略する。図26において、ステップS507−5及びS508−5が、第3の実施例における処理と異なっており、また、第1の実施例におけるステップS507−1は、第3の実施例と同様に省略される。
誘導アイコン位置算出部272aは、誘導アイコン9の回転角度を決定する(ステップS507−5)。誘導目標8tと視野中心との距離Lの変化に合わせて、回転角度の大きさを増減させる。そして、誘導アイコン位置算出部272aは、誘導アイコン9の位置と回転とを更新する(ステップS508−5)。
図27は、誘導アイコンの形状と回転の例を示す図である。図27(A)では、誘導アイコン9の種々の形状の例を示している。回転を認識可能な形状であればよく、これらの形状に限定されない。但し、真円の場合は、回転中心を重心からずらす必要がある。
図27(B)では、種々の回転例を示している。回転中心を重心とした場合であっても、回転角度が大きい場合(左)と、回転角度が小さい場合(中央)とでは、見え方が違ってくる。
また、回転中心は、重心にする必要はなく、誘導アイコン9の形状内又は形状外を問わず任意に設定可能である。誘導アイコン9の形状が三角である場合に、頂点の近辺に回転中心を設定してもよい(右)。
<第7の実施例>
誘導アイコン9の移動量と回転とを異なるパラメータとして使用することで、複数の振動方法を組み合わせた第7の実施例における誘導支援画像生成処理について説明する。第7の実施例では、第4の実施例と第6の実施例とが組み合わされる。第1の実施例、第4の実施例、及び第6の実施例に係る誘導支援画像生成処理において、同様のステップには同様の符号を付し、その説明を省略する。
図28は、第7の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第7の実施例における誘導支援画像生成処理では、視野中心から誘導目標8tまでの距離Lを算出後(ステップS506−2)、距離Lに基づいて、誘導アイコン9の移動量を決定し(ステップS507−2)、また、誘導アイコン9の回転角度を決定する(ステップS507−5)。
そして、第7の実施例の誘導アイコン9の位置の更新(ステップS508−7)では、ステップS506−1及びS507−1により決定した振動領域6r内において、ステップS506−2及びS507−2により決定した移動量だけ誘導アイコン9を移動させ、移動後の衝突判定に応じて、移動方向を変更する(ステップS506−41〜S506−43)。また、ステップS506−2及びステップS507−5により決定した回転角度分、誘導アイコン9の回転を更新する(ステップS508−5)。
従って、第7の実施例における誘導支援画像生成処理では、振動領域6r内において、回転しながら移動する誘導アイコン9を表す誘導支援画像が生成される(ステップS510)。
次に、指示者1による誘導目標8tの指定時に、作業員2へ誘導アイコン9を確実に認知させるために、誘導アイコン9の初期動作処理を加える場合について、第8実施例から第10実施例で説明する。
<第8の実施例>
誘導アイコン9を視野中心から誘導目標8tの方向へ移動させる誘導アイコン9の初期動作処理を追加した場合を第8の実施例における誘導支援画像生成処理として説明する。
図29は、第8の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第8の実施例における誘導支援画像生成処理において、上述した第1の実施例から第7の実施例における誘導支援画像生成処理と異なる処理のみ説明し、同様の処理については同様の符号を付し、その説明を省略する。
第8の実施例における誘導支援画像生成処理では、ステップS501とステップS502との間に、誘導アイコン9の初期動作処理を行う(ステップS501−8)。ここでは、ステップS501−8での処理についてのみ説明する。
誘導アイコン9の初期動作処理(ステップS501−8)において、誘導アイコン位置算出部272aによって行われるステップS501−82、S501−83、S501−84、及びS501−85は、第1の実施例におけるステップS502、S503、S504、及びS505(図15)の夫々に相当する。
表示デバイス21dにおける表示画面の座標系においける相対誘導目標位置と視野範囲とを得ると、誘導アイコン位置算出部272aは、相対誘導目標位置に応じた、視野7bの境界上の位置を算出し(ステップS501−86)、また、相対誘導目標位置を用いて、視野中心から誘導目標8tまでの距離Lを、誘導アイコン9の移動量として設定する(ステップS501−87)。
そして、誘導アイコン位置算出部272aは、視野中心から視野境界方向に、誘導アイコン9を移動する(ステップS501−88)。その後、誘導アイコン位置算出部272aは、ステップS502〜S511の処理を行う。
図30は、第8の実施例における誘導アイコンの移動例を示す図である。図30では、作業員1による誘導目標8tの指示直後から作業員2の視野7b内に誘導目標8tが到達するまでの、作業現場に居る作業員2の頭部の動きに応じた、誘導アイコン9の動作例を示す。図30において、左に指示者1の遠隔支援装置101のパノラマ画像4の表示例を示し、右に作業員2の表示デバイス21dから見える視野7bの例を示す。
図30(A)では、作業員1が遠隔支援装置101のパノラマ画像4上で誘導目標8tを指示した直後の状態を示している。誘導目標8tは、作業員2の現在の視点7bから右下方向にある。指示者1の誘導目標8tの指示により、作業員2の表示デバイス21dでは、視野7bの中心に誘導アイコン9が表示され、その後、誘導アイコン9は、移動軌跡7qで示すように、中心から右下方向へ移動し速く振動する。
図30(B)では、作業員1が中心か右下方向へ移動し速く振動する誘導アイコン9を追視する際の頭部の動きにより、遠隔支援装置101のパノラマ画像4に示される作業員2の視野7bが右下方向へ移動する。

作業員2の表示デバイス21dでは、作業員2の頭部が右下方向に動き、誘導目標8tに近付いたことで、誘導アイコン9は図30(A)の初期動作時と比べてゆっくり振動する。
図30(C)では、作業員2が誘導目標8tに到達した場合の、遠隔支援装置101のパノラマ画像4に示される作業員2の視野7bの位置を示している。誘導目標8tが作業員2の視野7bの中心にある。
作業員2の表示デバイス21dでは、図30(B)では視野7bの右下で振動していた誘導アイコン9が視野7bの中心へゆっくりと戻り、消失する。
<第9の実施例>
誘導アイコン9の視覚効果を誘導目標8tとの距離に応じて調整する第9の実施例における誘導支援画像生成処理について説明する。
図31は、第9の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第9の実施例における誘導支援画像生成処理において、上述した第1の実施例から第7の実施例における誘導支援画像生成処理と異なる処理のみ説明し、同様の処理については同様の符号を付し、その説明を省略する。
第9の実施例における誘導支援画像生成処理では、ステップS501においてデータセットAを参照して、コンテンツ位置を取得して(ステップS501)、誘導アイコン視覚効果決定部272bは、誘導アイコン9の初期視覚効果を設定する(ステップS501−9)。例えば、距離Lが大きいことから、誘導アイコン9の透明度を0%、即ち、背景映像を全く透過しない)に設定する。又は、輪郭をぼかさずはっきりさせる等に設定してもよい。
ステップS503〜S508の処理により、誘導アイコン9の位置を更新すると、誘導アイコン視覚効果決定部272bは、第9の実施例における誘導アイコン視覚効果決定処理を行う(ステップS509−9)。
誘導アイコン視覚効果決定部272bは、ステップS506−2の処理で算出した距離Lを参照し、図32で説明されるような誘導アイコンの視覚効果を決定する(ステップS509−91)。そして、誘導アイコン視覚効果決定部272bは、誘導アイコン9の視覚効果を決定した視覚効果で更新する(ステップS509−92)。
図32は、誘導アイコンの視覚効果の変化例を説明するための図である。図32(A)では、誘導アイコン9の表示初期の状態に相当し、誘導目標8tまでの距離Lが所定距離以上離れている場合の誘導アイコン9の表示例である。誘導アイコン9は、透明度0%で表示デバイス21dにはっきりと表示される。
図32(B)では、作業員2の頭部が誘導目標8tの方向に近付いた場合、又は、表示初期において誘導目標8tまでの距離Lが所定距離未満である場合に、誘導アイコン9の透明度を上げた表示例である。
図32(C)では、作業員2の頭部が誘導目標8tの方向に近付いた場合、又は、表示初期において誘導目標8tまでの距離Lが所定距離未満である場合に、誘導アイコン9の輪郭をぼかした表示例である。
図32(B)や図32(C)では、誘導アイコン9の存在感が小さくなるよう視覚効果が変更される例を示している。
<第10の実施例>
データセットAの受信直後は、誘導目標8tとの距離Lに関係なく、誘導アイコン9を素早く振動させる第10の実施例について説明する。第10の実施例では、誘導アイコン9の初期動作処理における誘導アイコン9の移動量は、人間が周辺視野でも振動が認識可能な上限周辺の速度に該当する移動量範囲内で制御する。作業員2の頭部姿勢の誘導目標8tの方向への変化を検知したら、距離Lに応じた誘導アイコン9の移動量を決定するように通常の誘導アイコン9の位置算出処理に移行する。
図33は、第10の実施例における誘導支援画像生成処理を説明するためのフローチャート図である。第10の実施例における誘導支援画像生成処理において、上述した第1の実施例から第8の実施例における誘導支援画像生成処理と異なる処理のみ説明し、同様の処理については同様の符号を付し、その説明を省略する。
第10の実施例における誘導支援画像生成処理では、第8の実施例と同様に、ステップS501とステップS502との間に、誘導アイコン9の初期動作処理を行う(ステップS501−A)。ここでは、ステップS501−Aでの処理についてのみ説明する。
誘導アイコン9の初期動作処理(ステップS501−A)において、誘導アイコン位置算出部272aによって行われるステップS501−A2、S501−A3、S501−A4、及びS501−A5は、第1の実施例におけるステップS502、S503、S504、及びS505(図15)の夫々に相当する。
そして、誘導アイコン位置算出部272aは、相対誘導目標位置に応じた、視野7bの境界上の位置を算出し(ステップS501−A6)、振動領域6rを決定する(ステップS501−A7)。
また、誘導アイコン位置算出部272aは、誘導アイコン9の移動量を決定する(ステップS501−A8)。この誘導アイコン初期動作処理では、誘導アイコン9の振動が可視な範囲で大きな値に設定される。誘導アイコン9が素早く振動することで、作業員2の視線を捉え易くなる。
そして、誘導アイコン位置算出部272aは、振動領域6r内の誘導アイコン9の位置を更新し(ステップS501−A9)、データセットD'を参照して、現在の頭部位置・姿勢情報を取得して(ステップS501−A10)、視野境界位置方向へ移動したか否かを判断する(ステップS501−A11)。
視野境界位置方向へ移動していない場合(ステップS501−A11のNO)、誘導アイコン位置算出部272aは、ステップS501−A2へと戻り、上述同様の処理を繰り返す。一方、視野境界位置方向へ移動した場合(ステップS501−A11のYES)、誘導アイコン位置算出部272aは、距離Lに応じた誘導アイコン9の移動量を決定するように通常の誘導アイコン9の位置算出を行うため、この誘導アイコン初期動作処理を終了する。
<第11の実施例>
誘導アイコン視覚効果決定部272bにおいて、誘導アイコン9の視覚効果を決定する第11の実施例について説明する。
図34は、第11の実施例における誘導アイコン視覚効果決定処理を説明するためのフローチャート図である。第11の実施例における誘導アイコン視覚効果決定処理において、誘導アイコン視覚効果決定部272bは、誘導目標8tの優先度を参照する(ステップS509−B1)。
そして、誘導アイコン視覚効果決定部272bは、誘導目標8tまでの距離を参照し、その情報に基づいて、距離優先度を算出する(ステップS509−B2)。そして、ステップS509−B1で取得した優先度と距離優先度のどちらの優先度を適用するか選択する(ステップS509−B3)。距離優先度は、現在位置から誘導目標8tとの距離を基準としたものである。現在地から近い誘導目標の優先度を高くする。現在地から最も近い誘導目標8tを最も高い優先度とする。
誘導アイコン視覚効果決定部272bは、優先度を視覚効果強度へ変換する(ステップS509−B4)。得られた視覚効果強度の優先度は、視覚効果パラメータのうち優先度用パラメータpが得られる。そして、誘導アイコン視覚効果決定部272bは、視覚効果パラメータセット(g、p)を作成する(ステップS509−B5)。視覚効果パラメータセットでは、誘導アイコン9用パラメータgと優先度用パラメータpとが示される。
図35は、第11の実施例の適用の有無による誘導アイコンの表示例を示す図である。図35(A)では、第11の実施例の適用有りの場合の誘導アイコン9aの表示例を示している。鮮明度と透明度とによって、誘導アイコン9aの優先度を表現している。誘導アイコン9aは、ぼやけた輪郭で透明度のあるアイコンで表示される。
一方、図35(B)では、第11の実施例の適用無しの場合の誘導アイコン9bの表示例を示している。誘導アイコン9bは、誘導アイコン9aと同様の形状であるが、はっきりとした輪郭で透明度のない(不透明な)アイコンで表示されている。
図35(A)では、鮮明度と透明度とを誘導アイコン9用のパラメータとして決定した場合であるが、他の表示例について図36に示す。図36は、第11の実施例の適用有りの場合の誘導アイコンの他の表示例(その1)を示す図である。
図36(A)に示す第11の実施例の適用有りの場合では、透明度のみをパラメータとして使用した例である。誘導アイコン9cは、背景の文字「圧力」が読み取れる程に透明度を高くして表示されている。
図36(B)に示す第11の実施例の適用有りの場合ではコンテンツ3の表示色と、誘導アイコン9dとで使用する配色の傾向を変えている。一例として、寒色系配色のコンテンツ情報を事前にコンテンツDB283等に準備し、暖色系配色を誘導アイコン9dに利用するために誘導アイコン9用のパラメータを決定するようにすればよい。
<第12の実施例>
誘導アイコン視覚効果決定部272bにおいて、複数の誘導アイコン9を表示する場合の優先度を表す第12の実施例について説明する。
図37は、第12の実施例の適用の有無による誘導アイコンの表示例を示す図である。図37(A)では、複数の誘導アイコン9に優先度が無い場合の表示例を示している。この場合には、全ての誘導アイコン9の色、透明度、及び大きさを同じにして表示される。
一方、図37(B)では、複数の誘導アイコン9に優先度が有る場合の表示例を示している。この例では、色相の差によって異なる優先度を表現している。図9に示す色相による優先度によって、赤で表される誘導アイコン9が優先順1位であり、オレンジで表される誘導アイコン9が優先順2位であり、他の誘導アイコン9は、同じ優先度であることを示している。
なお、これらの複数の誘導アイコン9は不要になったものから消去されることが望ましい。誘導アイコン9の消去の判断基準は、誘導完了の成否、該当する作業が完了したか否か、遠隔の指示者1に消去する権限を与える等の応用例に応じて適宜設定可能である。
また、複数の誘導アイコン9の優先度を差別化して表示する他の例について図38で説明する。図38は、複数の誘導アイコンの優先度の他の表示例を示す図である。複数の誘導アイコンの優先度は、以下のようにして表すこともできる。
・輪郭
例えば、優先度の高い誘導アイコン9は、優先度の高い誘導アイコン9ほど、誘導アイコン9の輪郭をはっきりさせる。図38(A)がこの例に相当する。
・色の明度、彩度
例えば、色相と同様に、優先度の高い誘導アイコン9は、基準の明度、彩度からの差を大きく設定する。図38(B)がこの例に相当する。
・透明度
例えば、優先度の高い誘導アイコン9は透明度を低く、優先度の低い誘導アイコン9は透明度を高くする。
・テクスチャ
例えば、優先度の高い誘導アイコン9のテクスチャを粗く、低い誘導アイコン9はテクスチャを細かくする。
また、テキストもテクスチャと定義することにより、誘導アイコン9に数字やアルファベットなどで優先度を表示してもよい。以下に例を示す。
例1:優先度の高い誘導アイコン9から、1、2、3、・・・等と番号を付与する。図38(C)がこの例に相当する。
例2:優先度の高い誘導アイコン9から、A、B、C、・・・等のアルファベットを付与する。
例3:優先度の高い誘導アイコン9から、あ、い、う、・・・等の文字を付与する。
・動き(振動など)
例えば、優先度の高さに比例して誘導アイコン9の振動速度を上げる。但し、振動速度が速すぎると、人の目では振動を認知できなくなる場合がある。振動を認知可能な範囲で振動速度を上げるようにする。
上述した第1〜第12の実施例を含む実施の形態は、表示デバイス21dに誘導アイコン9を表示する形態に限定されない。他の用途として、以下の様々な状況に適用可能である。
<他の用途1>スマートフォン、タブレット端末を用いた街歩きナビゲーション
・街中の様子をリアルタイムにカメラで取得しながら、目的地への誘導情報を重畳表示させる。
・誘導指示は、遠隔地のユーザではなく、ナビゲーションシステムが行うように構成してもよい。
・一方で、ユーザ間のナビゲーションに本実施の形態を適用してもよい。
<他の用途2>カーナビゲーション
・運転時の視野内に、例えば、フロントガラスに、誘導情報を重畳表示させる。
・車の運転では、操作や安全確認が多く、認知負荷が大きい。カーナビ画面の確認だけでも、本実施の形態における直感的な表示を導入することで、運転作業の負荷を軽減できる。よって、目的地への到着もスムーズに行なえる。
<他の用途3>遠隔コミュニケーション
・画面を通した遠隔コミュニケーションに適用することも可能である。例えば、Skype(登録商標)等のビデオ通話を可能とするアプリケーションに、本実施の形態を適用してもよい。
・通信相手との視野を共有するための誘導情報を表示するために、本実施の形態を適用してもよい。
例えば、Skype(登録商標)等のビデオ通話を可能とするアプリケーションでは、通信相手側の端末の内臓カメラや外部接続型のカメラを用いて通信相手の周辺の様子を見ることが可能である。
また、利用例として、通信相手の端末を移動させたいときに誘導情報を表示させることができる。具体例としては、話題に上がっている通信相手側の対象物が通信相手側のカメラによって映されていない状況において、その対象物までの距離や方向がある程度分かっていれば、その対象物が通信相手側のカメラによって撮影できるよう、誘導情報を表示してもよい。
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、主々の変形や変更が可能である。
以上の第1〜第12の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
予め記憶した空間情報の中からターゲット情報を検出し、
前記空間情報が規定する空間における表示装置の位置とターゲット情報が規定するターゲットの位置を計測し、
計測した前記表示装置の位置と前記ターゲットの位置とに基づいて前記表示装置に表示するアイコンの位置と該アイコンの動きを決定し、
前記表示装置において決定した前記位置で決定した前記動きをする前記アイコンを表示し
前記表示装置の位置の変化に応じて、該表示装置に表示する前記アイコンの位置及び動きを変更する
処理をコンピュータが行う誘導支援方法。
(付記2)
前記コンピュータは、
前記アイコンの動きを、前記表示装置が前記ターゲットに地近付くにつれて動きを遅くする
ことを特徴とする付記1記載の誘導支援方法。
(付記3)
前記コンピュータは、
前記ターゲットが前記表示装置の視野外に位置する場合、前記ターゲットの位置への方向の前記視野の境界側に、前記アイコンを動かす領域を設定する
処理を行う付記2記載の誘導支援方法。
(付記4)
前記コンピュータは、
前記領域内で前記アイコンの位置を移動させて、該領域の境界との衝突判定を行い、
前記アイコンが衝突した場合には、該アイコンの移動方向を反転させる
処理を行う付記3記載の誘導支援方法。
(付記5)
前記コンピュータは、
前記領域内で前記アイコンを移動させて、該領域の境界との衝突判定を行い、
前記アイコンが衝突した場合には、該アイコンの移動方向を変更する
処理を行う付記3記載の誘導支援方法。
(付記6)
前記コンピュータは、
前記領域内で前記アイコンを移動させて、該領域の周辺との衝突判定を行い、
前記アイコンが衝突した場合には、衝突した対象に応じて、衝突時の反発係数を選択し、該アイコンの移動量を反発係数を用いて補正し、
前記アイコンの移動方向を変更する
処理を行う付記3記載の誘導支援方法。
(付記7)
前記コンピュータは、
前記アイコンの回転角度を決定して、該アイコンを回転させる
ことを特徴とする付記1乃至6のいずれか一項記載の誘導支援方法。
(付記8)
前記コンピュータは、
前記アイコンを点滅させる
ことを特徴とする付記1記載の誘導支援方法。
(付記9)
前記コンピュータは、
前記表示装置への前記アイコンの初期表示時には、前記視野の中心から、前記ターゲットの位置側の該視野の境界へと前記アイコンを移動させる
処理を行う付記1記載の誘導支援方法。
(付記10)
前記コンピュータは、
前記表示装置への前記アイコンの初期表示時には、前記アイコンを動かす領域で、該アイコンを振動させる
処理を行う付記3記載の誘導支援方法。
(付記11)
前記コンピュータは、
複数の前記ターゲットの各々の前記表示装置からの距離に基づいた優先度又は予めターゲット情報が規定する任意の優先度のいずれかを選択し、
選択した前記優先度を1又は複数の視覚効果強度へ変換して、各視覚効果強度を示すパラメータセットを用いて、各ターゲットに前記優先度により異なる該視覚効果強度を適用する
処理を行う付記1記載の誘導支援方法。
(付記12)
予め記憶した空間情報の中からターゲット情報を検出し、
前記空間情報が規定する空間における表示装置の位置とターゲット情報が規定するターゲットの位置を計測し、
計測した前記表示装置の位置と前記ターゲットの位置とに基づいて前記表示装置に表示するアイコンの位置と該アイコンの動きを決定し、
前記表示装置において決定した前記位置で決定した前記動きをする前記アイコンを表示し
前記表示装置の位置の変化に応じて、該表示装置に表示する前記アイコンの位置及び動きを変更する
処理をコンピュータに実行される誘導支援プログラム。
(付記13)
予め記憶した空間情報の中からターゲット情報を検出し、前記空間情報が規定する空間における表示装置の位置とターゲット情報が規定するターゲットの位置を計測する位置計測部と、
計測した前記表示装置の位置と前記ターゲットの位置とに基づいて前記表示装置に表示するアイコンの位置と該アイコンの動きを決定し、前記表示装置において決定した前記位置で決定した前記動きをする前記アイコンを表示し、前記表示装置の位置の変化に応じて、該表示装置に表示する前記アイコンの位置及び動きを変更する更新表示部と
を有する誘導支援装置。
(付記14)
前記表示装置は、ヘッドマウントディスプレイであることを特徴とする付記13の誘導支援装置。
1 指示者
2 作業員
2c カメラ画像
7b 視野
8t 誘導目標
9 誘導アイコン
21c カメラ
21d 表示デバイス
101 遠隔支援装置
111 CPU
112 メモリ
113 HDD
114 入力装置
115 表示装置
116 音声入力装置
118 ドライブ装置
119 記憶媒体
211 CPU
212 メモリ
213 RTC
215 IMU
216 短距離無線通信部
217 ネットワーク通信部
117 ネットワーク通信部
143 パノラマ画像生成部
145 指示情報生成部
147 指示情報送信部
201 作業員端末
261 動き情報取得部
262 頭部位置・姿勢推定部
263 カメラ画像取得部
264 画像・姿勢情報送信部
265 視野範囲推定部
266 コンテンツ位置算出部
271 誘導目標情報取得部
272 誘導支援画像生成部
272a 誘導アイコン位置算出部
272b 誘導アイコン視覚効果決定部
272c 重畳部
273 誘導支援画像表示部
281 誘導アイコンDB
283 コンテンツDB
287 パノラマ画像生成用データ

Claims (5)

  1. 予め記憶した空間情報の中からターゲット情報を検出し、
    前記空間情報が規定する空間における表示装置の位置とターゲット情報が規定するターゲットの位置を計測し、
    計測した前記表示装置の位置と前記ターゲットの位置とに基づいて前記表示装置に表示するアイコンの位置と該アイコンの動きを決定し、
    前記表示装置において決定した前記位置で決定した前記動きをする前記アイコンを表示させ、
    前記表示装置の位置の変化に応じて、該表示装置に表示する前記アイコンの位置及び動きを変更させ、
    視野外のターゲットの検出に応じて前記アイコンを表示する際には、視野の特定位置に対応する位置から該視野の前記特定位置よりも外側の位置に対応する位置へと該アイコンの表示位置を移動させ、該アイコンの動きを、前記表示装置が前記ターゲットに近付くにつれて遅くし、該ターゲットが該視野の該特定位置となったとき、該アイコンを該外側の位置から該特定位置にゆっくりと戻し、消失させ
    処理をコンピュータが行う誘導支援方法。
  2. 前記コンピュータは、
    前記ターゲットが前記表示装置の視野外に位置する場合、前記ターゲットの位置への方向の前記視野の境界側に、前記アイコンを動かす領域を設定する
    処理を行う請求項記載の誘導支援方法。
  3. 前記コンピュータは、
    前記領域内で前記アイコンの位置を移動させて、該領域の境界との衝突判定を行い、
    前記アイコンが衝突した場合には、該アイコンの移動方向を反転させる
    処理を行う請求項記載の誘導支援方法。
  4. 予め記憶した空間情報の中からターゲット情報を検出し、
    前記空間情報が規定する空間における表示装置の位置とターゲット情報が規定するターゲットの位置を計測し、
    計測した前記表示装置の位置と前記ターゲットの位置とに基づいて前記表示装置に表示するアイコンの位置と該アイコンの動きを決定し、
    前記表示装置において決定した前記位置で決定した前記動きをする前記アイコンを表示させ、
    前記表示装置の位置の変化に応じて、該表示装置に表示する前記アイコンの位置及び動きを変更させ、
    視野外のターゲットの検出に応じて前記アイコンを表示する際には、視野の特定位置に対応する位置から該視野の前記特定位置よりも外側の位置に対応する位置へと該アイコンの表示位置を移動させ、該アイコンの動きを、前記表示装置が前記ターゲットに近付くにつれて遅くし、該ターゲットが該視野の該特定位置となったとき、該アイコンを該外側の位置から該特定位置にゆっくりと戻し、消失させ
    処理をコンピュータに実行させる誘導支援プログラム。
  5. 予め記憶した空間情報の中からターゲット情報を検出し、前記空間情報が規定する空間における表示装置の位置とターゲット情報が規定するターゲットの位置を計測する位置計測部と、
    計測した前記表示装置の位置と前記ターゲットの位置とに基づいて前記表示装置に表示するアイコンの位置と該アイコンの動きを決定し、前記表示装置において決定した前記位置で決定した前記動きをする前記アイコンを表示させ、前記表示装置の位置の変化に応じて、該表示装置に表示する前記アイコンの位置及び動きを変更させる更新表示部と、
    視野外のターゲットの検出に応じて前記アイコンを表示する際には、視野の特定位置に対応する位置から該視野の前記特定位置よりも外側の位置に対応する位置へと該アイコンの表示位置を移動させ、該アイコンの動きを、前記表示装置が前記ターゲットに近付くにつれて遅くし、該ターゲットが該視野の該特定位置となったとき、該アイコンを該外側の位置から該特定位置にゆっくりと戻し、消失させる移動表示部と、
    を有する誘導支援装置。
JP2015195040A 2015-09-30 2015-09-30 視野誘導方法、視野誘導プログラム、及び視野誘導装置 Active JP6886236B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015195040A JP6886236B2 (ja) 2015-09-30 2015-09-30 視野誘導方法、視野誘導プログラム、及び視野誘導装置
US15/277,025 US10901571B2 (en) 2015-09-30 2016-09-27 Visual field guidance method, computer-readable storage medium, and visual field guidance apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015195040A JP6886236B2 (ja) 2015-09-30 2015-09-30 視野誘導方法、視野誘導プログラム、及び視野誘導装置

Publications (2)

Publication Number Publication Date
JP2017068689A JP2017068689A (ja) 2017-04-06
JP6886236B2 true JP6886236B2 (ja) 2021-06-16

Family

ID=58409294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015195040A Active JP6886236B2 (ja) 2015-09-30 2015-09-30 視野誘導方法、視野誘導プログラム、及び視野誘導装置

Country Status (2)

Country Link
US (1) US10901571B2 (ja)
JP (1) JP6886236B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6212533B2 (ja) * 2015-12-28 2017-10-11 株式会社オプティム 画面共有システム、画面共有方法、および画面共有プログラム
US10438389B2 (en) * 2016-11-07 2019-10-08 Htc Corporation Method, device, and non-transitory computer readable storage medium for displaying virtual reality or augmented reality environment according to a viewing angle
KR102286006B1 (ko) * 2016-11-23 2021-08-04 한화디펜스 주식회사 추종 장치 및 추종 시스템
JP7066115B2 (ja) * 2017-04-10 2022-05-13 国立大学法人九州大学 パブリックスピーキング支援装置、及びプログラム
DE112018005160T5 (de) * 2017-09-15 2020-07-02 Sony Corporation Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
JP7036363B2 (ja) * 2017-09-22 2022-03-15 株式会社シンコネクト 建設分野用システム
JP2019125215A (ja) * 2018-01-18 2019-07-25 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
JP6950548B2 (ja) * 2018-01-29 2021-10-13 富士通株式会社 送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置
CN113519166A (zh) * 2019-03-04 2021-10-19 麦克赛尔株式会社 远程操作指示系统和安装式设备
JP7296220B2 (ja) * 2019-03-08 2023-06-22 株式会社竹中工務店 支援システム、及び支援プログラム
WO2020209184A1 (ja) * 2019-04-09 2020-10-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN111595349A (zh) * 2020-06-28 2020-08-28 浙江商汤科技开发有限公司 导航方法及装置、电子设备和存储介质
JP2023027650A (ja) 2021-08-17 2023-03-02 富士フイルムビジネスイノベーション株式会社 遠隔支援システム、端末装置、遠隔装置、誘導画像表示プログラム、及び遠隔支援プログラム
JP2023027651A (ja) * 2021-08-17 2023-03-02 富士フイルムビジネスイノベーション株式会社 遠隔支援システム、端末装置、遠隔装置、誘導画像表示プログラム、及び遠隔支援プログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3959354B2 (ja) * 2003-01-10 2007-08-15 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
JP4637664B2 (ja) * 2005-06-30 2011-02-23 パナソニック株式会社 ナビゲーション装置
JP2007133464A (ja) 2005-11-08 2007-05-31 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US20090122018A1 (en) * 2007-11-12 2009-05-14 Leonid Vymenets User Interface for Touchscreen Device
KR101498623B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
JP5177120B2 (ja) * 2009-11-10 2013-04-03 株式会社デンソー 遠隔操作デバイス用表示制御装置
US8589069B1 (en) * 2009-11-12 2013-11-19 Google Inc. Enhanced identification of interesting points-of-interest
KR100989663B1 (ko) 2010-01-29 2010-10-26 (주)올라웍스 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US9262015B2 (en) * 2010-06-28 2016-02-16 Intel Corporation System for portable tangible interaction
JP5675470B2 (ja) * 2011-04-01 2015-02-25 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
WO2013023706A1 (en) * 2011-08-18 2013-02-21 Layar B.V. Computer-vision based augmented reality system
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
JP5811780B2 (ja) * 2011-11-07 2015-11-11 富士通株式会社 情報処理装置およびその入力制御プログラム
US8977297B2 (en) * 2011-12-29 2015-03-10 Sony Corporation Providing navigation guidance by activating a plurality of active elements of an information processing apparatus
JP2013161248A (ja) * 2012-02-03 2013-08-19 Sharp Corp 入力装置、入力装置の制御方法、制御プログラム、および記録媒体
KR20140068410A (ko) * 2012-11-28 2014-06-09 삼성전자주식회사 물리 엔진 기반의 사용자 인터페이스를 제공하는 방법 및 그 전자 장치
KR20140090318A (ko) * 2013-01-07 2014-07-17 삼성전자주식회사 햅틱 기반 카메라 운용 지원 방법 및 이를 지원하는 단말기
US9342145B2 (en) * 2013-01-22 2016-05-17 Kabushiki Kaisha Toshiba Cursor control
US9411160B2 (en) * 2013-02-12 2016-08-09 Seiko Epson Corporation Head mounted display, control method for head mounted display, and image display system
US20160055676A1 (en) * 2013-04-04 2016-02-25 Sony Corporation Display control device, display control method, and program
KR102023601B1 (ko) * 2013-04-04 2019-09-23 삼성전자 주식회사 휴대단말장치의 사고 방지 방법 및 장치
JP6301613B2 (ja) * 2013-08-28 2018-03-28 京セラ株式会社 携帯通信端末、情報表示プログラムおよび情報表示方法
US9720564B1 (en) * 2014-01-17 2017-08-01 Beats Music, Llc Systems and methods for determining user preferences using a graphical user interface
US9550419B2 (en) * 2014-01-21 2017-01-24 Honda Motor Co., Ltd. System and method for providing an augmented reality vehicle interface
US9651784B2 (en) * 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
CA2926861C (en) * 2014-05-21 2017-03-07 Millennium Three Technologies Inc Fiducial marker patterns, their automatic detection in images, and applications thereof
US9791919B2 (en) * 2014-10-19 2017-10-17 Philip Lyren Electronic device displays an image of an obstructed target
JP6596989B2 (ja) * 2015-07-02 2019-10-30 富士通株式会社 表示制御方法、表示制御プログラム、情報処理端末及びヘッドマウントディスプレイ
JP6586834B2 (ja) * 2015-09-14 2019-10-09 富士通株式会社 作業支援方法、作業支援プログラム、及び作業支援システム

Also Published As

Publication number Publication date
US20170090722A1 (en) 2017-03-30
JP2017068689A (ja) 2017-04-06
US10901571B2 (en) 2021-01-26

Similar Documents

Publication Publication Date Title
JP6886236B2 (ja) 視野誘導方法、視野誘導プログラム、及び視野誘導装置
JP6702489B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
US10678340B2 (en) System and method for providing user interface tools
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
KR101315303B1 (ko) 착용형 디스플레이 장치 및 컨텐츠 디스플레이 방법
US20190057531A1 (en) Repositioning user perspectives in virtual reality environments
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
US20170358280A1 (en) Method of controlling head-mounted display system
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
US20220317776A1 (en) Methods for manipulating objects in an environment
US20170294048A1 (en) Display control method and system for executing the display control method
US20190377474A1 (en) Systems and methods for a mixed reality user interface
EP3807745B1 (en) Pinning virtual reality passthrough regions to real-world locations
KR20130041537A (ko) 디스플레이 장치 및 컨텐츠 디스플레이 방법
US11626088B2 (en) Method and system for spawning attention pointers (APT) for drawing attention of an user in a virtual screen display with augmented and virtual reality
US20190064528A1 (en) Information processing device, information processing method, and program
US11004273B2 (en) Information processing device and information processing method
JP6358996B2 (ja) 警備シミュレーション装置
JP6358998B2 (ja) 警備シミュレーション装置
JP7414139B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7300569B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20230124363A (ko) 전자 장치 및 전자 장치의 제어 방법
CN117716327A (zh) 用于管理用户界面与物理对象的交互的方法和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200121

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200128

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200207

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200212

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201006

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201208

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210330

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210511

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210514

R150 Certificate of patent or registration of utility model

Ref document number: 6886236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150