JP6630504B2 - 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット - Google Patents

作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット Download PDF

Info

Publication number
JP6630504B2
JP6630504B2 JP2015139357A JP2015139357A JP6630504B2 JP 6630504 B2 JP6630504 B2 JP 6630504B2 JP 2015139357 A JP2015139357 A JP 2015139357A JP 2015139357 A JP2015139357 A JP 2015139357A JP 6630504 B2 JP6630504 B2 JP 6630504B2
Authority
JP
Japan
Prior art keywords
image
navigation system
support navigation
sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015139357A
Other languages
English (en)
Other versions
JP2017020922A (ja
Inventor
森田 豊久
豊久 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2015139357A priority Critical patent/JP6630504B2/ja
Publication of JP2017020922A publication Critical patent/JP2017020922A/ja
Application granted granted Critical
Publication of JP6630504B2 publication Critical patent/JP6630504B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、例えば、作業現場において、作業員(作業者)が作業するための行動を支援する作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメットに関する。
インフォメーション・アンド・コミュニケーション・テクノロジー(ICT:Information and Communication Technology)の進展により、土木や建設などの現場作業においても、利便性や効率の向上、安全性の確保などのニーズがあり、係るニーズに応えるべき様々な作業支援システムが提案されている。
係る背景技術として、特開2007−257207号公報(特許文献1)がある。この公報には、「自装置の位置を検出し、作業の対象となる設備の位置に係る設備位置情報を設備位置データベースから取得し、検出した自装置の位置情報及び取得した設備位置情報を比較し、撮影処理にて画像情報を生成し、作業の対象となる設備の画像情報を、画像データベースから取得し、生成した画像情報及び取得した画像情報を比較し、位置情報の比較結果及び画像情報の比較結果に基づいて、作業の対象となる設備を特定し、作業の対象となる箇所を示す画像を表示部に表示する」作業支援システムなどにより、「作業ミスを引き起こす可能性を低減し、確実な作業の遂行を支援する」という記載がある(要約書参照)。
また、http://www.itmedia.co.jp/news/articles/1409/08/news058.html(非特許文献1)がある。このニュースには、米国DAQRI社により開発された『拡張現実アプリのDaqri、業務用「スマートヘルメット」』に関する商品の紹介記事が掲載されている。そして、係る記事には、ヘッドアップディスプレイを備えたヘルメットに「複数のカメラやセンサ」を搭載し、ユーザの周辺360度をトラッキングすること、また、これらのカメラやセンサで収集するデータと既存の追跡技術により、作業に必要な情報、例えば、工場内の道案内や、機器の取り扱いマニュアルなどをバイザー部分のディスプレイに表示すること、が記載されている。
特開2007−257207号公報
http://www.itmedia.co.jp/news/articles/1409/08/news058.html
特許文献1には、作業者を支援するシステムの仕組みについては記載されている。
しかし、作業者の作業行動をナビゲートすることまでは想定されていない。そのため、作業をすべき設備を特定し、作業ミス低減、確実な作業遂行を支援することが期待できるという効果に留まる。
また、非特許文献1では、複数のカメラやセンサを搭載し、作業に必要な情報をバイザーのディスプレイに表示することを可能としたインテリジェントヘルメット「業務用スマートヘルメット」の概略について記載されている。
しかし、特許文献1と同様に作業者の作業行動、例えば、これから作業を開始する際、カメラにて撮影した現在の画像や予め蓄積した過去の画像を元に作業者の行動を支援するナビゲーション情報を生成し、表示することまでは想定されていない。そのため、目の前の対象物、つまり、予め定められた工場内の案内やマニュアル、など、特定の情報を表示する機能に留まり、作業者への効果が限定的である。換言すれば、現在の画像や予め蓄積した過去の画像を融合して初めて明らかになる作業行動を支援するためのナビゲーション情報、例えば、過去の画像を収集した撮影アングル(構図)、位置、方向、角度に係る情報を含み、幾何変換されたナビゲーションの情報を生成し、表示するようなことまでは何ら考慮されていない。
そこで、本発明では、現場作業員の作業行動をナビゲートする、つまり、作業者の行動のナビゲーションを支援する情報を生成、出力する技術を提供することを目的とする。
また、作業現場が、過去に作業した現場であるとき、過去に撮影した画像と同等のビューで撮影を可能とする位置や向きに関する情報を生成、出力する技術を提供することを目的とする。
また、過去に撮影した画像と同等のビューで撮影を可能とする自走式ロボットを提供することを目的とする。
上記課題を解決するために、本発明では、記憶装置に蓄積した過去の画像の中から、現在の画像の撮影位置に近い1つの過去の画像(含位置情報)を抽出し、当該現在の画像と当該抽出した過去の画像を元に、作業員やロボットを当該過去の画像を示す位置(ターゲット)までナビゲートし、当該過去の画像を撮影したアングルや構図、方向、角度、などを把握可能な情報を含むナビゲーションする情報を生成、出力するものである。
例えば、代表的な本発明の作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、行動支援ナビゲーション用プログラムを記憶した記憶媒体、行動支援ナビゲーションシステムを搭載した自走式ロボット、行動支援ナビゲーションシステムに用いられるインテリジェントヘルメットの一つは、
カメラ機能を有するセンサと、ナビゲーションデータを表示する機能を有する出力部と、通信機能を有する通信部と、画像を記憶する記憶装置と、画像の幾何変換機能及びナビゲーション指示機能を有する画像処理装置と、を備えた作業行動支援ナビゲーションシステムであって、
前記センサ、前記出力部、前記通信部は、移動品に取り付け、
前記記憶装置は、
前記センサにより撮影した現在の画像及び過去に撮影した過去の撮影画像を蓄積する記憶部を有し、
前記画像処理装置は、画像幾何変換部、画像評価部、指示制御部、を有し、
前記画像幾何変換部は、前記画像の幾何変換し、
前記画像評価部は、幾何変換処理部により幾何変換された現在の画像と過去の撮影画像との差分が、予め定めた許容範囲内外にあるか否かを判定して画像評価し、
前記指示制御部は、前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲外である場合、前記移動品を、ターゲットを示す位置までナビゲーション指示し、前記移動品のヘルメットを装着した作業員又は前記移動品のロボットによる作業行動を支援するナビゲーションデータを生成し、前記出力部に出力するように制御する、
ことを特徴とする。
本発明によれば、作業員やロボットの行動をナビゲート支援することができる。
また、作業員やロボットをナビゲートする際に、過去にカメラで撮影した画像と同等のビューでカメラ撮影することが可能である。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明における作業行動支援ナビゲーションシステムの基本構成例を示す図。 本発明の実施例1を示し、作業行動支援ナビゲーションシステムにおける位置と向きをナビゲーションする手順を説明するフローチャート。 本発明で提供される第2センサに全方位カメラを使用し、撮影したときの撮影画像の例を示す図。 図3の全方位カメラの撮影画像の座標を示す図。 実施例において、蓄積画像と現在の画像との比較について説明する図。 実施例において、移動指示出力について説明する図。 実施例において、向き補正について説明する図。 実施例において、向き指示出力について説明する図。 実施例において、蓄積画像のデータ形式の一例を示すテーブル。 実施例において、地球の地表上での座標を説明する図。 実施例において、地表上の直交座標を説明する図。 本発明の第2の実施例を示し、作業行動支援ナビゲーションシステムにおける処理手順を示すフローチャート。 蓄積画像のデータ形式の他例を示すテーブル。 本発明の第3の実施例を示し、作業行動支援ナビゲーションシステムにおけるナビゲーション処理手順を示すフローチャート。 幾何変換を説明する図。 指示出力を説明する図。 本発明の第4の実施例を示し、作業行動支援ナビゲーションシステムにおける処理手順を示すフローチャート。 蓄積画像のデータ形式の他例を示すテーブル。 本発明の第5の実施例を示し、作業行動支援ナビゲーションシステムにおける処理手順を示すフローチャート。 図19における実施例5の幾何変換及び指示出力について説明する図。 本発明の実施例7を示す自走式ロボットの構成図。
以下説明する実施形態は、土木や建設現場における作業員やロボットに対するナビゲーションを想定したものである。なお、作業員やロボットを総称する場合は、移動品と称する。
土木や建設現場における作業員は、土木や建設などの現場において、ヘルメットを装着し、ハンズフリーでの作業が求められる。
また、作業員は、これから公物、例えば、ビルや工場などの建造物の点検・保守・運用などで、過去に実施したことのある作業現場にあっては、単に目的とする作業現場や作業位置(ターゲット)まで移動するだけでなく、当該ターゲットにおいて、例えば、過去と同様な位置、向きで所望の計測や公物の写真撮影(画像撮影)を行いたい場合がある。
このように、過去と同様な位置、向きで計測や画像撮影を行うことにより、過去に実施した点検、保守、などの作業時の写真(画像)と比較でき、公物(建造物など)が前回点検時と比べてどのように劣化しているかを視覚的に把握する上で極めて有効である。
そのためには、作業員を前回(過去)の点検時における撮影位置(ターゲット)までナビゲートし、かつ、写真撮影の構図、方向、角度、などのアングルを適確に作業員に提示する必要がある。
本発明は、係るニーズに鑑み、現場での作業員による行動を支援する目的で、過去の撮影時と同様な位置や向きで撮影することを期待できる位置(ターゲット)まで作業員やロボットをナビゲーションするものであり、現在の撮影画像と蓄積された過去の撮影画像を一致させるように画像を幾何変換し、ナビゲーションのパラメータとするものである。
以下、その実施例について、図面を用いて説明する。
なお、以下の説明では、「テーブル」等の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていてもよい。また、データ構造に依存しないことを示すために「データ」を「情報」と呼ぶことができる。
また、プログラムは、プロセッサ、例えば、MP(Micro Processor)やCPU(Central Processing Unit)によって実行されるもので、定められた処理をするものである。なお、プロセッサは、適宜に記憶資源(例えばメモリ)及び通信インターフェース装置(例えば、通信ポート)を用いながら処理を行うため、処理の主語がプロセッサとされてもよい。プロセッサは、CPUの他に専用ハードウェアを有していてもよい。コンピュータプログラムは、プログラムソースから各コンピュータにインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバ又は記憶メディアなどで提供されるものであってもよい。
本実施例は、過去にカメラで撮影したとき、当該カメラからの画像、当該画像を撮影した位置及び向きの情報を紐づけて記憶装置に記憶・蓄積した過去の蓄積画像と、現在、カメラで撮影した現在の画像とを対比して、当該現在の画像に近い過去の蓄積画像を、記憶装置の蓄積画像から1つ抽出し、当該蓄積画像と当該現在の画像を元に、作業員に対して撮影位置(撮影ポイント)や向き(カメラの向き)を指示する指示情報、つまり、作業員をナビゲートするに足りるナビゲーション情報を作業員に提供するものである。
これにより、作業員を過去に撮影された画像を撮影した場所のみならず、過去に撮影した画像と同等のビューを得る位置と向きまでナビゲーションすることができる。
図1は、作業員用インテリジェントヘルメットを用いた本発明の作業行動支援ナビゲーションシステムの構成を示す図である。
作業行動支援ナビゲーションシステム100は、インテリジェントヘルメット101とリモートシステム111とからなる。
インテリジェントヘルメット101は、作業員が被るヘルメット本体102、当該ヘルメット本体102に取り付けされたセンサ装置、出力装置、通信部107、を備えている。
センサ装置は、第1センサ103、第2センサ104、を含む。
第1センサ103は、少なくともヘルメットの向きを示すデータを取得するセンサである。
第2センサ104は、公物(建造物や人など)を撮影し、画像データを出力するカメラである。
カメラは、ヘルメット本体102の頭部(頂点)に取り付けられた全方位カメラを想定し、所定の撮影位置及び向きで公物(建造物や人など)を撮影する。
なお、カメラは、後述するように全方位カメラに代えて一般的なカメラを使用することもできる。
出力装置は、第1出力部105、第2出力部106を含む。
第1出力部105は、作業員がインテリジェントヘルメット101を被ったとき、作業員の目の前に位置し、つまり、インテリジェントヘルメット101を被った状態で作業員が表示内容を視認できる箇所に位置し、本来見えるべき情景に加えて、本来は見えないはずの情報、例えば、画像やリモートシステム111側から送信される指示出力を含むデータを重畳する表示装置(ディスプレイ)である。表示装置(ディスプレイ)は、典型的には一般に入手できるヘッドマウントディスプレイで実現できる。ヘッドマウントディスプレイは、眼前の風景が透過的に見えるのに加えて、画像(画像データ)を重畳表示して見ることができる。
第2出力部106は、作業員の両耳に対向して位置するスピーカである。
本例では、出力装置として、第1出力部105と第2出力部106の2つを備えたものであるが、少なくともその何れか1つあればよい。
通信装置は、例えば、ヘルメット本体102の側面に取り付けられ、リモートシステム111側との間で相互通信を行う通信部(通信インターフェース)を有する。
通信部107は、センサ装置の第2センサ104や第1センサ103にて収集したセンサデータ(画像データや向きデータ)を受けてリモートシステム111側に送信し、また、リモートシステム111側から送信される情報(本来見えないはずの情報の一つであるナビゲーションデータ)を受信する機能を有する。
ここで、向きとは、ヘルメット本体102が向いている向きであり、インテリジェントヘルメット101を被った作業員の顔が向いている方向を意味する。
リモートシステム111は、例えば、サーバ(コンピュータ)からなり、通信装置112、入出力装置113、記憶装置114、画像処理装置115を備えている。そして、これらの装置はバス116によって相互接続されている。
通信装置112は、インテリジェントヘルメット101側に設置された通信部107との間で相互通信を可能とする通信部(通信インターフェース)を有する。
記憶装置114は、少なくとも、第1センサデータ記憶部117、第2センサデータ記憶部118、蓄積データ記憶部119が含まれる。
第1センサデータ記憶部117は、第1センサ103で取得した向きデータを記憶する。
第2センサデータ記憶部118は、第2センサ104(カメラ)で取得した画像データ(現在の画像)を記憶する。
蓄積データ記憶部119は、第2センサ104で過去に取得した画像データ、つまり、第2センサのカメラで撮影した画像データ、及び、その周辺の位置で撮影した複数の画像データを、過去の画像データとして、当該画像を撮影したときの日時、位置、向きのデータを対応付け(又は紐付)して蓄積する。
蓄積データ記憶部に蓄積するデータ項目は、例えば、図9に示す如く、ID、日付、経度、緯度、向き、画像、である。ここで、画像とは、画像ファイルへのポインタを示すデータである。これはファイル名であってもよい。
これらの蓄積データは、インテリジェントヘルメット101側の通信部107からリモートシステム111側の通信装置112を介して取り込んだものであるが、入出力装置113の入力部により入力されるデータを含んでもよい。
第2センサ104で取得したデータは、典型的にはカメラで撮影された位置情報を含まない写真(画像)である。
画像処理装置115は、演算装置/制御装置を備え、演算装置/制御装置は、少なくとも、画像評価部120、指示制御部121を含んでいる。演算装置/制御装置は、各装置の動作制御を司り、内部に格納したプログラムに従って、上記の各装置を制御する。
画像評価部120は、第2センサ104のカメラで撮影した画像の位置や向きが、予め定めた許容値内にあるか否かを判定、つまり、画像評価する機能を有する。また、画像の幾何変換機能を有する。この幾何変換により、画像評価を適確に行うことができる。
指示制御部121は、画像評価部120における評価結果を受け、位置補正や向きが、予め定めた許容範囲内にない場合には、作業員に対して、移動や向きを指示する移動指示や向き指示するデータを出力、つまり作業員の作業行動をナビゲートするナビゲーションデータを、通信装置112を介してインテリジェントヘルメット101側に出力するように制御する機能を有する。ナビゲーションデータは、移動指示、向き指示、の何れか一方又は両方である。また、指示制御部121は、位置補正や向きが、予め定めた許容範囲内にある場合には、処理(指示)を完了する旨を示すデータを出力するように制御する機能を有する。
以降、実施例の説明に関し、特に記載のない場合の処理は画像処理装置115が司るものとする。
図2は、図1の作業行動支援ナビゲーションシステム100におけるナビゲーション(カメラによる撮影箇所を示す位置と向きを指示)する処理手順を示すフローチャートである。
図2のフローチャートに基づく動作は以下のとおりである。
まず、ステップs201からs204における処理手順について説明する。
これらのステップは、第1、第2のセンサ104、103により撮影、計測した現在の画像と向きを示す情報(位置情報は含まない)に対して、所望の画像処理(幾何変換)を行うことによって、蓄積データ記憶部119に蓄積された過去の画像の位置(緯度・経度)から、当該現在の画像を撮影した位置に近い過去の画像を見つけ出し、さらに、当該撮影位置のターゲットにまでナビゲーションする処理手順である。
以下、ステップs201からs204の詳細について説明する。
ステップs201:
インテリジェントヘルメット101における第1センサ103は、当該センサの向きによりヘルメットがどの方向に向いているか(作業員がターゲットの公物を見ている向き)を計測し、向きデータを出力する。
ここで、向きとは、水平面上での方位を示す。例えば、南方向を原点とし、東方向に向かった角度で向きを表す。
また、第2センサ104は、公物を撮影し、当該公物を示す画像(画像データ)を出力する。
これらの向きデータや画像データは、通信部107を介してリモートシステム111側における通信装置112に送信される。
向きデータは、第1センサデータ記憶部117に蓄積され、画像データは、現在の画像として第2センサデータ記憶部118に蓄積される。画像のイメージは、図3に示すとおりである。
本例では、前述したようにヘルメット本体102の頭頂部に設置した第2センサ104を全方位カメラとしているので、当該カメラにより撮影される範囲は、半球の領域となる。
また、ヘルメット本体102が水平に被られるとすると、全方位カメラにより撮影される被写体の公物は、例えば、図3で示すように、天頂方向を円の中心として、周囲方向が円周方向であるような撮影画像として記録されることになる。
図4は、図3の撮影画像の座標例を示すものであり、図4(a)は、極座標表示の例を示し、図4(b)は、直交座標表示(b)の例を示している。
ここで、図4(a)に示す座標は、インテリジェントヘルメット101を被った人から四方の周囲を眺めた座標として円周状に展開したものであるため、南の左隣が東となっている。通常の東西南北とは並びが左右反転していることに注意する必要がある。
また、図4(b)は、図4(a)に示す極座標を直交座標に展開したものである。同図において、縦軸は仰角であり、頭の高さを仰角0度として、天頂を90度とした角度である。横軸は円周方向の角度θである。角度θは原点を南方向とし、東方向に向かう向きを正とする。図4(b)では左方向が正方向となっている。
記憶装置114に蓄積する画像は、上述した極座標、直交座標、の何れの蓄積方法により蓄積してもよい。これらの極座標、直交座標は、互いに幾何変換(画像の座標x、yを画像の座標x’、Y’に移動すること)できる。
ステップs202:
画像処理装置(演算装置)の画像評価部120は、位置補正情報を生成する。
以下、位置補正情報について図5を参照して説明する。
ヘルメット本体102は、常に南を向いているわけではない。故に、まず、全方位画像を、南を向いた状態に補正する処理を行う必要がある。
現在の画像、蓄積画像(過去の画像)ともに共通の処理であるが、例えば、南からθだけ東方向を向いて撮影したとすれば、全方位画像を南向きに補正するには、中心点に対して時計回りにθだけ回転させればよい。
すなわち、ステップs201で得られた現在の画像、及び、蓄積された画像(過去の画像)ともに南向きに画像を変換できる。
本例では、向きを南向きにした画像を補正後の画像と呼ぶことにする。
次に、補正後の現在の画像と最も似ている画像を、補正後の蓄積画像の中から1つを選ぶ。
例えば、図5(a)で示す補正後の現在の画像と最も似ている画像を、図5b〜図5eで示す補正後の蓄積画像の中から1つを選ぶ。
これは、補正後の現在の画像と補正後の蓄積画像との類似度を判定する既存の画像処理技術を利用することによりできる。換言すれば、一般的に周知の画像処理技術により、両者の画像の類似度を判定することにより、図5(a)の画像に最も近いものが図5(b)であると判定できる。
ここで、図5(b)から(e)のうち、(e)がナビゲーションされる先のターゲットになる位置の画像とする。
すると、ターゲットとする図5(e)の位置である緯度lat0、経度lon0と、現在位置に近いとされる図5(b)の位置の緯度lat1、経度lon1との差を求め、移動すべき方向を、南を原点として東方向に正として角度として算出する。
以下、その算出について図10、図11、及び図6を参照して説明する。
図10は、地球の地表上での座標を模式的に表している。同図において、図5(b)の画像を撮影した現在位置に近い点の座標をP1、図5(e)を撮影したターゲットの座標点をP0としている。
座標点P0の経度、緯度は、lon0,lat0であり、座標点P1の経度、緯度は、lon1,lat1である。
今、座標点P1からP0に向かうベクトルを考える。このベクトルが南方向のベクトルとなす角を、東方向周りを正としてΨとする。このΨが上述したステップs202で生成する位置補正情報である。
アークタン(arctan)を正接の逆関数とし、値域をラジアン表記で−π/2からπ/2とすれば、位置補正情報Ψは、経度方向の成分の正負で場合分けをして正接の定義から数1のように表される。
数1は、座標点P1からP0に向かうベクトルの南方向から成す角を表す式である。
数1の式で、Δlonは経度方向のベクトル成分、Δlatは緯度方向のベクトル成分である。これらのベクトル成分Δlat、及び、Δlonは、座標P0とP1の経度、緯度から導出する。
ここで、座標点P0とP1は地球の地表上で十分近いところにあると仮定し、地表面は半径rの真球であると仮定する。
地表上の経度、緯度が直交する座標だとして表記すれば、図11に示すとおりになる。同図において、座標点P1と緯度が同じで座標点P0と経度が同じ点を座標Paとすると、ベクトル成分ΔlonはP1とPaとの距離、ベクトル成分ΔlatはP0とPaの距離である。
角度をラジアン表記すれば、球面上の弧の長さとして、数2に示されるようにベクトル成分ΔlatとΔlonを導出できる。
数2は、Δlat、及び、Δlonを表す式である。
また、数1の式でアークタン(arctan)の引数にベクトル成分Δlat、とΔlonを入れることで、分母と分子で共通なrは約分でき、rは計算上不要となり、座標点P0と座標点P1の経度、緯度のみから位置補正情報Ψが計算できる。
なお、数2では、Δlon= r・cos(lat1)・(lon0−lon1)としたが、これは、座標点P1からP0への経路を座標P1からPaへのベクトルと座標点PaからP0へのベクトルに分解したためである。
この方法に変えて、図11に示す座標Pb経由で、座標点P1からP0へ向かうベクトルを、座標点P1からPbへのベクトルと、座標点PbからP0へのベクトルに分解することも可能である。
直交座標上で角度表記すると、両者の差異が分かりにくいが、球面である地表上では、緯度lon0と緯度lon1とでは経度の円周の半径が異なるため経度方向の距離Δlonを表す式が異なる。
座標点Pb経由になると、Δlon = r・cos(lat0)・(lon0−lon1)となる。この式で実施することも可能である。
ステップs203:
画像処理装置(演算装置)の画像評価部120は、予め定めた位置補正の許容値と上記lat0−lat1、lon0−lon1との比較を行う。
この比較結果、Ψが位置許容範囲内であれば、次にステップs205に移り、許容範囲外であれば、ステップs204に移る。
ステップs204:
画像処理装置(演算装置)の指示制御部121は、移動指示出力を、通信装置112、インテリジェントヘルメット101の通信部107を経由して第1出力部105に出力する。
ここで、移動指示出力とは、ステップs202で生成されたΨを移動すべき方向を示す画像情報として加工した出力である。
このΨを第1出力部105に出力、表示することにより、作業員は、作業行動のナビゲートを受けることができる。
図6は、移動指示出力を説明する図であり、図6(a)は、南を原点とした補正後の座標系を示し、図6(b)は、第1出力部105に表示する座標系を示す図である。
図6(b)に示すように、第1出力部105に表示される画像に対して、例えば、青色の縦線601を重畳表示することで、移動すべき向きを示すことができる。
これはインテリジェントヘルメット101を被った人が内側から第1出力部105を見たときに見えるビューである。
第1出力部105は、建物や人を透過的に見ると同時に、重畳表示された青色の縦線601を見る。
青色の縦線601は、インテリジェントヘルメット101にとっては水平面の周りの周囲方向の角度を示す情報である。
ただし、インテリジェントヘルメット101は、被る人がいつも同じ向きを見ているわけではないので第1出力部105に出力されるビューは、その向きに合わせて、情報の位置を変える必要がある。
図6(a)には、インテリジェントヘルメット101の向きによらず、南向きを原点とした補正後の出力イメージを示している。
同図に示すように、上述したステップs202で算出されたターゲットの位置方向は、南から東方向に位置補正情報Ψだけ移動した向きを一点鎖線の縦線602で表している。
一方、現在、たまたまインテリジェントヘルメット101が南から東方向にρだけ移動した向きを見ていたとする。この移動向き、つまり現在のヘルメットの向きを一点鎖線の縦線603で表している。
図6(b)には、第1出力部105に出力される例を示しているが、図6(a)のターゲットの位置方向の位置にある縦線602を、第1出力部105には、図6(b)に示すように青色の縦線601の位置に表示する。ここで、図6(b)は、図6(a)と比べて、東方向に−ρだけ移動しており、青色の縦線601は、前方の向きからは東方向にΨ−ρの位置にあることになる。
インテリジェントヘルメット101は、第1センサ103で向きを計測できるので、指示制御部121がその瞬間で適切な位置に青色の縦線601を出力することができる。
なお、このステップs204における移動指示出力を、第1出力部105への出力の代わりに、第2出力部106へ、Ψ−ρの角度の値を音声出力して実施することもできる。
次に、ステップs205からs207における処理手順について説明する。
これらのステップは、蓄積された画像と向き情報と、現在の画像と向き情報から、蓄積画像と同様のビューを得るために向くべき向きを画像処理によって抽出してナビゲーションをする処理手順である
以下、ステップs205からs207の詳細について説明する。
ステップs205:
第1センサ103により計測した向き及び第2センサ104により撮影した画像を通信部107、通信装置112を経由して第1センサデータ記憶部117、第2センサデータ記憶部118に記憶したものを向き補正用計測値とする。
ここで、向きとは、ヘルメット本体102の正面が向いている向きであり、南から東方向に向かった角度とする。
ステップs206:
画像評価部120は、向き補正情報を生成する。
ステップs202で説明したとおり、予め、ターゲットとする適切な位置及び向きで撮影した画像は、その際の向きの情報とともに、例えば、図9で示すデータ形式で蓄積データ記憶部119に記憶されている。
また、ステップs203における判定により、現在位置はターゲットとする適切な位置から許容範囲内に収まるほど近いと考えられるため、ターゲット先を特定するには、位置補正情報の他、向きの補正が必要となる。
以下、向きの補正について図7を参照して説明する。
図7(a)は、ステップs205における撮影された現在の画像(補正前)を示し、図7(b)は、蓄積されているターゲットとする適切な位置と向きの画像を示し、向き情報から南向きに回転して補正した蓄積画像(補正後)である。
これらの二つの画像は、位置はほぼ同じであるため、写っている被写体は同じである。しかし、向きが同じとは限らないため、両者には、原点を中心として回転方向にずれがある。
ここで、図7(b)に示す補正後の蓄積画像に、原点中心の回転変換を加えて現在の画像(図7a)と重ねるための回転角γを求める。
二つの画像間の差分を計算する一般的な画像処理の手法を用いて、画像間の差分が最も少ない回転角γを求める。
また、全方位画像の回転角γは南方向を原点として東方向を正として計測する。
図7では時計回りが正方向となる。ここで、図7(b)の補正後の蓄積画像は、γだけ回転すれば(a)の現在の画像と一致する。
ここでは、γが向き補正情報となる。画像処理技術を用いるので、画像のピクセルレベルの精度で適切な回転角γが得られる可能性がある。
ステップs207:
画像評価部120は、予め定めた向き補正の許容値と上記回転角γとの比較を行い、向き補正情報γが許容範囲内であれば、ステップs209に移り、許容範囲外であれば、ステップs208に移る。
次に、ステップs208、s209における処理について説明する。
ステップs208:
指示制御部121は、向き指示出力を、通信装置112、インテリジェントヘルメット101の通信部107を経由して第1出力部105に出力する。
ここで、向き指示出力とは、回転角γである。この回転角の数値を第1出力部105に表示する。これに変えて、第1出力部105に、例えば、図8に示す如く、見るべき向きを赤色の縦線801で第1出力部105に表示してもよい。
これは、インテリジェントヘルメット101を被った人が内側から第1出力部105を見たときに見える現在の画像である。
第1出力部105は、建物や人を透過的に見ると同時に、重畳表示された赤色の縦線801を見る。ここで、中央にある縦線は、中心線802であり、インテリジェントヘルメット101を被った人が見ている方向である。
中心から左方向にγだけ横方向に移動したところに赤色の縦線801を表示すればよい。
また、ステップs208における出力は、第1出力部105への出力する代わりに、第2出力部106へ、音声で回転角γの値を出力することもできる。
ステップs209:
指示制御部121は、第2センサ104に指示してカメラで撮影し、通信部107、通信装置112を介して画像を第2センサデータ記憶部118に蓄積する。
それに代えて以下でもよい。指示制御部121は、位置補正や向きが、予め定めた許容範囲内にある場合には、処理を完了する旨を示すデータを出力する。例えば、第1出力部105に、「この地点でこの向きです」というテキストを重畳表示することでもよい。また、その代わりに、第2出力部106から、「合致しました」と音声出力させてもよい。
以上述べた実施例1によれば、過去に蓄積された画像と同等のビューを得るような位置と向きまで作業者をナビゲートすることができる。
ここで、位置や向きのセンサの精度が十分細かくないときにでも、画像のピクセルレベルの精度にまで位置や向きを合わせられる可能性がある。
本実施例2は、実施例1における第1センサ103として、向きの他に位置をも取得し得るセンサを利用し、より広い空間からターゲットの周辺まで作業員をナビゲーションする例である。
図12は、本発明の実施例2を示し、作業行動支援ナビゲーションシステム100におけるナビゲーション(位置と向きのナビゲーション)の処理手順を示すフローチャートである。
図12のフローチャートに基づく動作は以下のとおりである。
ステップs1201:
第1センサ103は、位置と向きを計測する。
第1センサ103が計測した結果は、通信部107、通信装置112を経由して第1センサデータ記憶部117に記憶される。
ここで、位置とはヘルメット本体102がある位置であり、インテリジェントヘルメット101を被った人がいる場所を示している。また、位置は、緯度・経度で示される。
また、向きとは、ヘルメット本体102が向いている向きであり、インテリジェントヘルメット101を被った人が向いている向きを示している。また、向きは、南方向を原点として東方向に向かった角度で表している。
ステップs1202:
画像評価部120は、位置補正情報を生成する。
まず、実施例1と同様に、ターゲットとする適切な位置(座標点)をP0とし、ステップs1201で計測された位置(座標点)をP2とする。
ここで、座標点P0の経度、緯度をlon0,lat0とし、座標点P2の経度、緯度をlon2,lat2とする。
今、座標点P2からP0に向かうベクトルを考え、このベクトルが南方向のベクトルとなす角を、東方向周りを正としてσと置く。このσがステップs1202で生成する位置補正情報である。
上述したステップs202で説明した手順において、Ψをσに変更し、lon1をlon2に変更し、lat1をlat2に変更すれば、上述した数1と数2から、位置補正情報σの値がlon0、lon2、lat0、lat2から導き出せる。
また、上述したステップs202のときと同様に、経度方向の距離Δlonを、Pbを通る円周上で考えて、Δlon=r・cos(lat0)・(lon0−lon2)の式で実施してもよい。
ステップs1203:
画像評価部120は、予め定めた実施例2における位置補正の許容値と上記、lat0−lat2、lon0−lon2との比較を行う。
この比較結果、許容範囲内であれば、ステップs1205に移り、許容範囲外であれば、ステップs1204に移る。
ステップs1204:
指示制御部121は、移動指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。ここで、移動指示出力とは、ステップs1202で生成された位置補正情報σを移動すべき方向を示す画像情報として加工した出力である。
実施例1のステップs204の手続きと同様に、図6(b)に示すように、第1出力部105に対して青色の縦線601を重畳表示する。これにより、移動すべき向きを示す。
図6での説明において、Ψをσに変えれば、ステップs204での手続きでそのままステップs1204の手続きが説明できる。
すなわち、現在、インテリジェントヘルメット101が南から東方向にρだけ移動した向き603を見ていたとする。
図6(b)には第1出力部105に出力される例を示しているが、図6(a)の602の位置にある縦線を、第1出力部105には、図6(b)に示すように青色の縦線601の位置に表示する。
ここで、図6(b)は、図6(a)と比べて、東方向に−ρだけ移動しており、青色の縦線601は、前方の向きからは東方向にσ−ρの位置にあることになる。
インテリジェントヘルメット101は、第1センサ103で向きを計測できるので、指示制御部121がその瞬間で適切な位置に青色の縦線601を出力することができる。
なお、ステップs204における出力を、第1出力部105への出力する代わりに、第2出力部106へ、σ−ρの角度の値を音声出力して実施することもできる。
ステップs1205:
実施例1の図2おけるフローチャートs200の手続きと同一である。
以上の実施例によれば、ヘルメットに搭載した位置センサの計測結果と過去に蓄積された情報を元に、まずは作業者をターゲットとする位置の近傍に画像処理を用いずに簡易にナビゲーションできる。その後は、精度の高い実施例1の手法で画像のピクセル単位のナビゲーションが可能となる。
また、本実施例によれば、予め位置や向きと紐づけて蓄積しておくべき画像情報が、ターゲットとする位置の近傍付近のみで済むことになり、実施のために必要な事前情報を大幅に削減することができる。
本実施例は、位置と向きのセンサを用いずに、画像処理装置における画像処理の結果を元にナビゲーションをする例である。
ここでは、ヘルメット101を被った人(作業員)が、現在ほぼターゲットの位置にいるものとし、作業員の向きを調整する機能を提供する。以下、詳細に説明する。
本実施例は、図1に示す実施例1の構成から、第1センサ103、第1センサデータ記憶部117を除いたものであり、図9で示した蓄積データ形式を図13に示すように変更した場合である。図13は、ターゲットとする画像情報が日付とともに蓄積されている。
図14は、実施例3の処理の流れをフローチャートである。図14のフローチャートに基づく動作は以下のとおりである。
ステップs1401:
第2センサ104で画像を撮影する。第2センサ104で撮影した画像は通信部107、通信装置112を経由して第2センサデータ記憶部118に記憶される。ここでは、ヘルメット本体102の頂部に設置した全方位カメラの画像であるとし、図4に示されるような極座標系、または、直交座標系で、天頂を中心とした半球の領域が撮影されているとする。
ステップs1402:
画像評価部120は、画像の幾何変換を行う。
ここで、予め、ターゲットとする適切な位置及び向きでの画像が図13の形式で蓄積されているとする。
図15(a)は、向きを南向きに補正する前の画像を示す。図15(b)は、蓄積されている画像で、向きを南向きに補正する前の画像を示す。
これらの画像は、向きは南向きに補正されているわけではないが、いずれも、被写体は、時計回りに北、西、南、東の順番に写っている。図15(a)(b)に示すように、蓄積画像(b)を時計回りにδだけ中心の周りに回転させれば現在の画像(a)に重なるとすれば、δ方向だけ南から東、東から北、北から西、西から南の方向にヘルメットを被った人が向きを変えればよい。ここで、δを求めるには、通常の画像処理の方法で、二つの画像の差分を抽出してそれが最も小さくなる角度を求めればよい。s1402ではこの角度δが計算される。
ステップs1403:
画像評価部120は、予め定めてあった実施例3における許容範囲と上記、δとの比較を行う。その比較結果、δが許容範囲内であれば、ステップs1405に移り、許容範囲外であれば、ステップs1404に移る。
ステップs1404:
指示制御部121が、指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。
ここで、指示出力とは、s1402で計算された角度δを用いて、移動すべき方向を示す情報としたものである。この回転角の数値を第1出力部105に表示する。それに変えて、第1出力部105に、見るべき向きを赤色の縦線で第1出力部105に表示してもよい。その表示例を図16に示す。これはインテリジェントヘルメット101を被った人が内側から第1出力部105を見たときに見える現在の画像である。
第1出力部105は、建物や人を透過的に見ると同時に、重畳表示された赤色の縦線1601を見る。ここで、中央にある縦線は、中心線1602であり、インテリジェントヘルメット101を被った人が見ている方向である。
中心からδだけ左方向に移動したところに赤色の縦線1601を表示すればよい。また、この赤色の縦線1601の表示にさらに加えて、矢印1603を中心線の横に表示してもよい。ここで、δが正のときには左向きで、δが負のときには右向きで矢印が表示される。
これにより、目で赤色の縦線をあえて探さなくても目の前に向くべき方向がまず指示されることになる。また、このs1404の出力を、第1出力部105への出力の代わりに、第2出力部106へ、音声で回転角δの値を出力することもできる。
ステップs1405:
指示制御部121は、第2センサ104に指示してカメラで撮影し、通信部107、通信装置112を介して画像を第2センサデータ記憶部118に蓄積する。また、指示制御部121は、δが、予め定めた許容範囲内にある場合には、処理を完了する旨を示すデータを出力する。その代わりに、第1出力部105に、「合致しました」というテキストを重畳表示することでもよい。また、その代わりに、第2出力部106から、「合致しました」と音声出力させてもよい。
以上の実施例によれば、位置と向きの計測なしに、画像処理のみによって、作業者の向きを調整することができる。
本実施例では、第2の実施例と同様に、ヘルメット101の持つ位置と向きのセンサを用いることにより、まず、前半部において、より広い空間からまずは粗くターゲットとする位置の周辺へ作業者をナビゲーションする処理を実施し、後半部において、向きを修正するナビゲーションを実施するものである。後半部における向きを修正するナビゲーションでは、上述した実施例3のとおりとする。
本実施例の構成は、実施例2の構成と同様である。
図17は、本実施例の処理手順を示すフローチャートである。より広い空間から作業者をナビゲーションする処理は、上述した実施例2と同様だが、最後のステップs1705で作業員を呼び出すのは、つまり、向きのナビゲーションを行うのは、ステップs200ではなく、実施例3(図14)のステップs1400であるところが異なる。以下、詳細に説明する。
ステップs1701:
第1センサ103で位置と向きを計測する。
第1センサ103が計測した結果は、通信部107、通信装置112を経由して第1センサデータ記憶部117に記憶される。
ここで、位置とはヘルメット本体102がある位置であり、インテリジェントヘルメット101を被った人がいる場所が示唆される。また、位置は、緯度・経度で示される。また、向きとはヘルメット本体102が向いている向きであり、インテリジェントヘルメット101を被った人が向いている向きが示唆される。ここで南方向を原点として東方向に向かった角度で向きを表す。
ステップs1702:
画像評価部120は、位置補正情報を生成する。
ターゲットとする適切な位置は、予め、蓄積データ記憶部119に記憶されている。この蓄積データの形式を図18に示す。
ここで、ターゲットとする適切な位置(座標点)をP0とし、ステップs1701で計測された位置(座標点)をP2とし、座標点P0の経度、緯度をlon0, lat0とし、座標点P2の経度、緯度をlon2, lat2とする。そして、座標点P2からP0に向かうベクトルを考え、このベクトルが南方向のベクトルとなす角を、東方向周りを正としてσと置く。このσがs1702で生成する位置補正情報である。
実施例2のステップs1202で説明したのと同様に、位置補正情報σの値は、lon0、lon2、lat0、lat2から導ける。また、ステップs1202と同様に、経度方向の距離Δlonを、Pbを通る円周上で考えて、Δlon = r・cos(lat0)・(lon0-lon2)の式で実施してもよい。
ステップs1703:
画像評価部120が、予め定めた実施例4における位置補正の許容値と上記lat0−lat2、lon0−lon2との比較を行う。その比較結果、許容範囲内であれば、ステップs1705に移り、許容範囲外であれば、ステップs1704に移る。
ステップs1704:
指示制御部121が、移動指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。ここで、移動指示出力とは、ステップs1702で生成された位置補正情報σを移動すべき方向を示す情報として加工した出力である。これは実施例2のステップs1204と同様である。
ステップs1705:
向きのナビゲーション手続きは、実施例3(図14)おけるフローチャートs1400の手続きと同一である。
以上の実施例によれば、ヘルメットに搭載した位置センサの計測結果と過去に蓄積された情報を元に、まずは作業者をターゲットとする位置の近傍に画像処理を用いずに簡易にナビゲーションでき、その後は、向きのセンサを用いることなく、精度の高い実施例3の手法で画像のピクセル単位のナビゲーションが可能となる。
また、本実施例によれば、予め位置や向きと紐づけて蓄積しておくべき画像情報が、ターゲットとする位置の近傍付近のみで済むことになり、実施のために必要な事前情報を大幅に削減することができる。
また、本実施例によれば、精度の悪い向きのセンサによる誤差に影響されない。
本実施例では、全方位画像ではなく、通常のカメラ画像において、位置や向きのセンサを用いずに画像処理の結果を元にナビゲーションをする別の実施例である。ここでは、ヘルメットを被った人は現在ほぼターゲットの位置におり、さらに、ほぼターゲットの向きを向いているものとし、通常のカメラが据え付けてあるヘルメットを被った作業者の位置と向きを微調整する機能を提供する。
本実施例の構成は、実施例3の構成と同様だが、第2センサ104は、全方位カメラではない通常のカメラを少なくとも含む。全方位カメラの機能があってもよい。以下、処理手順について図19のフローチャートを参照して説明する。
ステップs1901:
第2センサ104は、画像を撮影する。ここでは通常のカメラを想定する。第2センサ104で撮影した画像は、通信部107、通信装置112を経由して第2センサデータ記憶部118に記憶される。
ステップs1902:
画像評価部120は、画像の幾何変換を行う。ここで、予め、ターゲットとする適切な位置及び向きでの画像が図13に示すデータ形式で蓄積されているとする。
図20(a)は、現在の画像であり、(b)は蓄積されている画像である。いずれも、向きを補正していない。(b)の蓄積画像から(a)の現在の画像まで、カメラの平行移動と中心周りの回転をこの順番で行って重ねられると仮定する。
まずは、カメラ座標でx軸方向にx、y軸方向にyだけ移動し、次に、中心周りにεだけ回転すれば重ねられるとする。その場合、カメラ側は、εだけ回転した後、x軸方向にx、y軸方向にyだけ移動すればよい。
ここで、x、y、εは、この3成分を予め決められた範囲内であらゆる可能性について(b)の画像を変更した画像を作成しておき、(a)の画像を比較して、差分が最も小さいものを求めることで見つけることができる。
ステップs1903:
画像評価部120は、予め定めた実施例5における許容範囲と上記、x、y、εとの比較を行う。
その比較結果、許容範囲内であれば、ステップs1905に移り、許容範囲外であれば、ステップs1904に移る。
ステップs1904:
指示制御部121が、指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。ここで、指示出力とは、s1902で計算されたx、y、εを、移動すべき情報としたものである。その表示例を図20(c)に示す。
これはインテリジェントヘルメット101を被った人が内側から第1出力部105を見たときに見える現在の画像である。第1出力部105は建物や人を透過的に見ると同時に、(c)のベクトル、及び回転角が図形で重畳表示される。ベクトル2001は画像上での差分ベクトルの向きと大きさを表示し、回転角2002は中心周りで回転する角度そのものを示す。
また、このs1904の出力を、第1出力部105への出力の代わりに、第2出力部106へ、ベクトルの成分x、y、及び、回転角εの値を音声出力することもできる。
ステップs1905:
指示制御部121は、第2センサ104に対して撮影の指示を行う。第2センサ104のカメラで撮影した画像を、通信部107、通信装置112を介して受信し、第2センサデータ記憶部118に蓄積する。また、その代わりに、第1出力部105に、「合致しました」というテキストを重畳表示することでもよい。また、その代わりに、第2出力部106から、「合致しました」と音声出力させてもよい。
以上の実施例によれば、位置と向きの計測なしに、画像処理のみによって、ターゲットの画像と同様な画像をとるように作業員の位置や向きを調整することができる。
本実施例では、図示していないが、前述した実施例5を、これまで説明した実施例1乃至4の最後の完了出力において、カメラによる撮影部分で用いることで、最終的なカメラの位置や向きの微修正をする。ここで、第2センサ104は、全方位カメラと通常カメラの両方を備える。また、第1センサ103は、位置または向きのセンサを備える。
本実施例によれば、位置や向きのセンサを利用しつつ、最後にはカメラの画像処理によってピクセルレベルの精度で蓄積された画像と同等の位置や向きでカメラの撮影ができるように作業員をナビゲーションできる。
本実施例は、上述したような作業行動支援ナビゲーションシステムを搭載し、自走式ロボットを作業員に見立てて、ロボット自身をナビゲーションし、必要な移動やカメラの回転を行って、過去に蓄積された画像と同様なビューの画像撮影を可能としたものである。
図21は、その自走式ロボットの構成を示す図である。
自走式ロボット2100は、ロボット本体を構成する情報処理機構2101、駆動機構2102、第1センサ2103、第2センサ2104、を備えている。
情報処理機構2101は、上述した作業行動支援ナビゲーションシステムと同様な処理機能を有するリモートシステム(図示せず)を内蔵している。
駆動機構2102は、ロボットが自走するための要素を含んでいる。例えば、電源あるいはエンジン、車輪、車軸、車軸を回転させる機構、適切な方向に曲がる/止まる機構、危険を感じて止まる機構、ロボットの位置や向きの変更のための制御情報を入力する入力装置(図1の入出力装置113に相当)、入力された制御情報を元に車軸を回転させたり止めたりする制御機構などが含まれる。
第1センサ2103、第2センサ2104は、情報処理機構2101の上面中央部に取り付けされている。
また、第1センサ2103は、ロボットの位置または向きを計測するセンサを少なくとも含み、第2センサ2104は、カメラであり、少なくとも全方位カメラの機能を有する。このカメラは、通常のカメラの機能も持ってもよい。第1センサ2103と第2センタ2014は、通信部(図1の通信部107に相当)を内包する構成とし、リモートシステム(図1のリモートシステム111に相当)と通信装置(図1の通信装置112に相当)を介して通信する。
入出力装置は、リモートシステムから出力される値を、ロボットの位置や向きの変更のための制御情報として、駆動機構2102に入力する。
そして、自走式ロボット2100は、センサ2103、2104から移動する目的地の方向と距離の情報、及び、その位置で向くべき向きを受取り、駆動機構2102が移動、及び水平方向の回転を行う。
本実施例によれば、無人の自走式のロボットが、過去の蓄積画像と同等のビューの画像を撮影するために適切な位置まで移動し、適切に向きを変えて撮影することができる。つまり、実施例1から実施例6で述べたことと同様なことをロボットにて実現できる。
また、本実施例では、自走式ロボット2100に情報処理機構2101を搭載したものであるが、情報処理機構2101を自走式ロボットと別にし、リモートのサーバ上に実現し、第1センサ2103、第2センサ2104、駆動機構2102とは通信装置112を介して通信するように変更してもよい。この変更例によれば、自走式ロボット2100が小型化・軽量化・低廉化するとともに、情報をリモートのサーバ上で一元管理でき、自走式ロボットを複数台管理することも容易となる。
また、本発明は、上記した方法を実行可能な形式にしたプログラム、及び、それを格納した記憶媒体として実施することも可能である。また、これらのプログラムを実行可能にしたサービスとして実施することも可能である。
なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成の他に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する当によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記憶媒体に置くことができる。
100 作業行動支援ナビゲーションシステム
101 インテリジェントヘルメット
102 ヘルメット本体
103 第1センサ
104 第2センサ
105 第1出力部
106 第2出力部
107 通信部
111 リモートシステム
112 通信装置
113 入出力装置
114 記憶装置
115 画像処理装置
116 バス
117 第1センサデータ記憶部
118 第2センサデータ記憶部
119 蓄積データ記憶部
120 画像評価部
121 指示制御部
401 ベクトル
601 青色の縦線
602 ターゲットの位置の方向
603 現在のヘルメットの向き
801 赤色の縦線
802 中心線
1601 赤色の縦線
1602 中心線
1603 矢印
2001 ベクトル
2002 回転角
2100 自走式ロボット
2101 情報処理機構
2102 駆動機構
2103 第1センサ
2104 第2センサ

Claims (12)

  1. カメラ機能を有するセンサと、ナビゲーションデータを表示する機能を有する出力部と、通信機能を有する通信部と、画像を記憶する記憶装置と、画像の幾何変換機能及びナビゲーション指示機能を有する画像処理装置と、を備えた作業行動支援ナビゲーションシステムであって、
    前記センサ、前記出力部、前記通信部は、移動品に取り付け、
    前記記憶装置は、
    前記センサにより撮影した現在の画像及び過去に撮影した過去の撮影画像を蓄積する記憶部を有し、
    前記画像処理装置は、画像幾何変換部、画像評価部、指示制御部、を有し、
    前記画像幾何変換部は、前記画像の幾何変換し、
    前記画像評価部は、幾何変換処理部により幾何変換された現在の画像と過去の撮影画像との差分が、予め定めた許容範囲内外にあるか否かを判定して画像評価し、
    前記指示制御部は、前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲外である場合、前記移動品を、ターゲットを示す位置までナビゲーション指示し、前記移動品のヘルメットを装着した作業員又は前記移動品のロボットによる作業行動を支援するナビゲーションデータを生成し、前記出力部に出力するように制御する、
    ことを特徴とする作業行動支援ナビゲーションシステム。
  2. 請求項1に記載された作業行動支援ナビゲーションシステムにおいて、
    前記指示制御部は、前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲内である場合、前記ナビゲーション指示を完了する旨を示すデータを出力する、又は前記センサのカメラに対して撮影の指示を実行する
    ことを特徴とする作業行動支援ナビゲーションシステム。
  3. 請求項1又は2に記載された作業行動支援ナビゲーションシステムにおいて、
    前記ナビゲーションデータは、前記移動品を装着した作業員又は作業用ロボットを所定のターゲットを示す位置、及び前記センサによる撮影向きを示すデータを含む、
    ことを特徴とする作業行動支援ナビゲーションシステム。
  4. 請求項1又は2に記載された作業行動支援ナビゲーションシステムにおいて、
    前記センサ、前記通信部及び前記出力部は、作業員が被る移動品であるヘルメット側に取り付けられ、
    前記記憶装置及び前記画像処理装置は、前記ヘルメットとは切り離したリモートシステム側に備え、
    前記ヘルメット側と前記リモートシステム側との間は、通信装置によりデータ送受可能に構成する、
    ことを特徴とする作業行動支援ナビゲーションシステム。
  5. 請求項1又は2に記載された作業行動支援ナビゲーションシステムにおいて、
    さらに、前記移動品に、向きを計測する向きセンサを取り付け、
    前記記憶装置は、前記過去に撮影した過去の撮影画像と前記向きセンサによる撮影向きを紐付けて記憶し、
    前記画像処理装置は、現在の画像と過去の撮影画像の向きが一致するように補正し、両者の画像の差分が小さくなる回転角を算出する、
    ことを特徴とする作業行動支援ナビゲーションシステム。
  6. 請求項1又は5に記載された作業行動支援ナビゲーションシステムにおいて、
    さらに、前記移動品に、位置を計測する位置センサを取り付け、
    前記記憶装置は、前記過去に撮影した過去の撮影画像と前記位置センサによる撮影向きを紐付けて記憶し、
    前記画像処理装置は、現在の画像と過去の撮影画像の位置の差分を用いてターゲットを示す位置までの移動量を算出する、
    ことを特徴とする作業行動支援ナビゲーションシステム。
  7. 請求項6に記載された作業行動支援ナビゲーションシステムにおいて、
    前記画像処理装置は、
    現在の画像と過去の撮影画像の位置の差分を算出し、当該差分が解消されるまで指示制御装置に対して移動指示を行い、かつ、前記現在の画像と過去の撮影画像との間で位置の差分が解消されたとき、現在の画像と過去の撮影画像の向きが一致するように補正し、両者の画像の差分が小さくなる回転角を算出する、
    ことを特徴とする作業行動支援ナビゲーションシステム。
  8. 請求項1又は2に記載された前記画像処理装置をサーバにより構成した作業行動支援ナビゲーションシステムにおける方法であって、
    前記サーバは、
    前記画像の幾何変換するステップ、
    前記幾何変換処理部により幾何変換された現在の画像と過去の撮影画像との差分が、予め定めた許容範囲内外にあるか否かを判定して画像評価するステップ、
    前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲外である場合、前記移動品を、ターゲットを示す位置までナビゲーション指示し、前記移動品のヘルメットを装着した作業員又は前記移動品のロボットによる作業行動を支援するナビゲーションデータを生成し、前記出力部に出力するように制御するステップ、
    を備えたことを特徴とする作業行動支援ナビゲーション方法。
  9. 請求項8に記載された各ステップをサーバのコンピュータに実行させることを特徴とする作業行動支援ナビゲーション用コンピュータプログラム。
  10. 請求項8又は9に記載された作業行動支援ナビゲーション用コンピュータプログラムを記憶した記憶媒体。
  11. 請求項1から7の何れか1つに記載された作業行動支援ナビゲーションシステムにおけるセンサ、出力部、通信部を搭載したインテリジェントヘルメット。
  12. 請求項1から7の何れか1つに記載された作業行動支援ナビゲーションシステムを搭載した自走式ロボット。
JP2015139357A 2015-07-13 2015-07-13 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット Active JP6630504B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015139357A JP6630504B2 (ja) 2015-07-13 2015-07-13 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015139357A JP6630504B2 (ja) 2015-07-13 2015-07-13 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット

Publications (2)

Publication Number Publication Date
JP2017020922A JP2017020922A (ja) 2017-01-26
JP6630504B2 true JP6630504B2 (ja) 2020-01-15

Family

ID=57888087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015139357A Active JP6630504B2 (ja) 2015-07-13 2015-07-13 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット

Country Status (1)

Country Link
JP (1) JP6630504B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
JP7285108B2 (ja) * 2019-03-28 2023-06-01 株式会社フジタ 自動巡回システム
JP7322575B2 (ja) * 2019-07-31 2023-08-08 株式会社リコー 検査結果管理サーバ、通信システム、通信方法、及びプログラム
CN113932816B (zh) * 2021-11-16 2023-09-22 北京中科海讯数字科技股份有限公司 基于水声数据综合态势下的航迹优化方法
CN116625409B (zh) * 2023-07-14 2023-10-20 享刻智能技术(北京)有限公司 动态定位性能评价方法、设备以及系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4798450B2 (ja) * 2006-12-07 2011-10-19 株式会社Ihi ナビゲーション装置とその制御方法
JP4957920B2 (ja) * 2008-12-18 2012-06-20 株式会社安川電機 移動体の教示方法及び移動体の制御装置並びに移動体システム
JP5974433B2 (ja) * 2011-08-03 2016-08-23 日本精機株式会社 周辺画像表示装置
JP2012095283A (ja) * 2011-09-13 2012-05-17 Pioneer Electronic Corp 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム
JP2016118391A (ja) * 2013-04-15 2016-06-30 パナソニック株式会社 サーバ装置、携帯端末装置及びナビゲーションシステム
JP6235860B2 (ja) * 2013-10-25 2017-11-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP2015090562A (ja) * 2013-11-05 2015-05-11 カシオ計算機株式会社 画像処理装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2017020922A (ja) 2017-01-26

Similar Documents

Publication Publication Date Title
JP6630504B2 (ja) 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット
CN107402000B (zh) 用于将显示装置相对于测量仪器相互关联的方法和系统
US10852847B2 (en) Controller tracking for multiple degrees of freedom
US20160269631A1 (en) Image generation method, system, and apparatus
Teixeira et al. Teleoperation using google glass and ar, drone for structural inspection
KR20180075191A (ko) 무인 이동체를 제어하기 위한 방법 및 전자 장치
JP2015125641A (ja) 情報処理装置、その制御方法、及びプログラム
WO2020195875A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10388027B2 (en) Detection method, display apparatus, and detection system
JP2011169658A (ja) 撮影位置特定装置および撮影位置特定方法
JP2009258884A (ja) ユーザインタフェイス
JP7414395B2 (ja) 情報投影システム、制御装置、及び情報投影制御方法
US10509819B2 (en) Comparative geolocation system
JP6815290B2 (ja) 物体識別システム
US20220291379A1 (en) Surveying device and surveying method using the surveying device
KR20180060403A (ko) 영상 기반의 드론 제어장치
CN109032330A (zh) 无缝桥接ar装置和ar系统
US20200242797A1 (en) Augmented reality location and display using a user-aligned fiducial marker
JP7207915B2 (ja) 投影システム、投影方法及びプログラム
JP2018056845A (ja) 作業支援装置、システム、方法及びプログラム
JP2017084323A (ja) 情報処理装置、方法及びプログラム
JP6488946B2 (ja) 制御方法、プログラム及び制御装置
US10845603B2 (en) Imaging assisting device and program
JP2019066196A (ja) 傾き測定装置及び傾き測定方法
EP4102325A1 (en) Method and system for collecting field operation situation and facility information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191209

R150 Certificate of patent or registration of utility model

Ref document number: 6630504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250