JP6630504B2 - 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット - Google Patents
作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット Download PDFInfo
- Publication number
- JP6630504B2 JP6630504B2 JP2015139357A JP2015139357A JP6630504B2 JP 6630504 B2 JP6630504 B2 JP 6630504B2 JP 2015139357 A JP2015139357 A JP 2015139357A JP 2015139357 A JP2015139357 A JP 2015139357A JP 6630504 B2 JP6630504 B2 JP 6630504B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- navigation system
- support navigation
- sensor
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 230000009471 action Effects 0.000 title claims description 31
- 238000004590 computer program Methods 0.000 title claims description 6
- 238000004891 communication Methods 0.000 claims description 64
- 238000012545 processing Methods 0.000 claims description 58
- 238000011156 evaluation Methods 0.000 claims description 31
- 230000009466 transformation Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000012937 correction Methods 0.000 description 34
- 239000013598 vector Substances 0.000 description 28
- 238000013500 data storage Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 18
- 230000007246 mechanism Effects 0.000 description 17
- 230000006399 behavior Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000010365 information processing Effects 0.000 description 6
- 101100182248 Caenorhabditis elegans lat-2 gene Proteins 0.000 description 5
- 101150004293 lon2 gene Proteins 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 101100182247 Caenorhabditis elegans lat-1 gene Proteins 0.000 description 4
- 101150061388 LON1 gene Proteins 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- -1 lat0 Proteins 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
しかし、作業者の作業行動をナビゲートすることまでは想定されていない。そのため、作業をすべき設備を特定し、作業ミス低減、確実な作業遂行を支援することが期待できるという効果に留まる。
しかし、特許文献1と同様に作業者の作業行動、例えば、これから作業を開始する際、カメラにて撮影した現在の画像や予め蓄積した過去の画像を元に作業者の行動を支援するナビゲーション情報を生成し、表示することまでは想定されていない。そのため、目の前の対象物、つまり、予め定められた工場内の案内やマニュアル、など、特定の情報を表示する機能に留まり、作業者への効果が限定的である。換言すれば、現在の画像や予め蓄積した過去の画像を融合して初めて明らかになる作業行動を支援するためのナビゲーション情報、例えば、過去の画像を収集した撮影アングル(構図)、位置、方向、角度に係る情報を含み、幾何変換されたナビゲーションの情報を生成し、表示するようなことまでは何ら考慮されていない。
カメラ機能を有するセンサと、ナビゲーションデータを表示する機能を有する出力部と、通信機能を有する通信部と、画像を記憶する記憶装置と、画像の幾何変換機能及びナビゲーション指示機能を有する画像処理装置と、を備えた作業行動支援ナビゲーションシステムであって、
前記センサ、前記出力部、前記通信部は、移動品に取り付け、
前記記憶装置は、
前記センサにより撮影した現在の画像及び過去に撮影した過去の撮影画像を蓄積する記憶部を有し、
前記画像処理装置は、画像幾何変換部、画像評価部、指示制御部、を有し、
前記画像幾何変換部は、前記画像の幾何変換し、
前記画像評価部は、幾何変換処理部により幾何変換された現在の画像と過去の撮影画像との差分が、予め定めた許容範囲内外にあるか否かを判定して画像評価し、
前記指示制御部は、前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲外である場合、前記移動品を、ターゲットを示す位置までナビゲーション指示し、前記移動品のヘルメットを装着した作業員又は前記移動品のロボットによる作業行動を支援するナビゲーションデータを生成し、前記出力部に出力するように制御する、
ことを特徴とする。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
土木や建設現場における作業員は、土木や建設などの現場において、ヘルメットを装着し、ハンズフリーでの作業が求められる。
また、作業員は、これから公物、例えば、ビルや工場などの建造物の点検・保守・運用などで、過去に実施したことのある作業現場にあっては、単に目的とする作業現場や作業位置(ターゲット)まで移動するだけでなく、当該ターゲットにおいて、例えば、過去と同様な位置、向きで所望の計測や公物の写真撮影(画像撮影)を行いたい場合がある。
このように、過去と同様な位置、向きで計測や画像撮影を行うことにより、過去に実施した点検、保守、などの作業時の写真(画像)と比較でき、公物(建造物など)が前回点検時と比べてどのように劣化しているかを視覚的に把握する上で極めて有効である。
そのためには、作業員を前回(過去)の点検時における撮影位置(ターゲット)までナビゲートし、かつ、写真撮影の構図、方向、角度、などのアングルを適確に作業員に提示する必要がある。
なお、以下の説明では、「テーブル」等の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていてもよい。また、データ構造に依存しないことを示すために「データ」を「情報」と呼ぶことができる。
また、プログラムは、プロセッサ、例えば、MP(Micro Processor)やCPU(Central Processing Unit)によって実行されるもので、定められた処理をするものである。なお、プロセッサは、適宜に記憶資源(例えばメモリ)及び通信インターフェース装置(例えば、通信ポート)を用いながら処理を行うため、処理の主語がプロセッサとされてもよい。プロセッサは、CPUの他に専用ハードウェアを有していてもよい。コンピュータプログラムは、プログラムソースから各コンピュータにインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバ又は記憶メディアなどで提供されるものであってもよい。
これにより、作業員を過去に撮影された画像を撮影した場所のみならず、過去に撮影した画像と同等のビューを得る位置と向きまでナビゲーションすることができる。
第1センサ103は、少なくともヘルメットの向きを示すデータを取得するセンサである。
第2センサ104は、公物(建造物や人など)を撮影し、画像データを出力するカメラである。
カメラは、ヘルメット本体102の頭部(頂点)に取り付けられた全方位カメラを想定し、所定の撮影位置及び向きで公物(建造物や人など)を撮影する。
なお、カメラは、後述するように全方位カメラに代えて一般的なカメラを使用することもできる。
第1出力部105は、作業員がインテリジェントヘルメット101を被ったとき、作業員の目の前に位置し、つまり、インテリジェントヘルメット101を被った状態で作業員が表示内容を視認できる箇所に位置し、本来見えるべき情景に加えて、本来は見えないはずの情報、例えば、画像やリモートシステム111側から送信される指示出力を含むデータを重畳する表示装置(ディスプレイ)である。表示装置(ディスプレイ)は、典型的には一般に入手できるヘッドマウントディスプレイで実現できる。ヘッドマウントディスプレイは、眼前の風景が透過的に見えるのに加えて、画像(画像データ)を重畳表示して見ることができる。
第2出力部106は、作業員の両耳に対向して位置するスピーカである。
本例では、出力装置として、第1出力部105と第2出力部106の2つを備えたものであるが、少なくともその何れか1つあればよい。
これらの蓄積データは、インテリジェントヘルメット101側の通信部107からリモートシステム111側の通信装置112を介して取り込んだものであるが、入出力装置113の入力部により入力されるデータを含んでもよい。
第2センサ104で取得したデータは、典型的にはカメラで撮影された位置情報を含まない写真(画像)である。
まず、ステップs201からs204における処理手順について説明する。
これらのステップは、第1、第2のセンサ104、103により撮影、計測した現在の画像と向きを示す情報(位置情報は含まない)に対して、所望の画像処理(幾何変換)を行うことによって、蓄積データ記憶部119に蓄積された過去の画像の位置(緯度・経度)から、当該現在の画像を撮影した位置に近い過去の画像を見つけ出し、さらに、当該撮影位置のターゲットにまでナビゲーションする処理手順である。
以下、ステップs201からs204の詳細について説明する。
インテリジェントヘルメット101における第1センサ103は、当該センサの向きによりヘルメットがどの方向に向いているか(作業員がターゲットの公物を見ている向き)を計測し、向きデータを出力する。
ここで、向きとは、水平面上での方位を示す。例えば、南方向を原点とし、東方向に向かった角度で向きを表す。
また、第2センサ104は、公物を撮影し、当該公物を示す画像(画像データ)を出力する。
これらの向きデータや画像データは、通信部107を介してリモートシステム111側における通信装置112に送信される。
向きデータは、第1センサデータ記憶部117に蓄積され、画像データは、現在の画像として第2センサデータ記憶部118に蓄積される。画像のイメージは、図3に示すとおりである。
また、ヘルメット本体102が水平に被られるとすると、全方位カメラにより撮影される被写体の公物は、例えば、図3で示すように、天頂方向を円の中心として、周囲方向が円周方向であるような撮影画像として記録されることになる。
ここで、図4(a)に示す座標は、インテリジェントヘルメット101を被った人から四方の周囲を眺めた座標として円周状に展開したものであるため、南の左隣が東となっている。通常の東西南北とは並びが左右反転していることに注意する必要がある。
画像処理装置(演算装置)の画像評価部120は、位置補正情報を生成する。
以下、位置補正情報について図5を参照して説明する。
ヘルメット本体102は、常に南を向いているわけではない。故に、まず、全方位画像を、南を向いた状態に補正する処理を行う必要がある。
現在の画像、蓄積画像(過去の画像)ともに共通の処理であるが、例えば、南からθだけ東方向を向いて撮影したとすれば、全方位画像を南向きに補正するには、中心点に対して時計回りにθだけ回転させればよい。
本例では、向きを南向きにした画像を補正後の画像と呼ぶことにする。
例えば、図5(a)で示す補正後の現在の画像と最も似ている画像を、図5b〜図5eで示す補正後の蓄積画像の中から1つを選ぶ。
すると、ターゲットとする図5(e)の位置である緯度lat0、経度lon0と、現在位置に近いとされる図5(b)の位置の緯度lat1、経度lon1との差を求め、移動すべき方向を、南を原点として東方向に正として角度として算出する。
図10は、地球の地表上での座標を模式的に表している。同図において、図5(b)の画像を撮影した現在位置に近い点の座標をP1、図5(e)を撮影したターゲットの座標点をP0としている。
座標点P0の経度、緯度は、lon0,lat0であり、座標点P1の経度、緯度は、lon1,lat1である。
今、座標点P1からP0に向かうベクトルを考える。このベクトルが南方向のベクトルとなす角を、東方向周りを正としてΨとする。このΨが上述したステップs202で生成する位置補正情報である。
角度をラジアン表記すれば、球面上の弧の長さとして、数2に示されるようにベクトル成分ΔlatとΔlonを導出できる。
座標点Pb経由になると、Δlon = r・cos(lat0)・(lon0−lon1)となる。この式で実施することも可能である。
画像処理装置(演算装置)の画像評価部120は、予め定めた位置補正の許容値と上記lat0−lat1、lon0−lon1との比較を行う。
画像処理装置(演算装置)の指示制御部121は、移動指示出力を、通信装置112、インテリジェントヘルメット101の通信部107を経由して第1出力部105に出力する。
このΨを第1出力部105に出力、表示することにより、作業員は、作業行動のナビゲートを受けることができる。
これはインテリジェントヘルメット101を被った人が内側から第1出力部105を見たときに見えるビューである。
ただし、インテリジェントヘルメット101は、被る人がいつも同じ向きを見ているわけではないので第1出力部105に出力されるビューは、その向きに合わせて、情報の位置を変える必要がある。
一方、現在、たまたまインテリジェントヘルメット101が南から東方向にρだけ移動した向きを見ていたとする。この移動向き、つまり現在のヘルメットの向きを一点鎖線の縦線603で表している。
これらのステップは、蓄積された画像と向き情報と、現在の画像と向き情報から、蓄積画像と同様のビューを得るために向くべき向きを画像処理によって抽出してナビゲーションをする処理手順である
以下、ステップs205からs207の詳細について説明する。
第1センサ103により計測した向き及び第2センサ104により撮影した画像を通信部107、通信装置112を経由して第1センサデータ記憶部117、第2センサデータ記憶部118に記憶したものを向き補正用計測値とする。
ここで、向きとは、ヘルメット本体102の正面が向いている向きであり、南から東方向に向かった角度とする。
画像評価部120は、向き補正情報を生成する。
ステップs202で説明したとおり、予め、ターゲットとする適切な位置及び向きで撮影した画像は、その際の向きの情報とともに、例えば、図9で示すデータ形式で蓄積データ記憶部119に記憶されている。
また、ステップs203における判定により、現在位置はターゲットとする適切な位置から許容範囲内に収まるほど近いと考えられるため、ターゲット先を特定するには、位置補正情報の他、向きの補正が必要となる。
図7(a)は、ステップs205における撮影された現在の画像(補正前)を示し、図7(b)は、蓄積されているターゲットとする適切な位置と向きの画像を示し、向き情報から南向きに回転して補正した蓄積画像(補正後)である。
二つの画像間の差分を計算する一般的な画像処理の手法を用いて、画像間の差分が最も少ない回転角γを求める。
図7では時計回りが正方向となる。ここで、図7(b)の補正後の蓄積画像は、γだけ回転すれば(a)の現在の画像と一致する。
ここでは、γが向き補正情報となる。画像処理技術を用いるので、画像のピクセルレベルの精度で適切な回転角γが得られる可能性がある。
画像評価部120は、予め定めた向き補正の許容値と上記回転角γとの比較を行い、向き補正情報γが許容範囲内であれば、ステップs209に移り、許容範囲外であれば、ステップs208に移る。
ステップs208:
指示制御部121は、向き指示出力を、通信装置112、インテリジェントヘルメット101の通信部107を経由して第1出力部105に出力する。
これは、インテリジェントヘルメット101を被った人が内側から第1出力部105を見たときに見える現在の画像である。
中心から左方向にγだけ横方向に移動したところに赤色の縦線801を表示すればよい。
指示制御部121は、第2センサ104に指示してカメラで撮影し、通信部107、通信装置112を介して画像を第2センサデータ記憶部118に蓄積する。
それに代えて以下でもよい。指示制御部121は、位置補正や向きが、予め定めた許容範囲内にある場合には、処理を完了する旨を示すデータを出力する。例えば、第1出力部105に、「この地点でこの向きです」というテキストを重畳表示することでもよい。また、その代わりに、第2出力部106から、「合致しました」と音声出力させてもよい。
ここで、位置や向きのセンサの精度が十分細かくないときにでも、画像のピクセルレベルの精度にまで位置や向きを合わせられる可能性がある。
図12のフローチャートに基づく動作は以下のとおりである。
第1センサ103は、位置と向きを計測する。
第1センサ103が計測した結果は、通信部107、通信装置112を経由して第1センサデータ記憶部117に記憶される。
ここで、位置とはヘルメット本体102がある位置であり、インテリジェントヘルメット101を被った人がいる場所を示している。また、位置は、緯度・経度で示される。
また、向きとは、ヘルメット本体102が向いている向きであり、インテリジェントヘルメット101を被った人が向いている向きを示している。また、向きは、南方向を原点として東方向に向かった角度で表している。
画像評価部120は、位置補正情報を生成する。
まず、実施例1と同様に、ターゲットとする適切な位置(座標点)をP0とし、ステップs1201で計測された位置(座標点)をP2とする。
ここで、座標点P0の経度、緯度をlon0,lat0とし、座標点P2の経度、緯度をlon2,lat2とする。
今、座標点P2からP0に向かうベクトルを考え、このベクトルが南方向のベクトルとなす角を、東方向周りを正としてσと置く。このσがステップs1202で生成する位置補正情報である。
画像評価部120は、予め定めた実施例2における位置補正の許容値と上記、lat0−lat2、lon0−lon2との比較を行う。
この比較結果、許容範囲内であれば、ステップs1205に移り、許容範囲外であれば、ステップs1204に移る。
指示制御部121は、移動指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。ここで、移動指示出力とは、ステップs1202で生成された位置補正情報σを移動すべき方向を示す画像情報として加工した出力である。
実施例1のステップs204の手続きと同様に、図6(b)に示すように、第1出力部105に対して青色の縦線601を重畳表示する。これにより、移動すべき向きを示す。
図6(b)には第1出力部105に出力される例を示しているが、図6(a)の602の位置にある縦線を、第1出力部105には、図6(b)に示すように青色の縦線601の位置に表示する。
インテリジェントヘルメット101は、第1センサ103で向きを計測できるので、指示制御部121がその瞬間で適切な位置に青色の縦線601を出力することができる。
実施例1の図2おけるフローチャートs200の手続きと同一である。
また、本実施例によれば、予め位置や向きと紐づけて蓄積しておくべき画像情報が、ターゲットとする位置の近傍付近のみで済むことになり、実施のために必要な事前情報を大幅に削減することができる。
ここでは、ヘルメット101を被った人(作業員)が、現在ほぼターゲットの位置にいるものとし、作業員の向きを調整する機能を提供する。以下、詳細に説明する。
第2センサ104で画像を撮影する。第2センサ104で撮影した画像は通信部107、通信装置112を経由して第2センサデータ記憶部118に記憶される。ここでは、ヘルメット本体102の頂部に設置した全方位カメラの画像であるとし、図4に示されるような極座標系、または、直交座標系で、天頂を中心とした半球の領域が撮影されているとする。
画像評価部120は、画像の幾何変換を行う。
ここで、予め、ターゲットとする適切な位置及び向きでの画像が図13の形式で蓄積されているとする。
これらの画像は、向きは南向きに補正されているわけではないが、いずれも、被写体は、時計回りに北、西、南、東の順番に写っている。図15(a)(b)に示すように、蓄積画像(b)を時計回りにδだけ中心の周りに回転させれば現在の画像(a)に重なるとすれば、δ方向だけ南から東、東から北、北から西、西から南の方向にヘルメットを被った人が向きを変えればよい。ここで、δを求めるには、通常の画像処理の方法で、二つの画像の差分を抽出してそれが最も小さくなる角度を求めればよい。s1402ではこの角度δが計算される。
画像評価部120は、予め定めてあった実施例3における許容範囲と上記、δとの比較を行う。その比較結果、δが許容範囲内であれば、ステップs1405に移り、許容範囲外であれば、ステップs1404に移る。
指示制御部121が、指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。
ここで、指示出力とは、s1402で計算された角度δを用いて、移動すべき方向を示す情報としたものである。この回転角の数値を第1出力部105に表示する。それに変えて、第1出力部105に、見るべき向きを赤色の縦線で第1出力部105に表示してもよい。その表示例を図16に示す。これはインテリジェントヘルメット101を被った人が内側から第1出力部105を見たときに見える現在の画像である。
中心からδだけ左方向に移動したところに赤色の縦線1601を表示すればよい。また、この赤色の縦線1601の表示にさらに加えて、矢印1603を中心線の横に表示してもよい。ここで、δが正のときには左向きで、δが負のときには右向きで矢印が表示される。
指示制御部121は、第2センサ104に指示してカメラで撮影し、通信部107、通信装置112を介して画像を第2センサデータ記憶部118に蓄積する。また、指示制御部121は、δが、予め定めた許容範囲内にある場合には、処理を完了する旨を示すデータを出力する。その代わりに、第1出力部105に、「合致しました」というテキストを重畳表示することでもよい。また、その代わりに、第2出力部106から、「合致しました」と音声出力させてもよい。
図17は、本実施例の処理手順を示すフローチャートである。より広い空間から作業者をナビゲーションする処理は、上述した実施例2と同様だが、最後のステップs1705で作業員を呼び出すのは、つまり、向きのナビゲーションを行うのは、ステップs200ではなく、実施例3(図14)のステップs1400であるところが異なる。以下、詳細に説明する。
第1センサ103で位置と向きを計測する。
第1センサ103が計測した結果は、通信部107、通信装置112を経由して第1センサデータ記憶部117に記憶される。
ここで、位置とはヘルメット本体102がある位置であり、インテリジェントヘルメット101を被った人がいる場所が示唆される。また、位置は、緯度・経度で示される。また、向きとはヘルメット本体102が向いている向きであり、インテリジェントヘルメット101を被った人が向いている向きが示唆される。ここで南方向を原点として東方向に向かった角度で向きを表す。
画像評価部120は、位置補正情報を生成する。
ターゲットとする適切な位置は、予め、蓄積データ記憶部119に記憶されている。この蓄積データの形式を図18に示す。
画像評価部120が、予め定めた実施例4における位置補正の許容値と上記lat0−lat2、lon0−lon2との比較を行う。その比較結果、許容範囲内であれば、ステップs1705に移り、許容範囲外であれば、ステップs1704に移る。
指示制御部121が、移動指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。ここで、移動指示出力とは、ステップs1702で生成された位置補正情報σを移動すべき方向を示す情報として加工した出力である。これは実施例2のステップs1204と同様である。
向きのナビゲーション手続きは、実施例3(図14)おけるフローチャートs1400の手続きと同一である。
また、本実施例によれば、予め位置や向きと紐づけて蓄積しておくべき画像情報が、ターゲットとする位置の近傍付近のみで済むことになり、実施のために必要な事前情報を大幅に削減することができる。
また、本実施例によれば、精度の悪い向きのセンサによる誤差に影響されない。
第2センサ104は、画像を撮影する。ここでは通常のカメラを想定する。第2センサ104で撮影した画像は、通信部107、通信装置112を経由して第2センサデータ記憶部118に記憶される。
画像評価部120は、画像の幾何変換を行う。ここで、予め、ターゲットとする適切な位置及び向きでの画像が図13に示すデータ形式で蓄積されているとする。
画像評価部120は、予め定めた実施例5における許容範囲と上記、x、y、εとの比較を行う。
その比較結果、許容範囲内であれば、ステップs1905に移り、許容範囲外であれば、ステップs1904に移る。
指示制御部121が、指示出力を通信装置112、通信部107を経由して第1出力部105に出力する。ここで、指示出力とは、s1902で計算されたx、y、εを、移動すべき情報としたものである。その表示例を図20(c)に示す。
また、このs1904の出力を、第1出力部105への出力の代わりに、第2出力部106へ、ベクトルの成分x、y、及び、回転角εの値を音声出力することもできる。
指示制御部121は、第2センサ104に対して撮影の指示を行う。第2センサ104のカメラで撮影した画像を、通信部107、通信装置112を介して受信し、第2センサデータ記憶部118に蓄積する。また、その代わりに、第1出力部105に、「合致しました」というテキストを重畳表示することでもよい。また、その代わりに、第2出力部106から、「合致しました」と音声出力させてもよい。
自走式ロボット2100は、ロボット本体を構成する情報処理機構2101、駆動機構2102、第1センサ2103、第2センサ2104、を備えている。
また、第1センサ2103は、ロボットの位置または向きを計測するセンサを少なくとも含み、第2センサ2104は、カメラであり、少なくとも全方位カメラの機能を有する。このカメラは、通常のカメラの機能も持ってもよい。第1センサ2103と第2センタ2014は、通信部(図1の通信部107に相当)を内包する構成とし、リモートシステム(図1のリモートシステム111に相当)と通信装置(図1の通信装置112に相当)を介して通信する。
そして、自走式ロボット2100は、センサ2103、2104から移動する目的地の方向と距離の情報、及び、その位置で向くべき向きを受取り、駆動機構2102が移動、及び水平方向の回転を行う。
また、本実施例では、自走式ロボット2100に情報処理機構2101を搭載したものであるが、情報処理機構2101を自走式ロボットと別にし、リモートのサーバ上に実現し、第1センサ2103、第2センサ2104、駆動機構2102とは通信装置112を介して通信するように変更してもよい。この変更例によれば、自走式ロボット2100が小型化・軽量化・低廉化するとともに、情報をリモートのサーバ上で一元管理でき、自走式ロボットを複数台管理することも容易となる。
また、本発明は、上記した方法を実行可能な形式にしたプログラム、及び、それを格納した記憶媒体として実施することも可能である。また、これらのプログラムを実行可能にしたサービスとして実施することも可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する当によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記憶媒体に置くことができる。
101 インテリジェントヘルメット
102 ヘルメット本体
103 第1センサ
104 第2センサ
105 第1出力部
106 第2出力部
107 通信部
111 リモートシステム
112 通信装置
113 入出力装置
114 記憶装置
115 画像処理装置
116 バス
117 第1センサデータ記憶部
118 第2センサデータ記憶部
119 蓄積データ記憶部
120 画像評価部
121 指示制御部
401 ベクトル
601 青色の縦線
602 ターゲットの位置の方向
603 現在のヘルメットの向き
801 赤色の縦線
802 中心線
1601 赤色の縦線
1602 中心線
1603 矢印
2001 ベクトル
2002 回転角
2100 自走式ロボット
2101 情報処理機構
2102 駆動機構
2103 第1センサ
2104 第2センサ
Claims (12)
- カメラ機能を有するセンサと、ナビゲーションデータを表示する機能を有する出力部と、通信機能を有する通信部と、画像を記憶する記憶装置と、画像の幾何変換機能及びナビゲーション指示機能を有する画像処理装置と、を備えた作業行動支援ナビゲーションシステムであって、
前記センサ、前記出力部、前記通信部は、移動品に取り付け、
前記記憶装置は、
前記センサにより撮影した現在の画像及び過去に撮影した過去の撮影画像を蓄積する記憶部を有し、
前記画像処理装置は、画像幾何変換部、画像評価部、指示制御部、を有し、
前記画像幾何変換部は、前記画像の幾何変換し、
前記画像評価部は、幾何変換処理部により幾何変換された現在の画像と過去の撮影画像との差分が、予め定めた許容範囲内外にあるか否かを判定して画像評価し、
前記指示制御部は、前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲外である場合、前記移動品を、ターゲットを示す位置までナビゲーション指示し、前記移動品のヘルメットを装着した作業員又は前記移動品のロボットによる作業行動を支援するナビゲーションデータを生成し、前記出力部に出力するように制御する、
ことを特徴とする作業行動支援ナビゲーションシステム。 - 請求項1に記載された作業行動支援ナビゲーションシステムにおいて、
前記指示制御部は、前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲内である場合、前記ナビゲーション指示を完了する旨を示すデータを出力する、又は前記センサのカメラに対して撮影の指示を実行する
ことを特徴とする作業行動支援ナビゲーションシステム。 - 請求項1又は2に記載された作業行動支援ナビゲーションシステムにおいて、
前記ナビゲーションデータは、前記移動品を装着した作業員又は作業用ロボットを所定のターゲットを示す位置、及び前記センサによる撮影向きを示すデータを含む、
ことを特徴とする作業行動支援ナビゲーションシステム。 - 請求項1又は2に記載された作業行動支援ナビゲーションシステムにおいて、
前記センサ、前記通信部及び前記出力部は、作業員が被る移動品であるヘルメット側に取り付けられ、
前記記憶装置及び前記画像処理装置は、前記ヘルメットとは切り離したリモートシステム側に備え、
前記ヘルメット側と前記リモートシステム側との間は、通信装置によりデータ送受可能に構成する、
ことを特徴とする作業行動支援ナビゲーションシステム。 - 請求項1又は2に記載された作業行動支援ナビゲーションシステムにおいて、
さらに、前記移動品に、向きを計測する向きセンサを取り付け、
前記記憶装置は、前記過去に撮影した過去の撮影画像と前記向きセンサによる撮影向きを紐付けて記憶し、
前記画像処理装置は、現在の画像と過去の撮影画像の向きが一致するように補正し、両者の画像の差分が小さくなる回転角を算出する、
ことを特徴とする作業行動支援ナビゲーションシステム。 - 請求項1又は5に記載された作業行動支援ナビゲーションシステムにおいて、
さらに、前記移動品に、位置を計測する位置センサを取り付け、
前記記憶装置は、前記過去に撮影した過去の撮影画像と前記位置センサによる撮影向きを紐付けて記憶し、
前記画像処理装置は、現在の画像と過去の撮影画像の位置の差分を用いてターゲットを示す位置までの移動量を算出する、
ことを特徴とする作業行動支援ナビゲーションシステム。 - 請求項6に記載された作業行動支援ナビゲーションシステムにおいて、
前記画像処理装置は、
現在の画像と過去の撮影画像の位置の差分を算出し、当該差分が解消されるまで指示制御装置に対して移動指示を行い、かつ、前記現在の画像と過去の撮影画像との間で位置の差分が解消されたとき、現在の画像と過去の撮影画像の向きが一致するように補正し、両者の画像の差分が小さくなる回転角を算出する、
ことを特徴とする作業行動支援ナビゲーションシステム。 - 請求項1又は2に記載された前記画像処理装置をサーバにより構成した作業行動支援ナビゲーションシステムにおける方法であって、
前記サーバは、
前記画像の幾何変換するステップ、
前記幾何変換処理部により幾何変換された現在の画像と過去の撮影画像との差分が、予め定めた許容範囲内外にあるか否かを判定して画像評価するステップ、
前記画像評価部による評価結果、現在の画像と過去の撮影画像との差分が許容範囲外である場合、前記移動品を、ターゲットを示す位置までナビゲーション指示し、前記移動品のヘルメットを装着した作業員又は前記移動品のロボットによる作業行動を支援するナビゲーションデータを生成し、前記出力部に出力するように制御するステップ、
を備えたことを特徴とする作業行動支援ナビゲーション方法。 - 請求項8に記載された各ステップをサーバのコンピュータに実行させることを特徴とする作業行動支援ナビゲーション用コンピュータプログラム。
- 請求項8又は9に記載された作業行動支援ナビゲーション用コンピュータプログラムを記憶した記憶媒体。
- 請求項1から7の何れか1つに記載された作業行動支援ナビゲーションシステムにおけるセンサ、出力部、通信部を搭載したインテリジェントヘルメット。
- 請求項1から7の何れか1つに記載された作業行動支援ナビゲーションシステムを搭載した自走式ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015139357A JP6630504B2 (ja) | 2015-07-13 | 2015-07-13 | 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015139357A JP6630504B2 (ja) | 2015-07-13 | 2015-07-13 | 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017020922A JP2017020922A (ja) | 2017-01-26 |
JP6630504B2 true JP6630504B2 (ja) | 2020-01-15 |
Family
ID=57888087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015139357A Active JP6630504B2 (ja) | 2015-07-13 | 2015-07-13 | 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6630504B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10949940B2 (en) * | 2017-04-19 | 2021-03-16 | Global Tel*Link Corporation | Mobile correctional facility robots |
US10690466B2 (en) | 2017-04-19 | 2020-06-23 | Global Tel*Link Corporation | Mobile correctional facility robots |
JP7285108B2 (ja) * | 2019-03-28 | 2023-06-01 | 株式会社フジタ | 自動巡回システム |
JP7322575B2 (ja) * | 2019-07-31 | 2023-08-08 | 株式会社リコー | 検査結果管理サーバ、通信システム、通信方法、及びプログラム |
CN113932816B (zh) * | 2021-11-16 | 2023-09-22 | 北京中科海讯数字科技股份有限公司 | 基于水声数据综合态势下的航迹优化方法 |
CN116625409B (zh) * | 2023-07-14 | 2023-10-20 | 享刻智能技术(北京)有限公司 | 动态定位性能评价方法、设备以及系统 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4798450B2 (ja) * | 2006-12-07 | 2011-10-19 | 株式会社Ihi | ナビゲーション装置とその制御方法 |
JP4957920B2 (ja) * | 2008-12-18 | 2012-06-20 | 株式会社安川電機 | 移動体の教示方法及び移動体の制御装置並びに移動体システム |
JP5974433B2 (ja) * | 2011-08-03 | 2016-08-23 | 日本精機株式会社 | 周辺画像表示装置 |
JP2012095283A (ja) * | 2011-09-13 | 2012-05-17 | Pioneer Electronic Corp | 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム |
JP2016118391A (ja) * | 2013-04-15 | 2016-06-30 | パナソニック株式会社 | サーバ装置、携帯端末装置及びナビゲーションシステム |
JP6235860B2 (ja) * | 2013-10-25 | 2017-11-22 | キヤノン株式会社 | 情報処理装置及びその制御方法、プログラム |
JP2015090562A (ja) * | 2013-11-05 | 2015-05-11 | カシオ計算機株式会社 | 画像処理装置、方法、及びプログラム |
-
2015
- 2015-07-13 JP JP2015139357A patent/JP6630504B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017020922A (ja) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6630504B2 (ja) | 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット | |
CN107402000B (zh) | 用于将显示装置相对于测量仪器相互关联的方法和系统 | |
US10852847B2 (en) | Controller tracking for multiple degrees of freedom | |
US20160269631A1 (en) | Image generation method, system, and apparatus | |
Teixeira et al. | Teleoperation using google glass and ar, drone for structural inspection | |
KR20180075191A (ko) | 무인 이동체를 제어하기 위한 방법 및 전자 장치 | |
JP2015125641A (ja) | 情報処理装置、その制御方法、及びプログラム | |
WO2020195875A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10388027B2 (en) | Detection method, display apparatus, and detection system | |
JP2011169658A (ja) | 撮影位置特定装置および撮影位置特定方法 | |
JP2009258884A (ja) | ユーザインタフェイス | |
JP7414395B2 (ja) | 情報投影システム、制御装置、及び情報投影制御方法 | |
US10509819B2 (en) | Comparative geolocation system | |
JP6815290B2 (ja) | 物体識別システム | |
US20220291379A1 (en) | Surveying device and surveying method using the surveying device | |
KR20180060403A (ko) | 영상 기반의 드론 제어장치 | |
CN109032330A (zh) | 无缝桥接ar装置和ar系统 | |
US20200242797A1 (en) | Augmented reality location and display using a user-aligned fiducial marker | |
JP7207915B2 (ja) | 投影システム、投影方法及びプログラム | |
JP2018056845A (ja) | 作業支援装置、システム、方法及びプログラム | |
JP2017084323A (ja) | 情報処理装置、方法及びプログラム | |
JP6488946B2 (ja) | 制御方法、プログラム及び制御装置 | |
US10845603B2 (en) | Imaging assisting device and program | |
JP2019066196A (ja) | 傾き測定装置及び傾き測定方法 | |
EP4102325A1 (en) | Method and system for collecting field operation situation and facility information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191030 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6630504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |