JP7176771B2 - 画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫 - Google Patents

画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫 Download PDF

Info

Publication number
JP7176771B2
JP7176771B2 JP2020012660A JP2020012660A JP7176771B2 JP 7176771 B2 JP7176771 B2 JP 7176771B2 JP 2020012660 A JP2020012660 A JP 2020012660A JP 2020012660 A JP2020012660 A JP 2020012660A JP 7176771 B2 JP7176771 B2 JP 7176771B2
Authority
JP
Japan
Prior art keywords
optical recognition
code
recognition code
real space
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020012660A
Other languages
English (en)
Other versions
JP2021117194A5 (ja
JP2021117194A (ja
Inventor
葉 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
B-CORE INC.
Original Assignee
B-CORE INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by B-CORE INC. filed Critical B-CORE INC.
Priority to JP2020012660A priority Critical patent/JP7176771B2/ja
Publication of JP2021117194A publication Critical patent/JP2021117194A/ja
Publication of JP2021117194A5 publication Critical patent/JP2021117194A5/ja
Application granted granted Critical
Publication of JP7176771B2 publication Critical patent/JP7176771B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Description

本発明は、画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫に関する。
近年では、自動搬送車(無人搬送車)のような移動体を工場または倉庫等の屋内空間に配置し、運搬物(荷物)を当該移動体に運搬させることによって、業務の効率化を図ることが行われている。
ところで、効率的に移動体に運搬物を運搬させるためには、当該移動体の位置を適切に管理することが有用であるが、上記したように移動体が屋内空間を移動する場合には、例えばGPS(Global Positioning System)機能等では当該移動体の正確な位置を得ることができない場合がある。
なお、このような事情を鑑みて、屋内における位置情報を特定するための技術が開示されている(例えば、特許文献1を参照)。しかしながら、この技術によれば、撮影画像と対象画像とのマッチングを行うため、精度の高い位置を得ることができない場合がある。
特開2016-164518号公報
そこで、本発明の目的は、移動体の位置を得ることが可能な画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫を提供することにある。
本発明の1つの態様によれば、第1取得手段と、第2取得手段と、計算手段とを具備する画像処理装置が提供される。前記第1取得手段は、移動体に設置された撮像装置によって撮像された光学式認識コードを含む画像を取得する。前記第2取得手段は、前記光学式認識コードに基づいて、前記光学式認識コードの実空間上の位置を取得する。前記計算手段は、前記光学式認識コードの前記画像上の位置及び前記光学式認識コードの実空間上の位置に基づいて、前記移動体の位置を計算する。前記光学式認識コードは、複数の色彩のうちの1の色彩が付されたエレメントが複数配列されたコードを含む。前記光学式認識コードの実空間上の位置は、前記複数のエレメントのうちの少なくとも2つのエレメントの実空間上の位置を含む。
本発明は、移動体の位置を得ることを可能とする。
本発明の実施形態に係る画像処理システムの構成の一例を示す図。 移動体の外観の一例を示す図。 カラービットコードについて詳細に説明するための図。 画像処理装置のハードウェア構成の一例を示す図。 画像処理装置の機能構成の一例を示す図。 コード位置情報のデータ構造の一例を示す図。 画像処理装置の処理手順の一例を示すフローチャート。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本実施形態に係る画像処理システム(ネットワークシステム)の構成の一例を示す。図1に示す画像処理システム1は、画像処理装置10及びサーバ装置20を備える。画像処理装置10及びサーバ装置20は、ネットワーク30を介して互いに通信可能に接続されている。
本実施形態に係る画像処理システム1は、例えば工場または倉庫等の屋内空間を移動する自動搬送車のような移動体の位置を得るために使用される。
ここで、図2は、移動体の外観の一例を示す。図2に示すように、移動体2は、例えば車輪等を備えることによって移動可能に構成されている。また、移動体2には、当該移動体2の外部(例えば、進行方向等)を撮像可能な向きに撮像装置(以下、カメラと表記)2aが設置されている。
本実施形態において、移動体2が移動する屋内空間には光学式認識コードが配置(貼付、描画、印刷または表示等)されている。なお、光学式認識コードは、屋内空間を形成する例えば壁面等に配置されるが、上記したカメラ2aが撮像可能な位置であれば他の位置に配置されていてもよい。
図1に示す画像処理装置10は、例えば上記した移動体2に設置されるカメラ2aと接続されており、当該カメラ2aによって撮像された光学式認識コードを含む画像に基づいて当該移動体2の位置を計算(取得)する機能を有する。
なお、画像処理装置10によって計算された移動体2の位置は、ネットワーク30を介して画像処理装置10からサーバ装置20に送信され、当該サーバ装置20において管理される。サーバ装置20において管理される移動体2の位置は、例えば当該移動体2の追跡(監視)または当該移動体2の位置の補正等に用いられる。
以下、本実施形態において移動体2の位置を計算するために用いられる光学式認識コードについて具体的に説明する。
本実施形態における光学式認識コードは、例えば複数のエレメントが線状(棒状)に形成されたコード(以下、カラービットコードと表記)を含む。このカラービットコードは、例えば3色以上の色彩のうちの1の色彩が付されたセル(エレメント)が複数配列された構成を有する。このカラービットコードによれば、複数配列された各セルに付されている色彩の遷移によって識別情報(例えば、ID等)のような特定のデータを表すことができる。
以下の説明においては、本実施形態において用いられる光学式認識コードがカラービットコードであるものとして説明する。
図3を参照して、上記したカラービットコードについて詳細に説明する。なお、図3においては、便宜的にカラービットコードの一部分のみが示されている。
図3に示すように、カラービットコード3は、例えば赤色、緑色及び青色のうちの1の色彩が付されたセル3aが複数配列されて構成されている。図3において、赤色はR、緑色はG、青色はBとして示されている。なお、図3においては、説明の便宜上、カラービットコード3に3色の色彩(赤色、緑色及び青色)が用いられている例が示されているが、各セル3aには、赤色、緑色及び青色以外の色彩が付されていてもよい。また、各セル3aに付されている色彩の遷移を識別することができるのであれば、4色以上の色彩を用いてカラービットコード3が作成されていてもよい。
カラービットコード3を構成するセル3aは、1つの色彩が付される範囲または領域であり、種々の形状を有することができる。図3に示す例では、複数のセル3aの各々は四角形状であるが、例えば丸形状または三角形状等であっても構わない。このような複数のセル3aを線状(直線状または曲線状)に配列することによってカラービットコード3は作成される。
なお、カラービットコード3は上記したように色彩の遷移によって特定のデータを表すものであるから、当該カラービットコード3において、隣接するセル3a同士には同色は付されず、異なる色彩が付される。カラービットコード3は、このような条件等に従って作成される。
また、カラービットコード3を構成する複数のセル3aには、端点セルが含まれる。端点セルは、線状に連なったセル3a群から構成されるカラービットコード3の端点(両端)に位置するセル3aである。カラービットコード3内にあるセル3aは、2つのセル3aと隣接するが、端点セルは1つのセル3aとしか隣接しない。このような端点セルはカラービットコード3内に2つ存在する。また、このような2つの端点セルに付される色彩は異なるものとする。これにより、端点セルの各々に付されている色彩によって、当該端点セルが始点となるセル3a(以下、始点セルと表記)であるか終点となるセル3a(以下、終点セルと表記)であるかを判定することが可能である。
上記したようなカラービットコード3によれば例えば3色の色彩の遷移(配列)によって特定のデータを表すことができるため、当該カラービットコード3における各色彩の占める領域の大きさ及び形状の制限は緩く、当該カラービットコード3が例えば凹凸のある表面や柔軟性のある素材上に付されている場合やデジタルサイネージ等の表示装置に表示されている場合であっても、高い読み取り精度を実現することができる。
以下、本実施形態に係る画像処理装置10の構成について説明する。図4は、画像処理装置10のハードウェア構成の一例を示す。図4に示すように、画像処理装置10は、バス11に接続された、不揮発性メモリ12、CPU13、メインメモリ14及び無線通信デバイス15等を備え、例えば全体でエッジコンピュータとして機能する。
不揮発性メモリ12は、各種プログラムを格納する。不揮発性メモリ12に格納されている各種プログラムには、画像処理装置10上で動作するソフトウェアが含まれる。
CPU13は、例えば不揮発性メモリ12に格納されている各種プログラムを実行する。なお、CPU13は、画像処理装置10全体の制御を司るものである。
メインメモリ14は、例えばCPU13が各種プログラムを実行する際に必要とされるワークエリア等として使用される。
無線通信デバイス15は、例えば外部のサーバ装置20等との通信を制御する機能を有する。
なお、図2においては、画像処理装置10が不揮発性メモリ12、CPU13、メインメモリ14及び無線通信デバイス15を備えるものとして説明したが、当該画像処理装置10は、更に上記したカメラ2aを備える構成であってもよい。この場合には、カメラ2aを備える画像処理装置10が上記した移動体2に搭載される(組み込まれる)構成であればよい。
図5は、画像処理装置10の機能構成の一例を示す。図5に示すように、画像処理装置10は、格納部101、画像取得部102、デコード処理部103、コード位置取得部104、移動体位置計算部105及び送信処理部106を含む。
なお、本実施形態において、格納部101は、例えば図4に示す不揮発性メモリ12等によって実現される。
また、本実施形態において、画像取得部102、デコード処理部103、コード位置取得部104、移動体位置計算部105及び送信処理部106は、例えば図4に示すCPU13(つまり、画像処理装置10のコンピュータ)が不揮発性メモリ12に格納されている所定のプログラムを実行すること、つまり、ソフトウェアによって実現されるものとする。なお、このCPU13によって実行されるプログラムは、コンピュータ読み取り可能な記憶媒体に予め格納して頒布されてもよいし、ネットワーク30を介して画像処理装置10にダウンロードされても構わない。
格納部101には、移動体が移動する屋内空間に配置されているカラービットコード3の実空間上の位置を示す情報(以下、コード位置情報と表記)が予め格納されている。なお、コード位置情報においては、カラービットコード3によって表されるID等の識別情報と当該カラービットコード3の実空間上の位置とが対応づけられている。すなわち、本実施形態において、カラービットコード3によって表される識別情報(以下、コードIDと表記)は、当該カラービットコード3を識別するための識別子として用いられる。
画像取得部102は、移動体2に設置されているカメラ2aによって撮像されたカラービットコード3を含む画像を当該カメラ2aから取得する。画像取得部102によって取得された画像は、色情報の最小単位である複数の画素(ピクセル)から構成される。
デコード処理部103は、画像取得部102によって取得された画像に含まれるカラービットコード3を読み取る(デコードする)処理を実行する。なお、デコード処理部103によるデコードは、カラービットコード3における色彩の遷移(つまり、当該カラービットコード3を構成する複数のセル3aの各々に付されている色彩の遷移)に基づいて行われる。これにより、デコード処理部103は、画像取得部102によって取得された画像に含まれるカラービットコード3によって表されるコードIDを取得する。
コード位置取得部104は、デコード処理部103によって取得されたコードIDに基づいて、格納部101に格納されているコード位置情報から、当該コードIDによって識別されるカラービットコード3(つまり、デコード処理部103によって読み取られたカラービットコード3)の実空間上の位置を取得する。
移動体位置計算部105は、画像取得部102によって取得された画像上におけるカラービットコード3の位置及びコード位置取得部104によって取得されたカラービットコード3の実空間上の位置に基づいて、移動体2の位置を計算する。
送信処理部106は、移動体位置計算部105によって計算された移動体2の位置を示す情報(以下、移動体位置情報と表記)を、ネットワーク30を介してサーバ装置20に送信する。
図6は、図5に示す格納部101に格納されているコード位置情報のデータ構造の一例を示す。
図6に示すように、コード位置情報には、カラービットコード3を識別するためのコードIDに対応づけて、当該カラービットコード3の実空間上の位置を表すX座標、Y座標及びZ座標が含まれている。本実施形態において、コード位置情報に含まれるカラービットコード3の実空間上の位置は、例えば当該カラービットコード3の中央に対応する位置であってもよいし、当該カラービットコード3の両端のうちのいずれか一方に対応する位置であってもよい。なお、このコード位置情報に含まれるX座標(値)、Y座標(値)及びZ座標(値)は、例えば移動体2が移動する屋内空間の予め定められた点を基準として規定された座標値であるが、当該屋内空間(実空間)上の特定の位置を表すものであれば他の値等であってもよい。
ここでは、移動体が移動する屋内空間に複数のカラービットコード3が配置されているものとし、格納部101には、コード位置情報101a~101cを含む複数のコード位置情報が格納されているものとする。
図6に示す例では、コード位置情報101aには、コードID「001」に対応づけてX座標「X座標値1」、Y座標「Y座標値1」及びZ座標「Z座標値1」が含まれている。このコード位置情報101aによれば、コードID「001」によって識別されるカラービットコード3がX座標値1、Y座標値1及びZ座標値1によって表される実空間上の位置に配置されていることが示されている。
コード位置情報101bには、コードID「002」に対応づけてX座標「X座標値2」、Y座標「Y座標値2」及びZ座標「Z座標値2」が含まれている。このコード位置情報101bによれば、コードID「002」によって識別されるカラービットコード3がX座標値2、Y座標値2及びZ座標値2によって表される実空間上の位置に配置されていることが示されている。
コード位置情報101cには、コードID「003」に対応づけてX座標「X座標値3」、Y座標「Y座標値3」及びZ座標「Z座標値3」が含まれている。このコード位置情報101cによれば、コードID「003」によって識別されるカラービットコード3がX座標値3、Y座標値3及びZ座標値3によって表される実空間上の位置に配置されていることが示されている。
ここではコード位置情報101a~101cについてのみ説明したが、格納部101には、移動体2が移動する屋内空間に配置されたカラービットコード3毎にコード位置情報が格納されている。また、コード位置情報101a~101c以外のコード位置情報のデータ構造についても当該コード位置情報101a~101cのデータ構造と同様である。
更に、図6に示す例では1つのカラービットコード3(コードID)に対して1つの実空間上の位置を示すコード位置情報が示されているが、当該コード位置情報は、例えばカラービットコード3の両端の実空間上の位置(つまり、1つのカラービットコード3に対して複数の位置)を示すものであっても構わない。
以下、図7のフローチャートを参照して、本実施形態に係る画像処理装置10の処理手順の一例について説明する。なお、図7に示す処理は、移動体2の位置を取得(管理)する必要があるタイミングで実行されればよいが、例えば画像処理システム1の管理者によって指定されたタイミングまたは予め定められた時間に到達したタイミング等で実行されてもよい。
図7に示す処理が実行される場合、例えば移動体2に設置されているカメラ2aの電源がオンされ、当該カメラ2aが起動される。このようにカメラ2aが起動されることによって、当該カメラ2aにおける画像の撮像が可能となる。
この場合、画像取得部102は、カメラ2aにおいて撮像された画像を取得する(ステップS1)。
ここで、本実施形態において移動体2が移動する屋内空間には、複数のカラービットコード3が配置されているものとする。これによれば、画像取得部102は、複数のカラービットコード3のうち、屋内空間を移動している移動体2の近傍に配置されているカラービットコード3を含む画像を取得することができる。以下の説明においては、ステップS1において取得された画像を便宜的に対象画像と称する。
ステップS1の処理が実行されると、デコード処理部103は、対象画像に対する画像解析処理を実行する(ステップS2)。なお、このステップS2において実行される画像解析処理は、対象画像に含まれるカラービットコード3に対するデコード処理(読み取り処理)に相当する。以下、このデコード処理について具体的に説明する。
まず、デコード処理部103は、対象画像を各色領域に区分けする処理(以下、色領域区分け処理と表記)を実行する。ここで、一般的に対象画像は背景を含めて様々な色彩(を表示する画素)で構成されており、それらのパターンも様々なである。このため、色領域区分け処理においては、この対象画像中の色彩を色空間の中で赤色、緑色、青色及び無彩色に区分けし、各画素の色彩をいずれかの領域に当てはめる処理(均色化処理)が行われる。すなわち、色領域区分け処理においては、対象画像中の各画素に対するラベリング処理が実行される。
なお、上記した赤色、緑色及び青色はカラービットコードを構成する各セルに付される色彩として定義された色彩(以下、構成色と表記)であるが、色領域区分け処理においては、例えば照明、彩色、退色等を考慮して色空間上でこれらの構成色と認定することができる一定の範囲に包含される色彩であれば、当該色彩(の画素)を構成色として区分けするものとする。すなわち、例えば赤色の領域を区分けする場合には、当該赤色を中心とする一定の範囲の色彩を表示する画素の全てを赤色の領域として認定する。緑色及び青色の領域を区分けする場合についても同様である。
また、無彩色とは、色領域区分け処理において赤色、緑色及び青色として認定される色彩以外の色彩である。
更に、上記したように対象画像に対しては均色化処理が行われるが、一般的に当該対象画像にはノイズ成分が混入している場合が多い。このノイズに相当する微小部位の色彩異変に対しては例えばその周囲の色彩に合わせる、または、平均化する等のノイズ除去処理を行うことによって、当該ノイズを除去することが好ましい。
次に、デコード処理部103は、色領域区分け処理によって区分けされた各色領域に基づいて複数の構成色(赤色、緑色及び青色)の領域が配列されてなるカラービットコード3の領域(以下、コード領域と表記)を切り出す処理(以下、コード切り出し処理と表記)を実行する。このコード切り出し処理においては、各色領域の周囲の色彩(例えば、他の構成色の領域及び無彩色の領域の配置等)やカラービットコード3を構成するセル3aの数等に基づいてコード領域が切り出される。コード切り出し処理によって切り出されるコード領域は、例えば画像上における座標値(XY座標値)によって表される。
なお、上記した色領域区分け処理及びコード切り出し処理については、例えば特開2008-287414号公報等に開示されているため、ここではその詳細な説明については省略する。
次に、デコード処理部103は、コード切り出し処理によって対象画像から切り出されたコード領域において配列されている複数の色領域における色彩の遷移(つまり、当該複数の色領域の順番)に基づいてカラービットコード3をデコードする。これによれば、カラービットコード3における例えば始点セル(カラービットコード3の開始を表す端点セル)から終点セル(カラービットコード3の終了を表す端点セル)までの色の遷移によって表されるコードIDが取得される。
なお、移動体2の移動方向または当該移動体2に設置されているカメラ2aの向き等によっては、対象画像にカラービットコード3が含まれていない場合があるが、この場合には、ステップS2の処理が実行されたとしてもコード領域が切り出されない(つまり、コードIDが取得されない)ため、図6に示す処理は終了される。
以下の説明においては、便宜的に、ステップS2の処理が実行されることによって取得されたコードIDを対象コードID、当該対象コードIDによって識別されるカラービットコード3(つまり、対象画像に含まれているカラービットコード3)を対象カラービットコード3と称する。
上記したステップS2の処理が実行されると、コード位置取得部104は、対象コードIDに基づいて、対象カラービットコード3の実空間上の位置を取得する(ステップS3)。
この場合、コード位置取得部104は、格納部101に格納されているコード位置情報の中から対象コードIDを含むコード位置情報を特定し、当該特定されたコード位置情報に含まれているX座標値、Y座標値及びZ座標値を対象カラービットコード3の実空間上の位置として取得する。
ステップS3の処理が実行されると、移動体位置計算部105は、移動体2の位置(移動体2の実空間上の位置)を計算する(ステップS4)。
ここで、本実施形態において、移動体2が移動する屋内空間には、当該移動体2に設置されているカメラ2aの画角内に少なくとも2つのカラービットコード3が包含されるように複数のカラービットコード3が配置されているものとする。
この場合、ステップS1において取得される画像(対象画像)には2つのカラービットコード(対象カラービットコード)3が含まれており、ステップS2において実行されるコード切り出し処理においては、当該2つの対象カラービットコード3の各々のコード領域が切り出される。これによれば、ステップS2においては、切り出されたコード領域から、2つの対象カラービットコード3の各々の両端セル(始点セル及び終点セル)の対象画像上の位置(XY座標値)を抽出することができるものとする。
また、ステップS3においては、2つの対象カラービットコード3の各々の実空間上の位置が取得される。この場合、格納部101にはカラービットコード3の両端セル(始点セル及び終点セル)の実空間上の位置を示すコード位置情報がカラービットコード3毎に格納されているものとし、ステップS3においては、当該2つの対象カラービットコード3の各々の両端セルの実空間上の位置が取得されるものとする。
本実施形態においては、上記した2つの対象カラービットコードの各々の両端セルの対象画像上の位置(対象画像上の4点)及び当該2つの対象カラービットコード3の各々の両端セルの実空間上の位置(実空間上の4点)を透視投影モデルに適用することによって、移動体2の位置を計算するものとする。なお、移動体2に設置されているカメラ2aの画角及び当該カメラ2aにおいて撮像される画像の解像度は既知であり、当該画角及び解像度に関する情報は画像処理装置10内において管理されているものとする。上記した移動体2の位置の計算処理においては、この画角及び解像度に関する情報も利用される。
すなわち、本実施形態においては、対象画像に含まれる2つの対象カラービットコード3の各々の両端セル(つまり、2つの対象カラービットコード3に基づいて抽出される4点)によって規定される空間を利用して移動体2の位置を計算する。この場合、カメラ2aによって撮像される2つの対象カラービットコード3の各々の両端セルが同一平面状にないことが移動体2の位置を計算するための条件であり、移動体2が移動する屋内空間には、当該カメラ2aとの位置関係において当該条件を満たす画像が撮像されるように複数のカラービットコード3が配置されているものとする。
なお、ここで説明した移動体2の位置の計算手法は一例であり、他の手法によって移動体2の位置が計算されても構わない。
また、本実施形態においては移動体2の位置として当該位置に対応するX座標値、Y座標値及びZ座標値が計算されればよいが、例えばカメラ2a(が設置されている移動体2)の上下方向の傾き角度、左右方向の傾き角度及び回転角度等が更に計算されても構わない。
ステップS4の処理が実行されると、当該ステップS4において計算された移動体2の位置を示す情報(以下、移動体位置情報と表記)は、送信処理部106によってサーバ装置20に送信される。
上記したように本実施形態においては、移動体2に設置されたカメラ2a(撮像装置)によって撮像された画像に含まれるカラービットコード3(光学式認識コード)をデコードすることによって、当該カラービットコード3によって表されるコードID(識別情報)を取得し、当該コードIDに基づいて当該カラービットコード3の実空間上の位置を取得する。本実施形態においては、カラービットコード3の画像上の位置及び当該カラービットコード3の実空間上の位置に基づいて移動体2の位置を計算する。
本実施形態においては、このような構成により、画像処理装置10において計算することによって得られた移動体2の位置(移動体位置情報)をサーバ装置20において管理することが可能となり、当該サーバ装置20において管理される移動体2の位置を例えば移動体2の追跡(監視)または当該移動体2の位置の補正等に利用することができる。
なお、上記した画像処理装置10における移動体2の位置を計算する処理(つまり、図6に示す処理)は定期的に実行されるものとする。これによれば、移動体2の位置を定期的に得ることができるため、継続的な移動体2の追跡等を実現することができる。
また、屋内空間に複数の移動体が存在する場合、画像処理装置10(送信処理部106)は、移動体2の位置を示す移動体位置情報とともに、当該移動体2を識別するための識別情報(以下、移動体IDと表記)をサーバ装置20に送信するものとする。これによれば、サーバ装置20は、移動体2毎に位置を管理することが可能となる。なお、各移動体2を識別するための移動体IDは、当該画像処理装置10内で予め管理されていればよい。
ここで、一般的に移動体2の位置を計測(測位)する際にはGPS機能を利用する場合があるが、当該移動体2が工場のような屋内空間を移動する場合には、当該移動体2の位置を正確に計測することができない可能性がある。
また、例えば屋内空間に配置された各種送信機から送信されるビーコン、無線、電波または電磁波等を利用して移動体2の位置を計測することが考えられるが、このような構成であっても、電波干渉または金属反響等により位置の計測精度が低下する場合がある。
これに対して、本実施形態においては、上記したようにカメラ2aにおいてカラービットコード3を撮像することによって移動体2の位置を計算(計測)する構成であるため、屋内空間を移動する移動体2の位置を高い精度で得ることが可能となる。
更に、画像解析(画像認識)によって移動体2の位置を計測する場合、一般的には移動体2側に目印(コード等)を付し、当該移動体2に付された目印を屋内空間に設置された撮像装置で撮像する手法を採用する場合が多いが、このような手法では、当該撮像装置の前を瞬時に通過する目印(移動体2)を撮像する必要があるため、当該目印を撮像する難易度が高く、移動体2の正確な位置を計測することができない場合がある。
また、移動体2側に目印を付す場合には、当該目印のサイズを、当該目印を認識することができる程度の大きさにする必要があるが、移動体2に付すことが可能な目印(タグ)の大きさには限界がある。
これに対して、本実施形態においては、移動体2に設置されたカメラ2aにおいて屋内の例えば壁面等に配置されたカラービットコード3を撮像する構成を採用しているため、当該カメラ2aがカラービットコード3を撮像する困難性を低減することができる。なお、カラービットコード3を移動体2が移動する向き等を考慮して配置することで、カラービットコード3をより容易に撮像することができるようにしてもよい。
更に、本実施形態においては、カラービットコード3が屋内の壁面等に配置されるため、当該カラービットコード3を移動体2側に付す場合と比較して、当該カラービットコード3のサイズ、形状及び配置に関する制限を緩和することができる。
また、本実施形態においては、カメラ2aを移動体2毎に設置する構成により、例えば移動体2が移動する空間(以下、移動対象空間と表記)が拡大した場合であっても、当該拡大した空間にカラービットコード3を新たに配置する(貼り付ける)のみで、当該空間を移動する移動体2の位置を得ることが可能となる。すなわち、本実施形態においては、移動対象空間が拡大した場合であっても、コストが高額になりがちなカメラ2aを増設する必要がないため、コストダウンを実現することができる。
ここで、本実施形態においては、上記したように少なくとも2つのカラービットコード3が同時にカメラ2aの画角内に含まれるように屋内空間に複数のカラービットコード3が配置される。これによれば、カメラ2aにおいて撮像された画像には2つのカラービットコード3が含まれ、当該画像に対してデコード処理が実行された場合には、当該2つのカラービットコード3の各々の両端セル(つまり、2つのカラービットコード3に基づいて抽出される4点)によって規定される空間を利用して移動体2の位置を計算することができる。
なお、このように計算される移動体2の位置の精度は、画像に含まれる2つのカラービットコード3の各々の両端セルによって規定される空間の体積に依存する。換言すれば、画像に含まれる2つのカラービットコード3の各々の両端セル間の距離が長いほど、正確な移動体2の位置を計算することができる。
このため、本実施形態において屋内空間に配置されるカラービットコード3は、当該カラービットコード3の両端セル間の距離が長くなるように形成されていることが好ましい。具体的には、カラービットコード3は、例えば直線状に形成されているものとする。なお、1つの画像に含まれる2つのカラービットコード3間の距離(間隔)も長くなるように配置されていることが好ましいが、各カラービットコード3が配置される位置についてはカメラ2aの画角、移動体が配置される屋内空間の大きさまたは当該屋内空間において当該移動体が移動する経路等に基づいて決定されればよい。
なお、本実施形態においては光学式認識コードとしてカラービットコード3を利用するものとして説明したが、当該光学式認識コードとしては、例えばバーコードまたは2次元コード等の他の光学式認識コード(自動認識技術)が用いられても構わない。
このようにカラービットコード3以外の光学式認識コード(バーコードまたは2次元コード等)を利用する場合には、例えば1つの画像に当該光学式認識コードが4つ包含されるように当該光学式認識コードを配置しておくことにより、当該4つの光学式認識コードに基づいて抽出される4点によって規定される空間を利用して移動体2の位置を計算することができる。
また、ここでは光学式認識コードから抽出される4点によって規定される空間を利用して移動体2の位置を計算するものとして説明したが、当該移動体2の位置は、例えば光学式認識コードに基づいて抽出される3点(の画像上及び実空間上の位置)によって規定される平面を利用して計算することも可能である。具体的には、例えばカメラ2aの画角及び当該カメラ2aにおいて撮像される画像の解像度に関する情報、当該カメラ2aの上下方向の傾きに関する情報(例えば、水平を向いているまたは上を向いている等)、当該カメラ2aが設置されている高さに関する情報(例えば、プラス方向の高さにある等)が既知であれば、光学式認識コードに基づいて抽出される3点の画像上の位置及び実空間上の位置を透視投影モデルに適用することによって、移動体2の位置を計算することができる。
なお、光学式認識コードに基づいて抽出される3点(の画像上及び実空間上の位置)によって規定される平面を利用して移動体2の位置を計算する場合には、複数の移動体2の位置が計算されるが、上記した既知の情報を利用することによって、当該複数の移動体2の位置の中から最適な位置を絞り込むことができる。
更に、移動体2の位置は、例えば光学式認識コードに基づいて抽出される2点(の画像上及び実空間上の位置)によって規定された線を利用して計算することも可能である。具体的には、例えばカメラ2aの画角及び当該カメラ2aにおいて撮像される画像の解像度に関する情報、当該カメラ2aの上下方向の傾きに関する情報、当該カメラ2aが設置されている高さに関する情報が既知であれば、光学式認識コードに基づいて抽出される2点の画像上の位置及び実空間上の位置に基づいて、移動体2の位置を計算することができる。この場合には、光学式認識コードに基づいて抽出される2点が見える角度の交点を移動体2の位置として計算する。
なお、上記した光学式認識コードに基づいて抽出される3点によって規定された平面を利用して移動体2の位置を計算する場合には、カメラ2aの上下方向及び当該カメラ2aが設置されている高さはある程度大まかな情報であればよいが、光学式認識コードに基づいて抽出される2点によって規定された線を利用して移動体2の位置を計算する場合には、カメラ2aの上下方向の傾き及び当該カメラ2aが設置されている高さは正確な値であることが好ましい。
更に、移動体2の位置は、例えば光学式認識コードに基づいて抽出される1点(の画像上及び実空間上の位置)を利用して計算することも可能である。具体的には、例えばカメラ2aの画角及び当該カメラ2aにおいて撮像される画像の解像度に関する情報、当該カメラ2aの上下方向の傾きに関する情報、当該カメラ2aが設置されている高さに関する情報、当該カメラ2aの向き(方角)に関する情報が既知であれば、三角測量によりカメラ2aから光学式認識コードまでの距離を得ることができるため、当該距離に基づいて移動体2の位置を計算することができる。
本実施形態においては、光学式認識コードに基づいて抽出される1点~4点を利用して移動体2の位置を計算する手法について説明したが、当該移動体2の位置の計算に利用する点の数が多いほど当該位置の精度が高くなる一方で、光学式認識コードの配置等に関する制限が厳しくなる。したがって、上記した移動体2の位置を計算する手法(計算アルゴリズム)については、例えば移動体2が配置される屋内空間のレイアウト(つまり、光学式認識コードを適切に配置することができるか否か)等に基づいて適宜選択されればよい。
また、移動体2に設置されたカメラ2aにおいて光学式認識コードを撮像し、当該光学式認識コードの画像上の位置及び実空間上の位置に基づいて当該移動体2の位置を計算する構成であれば、当該移動体2の位置を計算する方法としては本実施形態において説明した以外の手法が適用されてもよい。
なお、本実施形態においては、移動体2が自動搬送車であるものとして説明したが、当該移動体2は、例えばドローン等の無人航空機、自立型の移動ロボット等の他の移動体であってもよい。更に、移動体2は、人が乗車して運転することができるような車両等であっても構わない。
更に、本実施形態においては屋内空間を移動する移動体2の位置を計算するものとして説明したが、上記した移動体2に設置されたカメラ2aにおいて周辺に配置された光学式認識コードを撮像することによって当該移動体2の位置を計算するような構成であれば、本実施形態は、当該屋外を移動する移動体に適用されても構わない。
また、本実施形態においては、図6に示す処理が画像処理装置10によって実行されるものとして説明したが、当該画像処理装置10の処理の一部は例えばサーバ装置20等によって実行されてもよい。すなわち、本実施形態においては、図6に示す処理を画像処理装置10及びサーバ装置20を備える画像処理システム1全体で実行するようにしてもよい。
この場合、例えば図6に示すステップS1及びS2の処理を画像処理装置10側で実行し、ステップS3及びS4の処理をサーバ装置20側で実行するようにしてもよい。また、例えば図6に示すステップS1~S3の処理を画像処理装置10側で実行し、ステップS4の処理をサーバ装置20側で実行するようにしてもよい。
なお、例えば図6に示すステップS1の処理を画像処理装置10側で実行し、ステップS2~S4の処理をサーバ装置20側で実行する構成とすることも可能であるが、このような構成の場合には画像処理装置10からサーバ装置20に画像を送信しなければならず、通信容量が増大する。このため、画像処理装置10からサーバ装置20への通信容量を削減する観点からは、画像処理装置10側で少なくともステップS2までの処理を実行することが好ましい。
また、上記したように図6に示す処理を画像処理システム1全体で実行する場合には、図4に示す各機能部101~106はそれぞれ画像処理装置10またはサーバ装置20に分散して配置されればよいが、例えば格納部101は当該画像処理システム1以外の外部装置に配置されていてもよい。この場合には、図6に示すステップS3の処理が実行される際に、画像処理システム1がコード位置情報を外部装置から取得(受信)する構成とすればよい。
なお、上記した実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD-ROM、DVDなど)光磁気ディスク(MO)、半導体メモリなどの記憶媒体に格納して頒布することもできる。
また、この記憶媒体としては、プログラムを記憶でき、かつコンピュータが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。
また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワークソフト等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
更に、本発明における記憶媒体は、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限らず、複数の媒体から本実施形態における処理が実行される場合も本発明における記憶媒体に含まれ、媒体構成は何れの構成であってもよい。
なお、本発明におけるコンピュータは、記憶媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するものであって、パソコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。
また、本発明におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の機能を実現することが可能な機器、装置を総称している。
なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。
1…画像処理システム、2…移動体、2a…カメラ(撮像装置)、3…カラービットコード、3a…セル、10…画像処理装置、11…バス、12…不揮発性メモリ、13…CPU、14…メインメモリ、15…無線通信デバイス、20…サーバ装置、30…ネットワーク、101…格納部、102…画像取得部、103…デコード処理部、104…コード位置取得部、105…移動体位置計算部、106…送信処理部。

Claims (6)

  1. 移動体に設置された撮像装置によって撮像された光学式認識コードを含む画像を取得する第1取得手段と、
    前記光学式認識コードに基づいて、前記光学式認識コードの実空間上の位置を取得する第2取得手段と、
    前記光学式認識コードの前記画像上の位置及び前記光学式認識コードの実空間上の位置に基づいて、前記移動体の位置を計算する計算手段と
    を具備し、
    前記光学式認識コードは、複数の色彩のうちの1の色彩が付されたエレメントが複数配列されたコードを含み、
    前記光学式認識コードの実空間上の位置は、前記複数のエレメントのうちの少なくとも2つのエレメントの実空間上の位置を含む
    画像処理装置。
  2. 画像処理装置及び当該画像処理装置と通信可能に接続されるサーバ装置とを備える画像処理システムにおいて、
    移動体に設置された撮像装置によって撮像された光学式認識コードを含む画像を取得する第1取得手段と、
    前記光学式認識コードに基づいて、前記光学式認識コードの実空間上の位置を取得する第2取得手段と、
    前記光学式認識コードの前記画像上の位置及び前記光学式認識コードの実空間上の位置に基づいて、前記移動体の位置を計算する計算手段と
    を具備し、
    前記光学式認識コードは、複数の色彩のうちの1の色彩が付されたエレメントが複数配列されたコードを含み、
    前記光学式認識コードの実空間上の位置は、前記複数のエレメントのうちの少なくとも2つのエレメントの実空間上の位置を含む
    画像処理システム。
  3. 画像処理装置が実行する方法であって、
    移動体に設置された撮像装置によって撮像された光学式認識コードを含む画像を取得するステップと、
    前記光学式認識コードに基づいて、前記光学式認識コードの実空間上の位置を取得するステップと、
    前記光学式認識コードの前記画像上の位置及び前記光学式認識コードの実空間上の位置に基づいて、前記移動体の位置を計算するステップと
    を具備し、
    前記光学式認識コードは、複数の色彩のうちの1の色彩が付されたエレメントが複数配列されたコードを含み、
    前記光学式認識コードの実空間上の位置は、前記複数のエレメントのうちの少なくとも2つのエレメントの実空間上の位置を含む
    方法。
  4. コンピュータによって実行されるプログラムであって、
    前記コンピュータに、
    移動体に設置された撮像装置によって撮像された光学式認識コードを含む画像を取得するステップと、
    前記光学式認識コードに基づいて、前記光学式認識コードの実空間上の位置を取得するステップと、
    前記光学式認識コードの前記画像上の位置及び前記光学式認識コードの実空間上の位置に基づいて、前記移動体の位置を計算するステップと
    を実行させ
    前記光学式認識コードは、複数の色彩のうちの1の色彩が付されたエレメントが複数配列されたコードを含み、
    前記光学式認識コードの実空間上の位置は、前記複数のエレメントのうちの少なくとも2つのエレメントの実空間上の位置を含む
    プログラム。
  5. 撮像装置が設置され、画像処理装置によって位置が計算される移動体であって、
    前記画像処理装置は、
    前記撮像装置によって撮像された光学式認識コードを含む画像を取得する第1取得手段と、
    前記光学式認識コードに基づいて、前記光学式認識コードの実空間上の位置を取得する第2取得手段と、
    前記光学式認識コードの前記画像上の位置及び前記光学式認識コードの実空間上の位置に基づいて、前記移動体の位置を計算する計算手段と
    を含み、
    前記光学式認識コードは、複数の色彩のうちの1の色彩が付されたエレメントが複数配列されたコードを含み、
    前記光学式認識コードの実空間上の位置は、前記複数のエレメントのうちの少なくとも2つのエレメントの実空間上の位置を含む
    移動体。
  6. 画像処理装置によって位置が計算される移動体が移動する空間を形成する工場または倉庫であって、
    前記画像処理装置は、
    前記移動体に設置された撮像装置によって撮像された光学式認識コードを含む画像を取得する第1取得手段と、
    前記光学式認識コードに基づいて、前記光学式認識コードの実空間上の位置を取得する第2取得手段と、
    前記光学式認識コードの前記画像上の位置及び前記光学式認識コードの実空間上の位置に基づいて、前記移動体の位置を計算する計算手段と
    を有し、
    前記光学式認識コードが前記空間内で前記撮像装置によって撮像可能な位置に一以上配置されており、
    前記光学式認識コードは、複数の色彩のうちの1の色彩が付されたエレメントが複数配列されたコードを含み、
    前記光学式認識コードの実空間上の位置は、前記複数のエレメントのうちの少なくとも2つのエレメントの実空間上の位置を含む
    工場または倉庫
JP2020012660A 2020-01-29 2020-01-29 画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫 Active JP7176771B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012660A JP7176771B2 (ja) 2020-01-29 2020-01-29 画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012660A JP7176771B2 (ja) 2020-01-29 2020-01-29 画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫

Publications (3)

Publication Number Publication Date
JP2021117194A JP2021117194A (ja) 2021-08-10
JP2021117194A5 JP2021117194A5 (ja) 2022-03-08
JP7176771B2 true JP7176771B2 (ja) 2022-11-22

Family

ID=77174654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012660A Active JP7176771B2 (ja) 2020-01-29 2020-01-29 画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫

Country Status (1)

Country Link
JP (1) JP7176771B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080807A (ja) 2007-09-12 2009-04-16 Pepperl & Fuchs Gmbh 車両の位置を決定する方法および装置、コンピュータプログラムおよびコンピュータプログラム製品
JP4404224B2 (ja) 2007-05-16 2010-01-27 ビーコア株式会社 光学式認識コード認識装置及び方法及びプログラム
JP2011134058A (ja) 2009-12-24 2011-07-07 B-Core Inc 光学式自己位置検知装置及び方法
JP4724801B1 (ja) 2010-07-30 2011-07-13 株式会社シフト 二次元コードリーダおよびプログラム
JP2015170001A (ja) 2014-03-05 2015-09-28 ビーコア株式会社 荷物管理装置、荷物管理システム、荷物管理方法及びプログラム
JP2016181199A (ja) 2015-03-25 2016-10-13 ビーコア株式会社 画像投影装置、画像投影方法及びプログラム
JP2019534829A (ja) 2016-09-26 2019-12-05 エックス デベロップメント エルエルシー 倉庫ナビゲーション用の識別情報

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4404224B2 (ja) 2007-05-16 2010-01-27 ビーコア株式会社 光学式認識コード認識装置及び方法及びプログラム
JP2009080807A (ja) 2007-09-12 2009-04-16 Pepperl & Fuchs Gmbh 車両の位置を決定する方法および装置、コンピュータプログラムおよびコンピュータプログラム製品
JP2011134058A (ja) 2009-12-24 2011-07-07 B-Core Inc 光学式自己位置検知装置及び方法
JP4724801B1 (ja) 2010-07-30 2011-07-13 株式会社シフト 二次元コードリーダおよびプログラム
JP2015170001A (ja) 2014-03-05 2015-09-28 ビーコア株式会社 荷物管理装置、荷物管理システム、荷物管理方法及びプログラム
JP2016181199A (ja) 2015-03-25 2016-10-13 ビーコア株式会社 画像投影装置、画像投影方法及びプログラム
JP2019534829A (ja) 2016-09-26 2019-12-05 エックス デベロップメント エルエルシー 倉庫ナビゲーション用の識別情報

Also Published As

Publication number Publication date
JP2021117194A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
EP3407294B1 (en) Information processing method, device, and terminal
US9625912B2 (en) Methods and systems for mobile-agent navigation
CN111968177B (zh) 一种基于固定摄像头视觉的移动机器人定位方法
CN108810473B (zh) 一种在移动平台上实现gps映射摄像机画面坐标的方法及系统
CN109725645B (zh) 一种嵌套式无人机着陆合作标志设计及相对位姿获取方法
US20160122038A1 (en) Optically assisted landing of autonomous unmanned aircraft
Krajník et al. External localization system for mobile robotics
CN111256701A (zh) 一种设备定位方法和系统
CN109815831B (zh) 一种车辆朝向获取方法及相关装置
US10728536B2 (en) System and method for camera commissioning beacons
CN113485350A (zh) 一种机器人移动控制方法、装置、设备及存储介质
CN110774319B (zh) 一种机器人及其定位方法和装置
US20220277478A1 (en) Positioning Method and Apparatus
US10607385B2 (en) Augmented reality positioning and tracking system and method
AU2021255130B2 (en) Artificial intelligence and computer vision powered driving-performance assessment
George et al. Towards drone-sourced live video analytics for the construction industry
Wang et al. Autonomous landing of multi-rotors UAV with monocular gimbaled camera on moving vehicle
KR102102803B1 (ko) 정적 마커 그리드 기반 실시간 실내 위치 측위 방법 및 그 시스템
JP4521568B2 (ja) 対応点探索方法、相互標定方法、3次元画像計測方法、対応点探索装置、相互標定装置、3次元画像計測装置、対応点探索プログラム及び対応点探索プログラムを記録したコンピュータ読み取り可能な記録媒体
KR20190131320A (ko) 관심 영역의 공간 좌표를 산출하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
RU2697942C1 (ru) Способ и система обратного оптического трекинга подвижного объекта
CN110163914B (zh) 基于视觉的定位
JP7176771B2 (ja) 画像処理装置、画像処理システム、方法、プログラム、移動体及び工場または倉庫
JP2023144812A (ja) 画像処理装置
Maidi et al. Hybrid tracking system for robust fiducials registration in augmented reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R150 Certificate of patent or registration of utility model

Ref document number: 7176771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150