JP5638789B2 - How to use signs - Google Patents
How to use signs Download PDFInfo
- Publication number
- JP5638789B2 JP5638789B2 JP2009258793A JP2009258793A JP5638789B2 JP 5638789 B2 JP5638789 B2 JP 5638789B2 JP 2009258793 A JP2009258793 A JP 2009258793A JP 2009258793 A JP2009258793 A JP 2009258793A JP 5638789 B2 JP5638789 B2 JP 5638789B2
- Authority
- JP
- Japan
- Prior art keywords
- sign
- image
- information
- image processing
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Road Signs Or Road Markings (AREA)
- Navigation (AREA)
- Image Processing (AREA)
Description
本発明は、標識およびその標識を使用する標識使用方法に関する。 The present invention relates to a label and a label using method using the label.
画像認識技術と動体認識技術の進歩によって、今後現実世界における様々なシーンの映像が画像分析の対象となる可能性がある。そのような画像分析が使用されるものとしては例えば拡張現実(AR:Augmented Reality)がある。拡張現実は現実環境にコンピュータを用いて情報を付加、提示する技術である(例えば、特許文献1参照)。 Due to advances in image recognition technology and moving object recognition technology, images of various scenes in the real world may become the target of image analysis in the future. For example, augmented reality (AR) is used for such image analysis. Augmented reality is a technology for adding and presenting information to a real environment using a computer (see, for example, Patent Document 1).
現実世界の画像を分析する際、比較などのためにその画像が撮像された場所や時間に関する情報が必要な場合がある。これらの情報を得るためには例えば撮像装置によって画像にデジタル的に場所や時間に関する情報を付随させることが考えられる。しかしながら、まず画像ごとにそのような情報を入力するのは手間である。さらに撮像装置からいちいちそのような情報を取り出していたのでは即時性に欠ける。また、写真をスキャンして画像を得る場合などは画像以外の情報は得られないので場所や時間を同定するのは困難である。 When analyzing an image in the real world, there are cases where information regarding the location and time at which the image was captured is required for comparison or the like. In order to obtain such information, for example, it is conceivable to digitally attach information on location and time to an image by an imaging device. However, it is troublesome to input such information for each image. Further, if such information is taken out from the imaging device one by one, it is not immediate. Further, when an image is obtained by scanning a photograph, it is difficult to identify the place and time because information other than the image cannot be obtained.
本発明はこうした課題に鑑みてなされたものであり、その目的は、画像処理によって位置および方向に関する情報を提供できる標識の提供にある。 The present invention has been made in view of these problems, and an object thereof is to provide a sign that can provide information on a position and a direction by image processing.
本発明のある態様は標識に関する。この標識は、所定箇所に設置されるべき標識であって、異なる複数の視線方向から識別可能な、当該標識の位置を示す位置表示と、異なる複数の視線方向のうちいずれの視線方向から当該標識が視認されているかを示す方向表示と、を備える。 One embodiment of the present invention relates to a label. This sign is a sign to be installed at a predetermined location, and can be identified from a plurality of different line-of-sight directions. The position indication indicating the position of the sign and the sign from any of the plurality of gaze directions And a direction display indicating whether or not is visually recognized.
この態様によると、標識が含まれる画像を分析することにより標識の位置および標識が視認されている視線方向に関する情報を得ることができる。 According to this aspect, it is possible to obtain information regarding the position of the sign and the line-of-sight direction in which the sign is visually recognized by analyzing the image including the sign.
本発明の別の態様は、標識使用方法である。この方法は、標識を撮像するステップと、撮像された標識から画像認識手法を用いて位置表示をもとにその標識の位置を取得するステップと、撮像された標識から画像認識手法を用いて方向表示をもとにその標識が撮像された視線方向を取得するステップと、を含む。 Another aspect of the present invention is a method for using a label. This method includes the steps of imaging a sign, obtaining the position of the sign from the captured sign using an image recognition technique based on the position display, and using the image recognition technique from the captured sign Obtaining a line-of-sight direction in which the sign is imaged based on the display.
なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements, or those obtained by replacing the constituent elements and expressions of the present invention with each other between apparatuses, methods, systems, computer programs, recording media storing computer programs, and the like are also included in the present invention. It is effective as an embodiment of
本発明によれば、標識の画像処理によって標識を含む画像の位置および方向に関する情報を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the information regarding the position and direction of the image containing a sign can be provided by the image processing of a sign.
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面における部材の寸法は、理解を容易にするために適宜拡大、縮小して示される。また、各図面において実施の形態を説明する上で重要ではない部材の一部は省略して表示する。 The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent components and members shown in the drawings are denoted by the same reference numerals, and repeated descriptions are appropriately omitted. In addition, the dimensions of the members in each drawing are appropriately enlarged or reduced for easy understanding. Also, in the drawings, some of the members that are not important for describing the embodiment are omitted.
(第1の実施の形態)
第1の実施の形態に係る標識は、交差点などの街路の主要な箇所に設置される。この標識が映りこんだ2次元画像を画像処理することで、標識の位置や2次元画像が撮られた視線の方向に関する情報が取得される。このように取得された位置・視線方向に関する情報は、例えば拡張現実に有効に利用される。
(First embodiment)
The sign which concerns on 1st Embodiment is installed in the main places of streets, such as an intersection. By performing image processing on the two-dimensional image in which the sign is reflected, information on the position of the sign and the direction of the line of sight in which the two-dimensional image was taken is acquired. The information regarding the position and the line-of-sight direction acquired in this way is effectively used, for example, in augmented reality.
図1は、第1の実施の形態に係る標識2を示す側面図である。標識2は、軸部4と、軸部4の一端に取り付けられた符号提示部6とを備える。軸部4の他端は街路上の標識2が設置されるべき所定箇所、例えば交差点に固定される。符号提示部6は全方位から符号を視認可能な部材、この例では球体であり、その球面6aには異なる複数の視線方向から識別可能な、標識2の位置を示す複数の位置表示と、異なる複数の視線方向のうちいずれの視線方向から標識2が視認されているかを示す方向表示と、が配置される。ここで視線方向とは、撮像装置によって標識2を撮像する際、標識2に対してその撮像装置が向いている向きである。
FIG. 1 is a side view showing a
位置表示は、標識2が設置されている箇所の緯度と経度を示す情報を含む。方向表示は、標識2が視認されている視線方向の方位角または仰俯角の少なくともいずれか一方を示す情報を含む。また、同じ視点から少なくとも2つの異なる標識2を視認する場合、それぞれの視線方向の情報から例えば三角測量により標識2から視点までの距離を求めてもよい。
The position display includes information indicating the latitude and longitude of the place where the
複数の位置表示は方向表示を兼ねるよう配置されている。つまり個々の位置表示は標識2の位置の情報を含む位置情報符号として球面6a上に表示され、方向表示は符号として表示される代わりに複数の位置情報符号の視認の態様に依存する形で定められる。
The plurality of position indications are arranged to serve as direction indications. That is, each position display is displayed on the
標識2は例えば走行中の車両に搭載された車載カメラなどの撮像装置によって撮像され、撮像された標識2の画像は撮像装置に接続された画像処理装置で処理される。この画像処理装置は位置情報符号をもとに撮像された標識2の位置を取得し、その位置情報符号の映り方から標識2が撮像された視線方向を取得する。
The
図2は、図1の球面6aの一例を示す部分展開図である。図2では球面6aのうち視線方向に対応する一部をメルカトル図法に倣い展開して示す。図2中で一点鎖線で囲まれた視野角外範囲12は、撮像装置の視野に入らない範囲を示す。図2中で破線で示される上下の部分は、符号提示部6を視認する際、符号提示部6が球体であるが故に識別不可となる部分を示す。図2の例では、符号提示部6の球面6aを緯線方向に沿って12ブロックに分割する。
FIG. 2 is a partial development view showing an example of the
球面6aには、緯線方向に沿って並ぶ白(0)黒(1)ブロックの列である位置情報符号8が、経線方向に連続して複数配置されている。位置情報符号8は、1行下がる毎に反時計回りに1ブロックずらして配置される。つまり複数の位置情報符号8は、球面6a上のらせんに沿って配置される。
位置情報符号8は所定の長さを有する。この所定の長さは撮像装置が標識2を視認したときの視野角に位置情報符号8が過不足無く入るように設定される。図2の例は、視野角180度弱に6ブロックの位置情報符号8が過不足無く入る場合に対応する。
On the
The position information code 8 has a predetermined length. This predetermined length is set so that the position information code 8 can be entered into the viewing angle when the imaging device visually recognizes the
位置情報符号8を、白ブロックを0、黒ブロックを1(もしくはその反対)としてデジタル化した符号はいわゆるハミング符号を形成する。撮像装置によって撮像された標識2の画像を処理する画像処理装置は、標識2の画像からこのハミング符号を抽出してエラー検出・訂正し、それに含まれる位置情報を取得する。
A code obtained by digitizing the position information code 8 with the white block as 0 and the black block as 1 (or vice versa) forms a so-called Hamming code. The image processing apparatus that processes the image of the
図2で斜線が付されていない視野角範囲10は撮像装置の視野に入る範囲を示す。図2の状態では上からX行目14に含まれる位置情報符号8はエラー訂正なしで読み取り可能である。また、X+1行目16に含まれる位置情報符号8はエラー訂正ありで読み取り可能である。また、X+2行目18から下の位置情報符号8は識別不能となる。
A
ここで撮像装置(視点)が移動して方位角が変化し、視野角範囲10が図2の状態から右に1ブロック分移動したとする。するとX行目14に含まれる位置情報符号8はエラー訂正ありで読み取り可能となり、X+1行目16に含まれる位置情報符号8はエラー訂正なしで読み取り可能となる。したがって、このことをもって方位角が360度/12=30度だけ最初の状態から相対的に変化したことを識別できる。
Here, it is assumed that the imaging device (viewpoint) moves and the azimuth angle changes, and the
経線方向で撮像装置の視野に入る行数(図2の例では5行)よりも短い周期で位置情報符号8に絶対的な方位に関する基準情報、例えば方位角そのものを含めてもよい。この場合、相対的な方位角だけでなくその相対的な方位角および基準情報から絶対的な方位角も識別可能となる。また、全ての位置情報符号8にそのような情報を含めるわけではないので、球面6a上に提示する情報量を少なく保つことができる。
Reference information regarding an absolute azimuth, for example, the azimuth angle itself, may be included in the position information code 8 in a cycle shorter than the number of rows (5 rows in the example of FIG. 2) entering the field of view of the imaging device in the meridian direction. In this case, not only the relative azimuth angle but also the absolute azimuth angle can be identified from the relative azimuth angle and the reference information. Moreover, since such information is not included in all the position information codes 8, the amount of information presented on the
仰俯角については、図2に実線で示されるような識別可能な部分が符号提示部6の全体像のうち上または下からどれほどの距離にあるかという情報から判別される。言い換えると、符号提示部6が球体であることにより、撮像装置によって撮像された符号提示部6の画像の上部または下部の少なくともいずれか一方に識別不可な部分が生じるということを利用して仰俯角を識別する。
あるいはまた、位置情報符号8が対応する仰俯角情報を含んでもよい。
The elevation angle is determined from information indicating how far the identifiable portion as shown by a solid line in FIG. In other words, using the fact that the
Alternatively, the position information code 8 may include the corresponding elevation angle information.
本実施の形態に係る標識2によると、標識2が撮像された画像から標識2の位置情報および視線方向を抽出することによって、標識2の位置および標識2が撮像された位置・視線方向を高い精度で取得できる。したがって標識2が映る画像内の他の物体の基点や同一性をより高い精度で識別可能となる。取得されたそれらの情報は、例えば拡張現実において標識2周辺の建物等にアノテーションを提示する際に好適に使用される。また、後述する応用例にも見られる通り、それらの情報は様々な場面で有益に使用される。
According to the
標識2は、標識2が設置されるべき箇所に対応付けられた付加情報の表示をさらに備えてもよい。付加情報とは例えば、標識2が設置されるべき箇所の近隣にある商業施設の名称やその商業施設で行われているイベントの情報などの広告情報である。この場合、標識2は街路に設置される看板や広告を兼ねてもよい。つまり看板や広告に上記の位置表示および方向表示、付加情報を埋め込んでもよい。
また、付加情報とは例えば標識2が設置されている地域の交通事故発生率などのその地域に関する情報であってもよい。
The
Further, the additional information may be information related to the area such as the traffic accident rate in the area where the
また、標識2は時刻表示をさらに備えてもよい。この場合、標識2を液晶ディスプレイやLEDなどの表示装置で実現する。そしてその表示装置に位置表示と方向表示と時刻表示とを表示させる。これにより、標識2の画像分析によって位置・方向だけでなく時刻情報も抽出できる。時刻情報が分かると、例えばこの時刻情報をキーとしてある標識2をある時刻に別々の視線方向から撮像した画像を集めることができるようになる。
なお、標識2が時刻表示を含まなくてもまたは標識2の時刻表示によらなくても、ある標識2を別々の視線方向から撮像した画像を集めることができる。
The
Even if the
また、Google(登録商標)などの検索エンジンが、標識2が含まれる画像の場所を標識2の位置表示から特定し、特定された場所を基にインデックスを作成してもよい。このように本実施の形態に係る標識2は、現実世界に設けられる、仮想世界のためのアンカーとして機能する。
Further, a search engine such as Google (registered trademark) may specify the location of the image including the
(第2の実施の形態)
図3は、第2の実施の形態に係る標識24を示す斜視図である。標識24は、軸部26と、軸部26の一端に取り付けられた符号提示部28と、を備える。軸部26の他端は街路上の標識24が設置されるべき箇所に固定される。符号提示部28は球形の部材であり、その球面28aには各視線方向に対応するQRコード(登録商標)30がプリントされている。
(Second Embodiment)
FIG. 3 is a perspective view showing a
QRコード30は、標識24が設置されている位置に関する位置情報と、標識24が視認されている視線方向に関する方向情報と、を含む表示である。カメラなどの撮像装置が標識24を撮像し、画像処理装置は撮像された画像を処理することでQRコード30を認識、解読し、両情報を抽出する。
The
第2の実施の形態に係る標識24によると、第1の実施の形態に係る標識2と同様の作用効果を得ることができる。
According to the
以下第1の実施の形態に係る標識2を用いた応用例を2つ説明する。
(応用例1)
図4は、街路に複数の標識2が配置されている様子を示す模式図である。以降の図では説明を簡単にするため、球面6a上の位置情報符号8は省略して表示する。ユーザは、撮像装置およびそれに接続された画像処理装置(図4では両者とも不図示)を備える車両32を運転している。この撮像装置が街路上の標識2を撮像し、画像処理装置がその画像から位置・視線方向の情報を抽出する。画像処理装置は、抽出された位置・視線方向をキーとして標識2周辺の建物・商業施設の名称をデータベースから取得し、車両32のフロントガラスに名称アノテーションとして提示する。また、標識2に対応付けられた広告などの付加情報が標識2から抽出されると、それを標識2と対応付けてフロントガラスに広告アノテーションとして提示する。
Two application examples using the
(Application 1)
FIG. 4 is a schematic diagram showing a state in which a plurality of
図5は、車両32内のユーザからフロントガラス34越しに見える風景の一例を示す模式図である。フロントガラス34はシースルーでありながら任意の必要な箇所にアノテーションを提示できるように構成される。このようなフロントガラス34は、例えば公知の有機EL(Electro−Luminescence)技術を用いて構成される。
FIG. 5 is a schematic diagram illustrating an example of a landscape that can be seen from the user in the
車両32に搭載された撮像装置による標識2の撮像および画像処理装置によるその画像処理の結果、フロントガラス34には位置アノテーション36と、名称アノテーション38と、広告アノテーション40と、が提示される。位置アノテーション36は、標識2が設置されている地図上の位置を示す。名称アノテーション38は、標識2の画像から取得された位置・視線方向にて定まる視野空間内の建物・商業施設の名称を示す。広告アノテーション40は、標識2が広告情報の表示を含む場合、その広告を位置アノテーション36に関連付けて示す。
As a result of the imaging of the
図6は、車両32に搭載される撮像装置42および画像処理装置44の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウェア的には、コンピュータのCPU(central processing unit)をはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。
FIG. 6 is a block diagram illustrating functions and configurations of the
撮像装置42は、例えばデジタルカメラであり、標識2の画像を撮像する。画像処理装置44は、画像取得部46と、情報抽出部48と、補助情報取得部50と、補助情報DB(Data Base:データベース)52と、広告取得部54と、広告DB56と、画像更新部58と、画像ライブラリ60と、表示制御部62と、を含む。
The
画像取得部46は、撮像装置42によって撮像された画像を取得する。情報抽出部48は、画像取得部46によって取得された標識2の画像から、公知の画像認識手法を用いて位置情報符号8をもとにその標識2の位置を抽出する。また情報抽出部48は、標識2の画像から複数の位置情報符号8の視認の態様に依存する形で定められる方向表示をもとに標識2が撮像された視線方向を抽出する。この視線方向の抽出については、例えば図2に関連して説明された手法が用いられる。情報抽出部48は抽出された位置情報および視線方向の情報を、補助情報取得部50と、画像更新部58と、表示制御部62と、に渡す。表示制御部62は、渡された位置情報を位置アノテーション36として標識2と関連付けてフロントガラス34に提示する。
The
また情報抽出部48は、標識2が広告情報の表示を含む場合、それを抽出して表示制御部62に渡す。表示制御部62はその広告情報を広告アノテーション40としてフロントガラス34に提示する。
In addition, when the
補助情報取得部50は、渡された位置情報および視線方向の情報をキーとして補助情報DB52を検索し、その位置および視線方向にて定まる視野空間内の環境に関連する補助情報、特にその視野空間内の建物・商業施設の名称を示す名称補助情報を取得する。補助情報取得部50は取得された名称補助情報を表示制御部62に渡す。表示制御部62は、渡された名称補助情報を名称アノテーション38として対象の建物・商業施設と関連付けてフロントガラス34に提示する。
The auxiliary
なお広告に関して、情報抽出部48が位置情報および視線方向の情報を広告取得部54に渡し、広告取得部54が渡された位置情報および視線方向の情報をキーとして広告DB56を検索し、その位置および視線方向にて定まる視野空間内の商業施設に関連する広告補助情報を取得してもよい。広告取得部54はこの広告補助情報を表示制御部62に渡し、表示制御部62はこの広告補助情報を広告アノテーション40としてフロントガラス34に提示してもよい。この場合、広告DB56のデータを書き換えることにより容易に広告の更新ができる。
Regarding the advertisement, the
また、情報抽出部48において抽出された位置情報および視線方向の情報は、現実世界の画像を更新するのにも好適に使用される。画像更新部58は、渡された位置情報および視線方向の情報をキーとして画像ライブラリ60を検索し、その位置および視線方向で定まる過去の画像を取得する。そして画像更新部58は、その過去の画像と画像取得部46が取得した現在の画像とを比較し、差分があれば過去の画像を画像取得部46が取得した現在の画像で更新する。この場合、建物の立て替えや区画整理などで風景が変わったとしてもその画像を自動的に更新できる。
In addition, the position information and the information on the line-of-sight direction extracted by the
また、撮像装置42から動画データが送られてくる場合は、情報抽出部48は動画データを構成する一連の画像から、標識2が人間などの動く物体によって隠されて見えなくなっている画像を抽出する機能を有してもよい。これにより、標識2が人間などの動く物体によって隠される場合にも対応できる。
In addition, when moving image data is sent from the
図7は、撮像装置42および画像処理装置44における一連の処理の一部を示すフローチャートである。撮像装置42は、標識2を撮像する(S202)。情報抽出部48は、撮像された標識2から画像認識手法を用いて位置表示をもとにその標識2の位置を取得する(S204)。情報抽出部48は、撮像された標識2から画像認識手法を用いて方向表示をもとにその標識2が撮像された視線方向を取得する(S206)。補助情報取得部50は、取得された位置および視線方向にて定まる視野空間内の環境に関連する補助情報を取得する(S208)。表示制御部62は、取得された補助情報を視野空間内に仮想的に反映してユーザに提示する(S210)。
FIG. 7 is a flowchart showing a part of a series of processes in the
本応用例によると、拡張現実において標識2をアンカーとして視野空間内の現実環境に関する補助情報をより容易かつ正確にユーザに提供できる。また、広告などの付加情報も提示できる。
According to this application example, auxiliary information regarding the real environment in the visual field space can be provided to the user more easily and accurately using the
なお、画像取得部46は撮像装置42で撮像されたデジタルデータとしての画像の代わりに、アナログ技術を利用した他の撮像装置、例えば写真機によって撮られた写真をスキャンして得られる画像データを取得してもよい。
Note that the
(応用例2)
応用例2では、線路に沿った所定箇所、例えば踏切に標識2を設置する。線路を走る列車の先頭車両は撮像装置およびそれに接続された画像処理装置を備える。図8は、先頭車両のフロントガラス64越しに見える風景の一例を示す模式図である。フロントガラス64は、応用例1のフロントガラス34と同様に構成される。
(Application example 2)
In the application example 2, the
列車が踏切66に差し掛かったとする。踏切66には標識2が設置されている。撮像装置はその標識2を撮像し、画像処理装置はその画像から位置・視線方向の情報を抽出する。画像処理装置は、抽出された位置・視線方向をキーとして画像DBを検索し、踏切66の安全な状態の通常画像を抽出する。画像処理装置は、この抽出された通常画像と撮像装置によって現在撮像された踏切66の画像とを比較する。そして画像処理装置は、踏切上の車68などの異物を差分として検出すると、注意を喚起する危険アノテーション70を車68に関連付けて表示する。
Suppose a train reaches
本応用例によると、運転手は危険アノテーション70によって踏切66上の異物を早期に発見できるので、事故を防止するために有益である。
なお、標識2の軸部4を踏切警報機72と共用してもよい。つまり踏切警報機72の頂部に符号提示部6を設けてもよい。
According to this application example, the driver can find out the foreign matter on the
The
以上、実施の形態にもとづき本発明を説明したが、実施の形態は、本発明の原理、応用を示しているにすぎないことはいうまでもなく、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が可能であることはいうまでもない。 Although the present invention has been described based on the embodiments, the embodiments merely show the principle and application of the present invention, and the embodiments are defined in the claims. Needless to say, many modifications and arrangements can be made without departing from the spirit of the present invention.
第1および第2の実施の形態において、標識の符号提示部の球面に太陽電池を設け、そこで発生する電力でLED等の自己発光素子を駆動して位置情報符号を提示してもよい。または、符号提示部をバス停の標識と共用してもよい。 In the first and second embodiments, a solar cell may be provided on the spherical surface of the sign display section of the sign, and a position information code may be presented by driving a self-luminous element such as an LED with electric power generated there. Or you may share a code | symbol presentation part with the sign of a bus stop.
第1および第2の実施の形態では、標識は地上に設置される場合について説明したが、これに限られない。例えば実施の形態に係る標識は海上や空中に設置されてもよい。 In the first and second embodiments, the case where the sign is installed on the ground has been described. However, the present invention is not limited to this. For example, the sign according to the embodiment may be installed on the sea or in the air.
第1および第2の実施の形態では、符号提示部6が球形である場合について説明したが、これに限られない。例えば符号提示部6はラグビーボール状であってもよい。
In 1st and 2nd embodiment, although the case where the code |
2 標識、 4 軸部、 6 符号提示部、 8 位置情報符号、 24 標識、 26 軸部、 28 符号提示部、 30 QRコード。 2 sign, 4 axis part, 6 code presentation part, 8 position information code, 24 sign, 26 axis part, 28 code presentation part, 30 QR code.
Claims (6)
前記撮像装置が、所定箇所に設置されるべき標識であって、全方位から符号を視認可能な符号提示部を有し、当該符号提示部には異なる複数の視線方向から識別可能な当該標識の位置を示す位置表示が信号として表示された情報を備える標識を撮像するステップと、
前記画像処理装置が、撮像された標識から画像認識手法を用いて前記位置表示をもとにその標識の位置を取得するステップと、
前記画像処理装置が、撮像された標識から画像認識手法を用いて前記位置表示の映り方からその標識が撮像された視線方向を取得するステップと、を含むことを特徴とする標識使用方法。 A method executed by an imaging device and an image processing device,
The imaging device is a sign to be installed at a predetermined location, and has a code presentation unit that can visually recognize a code from all directions, and the code presentation unit includes a sign that can be identified from a plurality of different gaze directions. Imaging a sign comprising information in which a position indication indicating a position is displayed as a signal;
The image processing apparatus acquires a position of the sign from the captured sign based on the position display using an image recognition technique;
The sign processing method comprising: the image processing device including a step of acquiring a line-of-sight direction in which the sign is picked up from how the position display is reflected using an image recognition technique from the picked up sign.
前記画像処理装置が、取得された補助情報を前記視野空間内に仮想的に反映してユーザに提示するステップと、をさらに含むことを特徴とする請求項1または2に記載の標識使用方法。 The image processing apparatus acquires auxiliary information related to the environment in the visual field space determined by the acquired position and line-of-sight direction;
The method for using a sign according to claim 1, further comprising a step in which the image processing apparatus virtually reflects the acquired auxiliary information in the visual field space and presents it to a user.
撮像された標識から画像認識手法を用いて前記位置表示をもとにその標識の位置を取得する機能と、
撮像された標識から画像認識手法を用いて前記位置表示の映り方からその標識が撮像された視線方向を取得する機能と、を画像処理装置に実現させることを特徴とするコンピュータプログラム。 A sign that is to be placed at a predetermined location, and has a sign presentation unit that can visually recognize the sign from all directions, and the sign presentation part indicates the position of the sign that can be identified from a plurality of different gaze directions The imaging device realizes a function of imaging a sign having information displayed as a signal,
A function of acquiring the position of the sign based on the position display from an imaged sign using an image recognition method;
A computer program for causing an image processing apparatus to realize a function of acquiring a line-of-sight direction in which a sign is imaged from a way of displaying the position display using an image recognition technique from the imaged sign.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009258793A JP5638789B2 (en) | 2009-11-12 | 2009-11-12 | How to use signs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009258793A JP5638789B2 (en) | 2009-11-12 | 2009-11-12 | How to use signs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011107740A JP2011107740A (en) | 2011-06-02 |
JP5638789B2 true JP5638789B2 (en) | 2014-12-10 |
Family
ID=44231180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009258793A Expired - Fee Related JP5638789B2 (en) | 2009-11-12 | 2009-11-12 | How to use signs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5638789B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108959371A (en) * | 2017-05-23 | 2018-12-07 | 阿瓦亚公司 | The service of workflow is realized based on image analysis |
WO2020048441A1 (en) * | 2018-09-03 | 2020-03-12 | 广东虚拟现实科技有限公司 | Communication connection method, terminal device and wireless communication system |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014168137A (en) * | 2013-02-28 | 2014-09-11 | Panasonic Corp | Visible light communication system |
JP6179592B2 (en) * | 2013-05-31 | 2017-08-16 | 日本電気株式会社 | Image recognition apparatus, processing method thereof, and program |
WO2014203592A1 (en) | 2013-06-17 | 2014-12-24 | ソニー株式会社 | Image processing device, image processing method, and program |
JP6536810B2 (en) * | 2015-09-01 | 2019-07-03 | パナソニックIpマネジメント株式会社 | Guidance display device, guidance system and guidance method |
RU2638398C1 (en) * | 2016-08-25 | 2017-12-13 | Федеральное государственное автономное образовательное учреждение дополнительного профессионального образования", Академия стандартизации, метрологии и сертификации (учебная)" (ФГАОУ ДПО АСМС) | Method for forming zones of traffic management facility visualization in accordance with optical interference from roadside information devices |
JP2019118103A (en) * | 2019-01-31 | 2019-07-18 | パイオニア株式会社 | Information processing apparatus, information processing method, information processing program, and computer-readable recording medium recording information processing program |
JP2020194570A (en) * | 2020-08-07 | 2020-12-03 | パイオニア株式会社 | Information processing device, information processing method, information processing program, and computer-readable recording medium having information processing program stored therein |
CN113126025B (en) * | 2021-04-23 | 2024-08-16 | 刘自禄 | Vehicle positioning method and positioning system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000197148A (en) * | 1998-09-30 | 2000-07-14 | Texas Instr Inc <Ti> | Electronic mark for mobile information device |
JP2003244488A (en) * | 2002-02-19 | 2003-08-29 | Sharp Corp | Image information adding apparatus and system |
JP2004038129A (en) * | 2002-07-07 | 2004-02-05 | Takeshi Sano | Display material |
JP4916167B2 (en) * | 2005-12-15 | 2012-04-11 | キヤノン株式会社 | Index identification method and index identification device |
JP2008309530A (en) * | 2007-06-12 | 2008-12-25 | National Institute Of Information & Communication Technology | Position detecting apparatus, program for making computer perform positional detection therein, and computer readable recording medium storing the program |
-
2009
- 2009-11-12 JP JP2009258793A patent/JP5638789B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108959371A (en) * | 2017-05-23 | 2018-12-07 | 阿瓦亚公司 | The service of workflow is realized based on image analysis |
CN108959371B (en) * | 2017-05-23 | 2021-05-25 | 阿瓦亚公司 | Service for implementing workflow based on image analysis |
WO2020048441A1 (en) * | 2018-09-03 | 2020-03-12 | 广东虚拟现实科技有限公司 | Communication connection method, terminal device and wireless communication system |
Also Published As
Publication number | Publication date |
---|---|
JP2011107740A (en) | 2011-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5638789B2 (en) | How to use signs | |
US11080885B2 (en) | Digitally encoded marker-based augmented reality (AR) | |
US10677596B2 (en) | Image processing device, image processing method, and program | |
JP6833886B2 (en) | Systems and methods for using visual landmarks in initial navigation | |
JP4958497B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, mixed reality presentation system, computer program, and storage medium | |
US9129163B2 (en) | Detecting common geographic features in images based on invariant components | |
EP2273337B1 (en) | Generating a graphic model of a geographic object and systems thereof | |
JP4717760B2 (en) | Object recognition device and video object positioning device | |
US20140285523A1 (en) | Method for Integrating Virtual Object into Vehicle Displays | |
CN102037326A (en) | Method of displaying navigation data in 3D | |
CA2705019A1 (en) | Method of and arrangement for mapping range sensor data on image sensor data | |
CN107430815A (en) | Method and system for automatic identification parking area | |
JP2013080326A (en) | Image processing device, image processing method, and program | |
US8761435B2 (en) | Detecting geographic features in images based on invariant components | |
EP4089370B1 (en) | Method and device for verifying a current location and orientation of a user using landmarks | |
JP2010224670A (en) | Periphery monitoring device for vehicle | |
CN114397685A (en) | Vehicle navigation method, device, equipment and storage medium for weak GNSS signal area | |
WO2019119358A1 (en) | Method, device and system for displaying augmented reality poi information | |
JP6686076B2 (en) | Information processing apparatus, information processing method, program, and application program | |
KR20100124571A (en) | Apparatus and method for guiding information using augmented reality | |
CN112819965B (en) | Vehicle information display method and device and electronic equipment | |
JP4750193B2 (en) | Marker element installation method and identification method | |
CN116977581A (en) | Traffic data display method, device, computer equipment and storage medium | |
CN118295613A (en) | Information display method, processing device and information display system | |
JP2020013558A (en) | Information providing device, information providing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131008 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140617 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5638789 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |