JP5638789B2 - How to use signs - Google Patents

How to use signs Download PDF

Info

Publication number
JP5638789B2
JP5638789B2 JP2009258793A JP2009258793A JP5638789B2 JP 5638789 B2 JP5638789 B2 JP 5638789B2 JP 2009258793 A JP2009258793 A JP 2009258793A JP 2009258793 A JP2009258793 A JP 2009258793A JP 5638789 B2 JP5638789 B2 JP 5638789B2
Authority
JP
Japan
Prior art keywords
sign
image
information
image processing
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009258793A
Other languages
Japanese (ja)
Other versions
JP2011107740A (en
Inventor
慎 溝西
慎 溝西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2009258793A priority Critical patent/JP5638789B2/en
Publication of JP2011107740A publication Critical patent/JP2011107740A/en
Application granted granted Critical
Publication of JP5638789B2 publication Critical patent/JP5638789B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Road Signs Or Road Markings (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Description

本発明は、標識およびその標識を使用する標識使用方法に関する。   The present invention relates to a label and a label using method using the label.

画像認識技術と動体認識技術の進歩によって、今後現実世界における様々なシーンの映像が画像分析の対象となる可能性がある。そのような画像分析が使用されるものとしては例えば拡張現実(AR:Augmented Reality)がある。拡張現実は現実環境にコンピュータを用いて情報を付加、提示する技術である(例えば、特許文献1参照)。   Due to advances in image recognition technology and moving object recognition technology, images of various scenes in the real world may become the target of image analysis in the future. For example, augmented reality (AR) is used for such image analysis. Augmented reality is a technology for adding and presenting information to a real environment using a computer (see, for example, Patent Document 1).

特開2009−211251号公報JP 2009-2111251

現実世界の画像を分析する際、比較などのためにその画像が撮像された場所や時間に関する情報が必要な場合がある。これらの情報を得るためには例えば撮像装置によって画像にデジタル的に場所や時間に関する情報を付随させることが考えられる。しかしながら、まず画像ごとにそのような情報を入力するのは手間である。さらに撮像装置からいちいちそのような情報を取り出していたのでは即時性に欠ける。また、写真をスキャンして画像を得る場合などは画像以外の情報は得られないので場所や時間を同定するのは困難である。   When analyzing an image in the real world, there are cases where information regarding the location and time at which the image was captured is required for comparison or the like. In order to obtain such information, for example, it is conceivable to digitally attach information on location and time to an image by an imaging device. However, it is troublesome to input such information for each image. Further, if such information is taken out from the imaging device one by one, it is not immediate. Further, when an image is obtained by scanning a photograph, it is difficult to identify the place and time because information other than the image cannot be obtained.

本発明はこうした課題に鑑みてなされたものであり、その目的は、画像処理によって位置および方向に関する情報を提供できる標識の提供にある。   The present invention has been made in view of these problems, and an object thereof is to provide a sign that can provide information on a position and a direction by image processing.

本発明のある態様は標識に関する。この標識は、所定箇所に設置されるべき標識であって、異なる複数の視線方向から識別可能な、当該標識の位置を示す位置表示と、異なる複数の視線方向のうちいずれの視線方向から当該標識が視認されているかを示す方向表示と、を備える。   One embodiment of the present invention relates to a label. This sign is a sign to be installed at a predetermined location, and can be identified from a plurality of different line-of-sight directions. The position indication indicating the position of the sign and the sign from any of the plurality of gaze directions And a direction display indicating whether or not is visually recognized.

この態様によると、標識が含まれる画像を分析することにより標識の位置および標識が視認されている視線方向に関する情報を得ることができる。   According to this aspect, it is possible to obtain information regarding the position of the sign and the line-of-sight direction in which the sign is visually recognized by analyzing the image including the sign.

本発明の別の態様は、標識使用方法である。この方法は、標識を撮像するステップと、撮像された標識から画像認識手法を用いて位置表示をもとにその標識の位置を取得するステップと、撮像された標識から画像認識手法を用いて方向表示をもとにその標識が撮像された視線方向を取得するステップと、を含む。   Another aspect of the present invention is a method for using a label. This method includes the steps of imaging a sign, obtaining the position of the sign from the captured sign using an image recognition technique based on the position display, and using the image recognition technique from the captured sign Obtaining a line-of-sight direction in which the sign is imaged based on the display.

なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements, or those obtained by replacing the constituent elements and expressions of the present invention with each other between apparatuses, methods, systems, computer programs, recording media storing computer programs, and the like are also included in the present invention. It is effective as an embodiment of

本発明によれば、標識の画像処理によって標識を含む画像の位置および方向に関する情報を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the information regarding the position and direction of the image containing a sign can be provided by the image processing of a sign.

第1の実施の形態に係る標識を示す側面図である。It is a side view which shows the label | marker which concerns on 1st Embodiment. 図1の球面の一例を示す部分展開図である。FIG. 2 is a partial development view illustrating an example of a spherical surface in FIG. 1. 第2の実施の形態に係る標識を示す斜視図である。It is a perspective view which shows the label | marker which concerns on 2nd Embodiment. 街路に複数の標識が配置されている様子を示す模式図である。It is a mimetic diagram showing signs that a plurality of signs are arranged on a street. 車両内のユーザからフロントガラス越しに見える風景の一例を示す模式図である。It is a schematic diagram which shows an example of the scenery seen from a windshield from the user in a vehicle. 車両に搭載される撮像装置および画像処理装置の機能および構成を示すブロック図である。It is a block diagram which shows the function and structure of the imaging device and image processing apparatus which are mounted in a vehicle. 撮像装置および画像処理装置における一連の処理の一部を示すフローチャートである。It is a flowchart which shows a part of a series of processes in an imaging device and an image processing device. 先頭車両のフロントガラス越しに見える風景の一例を示す模式図である。It is a schematic diagram which shows an example of the scenery seen through the windshield of a head vehicle.

以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面における部材の寸法は、理解を容易にするために適宜拡大、縮小して示される。また、各図面において実施の形態を説明する上で重要ではない部材の一部は省略して表示する。   The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent components and members shown in the drawings are denoted by the same reference numerals, and repeated descriptions are appropriately omitted. In addition, the dimensions of the members in each drawing are appropriately enlarged or reduced for easy understanding. Also, in the drawings, some of the members that are not important for describing the embodiment are omitted.

(第1の実施の形態)
第1の実施の形態に係る標識は、交差点などの街路の主要な箇所に設置される。この標識が映りこんだ2次元画像を画像処理することで、標識の位置や2次元画像が撮られた視線の方向に関する情報が取得される。このように取得された位置・視線方向に関する情報は、例えば拡張現実に有効に利用される。
(First embodiment)
The sign which concerns on 1st Embodiment is installed in the main places of streets, such as an intersection. By performing image processing on the two-dimensional image in which the sign is reflected, information on the position of the sign and the direction of the line of sight in which the two-dimensional image was taken is acquired. The information regarding the position and the line-of-sight direction acquired in this way is effectively used, for example, in augmented reality.

図1は、第1の実施の形態に係る標識2を示す側面図である。標識2は、軸部4と、軸部4の一端に取り付けられた符号提示部6とを備える。軸部4の他端は街路上の標識2が設置されるべき所定箇所、例えば交差点に固定される。符号提示部6は全方位から符号を視認可能な部材、この例では球体であり、その球面6aには異なる複数の視線方向から識別可能な、標識2の位置を示す複数の位置表示と、異なる複数の視線方向のうちいずれの視線方向から標識2が視認されているかを示す方向表示と、が配置される。ここで視線方向とは、撮像装置によって標識2を撮像する際、標識2に対してその撮像装置が向いている向きである。   FIG. 1 is a side view showing a marker 2 according to the first embodiment. The sign 2 includes a shaft portion 4 and a code presentation portion 6 attached to one end of the shaft portion 4. The other end of the shaft portion 4 is fixed to a predetermined location where the sign 2 on the street is to be installed, for example, an intersection. The sign presentation unit 6 is a member that can visually recognize the sign from all directions, in this example, a sphere, and its spherical surface 6a is different from a plurality of position displays that indicate the position of the marker 2 that can be identified from a plurality of different gaze directions. A direction display indicating from which line of sight direction the sign 2 is viewed is arranged. Here, the line-of-sight direction is the direction in which the imaging device faces the marker 2 when the marker 2 is imaged by the imaging device.

位置表示は、標識2が設置されている箇所の緯度と経度を示す情報を含む。方向表示は、標識2が視認されている視線方向の方位角または仰俯角の少なくともいずれか一方を示す情報を含む。また、同じ視点から少なくとも2つの異なる標識2を視認する場合、それぞれの視線方向の情報から例えば三角測量により標識2から視点までの距離を求めてもよい。   The position display includes information indicating the latitude and longitude of the place where the sign 2 is installed. The direction display includes information indicating at least one of an azimuth angle and an elevation angle in the line-of-sight direction in which the sign 2 is visually recognized. Moreover, when visually recognizing at least two different signs 2 from the same viewpoint, the distance from the sign 2 to the viewpoint may be obtained from the information on the respective line-of-sight directions, for example, by triangulation.

複数の位置表示は方向表示を兼ねるよう配置されている。つまり個々の位置表示は標識2の位置の情報を含む位置情報符号として球面6a上に表示され、方向表示は符号として表示される代わりに複数の位置情報符号の視認の態様に依存する形で定められる。   The plurality of position indications are arranged to serve as direction indications. That is, each position display is displayed on the spherical surface 6a as a position information code including information on the position of the sign 2, and the direction display is determined in a form depending on the visual recognition mode of a plurality of position information codes instead of being displayed as a code. It is done.

標識2は例えば走行中の車両に搭載された車載カメラなどの撮像装置によって撮像され、撮像された標識2の画像は撮像装置に接続された画像処理装置で処理される。この画像処理装置は位置情報符号をもとに撮像された標識2の位置を取得し、その位置情報符号の映り方から標識2が撮像された視線方向を取得する。   The sign 2 is picked up by an image pickup device such as an in-vehicle camera mounted on a running vehicle, and the picked-up image of the sign 2 is processed by an image processing device connected to the image pickup device. This image processing apparatus acquires the position of the sign 2 imaged based on the position information code, and acquires the line-of-sight direction where the sign 2 was imaged from the way the position information code is reflected.

図2は、図1の球面6aの一例を示す部分展開図である。図2では球面6aのうち視線方向に対応する一部をメルカトル図法に倣い展開して示す。図2中で一点鎖線で囲まれた視野角外範囲12は、撮像装置の視野に入らない範囲を示す。図2中で破線で示される上下の部分は、符号提示部6を視認する際、符号提示部6が球体であるが故に識別不可となる部分を示す。図2の例では、符号提示部6の球面6aを緯線方向に沿って12ブロックに分割する。   FIG. 2 is a partial development view showing an example of the spherical surface 6a of FIG. In FIG. 2, a part of the spherical surface 6a corresponding to the line-of-sight direction is developed by following the Mercator projection. In FIG. 2, a viewing angle outside range 12 surrounded by an alternate long and short dash line indicates a range that does not enter the field of view of the imaging apparatus. The upper and lower parts indicated by broken lines in FIG. 2 indicate parts that cannot be identified because the code presentation unit 6 is a sphere when the code presentation unit 6 is viewed. In the example of FIG. 2, the spherical surface 6a of the code presentation unit 6 is divided into 12 blocks along the latitude direction.

球面6aには、緯線方向に沿って並ぶ白(0)黒(1)ブロックの列である位置情報符号8が、経線方向に連続して複数配置されている。位置情報符号8は、1行下がる毎に反時計回りに1ブロックずらして配置される。つまり複数の位置情報符号8は、球面6a上のらせんに沿って配置される。
位置情報符号8は所定の長さを有する。この所定の長さは撮像装置が標識2を視認したときの視野角に位置情報符号8が過不足無く入るように設定される。図2の例は、視野角180度弱に6ブロックの位置情報符号8が過不足無く入る場合に対応する。
On the spherical surface 6a, a plurality of position information codes 8 which are rows of white (0) black (1) blocks arranged along the latitude direction are continuously arranged in the meridian direction. The position information code 8 is shifted by one block in the counterclockwise direction every time one line is lowered. That is, the plurality of position information codes 8 are arranged along the spiral on the spherical surface 6a.
The position information code 8 has a predetermined length. This predetermined length is set so that the position information code 8 can be entered into the viewing angle when the imaging device visually recognizes the sign 2 without excess or deficiency. The example of FIG. 2 corresponds to the case where the position information code 8 of 6 blocks is input without excess or deficiency at a viewing angle of slightly less than 180 degrees.

位置情報符号8を、白ブロックを0、黒ブロックを1(もしくはその反対)としてデジタル化した符号はいわゆるハミング符号を形成する。撮像装置によって撮像された標識2の画像を処理する画像処理装置は、標識2の画像からこのハミング符号を抽出してエラー検出・訂正し、それに含まれる位置情報を取得する。   A code obtained by digitizing the position information code 8 with the white block as 0 and the black block as 1 (or vice versa) forms a so-called Hamming code. The image processing apparatus that processes the image of the sign 2 imaged by the image pickup apparatus extracts the hamming code from the image of the sign 2, detects and corrects the error, and acquires position information included therein.

図2で斜線が付されていない視野角範囲10は撮像装置の視野に入る範囲を示す。図2の状態では上からX行目14に含まれる位置情報符号8はエラー訂正なしで読み取り可能である。また、X+1行目16に含まれる位置情報符号8はエラー訂正ありで読み取り可能である。また、X+2行目18から下の位置情報符号8は識別不能となる。   A viewing angle range 10 that is not hatched in FIG. 2 indicates a range that falls within the field of view of the imaging apparatus. In the state of FIG. 2, the position information code 8 included in the X line 14 from the top can be read without error correction. Further, the position information code 8 included in the X + 1th row 16 can be read with error correction. In addition, the position information code 8 below the X + 2 line 18 cannot be identified.

ここで撮像装置(視点)が移動して方位角が変化し、視野角範囲10が図2の状態から右に1ブロック分移動したとする。するとX行目14に含まれる位置情報符号8はエラー訂正ありで読み取り可能となり、X+1行目16に含まれる位置情報符号8はエラー訂正なしで読み取り可能となる。したがって、このことをもって方位角が360度/12=30度だけ最初の状態から相対的に変化したことを識別できる。   Here, it is assumed that the imaging device (viewpoint) moves and the azimuth angle changes, and the viewing angle range 10 moves to the right by one block from the state of FIG. Then, the position information code 8 included in the X line 14 can be read without error correction, and the position information code 8 included in the X + 1 line 16 can be read without error correction. Accordingly, it is possible to identify that the azimuth angle has relatively changed from the initial state by 360 degrees / 12 = 30 degrees.

経線方向で撮像装置の視野に入る行数(図2の例では5行)よりも短い周期で位置情報符号8に絶対的な方位に関する基準情報、例えば方位角そのものを含めてもよい。この場合、相対的な方位角だけでなくその相対的な方位角および基準情報から絶対的な方位角も識別可能となる。また、全ての位置情報符号8にそのような情報を含めるわけではないので、球面6a上に提示する情報量を少なく保つことができる。   Reference information regarding an absolute azimuth, for example, the azimuth angle itself, may be included in the position information code 8 in a cycle shorter than the number of rows (5 rows in the example of FIG. 2) entering the field of view of the imaging device in the meridian direction. In this case, not only the relative azimuth angle but also the absolute azimuth angle can be identified from the relative azimuth angle and the reference information. Moreover, since such information is not included in all the position information codes 8, the amount of information presented on the spherical surface 6a can be kept small.

仰俯角については、図2に実線で示されるような識別可能な部分が符号提示部6の全体像のうち上または下からどれほどの距離にあるかという情報から判別される。言い換えると、符号提示部6が球体であることにより、撮像装置によって撮像された符号提示部6の画像の上部または下部の少なくともいずれか一方に識別不可な部分が生じるということを利用して仰俯角を識別する。
あるいはまた、位置情報符号8が対応する仰俯角情報を含んでもよい。
The elevation angle is determined from information indicating how far the identifiable portion as shown by a solid line in FIG. In other words, using the fact that the sign presentation unit 6 is a sphere, an indistinguishable part is generated in at least one of the upper part and the lower part of the image of the code presentation part 6 imaged by the imaging device. Identify
Alternatively, the position information code 8 may include the corresponding elevation angle information.

本実施の形態に係る標識2によると、標識2が撮像された画像から標識2の位置情報および視線方向を抽出することによって、標識2の位置および標識2が撮像された位置・視線方向を高い精度で取得できる。したがって標識2が映る画像内の他の物体の基点や同一性をより高い精度で識別可能となる。取得されたそれらの情報は、例えば拡張現実において標識2周辺の建物等にアノテーションを提示する際に好適に使用される。また、後述する応用例にも見られる通り、それらの情報は様々な場面で有益に使用される。   According to the sign 2 according to the present embodiment, by extracting the position information and the line-of-sight direction of the sign 2 from the image where the sign 2 is imaged, the position of the sign 2 and the position / line-of-sight direction where the sign 2 was imaged are increased. It can be obtained with accuracy. Therefore, the base point and identity of other objects in the image in which the sign 2 is reflected can be identified with higher accuracy. The acquired information is preferably used when, for example, an annotation is presented on a building or the like around the sign 2 in augmented reality. Further, as can be seen in the application examples described later, such information is usefully used in various situations.

標識2は、標識2が設置されるべき箇所に対応付けられた付加情報の表示をさらに備えてもよい。付加情報とは例えば、標識2が設置されるべき箇所の近隣にある商業施設の名称やその商業施設で行われているイベントの情報などの広告情報である。この場合、標識2は街路に設置される看板や広告を兼ねてもよい。つまり看板や広告に上記の位置表示および方向表示、付加情報を埋め込んでもよい。
また、付加情報とは例えば標識2が設置されている地域の交通事故発生率などのその地域に関する情報であってもよい。
The sign 2 may further include a display of additional information associated with the place where the sign 2 is to be installed. The additional information is, for example, advertisement information such as the name of a commercial facility in the vicinity of the place where the sign 2 is to be installed and information on events being performed at the commercial facility. In this case, the sign 2 may also serve as a signboard or an advertisement installed on the street. That is, the position display, direction display, and additional information may be embedded in a signboard or an advertisement.
Further, the additional information may be information related to the area such as the traffic accident rate in the area where the sign 2 is installed.

また、標識2は時刻表示をさらに備えてもよい。この場合、標識2を液晶ディスプレイやLEDなどの表示装置で実現する。そしてその表示装置に位置表示と方向表示と時刻表示とを表示させる。これにより、標識2の画像分析によって位置・方向だけでなく時刻情報も抽出できる。時刻情報が分かると、例えばこの時刻情報をキーとしてある標識2をある時刻に別々の視線方向から撮像した画像を集めることができるようになる。
なお、標識2が時刻表示を含まなくてもまたは標識2の時刻表示によらなくても、ある標識2を別々の視線方向から撮像した画像を集めることができる。
The sign 2 may further include a time display. In this case, the sign 2 is realized by a display device such as a liquid crystal display or an LED. The position display, the direction display, and the time display are displayed on the display device. Thereby, not only position and direction but also time information can be extracted by image analysis of the sign 2. If the time information is known, for example, it is possible to collect images obtained by imaging the marker 2 from different gaze directions at a certain time using the time information as a key.
Even if the marker 2 does not include a time display or does not depend on the time display of the marker 2, images obtained by capturing a certain marker 2 from different line-of-sight directions can be collected.

また、Google(登録商標)などの検索エンジンが、標識2が含まれる画像の場所を標識2の位置表示から特定し、特定された場所を基にインデックスを作成してもよい。このように本実施の形態に係る標識2は、現実世界に設けられる、仮想世界のためのアンカーとして機能する。   Further, a search engine such as Google (registered trademark) may specify the location of the image including the sign 2 from the position display of the sign 2 and create an index based on the specified location. Thus, the sign 2 according to the present embodiment functions as an anchor for the virtual world provided in the real world.

(第2の実施の形態)
図3は、第2の実施の形態に係る標識24を示す斜視図である。標識24は、軸部26と、軸部26の一端に取り付けられた符号提示部28と、を備える。軸部26の他端は街路上の標識24が設置されるべき箇所に固定される。符号提示部28は球形の部材であり、その球面28aには各視線方向に対応するQRコード(登録商標)30がプリントされている。
(Second Embodiment)
FIG. 3 is a perspective view showing a sign 24 according to the second embodiment. The sign 24 includes a shaft portion 26 and a code presentation portion 28 attached to one end of the shaft portion 26. The other end of the shaft portion 26 is fixed to a place on the street where the sign 24 is to be installed. The code presentation unit 28 is a spherical member, and a QR code (registered trademark) 30 corresponding to each line-of-sight direction is printed on the spherical surface 28a.

QRコード30は、標識24が設置されている位置に関する位置情報と、標識24が視認されている視線方向に関する方向情報と、を含む表示である。カメラなどの撮像装置が標識24を撮像し、画像処理装置は撮像された画像を処理することでQRコード30を認識、解読し、両情報を抽出する。   The QR code 30 is a display including position information related to the position where the sign 24 is installed and direction information related to the line-of-sight direction where the sign 24 is visually recognized. An imaging device such as a camera captures the sign 24, and the image processing device recognizes and decodes the QR code 30 by processing the captured image, and extracts both pieces of information.

第2の実施の形態に係る標識24によると、第1の実施の形態に係る標識2と同様の作用効果を得ることができる。   According to the sign 24 according to the second embodiment, the same effects as those of the sign 2 according to the first embodiment can be obtained.

以下第1の実施の形態に係る標識2を用いた応用例を2つ説明する。
(応用例1)
図4は、街路に複数の標識2が配置されている様子を示す模式図である。以降の図では説明を簡単にするため、球面6a上の位置情報符号8は省略して表示する。ユーザは、撮像装置およびそれに接続された画像処理装置(図4では両者とも不図示)を備える車両32を運転している。この撮像装置が街路上の標識2を撮像し、画像処理装置がその画像から位置・視線方向の情報を抽出する。画像処理装置は、抽出された位置・視線方向をキーとして標識2周辺の建物・商業施設の名称をデータベースから取得し、車両32のフロントガラスに名称アノテーションとして提示する。また、標識2に対応付けられた広告などの付加情報が標識2から抽出されると、それを標識2と対応付けてフロントガラスに広告アノテーションとして提示する。
Two application examples using the marker 2 according to the first embodiment will be described below.
(Application 1)
FIG. 4 is a schematic diagram showing a state in which a plurality of signs 2 are arranged on the street. In the subsequent drawings, the position information code 8 on the spherical surface 6a is omitted for the sake of simplicity. A user is driving a vehicle 32 including an imaging device and an image processing device (both not shown in FIG. 4) connected thereto. This imaging device captures the sign 2 on the street, and the image processing device extracts information on the position and line-of-sight direction from the image. The image processing apparatus acquires the names of buildings and commercial facilities around the sign 2 from the database using the extracted position and line-of-sight direction as keys, and presents them as name annotations on the windshield of the vehicle 32. Further, when additional information such as an advertisement associated with the sign 2 is extracted from the sign 2, it is associated with the sign 2 and presented as an advertisement annotation on the windshield.

図5は、車両32内のユーザからフロントガラス34越しに見える風景の一例を示す模式図である。フロントガラス34はシースルーでありながら任意の必要な箇所にアノテーションを提示できるように構成される。このようなフロントガラス34は、例えば公知の有機EL(Electro−Luminescence)技術を用いて構成される。   FIG. 5 is a schematic diagram illustrating an example of a landscape that can be seen from the user in the vehicle 32 through the windshield 34. Although the windshield 34 is see-through, the windshield 34 is configured to be able to present an annotation at any necessary location. Such a windshield 34 is comprised, for example using the well-known organic EL (Electro-Luminescence) technique.

車両32に搭載された撮像装置による標識2の撮像および画像処理装置によるその画像処理の結果、フロントガラス34には位置アノテーション36と、名称アノテーション38と、広告アノテーション40と、が提示される。位置アノテーション36は、標識2が設置されている地図上の位置を示す。名称アノテーション38は、標識2の画像から取得された位置・視線方向にて定まる視野空間内の建物・商業施設の名称を示す。広告アノテーション40は、標識2が広告情報の表示を含む場合、その広告を位置アノテーション36に関連付けて示す。   As a result of the imaging of the sign 2 by the imaging device mounted on the vehicle 32 and the image processing by the image processing device, a position annotation 36, a name annotation 38, and an advertisement annotation 40 are presented on the windshield 34. The position annotation 36 indicates the position on the map where the sign 2 is installed. The name annotation 38 indicates the name of the building / commercial facility in the visual field space determined by the position / line-of-sight direction acquired from the image of the sign 2. The advertisement annotation 40 indicates the advertisement in association with the position annotation 36 when the sign 2 includes display of advertisement information.

図6は、車両32に搭載される撮像装置42および画像処理装置44の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウェア的には、コンピュータのCPU(central processing unit)をはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。   FIG. 6 is a block diagram illustrating functions and configurations of the imaging device 42 and the image processing device 44 mounted on the vehicle 32. Each block shown here can be realized in hardware by an element such as a CPU (central processing unit) or a mechanical device, and in software by a computer program or the like. Describes functional blocks realized by collaboration. Accordingly, it is understood by those skilled in the art who have touched this specification that these functional blocks can be realized in various forms by a combination of hardware and software.

撮像装置42は、例えばデジタルカメラであり、標識2の画像を撮像する。画像処理装置44は、画像取得部46と、情報抽出部48と、補助情報取得部50と、補助情報DB(Data Base:データベース)52と、広告取得部54と、広告DB56と、画像更新部58と、画像ライブラリ60と、表示制御部62と、を含む。   The imaging device 42 is a digital camera, for example, and captures an image of the sign 2. The image processing device 44 includes an image acquisition unit 46, an information extraction unit 48, an auxiliary information acquisition unit 50, an auxiliary information DB (Data Base) 52, an advertisement acquisition unit 54, an advertisement DB 56, and an image update unit. 58, an image library 60, and a display control unit 62.

画像取得部46は、撮像装置42によって撮像された画像を取得する。情報抽出部48は、画像取得部46によって取得された標識2の画像から、公知の画像認識手法を用いて位置情報符号8をもとにその標識2の位置を抽出する。また情報抽出部48は、標識2の画像から複数の位置情報符号8の視認の態様に依存する形で定められる方向表示をもとに標識2が撮像された視線方向を抽出する。この視線方向の抽出については、例えば図2に関連して説明された手法が用いられる。情報抽出部48は抽出された位置情報および視線方向の情報を、補助情報取得部50と、画像更新部58と、表示制御部62と、に渡す。表示制御部62は、渡された位置情報を位置アノテーション36として標識2と関連付けてフロントガラス34に提示する。   The image acquisition unit 46 acquires an image captured by the imaging device 42. The information extraction unit 48 extracts the position of the marker 2 from the image of the marker 2 acquired by the image acquisition unit 46 based on the position information code 8 using a known image recognition technique. In addition, the information extraction unit 48 extracts the line-of-sight direction in which the marker 2 is imaged based on the direction display determined in a manner depending on the visual recognition mode of the plurality of position information codes 8 from the image of the marker 2. For example, the method described with reference to FIG. 2 is used for the extraction of the line-of-sight direction. The information extraction unit 48 passes the extracted position information and line-of-sight direction information to the auxiliary information acquisition unit 50, the image update unit 58, and the display control unit 62. The display control unit 62 presents the passed position information as the position annotation 36 on the windshield 34 in association with the sign 2.

また情報抽出部48は、標識2が広告情報の表示を含む場合、それを抽出して表示制御部62に渡す。表示制御部62はその広告情報を広告アノテーション40としてフロントガラス34に提示する。   In addition, when the sign 2 includes display of advertisement information, the information extraction unit 48 extracts the information and passes it to the display control unit 62. The display control unit 62 presents the advertisement information as the advertisement annotation 40 on the windshield 34.

補助情報取得部50は、渡された位置情報および視線方向の情報をキーとして補助情報DB52を検索し、その位置および視線方向にて定まる視野空間内の環境に関連する補助情報、特にその視野空間内の建物・商業施設の名称を示す名称補助情報を取得する。補助情報取得部50は取得された名称補助情報を表示制御部62に渡す。表示制御部62は、渡された名称補助情報を名称アノテーション38として対象の建物・商業施設と関連付けてフロントガラス34に提示する。   The auxiliary information acquisition unit 50 searches the auxiliary information DB 52 using the passed position information and line-of-sight direction information as keys, and auxiliary information related to the environment in the visual field space determined by the position and the line-of-sight direction, particularly the visual field space. Acquire name assistance information indicating the name of the building / commercial facility. The auxiliary information acquisition unit 50 passes the acquired name auxiliary information to the display control unit 62. The display control unit 62 presents the passed name assistance information as the name annotation 38 on the windshield 34 in association with the target building / commercial facility.

なお広告に関して、情報抽出部48が位置情報および視線方向の情報を広告取得部54に渡し、広告取得部54が渡された位置情報および視線方向の情報をキーとして広告DB56を検索し、その位置および視線方向にて定まる視野空間内の商業施設に関連する広告補助情報を取得してもよい。広告取得部54はこの広告補助情報を表示制御部62に渡し、表示制御部62はこの広告補助情報を広告アノテーション40としてフロントガラス34に提示してもよい。この場合、広告DB56のデータを書き換えることにより容易に広告の更新ができる。   Regarding the advertisement, the information extraction unit 48 passes the position information and the information on the line-of-sight direction to the advertisement acquisition unit 54, and the advertisement acquisition unit 54 searches the advertisement DB 56 using the passed position information and information on the line-of-sight direction as a key. Further, advertisement auxiliary information related to a commercial facility in the visual field space determined by the line-of-sight direction may be acquired. The advertisement acquisition unit 54 may pass this advertisement auxiliary information to the display control unit 62, and the display control unit 62 may present the advertisement auxiliary information as the advertisement annotation 40 on the windshield 34. In this case, the advertisement can be easily updated by rewriting the data in the advertisement DB 56.

また、情報抽出部48において抽出された位置情報および視線方向の情報は、現実世界の画像を更新するのにも好適に使用される。画像更新部58は、渡された位置情報および視線方向の情報をキーとして画像ライブラリ60を検索し、その位置および視線方向で定まる過去の画像を取得する。そして画像更新部58は、その過去の画像と画像取得部46が取得した現在の画像とを比較し、差分があれば過去の画像を画像取得部46が取得した現在の画像で更新する。この場合、建物の立て替えや区画整理などで風景が変わったとしてもその画像を自動的に更新できる。   In addition, the position information and the information on the line-of-sight direction extracted by the information extraction unit 48 are also preferably used for updating the real world image. The image update unit 58 searches the image library 60 using the received position information and line-of-sight direction information as keys, and acquires past images determined by the position and line-of-sight direction. Then, the image update unit 58 compares the past image with the current image acquired by the image acquisition unit 46, and if there is a difference, updates the past image with the current image acquired by the image acquisition unit 46. In this case, the image can be automatically updated even if the landscape changes due to the renovation of the building or the reorganization.

また、撮像装置42から動画データが送られてくる場合は、情報抽出部48は動画データを構成する一連の画像から、標識2が人間などの動く物体によって隠されて見えなくなっている画像を抽出する機能を有してもよい。これにより、標識2が人間などの動く物体によって隠される場合にも対応できる。   In addition, when moving image data is sent from the imaging device 42, the information extraction unit 48 extracts an image in which the sign 2 is hidden by a moving object such as a human being and cannot be seen from a series of images constituting the moving image data. You may have the function to do. Thereby, it is possible to cope with the case where the sign 2 is hidden by a moving object such as a human being.

図7は、撮像装置42および画像処理装置44における一連の処理の一部を示すフローチャートである。撮像装置42は、標識2を撮像する(S202)。情報抽出部48は、撮像された標識2から画像認識手法を用いて位置表示をもとにその標識2の位置を取得する(S204)。情報抽出部48は、撮像された標識2から画像認識手法を用いて方向表示をもとにその標識2が撮像された視線方向を取得する(S206)。補助情報取得部50は、取得された位置および視線方向にて定まる視野空間内の環境に関連する補助情報を取得する(S208)。表示制御部62は、取得された補助情報を視野空間内に仮想的に反映してユーザに提示する(S210)。   FIG. 7 is a flowchart showing a part of a series of processes in the imaging device 42 and the image processing device 44. The imaging device 42 images the sign 2 (S202). The information extraction unit 48 acquires the position of the marker 2 from the captured marker 2 using the image recognition method based on the position display (S204). The information extraction unit 48 obtains the line-of-sight direction in which the marker 2 is imaged based on the direction display using the image recognition technique from the imaged marker 2 (S206). The auxiliary information acquisition unit 50 acquires auxiliary information related to the environment in the visual field space determined by the acquired position and line-of-sight direction (S208). The display control unit 62 virtually reflects the acquired auxiliary information in the visual field space and presents it to the user (S210).

本応用例によると、拡張現実において標識2をアンカーとして視野空間内の現実環境に関する補助情報をより容易かつ正確にユーザに提供できる。また、広告などの付加情報も提示できる。   According to this application example, auxiliary information regarding the real environment in the visual field space can be provided to the user more easily and accurately using the marker 2 as an anchor in augmented reality. Additional information such as advertisements can also be presented.

なお、画像取得部46は撮像装置42で撮像されたデジタルデータとしての画像の代わりに、アナログ技術を利用した他の撮像装置、例えば写真機によって撮られた写真をスキャンして得られる画像データを取得してもよい。   Note that the image acquisition unit 46 uses image data obtained by scanning a photograph taken by another imaging device using an analog technology, for example, a camera, instead of an image as digital data captured by the imaging device 42. You may get it.

(応用例2)
応用例2では、線路に沿った所定箇所、例えば踏切に標識2を設置する。線路を走る列車の先頭車両は撮像装置およびそれに接続された画像処理装置を備える。図8は、先頭車両のフロントガラス64越しに見える風景の一例を示す模式図である。フロントガラス64は、応用例1のフロントガラス34と同様に構成される。
(Application example 2)
In the application example 2, the sign 2 is installed at a predetermined location along the track, for example, a railroad crossing. The leading vehicle of the train running on the track includes an imaging device and an image processing device connected thereto. FIG. 8 is a schematic diagram illustrating an example of a landscape seen through the windshield 64 of the leading vehicle. The windshield 64 is configured in the same manner as the windshield 34 of the first application example.

列車が踏切66に差し掛かったとする。踏切66には標識2が設置されている。撮像装置はその標識2を撮像し、画像処理装置はその画像から位置・視線方向の情報を抽出する。画像処理装置は、抽出された位置・視線方向をキーとして画像DBを検索し、踏切66の安全な状態の通常画像を抽出する。画像処理装置は、この抽出された通常画像と撮像装置によって現在撮像された踏切66の画像とを比較する。そして画像処理装置は、踏切上の車68などの異物を差分として検出すると、注意を喚起する危険アノテーション70を車68に関連付けて表示する。   Suppose a train reaches railroad crossing 66. A sign 2 is installed at the level crossing 66. The imaging device captures the sign 2 and the image processing device extracts information on the position / gaze direction from the image. The image processing apparatus searches the image DB using the extracted position / gaze direction as a key, and extracts a normal image in a safe state of the level crossing 66. The image processing device compares the extracted normal image with the image of the crossing 66 that is currently imaged by the imaging device. When the image processing apparatus detects a foreign object such as the car 68 on the railroad crossing as a difference, the image processing apparatus displays a danger annotation 70 for calling attention in association with the car 68.

本応用例によると、運転手は危険アノテーション70によって踏切66上の異物を早期に発見できるので、事故を防止するために有益である。
なお、標識2の軸部4を踏切警報機72と共用してもよい。つまり踏切警報機72の頂部に符号提示部6を設けてもよい。
According to this application example, the driver can find out the foreign matter on the railroad crossing 66 at an early stage by the danger annotation 70, which is useful for preventing an accident.
The shaft portion 4 of the sign 2 may be shared with the railroad crossing alarm 72. That is, the sign presentation unit 6 may be provided at the top of the railroad crossing alarm 72.

以上、実施の形態にもとづき本発明を説明したが、実施の形態は、本発明の原理、応用を示しているにすぎないことはいうまでもなく、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が可能であることはいうまでもない。   Although the present invention has been described based on the embodiments, the embodiments merely show the principle and application of the present invention, and the embodiments are defined in the claims. Needless to say, many modifications and arrangements can be made without departing from the spirit of the present invention.

第1および第2の実施の形態において、標識の符号提示部の球面に太陽電池を設け、そこで発生する電力でLED等の自己発光素子を駆動して位置情報符号を提示してもよい。または、符号提示部をバス停の標識と共用してもよい。   In the first and second embodiments, a solar cell may be provided on the spherical surface of the sign display section of the sign, and a position information code may be presented by driving a self-luminous element such as an LED with electric power generated there. Or you may share a code | symbol presentation part with the sign of a bus stop.

第1および第2の実施の形態では、標識は地上に設置される場合について説明したが、これに限られない。例えば実施の形態に係る標識は海上や空中に設置されてもよい。   In the first and second embodiments, the case where the sign is installed on the ground has been described. However, the present invention is not limited to this. For example, the sign according to the embodiment may be installed on the sea or in the air.

第1および第2の実施の形態では、符号提示部6が球形である場合について説明したが、これに限られない。例えば符号提示部6はラグビーボール状であってもよい。   In 1st and 2nd embodiment, although the case where the code | symbol presentation part 6 was spherical was demonstrated, it is not restricted to this. For example, the code presentation unit 6 may have a rugby ball shape.

2 標識、 4 軸部、 6 符号提示部、 8 位置情報符号、 24 標識、 26 軸部、 28 符号提示部、 30 QRコード。   2 sign, 4 axis part, 6 code presentation part, 8 position information code, 24 sign, 26 axis part, 28 code presentation part, 30 QR code.

Claims (6)

撮像装置および画像処理装置により実行される方法であって、
前記撮像装置が、所定箇所に設置されるべき標識であって、全方位から符号を視認可能な符号提示部を有し、当該符号提示部には異なる複数の視線方向から識別可能な当該標識の位置を示す位置表示が信号として表示された情報を備える標識を撮像するステップと、
前記画像処理装置が、撮像された標識から画像認識手法を用いて前記位置表示をもとにその標識の位置を取得するステップと、
前記画像処理装置が、撮像された標識から画像認識手法を用いて前記位置表示の映り方からその標識が撮像された視線方向を取得するステップと、を含むことを特徴とする標識使用方法。
A method executed by an imaging device and an image processing device,
The imaging device is a sign to be installed at a predetermined location, and has a code presentation unit that can visually recognize a code from all directions, and the code presentation unit includes a sign that can be identified from a plurality of different gaze directions. Imaging a sign comprising information in which a position indication indicating a position is displayed as a signal;
The image processing apparatus acquires a position of the sign from the captured sign based on the position display using an image recognition technique;
The sign processing method comprising: the image processing device including a step of acquiring a line-of-sight direction in which the sign is picked up from how the position display is reflected using an image recognition technique from the picked up sign.
前記視線方向を取得するステップでは、前記画像処理装置が、前記撮像された標識の上部または下部から前記撮像された標識における識別可能な部分までの距離に基づいて当該標識が視認されている視線方向の仰俯角を判別することを特徴とする請求項1に記載の標識使用方法。   In the step of obtaining the line-of-sight direction, the line-of-sight direction in which the sign is visually recognized by the image processing device based on a distance from an upper part or a lower part of the picked-up sign to an identifiable part of the picked-up sign The method of using a sign according to claim 1, wherein the angle of elevation is determined. 前記画像処理装置が、取得された位置および視線方向にて定まる視野空間内の環境に関連する補助情報を取得するステップと、
前記画像処理装置が、取得された補助情報を前記視野空間内に仮想的に反映してユーザに提示するステップと、をさらに含むことを特徴とする請求項1または2に記載の標識使用方法。
The image processing apparatus acquires auxiliary information related to the environment in the visual field space determined by the acquired position and line-of-sight direction;
The method for using a sign according to claim 1, further comprising a step in which the image processing apparatus virtually reflects the acquired auxiliary information in the visual field space and presents it to a user.
前記画像処理装置が、取得された位置および視線方向を使用して、標識を別々の視線方向から撮像した画像を集めるステップをさらに含むことを特徴とする請求項1から3のいずれかに記載の標識使用方法。   The said image processing apparatus further includes the step which collects the image which image | photographed the label | marker from a different gaze direction using the acquired position and gaze direction, The method of any one of Claim 1 to 3 characterized by the above-mentioned. How to use the sign. 前記画像処理装置が、取得された位置から標識が含まれる画像の場所を特定し、特定された場所を基に検索エンジンにおけるインデックスを作成するステップをさらに含むことを特徴とする請求項1から4のいずれかに記載の標識使用方法。   The image processing apparatus further includes a step of specifying a location of an image including the sign from the acquired position and creating an index in a search engine based on the specified location. The label | marker usage method in any one of. 所定箇所に設置されるべき標識であって、全方位から符号を視認可能な符号提示部を有し、当該符号提示部には異なる複数の視線方向から識別可能な当該標識の位置を示す位置表示が信号として表示された情報を備える標識を撮像する機能を撮像装置に実現させ、
撮像された標識から画像認識手法を用いて前記位置表示をもとにその標識の位置を取得する機能と、
撮像された標識から画像認識手法を用いて前記位置表示の映り方からその標識が撮像された視線方向を取得する機能と、を画像処理装置に実現させることを特徴とするコンピュータプログラム。
A sign that is to be placed at a predetermined location, and has a sign presentation unit that can visually recognize the sign from all directions, and the sign presentation part indicates the position of the sign that can be identified from a plurality of different gaze directions The imaging device realizes a function of imaging a sign having information displayed as a signal,
A function of acquiring the position of the sign based on the position display from an imaged sign using an image recognition method;
A computer program for causing an image processing apparatus to realize a function of acquiring a line-of-sight direction in which a sign is imaged from a way of displaying the position display using an image recognition technique from the imaged sign.
JP2009258793A 2009-11-12 2009-11-12 How to use signs Expired - Fee Related JP5638789B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009258793A JP5638789B2 (en) 2009-11-12 2009-11-12 How to use signs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009258793A JP5638789B2 (en) 2009-11-12 2009-11-12 How to use signs

Publications (2)

Publication Number Publication Date
JP2011107740A JP2011107740A (en) 2011-06-02
JP5638789B2 true JP5638789B2 (en) 2014-12-10

Family

ID=44231180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009258793A Expired - Fee Related JP5638789B2 (en) 2009-11-12 2009-11-12 How to use signs

Country Status (1)

Country Link
JP (1) JP5638789B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108959371A (en) * 2017-05-23 2018-12-07 阿瓦亚公司 The service of workflow is realized based on image analysis
WO2020048441A1 (en) * 2018-09-03 2020-03-12 广东虚拟现实科技有限公司 Communication connection method, terminal device and wireless communication system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014168137A (en) * 2013-02-28 2014-09-11 Panasonic Corp Visible light communication system
JP6179592B2 (en) * 2013-05-31 2017-08-16 日本電気株式会社 Image recognition apparatus, processing method thereof, and program
WO2014203592A1 (en) 2013-06-17 2014-12-24 ソニー株式会社 Image processing device, image processing method, and program
JP6536810B2 (en) * 2015-09-01 2019-07-03 パナソニックIpマネジメント株式会社 Guidance display device, guidance system and guidance method
RU2638398C1 (en) * 2016-08-25 2017-12-13 Федеральное государственное автономное образовательное учреждение дополнительного профессионального образования", Академия стандартизации, метрологии и сертификации (учебная)" (ФГАОУ ДПО АСМС) Method for forming zones of traffic management facility visualization in accordance with optical interference from roadside information devices
JP2019118103A (en) * 2019-01-31 2019-07-18 パイオニア株式会社 Information processing apparatus, information processing method, information processing program, and computer-readable recording medium recording information processing program
JP2020194570A (en) * 2020-08-07 2020-12-03 パイオニア株式会社 Information processing device, information processing method, information processing program, and computer-readable recording medium having information processing program stored therein
CN113126025B (en) * 2021-04-23 2024-08-16 刘自禄 Vehicle positioning method and positioning system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000197148A (en) * 1998-09-30 2000-07-14 Texas Instr Inc <Ti> Electronic mark for mobile information device
JP2003244488A (en) * 2002-02-19 2003-08-29 Sharp Corp Image information adding apparatus and system
JP2004038129A (en) * 2002-07-07 2004-02-05 Takeshi Sano Display material
JP4916167B2 (en) * 2005-12-15 2012-04-11 キヤノン株式会社 Index identification method and index identification device
JP2008309530A (en) * 2007-06-12 2008-12-25 National Institute Of Information & Communication Technology Position detecting apparatus, program for making computer perform positional detection therein, and computer readable recording medium storing the program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108959371A (en) * 2017-05-23 2018-12-07 阿瓦亚公司 The service of workflow is realized based on image analysis
CN108959371B (en) * 2017-05-23 2021-05-25 阿瓦亚公司 Service for implementing workflow based on image analysis
WO2020048441A1 (en) * 2018-09-03 2020-03-12 广东虚拟现实科技有限公司 Communication connection method, terminal device and wireless communication system

Also Published As

Publication number Publication date
JP2011107740A (en) 2011-06-02

Similar Documents

Publication Publication Date Title
JP5638789B2 (en) How to use signs
US11080885B2 (en) Digitally encoded marker-based augmented reality (AR)
US10677596B2 (en) Image processing device, image processing method, and program
JP6833886B2 (en) Systems and methods for using visual landmarks in initial navigation
JP4958497B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, mixed reality presentation system, computer program, and storage medium
US9129163B2 (en) Detecting common geographic features in images based on invariant components
EP2273337B1 (en) Generating a graphic model of a geographic object and systems thereof
JP4717760B2 (en) Object recognition device and video object positioning device
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
CN102037326A (en) Method of displaying navigation data in 3D
CA2705019A1 (en) Method of and arrangement for mapping range sensor data on image sensor data
CN107430815A (en) Method and system for automatic identification parking area
JP2013080326A (en) Image processing device, image processing method, and program
US8761435B2 (en) Detecting geographic features in images based on invariant components
EP4089370B1 (en) Method and device for verifying a current location and orientation of a user using landmarks
JP2010224670A (en) Periphery monitoring device for vehicle
CN114397685A (en) Vehicle navigation method, device, equipment and storage medium for weak GNSS signal area
WO2019119358A1 (en) Method, device and system for displaying augmented reality poi information
JP6686076B2 (en) Information processing apparatus, information processing method, program, and application program
KR20100124571A (en) Apparatus and method for guiding information using augmented reality
CN112819965B (en) Vehicle information display method and device and electronic equipment
JP4750193B2 (en) Marker element installation method and identification method
CN116977581A (en) Traffic data display method, device, computer equipment and storage medium
CN118295613A (en) Information display method, processing device and information display system
JP2020013558A (en) Information providing device, information providing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141023

R150 Certificate of patent or registration of utility model

Ref document number: 5638789

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees