JP2014085723A - Information providing device and information providing method - Google Patents

Information providing device and information providing method Download PDF

Info

Publication number
JP2014085723A
JP2014085723A JP2012232159A JP2012232159A JP2014085723A JP 2014085723 A JP2014085723 A JP 2014085723A JP 2012232159 A JP2012232159 A JP 2012232159A JP 2012232159 A JP2012232159 A JP 2012232159A JP 2014085723 A JP2014085723 A JP 2014085723A
Authority
JP
Japan
Prior art keywords
image
virtual object
objects
virtual
information providing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012232159A
Other languages
Japanese (ja)
Other versions
JP6064510B2 (en
Inventor
Tadashi Yanagihara
正 柳原
Masaru Fujiwara
大 藤原
Hiroaki Sekiyama
博昭 関山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2012232159A priority Critical patent/JP6064510B2/en
Publication of JP2014085723A publication Critical patent/JP2014085723A/en
Application granted granted Critical
Publication of JP6064510B2 publication Critical patent/JP6064510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a virtual object to be applied to be easily viewed when providing information by applying the virtual object to an image in a real space and displaying the image.SOLUTION: An information providing device includes: image acquisition means for acquiring an image in a real space; virtual object storage means for storing a virtual object to be displayed in association with an object in the image; component conversion means for dividing a subject included in the image acquired by the image acquisition means into a plurality of objects; specification means for specifying a specific object as an object to be displayed in association with the virtual object among the plurality of objects; non-emphasis means for performing image processing of making inconspicuous at least any of the objects other than the specific object among the plurality of objects; virtual object insertion means for acquiring a virtual object corresponding to the specific object from the virtual object storage means, and for inserting the virtual object in association with the specific object; and display means for displaying the image into which the virtual object has been inserted.

Description

本発明は、実空間の画像に仮想的な物体を付与して表示する情報提供技術に関する。   The present invention relates to an information providing technique for adding a virtual object to an image in real space for display.

近年、カーナビゲーションと車載カメラを組み合わせて、車外の風景を映像として取り込み、この映像を拡張して仮想的な物体を付与する製品が現れ始めている(非特許文献1)。この製品は、案内経路を指す矢印や周辺の建物の種類を表すロゴなどを車載カメラから取得される映像に付与して、ドライバにとって直感的な経路案内を提供する。しかしながら、表示すべき仮想物体が増えた場合に、表示画面が雑然としたものとなり、却って分かりづらいものとなってしまう問題が発生する。   In recent years, a product that takes in a scenery outside a vehicle as a video by combining a car navigation and a vehicle-mounted camera and expands this video to give a virtual object has begun to appear (Non-Patent Document 1). This product provides an intuitive route guide for the driver by adding an arrow pointing to the guide route and a logo indicating the type of surrounding building to the image acquired from the in-vehicle camera. However, when the number of virtual objects to be displayed increases, there is a problem that the display screen becomes cluttered and difficult to understand.

これに対して、特許文献1では、携帯電話機のカメラから取り込まれた3次元映像に対して仮想物体を付与して表示する際に、表示される物体数が多くなった場合には、仮想物体の表示位置をずらしてグループ化することによって、見にくさの問題を回避している。   On the other hand, in Patent Document 1, when a virtual object is added to a 3D image captured from a camera of a mobile phone and displayed, the virtual object is displayed when the number of displayed objects increases. By shifting the display position and grouping, the problem of difficulty in seeing is avoided.

また、特許文献2では、車載カメラに付与して表示する仮想物体の数を、車両の速度に応じて調整している。これにより、分かりやすい表示を提供できるとしている。   Moreover, in patent document 2, the number of the virtual objects given to the vehicle-mounted camera and displayed is adjusted according to the speed of the vehicle. As a result, an easy-to-understand display can be provided.

特開2010−238098号公報JP 2010-238098 A 特開2011−123807号公報JP 2011-123807 A

"Carrozzeria Cyber Navi", [オンライン],[平成24年6月13日検索],インターネット <URL: http://pioneer.jp/carrozzeria/cybernavi/>"Carrozzeria Cyber Navi", [Online], [Search June 13, 2012], Internet <URL: http://pioneer.jp/carrozzeria/cybernavi/>

特許文献1,2のいずれの方法であっても、表示する仮想物体と類似する形状や色を有する物体が3次元映像内に存在する場合には、やはり画面が雑然として分かりづらい表示となってしまう。特に市街地においては様々な目立つ色の物体が存在しているので、仮想物体を表示する際の妨げになるという問題がある。   In any of the methods disclosed in Patent Documents 1 and 2, if an object having a shape or color similar to the virtual object to be displayed exists in the 3D image, the screen is still cluttered and difficult to understand. End up. Particularly in urban areas, there are various prominently colored objects, which hinders the display of virtual objects.

本発明の目的は、実空間の画像に仮想物体を付与して表示して情報提供する際に、付与する仮想物体を見やすくするための技術を提供することにある。   An object of the present invention is to provide a technique for making a virtual object to be provided easy to see when providing and displaying information by adding a virtual object to an image in real space.

本発明にかかる情報提供装置は、
実空間の画像を取得する画像取得手段と、
画像中の物体と関連づけて表示する仮想物体を記憶する仮想物体記憶手段と、
前記画像取得手段によって取得された画像に含まれる被写体を複数の物体に分ける部品化手段と
前記複数の物体のうち、前記仮想物体を関連づけて表示する物体である特定物体を特定する特定手段と、
前記複数の物体のうち前記特定物体以外の物体の少なくともいずれかを目立たなくさせる画像処理を前記画像に施す非強調化手段と、
前記特定物体に対応する仮想物体を前記仮想物体記憶手段から取得して、前記特定物体と関連づけて前記画像に挿入する仮想物体挿入手段と、
前記仮想物体が挿入された画像を表示する表示手段と、
を備える。
An information providing apparatus according to the present invention includes:
Image acquisition means for acquiring an image of real space;
Virtual object storage means for storing a virtual object to be displayed in association with an object in the image;
Componentizing means for dividing a subject included in an image acquired by the image acquiring means into a plurality of objects; a specifying means for specifying a specific object that is an object to be displayed in association with the virtual object among the plurality of objects;
Non-emphasizing means for performing image processing on the image that makes at least one of objects other than the specific object out of the plurality of objects inconspicuous;
A virtual object insertion means for acquiring a virtual object corresponding to the specific object from the virtual object storage means, and inserting the virtual object into the image in association with the specific object;
Display means for displaying an image in which the virtual object is inserted;
Is provided.

このように実空間の画像に含まれる被写体をいくつかの物体に分けて、仮想物体を関連づけて表示する物体以外の物体について、目立たなくさせる処理を施すことで、相対的に仮想物体を目立たせることができる。   In this way, the subject included in the real space image is divided into several objects, and the object other than the object displayed in association with the virtual object is processed to make it inconspicuous, thereby making the virtual object relatively conspicuous. be able to.

また、本発明において、前記部品化手段は、エッジ、色、文字の少なくともいずれかに基づいて行われた領域分割の結果を1つの物体とする、ことが好ましい。画像が車載カメラから撮影されるものである場合、画像内に含まれる物体として、道路、建物、看板、人物、車両などが想定される。このような各物体を1つの物体として認識するためには、上記のような領域分割処理を採用することが好適である。特に、看板には文字が記載されることが多いので、文字認識処理も用いることで領域特定が高精度に行える。   Moreover, in the present invention, it is preferable that the componentizing unit sets a result of area division performed based on at least one of an edge, a color, and a character as one object. When an image is taken from an in-vehicle camera, a road, a building, a signboard, a person, a vehicle, or the like is assumed as an object included in the image. In order to recognize each object as one object, it is preferable to employ the above-described region division processing. In particular, since characters are often described on a signboard, the region can be identified with high accuracy by using character recognition processing.

また、本発明において、前記特定手段は、文字認識または画像認識によって前記物体の内容を取得し、当該物体に対応する仮想物体が前記仮想物体記憶手段に記憶されている場合に、当該物体を特定物体であると判断する、ことが好ましい。   In the present invention, the specifying unit acquires the content of the object by character recognition or image recognition, and specifies the object when a virtual object corresponding to the object is stored in the virtual object storage unit. It is preferable to determine that the object is an object.

仮想物体がどの物体と関連づけて表示されるかは仮想物体記憶手段に記憶されている。そして上記の処理により、画像内に仮想物体と関連づけられた物体が写っている場合に、仮想物体を表示することができる。   Which object the virtual object is displayed in association with is stored in the virtual object storage means. With the above processing, the virtual object can be displayed when an object associated with the virtual object appears in the image.

また、本発明において、前記仮想物体を関連づけて表示する物体に関する条件を取得する条件取得手段をさらに有し、前記特定手段は、前記物体が当該条件に合致する場合に当該物体を特定物体であると判断する、ことが好ましい。   In the present invention, the image processing apparatus further includes condition acquisition means for acquiring a condition related to the object to be displayed in association with the virtual object, and the specifying means is the specific object when the object matches the condition It is preferable to judge.

記憶されている仮想物体と関連づけられている物体が写っている場合に、全ての仮想物体を表示させると表示が見づらくなる。そこで、ユーザが希望する仮想物体のみを表示させることが好ましい。上記のように、条件取得手段によって表示させる仮想物体についての情報を取得し、その条件に合致する仮想物体のみを表示させることで、表示が見づらくなることを避けられる。   When an object associated with a stored virtual object is captured, displaying all the virtual objects makes it difficult to see the display. Therefore, it is preferable to display only the virtual object desired by the user. As described above, by acquiring information about the virtual object to be displayed by the condition acquisition unit and displaying only the virtual object that matches the condition, it is possible to avoid the display becoming difficult to see.

また、本発明において、前記非強調化手段は、前記特定物体以外の物体を除外する、塗りつぶす、脱色する、ワイヤフレーム化する、のいずれかの処理を行うことで、当該物体を目立たなくさせる、ことが好ましい。   Further, in the present invention, the non-emphasizing means makes the object inconspicuous by performing any of the processes of excluding an object other than the specific object, painting, decoloring, and wireframe. It is preferable.

目立たなくさせる処理はどのような処理であっても良いが、表示が雑然としたものになる理由は、種々の色の物体が画像内に存在するためであると考えられる。したがって、上記のような処理によって色が目立たないようにすることが好ましい。   Any process can be used to make it inconspicuous, but the reason why the display is cluttered is considered to be because objects of various colors exist in the image. Therefore, it is preferable to make the color inconspicuous by the above processing.

また、本発明において、
前記画像取得手段は、車両外部の画像を取得する車載カメラであり、
前記特定物体および前記非強調化処理が施される物体は、看板である、
とすることも好ましい。
In the present invention,
The image acquisition means is an in-vehicle camera that acquires an image outside the vehicle,
The specific object and the object subjected to the non-emphasizing process are signboards.
It is also preferable that

車載カメラによって実空間の画像を撮影した場合に、道路や建物や看板などが被写体となる。ここで、看板を特定物体として、仮想物体を看板とともに表示することで、看板に対して追加的な情報を提供することができる。また、看板には種々の目立つ色が用いられ
ているので、仮想物体を重ねて表示したときの見づらさの原因となる。したがって、仮想物体を関連づけて表示するもの以外の看板については、非強調化処理を施して目立たないようにすることで、仮想物体を表示した場合であっても見やすさを確保できる。
When a real-space image is taken by an in-vehicle camera, a road, a building, a signboard, or the like becomes a subject. Here, by displaying the virtual object together with the signboard with the signboard as the specific object, additional information can be provided to the signboard. In addition, since various noticeable colors are used for the signboard, it becomes difficult to see when the virtual object is displayed in a superimposed manner. Therefore, signboards other than those that are displayed in association with the virtual object are subjected to de-emphasis processing so as not to stand out, thereby ensuring visibility even when the virtual object is displayed.

なお、本発明は、上記手段の少なくとも一部を備える情報提供システムとして捉えることもできる。また、本発明の上記の処理の少なくとも一部を実行する情報提供方法として捉えることもできる。また、本発明は、この方法をコンピュータに実行させるためのコンピュータプログラムとして捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。   In addition, this invention can also be grasped | ascertained as an information provision system provided with at least one part of the said means. It can also be understood as an information providing method for executing at least a part of the above processing of the present invention. The present invention can also be understood as a computer program for causing a computer to execute this method. Each of the above means and processes can be combined with each other as much as possible to constitute the present invention.

本発明によれば、実空間の画像に仮想物体を付与して表示して情報提供する際に、付与する仮想物体を見やすい表示が可能となる。   According to the present invention, when a virtual object is attached to a real space image and displayed to provide information, it is possible to easily display the attached virtual object.

本実施形態に係る情報提供システムの機能ブロックを示す図である。It is a figure which shows the functional block of the information provision system which concerns on this embodiment. 本実施形態にかかる情報提供システムが行う処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which the information provision system concerning this embodiment performs. カメラによって撮影される実空間の画像の例を示す図である。It is a figure which shows the example of the image of the real space image | photographed with the camera. 図3の画像のうち、仮想オブジェクトを付与する看板以外の看板を目立たないように処理した画像の例を示す図である。It is a figure which shows the example of the image processed so that signboards other than the signboard which provides a virtual object among the images of FIG. 3 may not stand out. 図4の画像に対して、仮想オブジェクトを挿入した画像の例を示す図である。It is a figure which shows the example of the image which inserted the virtual object with respect to the image of FIG.

<システム構成>
本実施形態にかかる情報提供システムは、車両に搭載されるカーナビゲーションシステムの一部として実装されるシステムであり、車載カメラから得られる実空間の映像に、仮想的な物体を重ね合わせて情報提供を行うシステムである。仮想的な物体(仮想オブジェクト)とは、コンピュータにより生成されて表示される映像オブジェクトを指す。仮想オブジェクトは、どのような内容のものであっても良いが、車両の搭乗者に対して何らかの有用な情報を提供するものであることが望ましい。具体的には、実際の風景に対する補足的な説明や広告、あるいは実際の風景を強調表示するものを、仮想オブジェクトの例として挙げることができる。
<System configuration>
The information providing system according to the present embodiment is a system implemented as a part of a car navigation system mounted on a vehicle, and provides information by superimposing a virtual object on a real space image obtained from an in-vehicle camera. It is a system that performs. A virtual object (virtual object) refers to a video object generated and displayed by a computer. The virtual object may have any content, but it is desirable to provide some useful information to the vehicle occupant. Specifically, supplementary explanations and advertisements for actual scenery, or highlighting of actual scenery can be given as examples of virtual objects.

以下の説明では、車載カメラから取得される映像中にある看板に対して、その看板と関連する店舗等について広告情報を、実際の映像に重ね合わせて表示する情報提供システムを例として取り上げる。すなわち、以下の説明では、仮想オブジェクトは、広告情報である。   In the following description, an information providing system that displays advertisement information on a signboard in a video acquired from a vehicle-mounted camera in a superimposed manner on an actual video is taken up as an example. That is, in the following description, the virtual object is advertisement information.

図1は、本実施形態にかかる情報提供システム10の機能ブロックを示す図である。情報提供システム10は、カメラ100、画像処理部200、表示条件入力部300、画像表示部400から構成される。   FIG. 1 is a diagram showing functional blocks of an information providing system 10 according to the present embodiment. The information providing system 10 includes a camera 100, an image processing unit 200, a display condition input unit 300, and an image display unit 400.

カメラ100は、主に車両前方の外部の風景を取得する。カメラ100が撮影する画像の解像度やフレームレートは任意であって構わない。また、撮影画像のフォーマットも既存の任意のものが採用可能である。   The camera 100 mainly acquires an external scenery in front of the vehicle. The resolution and frame rate of the image captured by the camera 100 may be arbitrary. Also, any existing format of the captured image can be adopted.

画像処理部200は、演算装置(プロセッサ)やメモリなどから構成されるコンピュータが、プログラムを実行することにより実現される。画像処理部200は、その機能部と
して、解像度変換部201、部品化部202、映像部品データベース203、仮想物体挿入部品特定部204、部品非強調化部205、仮想物体データベース206、仮想物体挿入部207を含む。
The image processing unit 200 is realized by executing a program by a computer including an arithmetic device (processor) and a memory. The image processing unit 200 includes, as its functional units, a resolution conversion unit 201, a component conversion unit 202, a video component database 203, a virtual object insertion component identification unit 204, a component non-emphasis unit 205, a virtual object database 206, and a virtual object insertion unit. 207.

解像度変換部201は、カメラ100によって撮影された画像の解像度を低下させる処理を行う。これにより、以降の処理の負荷が軽減されるため、比較的性能が低いプロセッサを用いてもリアルタイムでの処理が可能になる。   The resolution conversion unit 201 performs processing for reducing the resolution of an image captured by the camera 100. As a result, the subsequent processing load is reduced, so that real-time processing is possible even with a processor having relatively low performance.

部品化部202は、低解像度化された画像に対して、ワイヤフレーム化やモノクロ化などの符号化処理を行い、さらに画像内に被写体を複数の部品に分ける処理を行う。ここでは、部品とは任意の物体であって構わないが、例えば、道路(車道および歩道)、建物、車両、人物、看板、空、交通標識などを部品とすることができる。部品化のための画像処理は、種々の方法が採用可能である。一例として、以下の文献(第1.2節)で紹介されているような、境界、エッジ、色別ヒストグラムなどのローレベルな画像特徴に基づいて行う領域分割処理を採用することができる。   The component converting unit 202 performs an encoding process such as wire frame conversion or monochrome conversion on the reduced resolution image, and further performs a process of dividing the subject into a plurality of components in the image. Here, the parts may be any objects, but for example, roads (roadways and sidewalks), buildings, vehicles, people, signboards, sky, traffic signs, and the like can be used as parts. Various methods can be used for image processing for componentization. As an example, it is possible to employ a region division process performed based on low-level image features such as boundaries, edges, and color-specific histograms as introduced in the following document (Section 1.2).

Benjamin Z. Yao, et. al., "I2T: Image Parsing to Text Description", Proceedings of IEEE, Vol. 98, no.8, pp 1485-1508, August, 2010. (Special issue on Internet
Vision)
Benjamin Z. Yao, et. Al., "I2T: Image Parsing to Text Description", Proceedings of IEEE, Vol. 98, no.8, pp 1485-1508, August, 2010. (Special issue on Internet
Vision)

なお、現実世界における看板は、単一色を背景とした矩形内に文字が含まれることが多いので、エッジや色などを用いた領域分割処理に文字認識処理を組み合わせることで、看板の領域特定を高精度に行える。   In addition, since signboards in the real world often include characters in a rectangle with a single color background, the area of the signboard can be specified by combining character recognition processing with area division processing using edges, colors, etc. Can be done with high accuracy.

どのような物体を部品として採用するかは、アプリケーションの要求に応じて決定することができる。具体的には、仮想オブジェクトを付与して表示したい物体や、画面内で目立たないようにさせたい物体については、それぞれ部品として識別することが望ましい。これら以外の物体については、必ずしも部品として識別できなくても構わない。   What kind of object is adopted as a part can be determined according to the requirements of the application. Specifically, it is desirable to identify an object that is desired to be displayed with a virtual object attached thereto or an object that is desired to be inconspicuous on the screen as a component. Other objects may not necessarily be identified as parts.

部品化部202は、映像部品データベース203に登録されている部品化された風景を参照して、各部品がどのような種別の部品であるかを識別する。具体的には、部品化部202によって部品化された各部品が、道路、建物、車両、人物、看板などのどの種類の部品に該当するのかを識別する。なお、より細かく識別を行い、どの種類の車両であるか、どの種類の看板であるか(広告主ごとに分類しても良いし、広告主のジャンルごとに分類しても良い)を識別することも好ましい。また、看板などの文字が記載されている物体については、文字認識処理を用いることで、その看板がどの広告主の看板であるか判断することができる。あるいは、映像部品データベース203に看板の画像データと広告主とを関連づけて記憶しておき、部品化された看板と画像照合することで、その看板がどの広告主の看板であるか判断することができる。   The component conversion unit 202 refers to the componentized scenery registered in the video component database 203 and identifies what type of component each component is. Specifically, it identifies which type of component, such as a road, a building, a vehicle, a person, and a signboard, each component converted into a component by the component converting unit 202 corresponds to. In addition, more detailed identification is performed to identify which type of vehicle and which type of signboard (which may be classified for each advertiser or each advertiser's genre). It is also preferable. In addition, for an object on which characters such as a signboard are written, it is possible to determine which advertiser's signboard the signboard is by using character recognition processing. Alternatively, the image data of the signboard and the advertiser are stored in the video parts database 203 in association with each other, and it is possible to determine which advertiser's signboard the signboard is by collating the image with the billboard made into a component. it can.

仮想物体挿入部品特定部204(以下、特定部と称する)は、部品化部202によって部品化された物体のうち、どの物体に対して仮想オブジェクトを付与するかを決定する機能部である。特定部204は、仮想物体データベース206内に登録されている仮想オブジェクトと関連づけられた部品が画像内に存在するか判定し、仮想オブジェクトと関連づけられた物体(部品)がある場合に、その物体に対して仮想オブジェクトを付与すると決定する。なお、全ての仮想オブジェクトを表示してしまうと表示が雑然としたものとなる恐れがあり、また、ユーザの関心が低いものが表示されてしまうので、表示条件入力部300から取得される条件に合致する仮想オブジェクトのみを表示することが好ましい。この条件とは、例えば、特定のジャンル(例えば、レストラン)に関する情報のみを表示するというものを採用可能である。   The virtual object insertion component specifying unit 204 (hereinafter, referred to as a specifying unit) is a functional unit that determines which of the objects converted into components by the component converting unit 202 is to be assigned a virtual object. The specifying unit 204 determines whether there is a part associated with the virtual object registered in the virtual object database 206 in the image, and when there is an object (part) associated with the virtual object, On the other hand, it is determined that a virtual object is assigned. If all the virtual objects are displayed, the display may be cluttered, and those that are not of interest to the user are displayed. Therefore, the conditions acquired from the display condition input unit 300 are It is preferable to display only matching virtual objects. As this condition, for example, it is possible to adopt a condition in which only information relating to a specific genre (for example, a restaurant) is displayed.

部品非強調化部205は、画像内の部品のうちドライバにとって不要な部品を、画像内で目立たなくさせる処理(非強調化処理)を行う。目立たなくさせるための処理として、部品を削除(除外)する、目立たない色で塗りつぶす、ワイヤフレーム化する、脱色する、などの方法が考えられる。部品非強調化部205が目立たなくさせる対象の部品は、特定の種類の部品(例えば、車両や看板は目立たなくさせる)、特定の色を有する部品(例えば、特定の色相を有する部品や、明度が高い部品を目立たなくさせる)とすることが考えられる。なお、非強調化処理の対象とする部品は、特定部204によって特定された部品以外とする。   The component de-emphasizing unit 205 performs processing (non-emphasizing processing) for making components unnecessary for the driver out of the components in the image inconspicuous in the image. As a process for making it inconspicuous, methods such as deleting (excluding) a part, painting with an inconspicuous color, forming a wire frame, and decoloring can be considered. The parts to be made inconspicuous by the part non-emphasizing unit 205 are specific types of parts (for example, vehicles and signs are inconspicuous), parts having a specific color (for example, parts having a specific hue, brightness, etc. It is conceivable to make the high-intensity parts inconspicuous). Note that the parts to be subjected to the de-emphasis processing are other than the parts specified by the specifying unit 204.

仮想物体データベース206には、画像内の部品と関連づけて表示する仮想オブジェクトが格納されている。より具体的には、どの種類の部品と関連づけて表示する仮想オブジェクトであるかと、どのような内容の仮想オブジェクトを表示するか、についての情報が記憶されている。仮想オブジェクトの内容は、画像情報であっても良いし文字情報であっても良い。   The virtual object database 206 stores virtual objects to be displayed in association with components in the image. More specifically, information about which type of component is associated with the virtual object to be displayed and what kind of virtual object to display is stored. The contents of the virtual object may be image information or character information.

仮想物体挿入部207は、車載カメラから得られた画像データに、仮想物体データベース206に登録されている仮想物体を挿入する。仮想物体挿入部207は、特定部204によって特定された物体に対して、この物体と関連する仮想オブジェクトを仮想物体データベース206から取得して、画像データに挿入する。   The virtual object insertion unit 207 inserts a virtual object registered in the virtual object database 206 into the image data obtained from the in-vehicle camera. The virtual object insertion unit 207 acquires a virtual object related to the object specified by the specifying unit 204 from the virtual object database 206 and inserts it into the image data.

画像処理部200によって、仮想オブジェクトの挿入や部品の非強調化処理が施された画像は、画像表示部400に出力されて、表示される。   The image that has been subjected to the insertion of the virtual object and the part non-emphasis processing by the image processing unit 200 is output to the image display unit 400 and displayed.

画像表示部400は、液晶ディスプレイなどの画像出力装置である。表示条件入力部300は、タッチスクリーンやボタンなどの入力装置を介して、本情報提供システムが提供する情報(仮想オブジェクト)に関する条件をユーザに入力させるための機能部である。   The image display unit 400 is an image output device such as a liquid crystal display. The display condition input unit 300 is a functional unit that allows a user to input conditions related to information (virtual object) provided by the information providing system via an input device such as a touch screen or a button.

(動作例)
本実施形態にかかる情報提供システムが行う処理の具体例を、図2から図5を参照して説明する。図2は、本情報提供システムが行う処理の流れを示すフローチャートである。図3から図5は、画像処理の内容を具体例に基づいて説明する図である。
(Operation example)
A specific example of processing performed by the information providing system according to the present embodiment will be described with reference to FIGS. FIG. 2 is a flowchart showing a flow of processing performed by the information providing system. 3 to 5 are diagrams for explaining the contents of the image processing based on a specific example.

まず、カメラ100が車両外部の画像を撮影し、撮影した画像を画像処理部200へ渡す。(S11)。カメラ100によって撮影される画像の例を図3に示す。図3に示す例では、車道、歩道、建物、看板が画像内に被写体として写っている。なお、網掛けされて示されている物体が看板であるが、これは説明の都合上網掛けをしているだけであり撮影された画像に対してこの時点では何らの処理も施していない。また、実際には、これら以外にも、車両や人物、街路樹、交通標識なども画像内に写ることが考えられるが、説明の簡略化のためにこれらの物体については省略している。   First, the camera 100 captures an image outside the vehicle, and passes the captured image to the image processing unit 200. (S11). An example of an image photographed by the camera 100 is shown in FIG. In the example shown in FIG. 3, a roadway, a sidewalk, a building, and a signboard are shown as subjects in the image. Note that the shaded object is a signboard, but this is only shaded for convenience of explanation, and no processing is performed on the captured image at this time. Actually, in addition to these, vehicles, persons, roadside trees, traffic signs, and the like may be included in the image, but these objects are omitted for the sake of simplicity.

画像処理部200は、カメラ100によって撮影された画像に対して画像処理を施す。まず、解像度変換部201が、入力画像の解像度を低下させる処理を施す(S12)。これにより以降の処理を高速に行うことができる。なお、低解像度化により画像が全体的にぼやけるが、図3〜図5を用いた説明では、低解像度化による影響を省略して説明する。   The image processing unit 200 performs image processing on an image captured by the camera 100. First, the resolution conversion unit 201 performs a process of reducing the resolution of the input image (S12). As a result, the subsequent processing can be performed at high speed. Note that although the image is blurred as a whole due to the reduction in resolution, in the description using FIGS.

次に、部品化部202が、低解像度化された画像に対して、境界やエッジや色別ヒストグラムなどのローレベル画像特徴を用いて領域分割を行って画像内の物体を複数の部品に分け、部品照合部204が映像部品データベース203に格納された風景と比較することで、部品を識別する(S13)。図3の例では、車道、歩道、建物、空、看板をそれぞれ
1つ部品として識別することができる。図3には示していない車両、人物、街路樹、交通標識などもそれぞれ部品として識別することもできる。
Next, the component converting unit 202 divides an image in which the resolution has been reduced using low-level image features such as boundaries, edges, and color-specific histograms to divide an object in the image into a plurality of components. The parts collating unit 204 identifies the parts by comparing with the scenery stored in the video part database 203 (S13). In the example of FIG. 3, the roadway, the sidewalk, the building, the sky, and the signboard can be identified as one part. Vehicles, persons, roadside trees, traffic signs, etc. not shown in FIG. 3 can also be identified as parts.

図3では、看板301〜308の8つの看板が識別されている。看板には種々の種類のものが存在するが、本システムでは、以下のような看板を識別の対象とする。看板301は、建物の壁面や窓などに貼られる看板である。看板302は、垂れ幕形式の看板である。看板303は、建物の屋上に設置される屋上看板である。看板304〜306は、建物の外壁などに取り付けられて建物から突出している袖看板である。看板307,308は、地面に設置するスタンド看板である。図3に示した以外にも、野立て看板、切り文字看板、ウィンドウフィルム、のぼり、のれんなどの看板も識別の対象とすることができる。   In FIG. 3, eight signboards 301 to 308 are identified. There are various types of signboards. In the present system, the following signboards are targeted for identification. The signboard 301 is a signboard that is pasted on the wall or window of a building. The signboard 302 is a banner signboard. The signboard 303 is a rooftop signboard installed on the rooftop of the building. The signboards 304 to 306 are sleeve signboards that are attached to the outer wall of the building and project from the building. The signboards 307 and 308 are stand signboards installed on the ground. In addition to those shown in FIG. 3, signboards such as field signboards, cutout signboards, window films, banners, and goodwill can be identified.

看板の抽出は、上述のように、エッジおよび色に基づいて行うことができる。看板は、矩形形状をしており、単一の背景色を有することが多いので、このような特徴に基づいて看板を識別することが可能である。また看板には、文字が記載されることが多いので、文字認識処理を用いて、単一の背景色を有する矩形形状に物体に文字が記載されている物体を看板として識別することも好ましい。また、別の方法として、看板としてあらかじめ登録した物体(画像データ)と比較を行うことで、画像内の物体が看板であるかを識別するようにしても良い。また、看板に記載された文字や、登録画像との照合に基づいて、看板の広告主を特定する。   The signboard can be extracted based on the edge and color as described above. Since the signboard has a rectangular shape and often has a single background color, the signboard can be identified based on such characteristics. In addition, since characters are often described on a signboard, it is also preferable to identify an object in which characters are described in a rectangular shape having a single background color as a signboard using character recognition processing. As another method, a comparison may be made with an object (image data) registered in advance as a signboard to identify whether the object in the image is a signboard. Further, the advertiser of the signboard is specified based on the characters written on the signboard and collation with the registered image.

次に、特定部204が、部品化された複数の物体のうち、どの物体に対して仮想オブジェクトを付与するかを決定する(S15)。本実施形態は、看板に対して、追加的な情報(広告)を仮想オブジェクトとして付与する情報提供システムである。したがって、看板のうち、仮想物体データベース206に記憶されている仮想オブジェクトと関連している看板を、仮想オブジェクトを付与する物体として特定する。すなわち、仮想物体データベース206に、ある広告主の看板に対してある内容の広告を付与して表示する旨が登録されている場合には、この広告主の部品が仮想オブジェクトを付与する物体として特定される。なお、表示条件入力部300から、仮想オブジェクトを付与する物体についての条件が指定されている場合には、さらにこの条件を満たす看板を、仮想オブジェクトを付与する物体として特定する。条件としては、例えば、特定ジャンルの看板を対象とする、という条件が挙げられる。なお、ここでは、図3における看板301が仮想オブジェクトを付与する部品として特定されたものとして説明を続ける。   Next, the specifying unit 204 determines to which object the virtual object is to be assigned among the plurality of parts that are componentized (S15). The present embodiment is an information providing system that adds additional information (advertisement) as a virtual object to a signboard. Therefore, the signboard related to the virtual object stored in the virtual object database 206 is specified as the object to which the virtual object is assigned. That is, when it is registered in the virtual object database 206 that an advertisement of a certain content is given to a certain advertiser's signboard and displayed, the advertiser's part is identified as an object to which the virtual object is attached. Is done. In addition, when the condition regarding the object to which the virtual object is added is specified from the display condition input unit 300, a signboard that satisfies this condition is further specified as the object to which the virtual object is added. An example of the condition is a condition that a signboard of a specific genre is targeted. Here, the description will be continued assuming that the signboard 301 in FIG. 3 is specified as a component to which a virtual object is assigned.

部品非強調化部205は、特定部204によって特定された部品(以下、特定部品と称する)以外の部品を、画像内で目立たないようにする非強調化処理を施す(S16)。本実施形態では、特定部品以外の看板を非強調化処理の対象とする。これは、看板は通常で目立つ色を有しており、仮想オブジェクトを表示させる場合に仮想オブジェクトも目立つ色で表示させると、表示が見づらくなってしまうためである。特定部品以外の看板を目立たないようにさせることで、特定部品と仮想オブジェクトが相対的に強調され、かつ、見づらさが軽減される。なお、看板以外の部品についても、非強調化処理の対象としてもよい。これは、特定の種類の部品(例えば、車両や建物)を全て非強調化処理の対象としてもよいし、特定部品以外の物体のうち目立つ色(例えば、明度が高い色)を有する部品を非強調化処理の対象としてもよい。   The component de-emphasizing unit 205 performs a de-emphasizing process so that components other than the component specified by the specifying unit 204 (hereinafter referred to as a specific component) are not conspicuous in the image (S16). In the present embodiment, a signboard other than the specific part is a target of the de-emphasis process. This is because a signboard usually has a conspicuous color, and when a virtual object is displayed, if the virtual object is also displayed in a conspicuous color, the display becomes difficult to see. By making the signboards other than the specific part inconspicuous, the specific part and the virtual object are relatively emphasized, and the difficulty in viewing is reduced. It should be noted that parts other than the signboard may be subjected to the de-emphasis processing. In this case, all of a specific type of component (for example, a vehicle or a building) may be targeted for non-emphasis processing, or a component having a conspicuous color (for example, a color with high brightness) among objects other than the specific component may be excluded. It may be a target of enhancement processing.

部品非強調化部205によって実施される非強調化処理は、部品の削除、目立たない色での塗りつぶし、ワイヤフレームか、脱色化などの方法を採用可能である。   For the de-emphasis processing performed by the component de-emphasis unit 205, it is possible to employ a method such as deletion of a component, painting with an inconspicuous color, wire frame, or decolorization.

図4に示す例は、看板301がステップS15において仮想オブジェクトを付与する部品として特定され、それ以外の看板302〜308を脱色することで目立たないようにしている。なお、脱色は、明度または彩度の少なくともいずれかを下げる画像処理であり、
グレースケール化することも含まれる。
In the example illustrated in FIG. 4, the signboard 301 is identified as a part to which a virtual object is added in step S <b> 15, and the other signboards 302 to 308 are decolored so as not to stand out. Note that decolorization is image processing that reduces at least one of lightness and saturation.
This includes making it grayscale.

仮想物体挿入部207は、ステップS15において特定された看板に対して、この看板と関連づけられた仮想オブジェクトを仮想物体データベース206から取得して、画像データに重ね合わせる(S17)。仮想オブジェクトは、本実施形態においては、看板に関連する広告情報である。そして、仮想オブジェクトが付与された画像が、画像表示部400上で表示される。図5は、仮想オブジェクトが付与された画像の例である。ここでは、看板301に関連して、広告情報(仮想オブジェクト)311〜313が付与された画像が表示される(S18)。ここでは、3つの仮想オブジェクトを特定部品に付与して表示しているが、付与する仮想オブジェクトの数は任意である。   The virtual object insertion unit 207 acquires a virtual object associated with the signboard identified in step S15 from the virtual object database 206 and superimposes it on the image data (S17). In this embodiment, the virtual object is advertisement information related to a signboard. Then, the image to which the virtual object is added is displayed on the image display unit 400. FIG. 5 is an example of an image to which a virtual object is assigned. Here, an image to which advertisement information (virtual objects) 311 to 313 is assigned is displayed in association with the signboard 301 (S18). Here, three virtual objects are assigned to specific parts and displayed, but the number of virtual objects to be assigned is arbitrary.

(本実施形態の作用・効果)
本実施形態にかかる情報提供システムによれば、実空間の画像に仮想オブジェクトを付与して表示する際に、仮想オブジェクトと類似する色の物体などが存在して表示が見づらくなるという問題を避けることができる。実空間において、特に都市部では、多数の看板が設置されており、そのそれぞれに目立つ色が用いられている。仮想オブジェクトを表示する際には、この仮想オブジェクトを目立たせたいので看板と同様の色を用いることが多くなる。そうすると、単純に仮想オブジェクトを重ね合わせて表示すると、表示が雑然としたものとなり見づらくなってしまう。これに対して本実施形態では、仮想オブジェクトを表示する看板以外の看板や目立つ色のその他の物体に対して、脱色などの非強調化処理を施しているので、表示が見づらくなることを防止できる。
(Operation and effect of this embodiment)
According to the information providing system according to the present embodiment, when a virtual object is added to a real space image and displayed, an object having a color similar to the virtual object is present and the display is difficult to see. Can do. In real space, especially in urban areas, a large number of signboards are installed, and each of them uses a conspicuous color. When displaying a virtual object, the same color as that of a signboard is often used because it is desired to make the virtual object stand out. Then, if virtual objects are simply superimposed and displayed, the display becomes cluttered and difficult to see. On the other hand, in the present embodiment, since non-emphasis processing such as decolorization is performed on a signboard other than a signboard displaying a virtual object or other objects with a conspicuous color, it is possible to prevent display from becoming difficult to see. .

また、仮想オブジェクトおよび仮想オブジェクトが付与される対象の物体(看板)が、画面内で目立つようになるので、ユーザが提示された情報をより迅速に理解できるようになる。   In addition, the virtual object and the target object (signboard) to which the virtual object is assigned become conspicuous in the screen, so that the information presented by the user can be understood more quickly.

(変形例)
上記の例では、仮想オブジェクトは宣伝広告の文字情報であるとして説明したが、仮想オブジェクトの内容は任意であって構わない。例えば、文字情報ではなく画像情報を提示しても良い。具体的には、看板主の会社のロゴを仮想オブジェクトとして表示しても良い。また、看板を強調するための表示、例えば、看板を指し示す矢印や、看板を囲う表示などを仮想オブジェクトとしても良い。
(Modification)
In the above example, the virtual object has been described as character information of an advertisement, but the content of the virtual object may be arbitrary. For example, image information may be presented instead of text information. Specifically, the signer's company logo may be displayed as a virtual object. In addition, a display for emphasizing the signboard, for example, an arrow pointing to the signboard or a display surrounding the signboard may be used as the virtual object.

また、上記の例では、仮想オブジェクトを付与する対象の物体を看板であるとして説明したが、仮想オブジェクトを付与する対象の物体は任意の物体であって構わない。例えば、建物や、道路、交通標識、車両などに対して仮想オブジェクトを付与して表示しても良い。この際にも、仮想オブジェクトと類似する色の物体に対して目立たなくさせる処理を施すことで、仮想オブジェクトを付与することによって表示が見づらくなってしまうことを防止できる。   In the above example, the target object to which the virtual object is assigned is described as the signboard. However, the target object to which the virtual object is assigned may be an arbitrary object. For example, a virtual object may be assigned to a building, a road, a traffic sign, a vehicle, and the like. Also in this case, it is possible to prevent the display from becoming difficult to see by giving the virtual object by performing the process of making the object similar in color to the virtual object inconspicuous.

100 カメラ
200 画像処理部
201 解像度変換部
202 部品化部
203 映像部品データベース
204 仮想物体挿入部品特定部(特定部)
205 部品非強調化部
206 仮想物体データベース
207 仮想物体挿入部
300 表示条件入力部
400 画像表示部
DESCRIPTION OF SYMBOLS 100 Camera 200 Image processing part 201 Resolution conversion part 202 Componentization part 203 Image | video component database 204 Virtual object insertion part specification part (specification part)
205 parts de-emphasis unit 206 virtual object database 207 virtual object insertion unit 300 display condition input unit 400 image display unit

Claims (7)

実空間の画像を取得する画像取得手段と、
画像中の物体と関連づけて表示する仮想物体を記憶する仮想物体記憶手段と、
前記画像取得手段によって取得された画像に含まれる被写体を複数の物体に分ける部品化手段と
前記複数の物体のうち、前記仮想物体を関連づけて表示する物体である特定物体を特定する特定手段と、
前記複数の物体のうち前記特定物体以外の物体の少なくともいずれかを目立たなくさせる画像処理を前記画像に施す非強調化手段と、
前記特定物体に対応する仮想物体を前記仮想物体記憶手段から取得して、前記特定物体と関連づけて前記画像に挿入する仮想物体挿入手段と、
前記仮想物体が挿入された画像を表示する表示手段と、
を備える情報提供装置。
Image acquisition means for acquiring an image of real space;
Virtual object storage means for storing a virtual object to be displayed in association with an object in the image;
Componentizing means for dividing a subject included in an image acquired by the image acquiring means into a plurality of objects; a specifying means for specifying a specific object that is an object to be displayed in association with the virtual object among the plurality of objects;
Non-emphasizing means for performing image processing on the image that makes at least one of objects other than the specific object out of the plurality of objects inconspicuous;
A virtual object insertion means for acquiring a virtual object corresponding to the specific object from the virtual object storage means, and inserting the virtual object into the image in association with the specific object;
Display means for displaying an image in which the virtual object is inserted;
An information providing apparatus comprising:
前記部品化手段は、エッジ、色、文字の少なくともいずれかに基づいて行われた領域分割の結果を1つの物体とする、
請求項1に記載の情報提供装置。
The componentization means uses a result of area division performed based on at least one of an edge, a color, and a character as one object.
The information providing apparatus according to claim 1.
前記特定手段は、文字認識または画像認識によって前記物体の内容を取得し、当該物体に対応する仮想物体が前記仮想物体記憶手段に記憶されている場合に、当該物体を特定物体であると判断する、
請求項1または2に記載の情報提供装置。
The specifying unit acquires the content of the object by character recognition or image recognition, and determines that the object is a specific object when a virtual object corresponding to the object is stored in the virtual object storage unit. ,
The information providing apparatus according to claim 1 or 2.
前記仮想物体を関連づけて表示する物体に関する条件を取得する条件取得手段をさらに有し、
前記特定手段は、前記物体が当該条件に合致する場合に当該物体を特定物体であると判断する、
請求項3に記載の情報提供装置。
Further comprising condition acquisition means for acquiring a condition relating to an object to be displayed in association with the virtual object;
The specifying means determines that the object is a specific object when the object meets the condition;
The information providing apparatus according to claim 3.
前記非強調化手段は、前記特定物体以外の物体を除外する、塗りつぶす、脱色する、ワイヤフレーム化する、のいずれかの処理を行うことで、当該物体を目立たなくさせる、
請求項1〜4のいずれかに記載の情報提供装置。
The non-emphasizing means removes an object other than the specific object, paints, decolors, or wireframes to make the object inconspicuous,
The information provision apparatus in any one of Claims 1-4.
前記画像取得手段は、車両外部の画像を取得する車載カメラであり、
前記特定物体および前記非強調化処理が施される物体は、看板である、
請求項1〜5のいずれかに記載の情報提供装置。
The image acquisition means is an in-vehicle camera that acquires an image outside the vehicle,
The specific object and the object subjected to the non-emphasizing process are signboards.
The information provision apparatus in any one of Claims 1-5.
情報提供装置が行う情報提供方法であって、
実空間の画像を取得する画像取得ステップと、
前記画像取得ステップにおいて取得された画像に含まれる被写体を複数の物体に分ける部品化ステップと
前記複数の物体のうち、仮想物体を関連づけて表示する物体である特定物体を特定する特定ステップと、
前記複数の物体のうち前記特定物体以外の物体の少なくともいずれかを目立たなくさせる画像処理を前記画像に施す非強調化ステップと、
前記特定物体に対応する仮想物体を取得して、前記特定物体と関連づけて前記画像に挿入する仮想物体挿入ステップと、
前記仮想物体が挿入された画像を表示する表示ステップと、
を含む情報提供方法。
An information providing method performed by the information providing apparatus,
An image acquisition step of acquiring an image of real space;
A componentization step of dividing a subject included in the image acquired in the image acquisition step into a plurality of objects; a specification step of specifying a specific object that is an object to be displayed in association with a virtual object among the plurality of objects;
A non-enhancement step of performing image processing on the image to make at least one of the objects other than the specific object out of the plurality of objects inconspicuous;
A virtual object insertion step of acquiring a virtual object corresponding to the specific object and inserting it into the image in association with the specific object;
A display step of displaying an image in which the virtual object is inserted;
Information providing method including
JP2012232159A 2012-10-19 2012-10-19 Information providing apparatus and information providing method Active JP6064510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012232159A JP6064510B2 (en) 2012-10-19 2012-10-19 Information providing apparatus and information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012232159A JP6064510B2 (en) 2012-10-19 2012-10-19 Information providing apparatus and information providing method

Publications (2)

Publication Number Publication Date
JP2014085723A true JP2014085723A (en) 2014-05-12
JP6064510B2 JP6064510B2 (en) 2017-01-25

Family

ID=50788756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012232159A Active JP6064510B2 (en) 2012-10-19 2012-10-19 Information providing apparatus and information providing method

Country Status (1)

Country Link
JP (1) JP6064510B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015204907A (en) * 2014-04-17 2015-11-19 株式会社大都技研 game machine
JP2019057014A (en) * 2017-09-20 2019-04-11 株式会社ミクシィ Subject specification information processing device, and control method and control program thereof
JP2019105932A (en) * 2017-12-11 2019-06-27 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP2019169768A (en) * 2018-03-22 2019-10-03 株式会社日立国際電気 Broadcast editing device, broadcasting system and image processing method
WO2021192469A1 (en) * 2020-03-23 2021-09-30 パナソニックIpマネジメント株式会社 Display device, display method, and vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281889A (en) * 1996-04-16 1997-10-31 Hitachi Ltd Device and method for displaying map
JP2003216977A (en) * 2002-01-17 2003-07-31 Sony Corp Device and method for providing information, storage medium, and computer program
JP2005260501A (en) * 2004-03-10 2005-09-22 Oki Electric Ind Co Ltd Moving picture coding device, moving picture decoding device, and moving picture enhancement conversion system
JP2007240198A (en) * 2006-03-06 2007-09-20 Aisin Aw Co Ltd Navigation apparatus
WO2010073616A1 (en) * 2008-12-25 2010-07-01 パナソニック株式会社 Information displaying apparatus and information displaying method
WO2012084362A1 (en) * 2010-12-21 2012-06-28 Ecole polytechnique fédérale de Lausanne (EPFL) Computerized method and device for annotating at least one feature of an image of a view
JP2012121527A (en) * 2010-12-10 2012-06-28 Toyota Motor Corp Image display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281889A (en) * 1996-04-16 1997-10-31 Hitachi Ltd Device and method for displaying map
JP2003216977A (en) * 2002-01-17 2003-07-31 Sony Corp Device and method for providing information, storage medium, and computer program
JP2005260501A (en) * 2004-03-10 2005-09-22 Oki Electric Ind Co Ltd Moving picture coding device, moving picture decoding device, and moving picture enhancement conversion system
JP2007240198A (en) * 2006-03-06 2007-09-20 Aisin Aw Co Ltd Navigation apparatus
WO2010073616A1 (en) * 2008-12-25 2010-07-01 パナソニック株式会社 Information displaying apparatus and information displaying method
JP2012121527A (en) * 2010-12-10 2012-06-28 Toyota Motor Corp Image display device
WO2012084362A1 (en) * 2010-12-21 2012-06-28 Ecole polytechnique fédérale de Lausanne (EPFL) Computerized method and device for annotating at least one feature of an image of a view

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015204907A (en) * 2014-04-17 2015-11-19 株式会社大都技研 game machine
JP2019057014A (en) * 2017-09-20 2019-04-11 株式会社ミクシィ Subject specification information processing device, and control method and control program thereof
JP2019105932A (en) * 2017-12-11 2019-06-27 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP7017919B2 (en) 2017-12-11 2022-02-09 ヤフー株式会社 Information processing equipment, information processing methods and information processing programs
JP2019169768A (en) * 2018-03-22 2019-10-03 株式会社日立国際電気 Broadcast editing device, broadcasting system and image processing method
JP6994993B2 (en) 2018-03-22 2022-01-14 株式会社日立国際電気 Broadcast editing equipment, broadcasting system and image processing method
WO2021192469A1 (en) * 2020-03-23 2021-09-30 パナソニックIpマネジメント株式会社 Display device, display method, and vehicle

Also Published As

Publication number Publication date
JP6064510B2 (en) 2017-01-25

Similar Documents

Publication Publication Date Title
US10235788B2 (en) Overlay contrast control in augmented reality displays
JP6064510B2 (en) Information providing apparatus and information providing method
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
JP5815026B2 (en) Simulated video for road information camera with additional viewpoint and increased resolution
JP5533766B2 (en) Vehicle display device
JP2015523624A (en) A method for generating a virtual display surface from a video image of a landscape based on a road
KR101360061B1 (en) Mathod and apparatus for providing augmented reallity
US10152815B2 (en) Overlay emphasis modification in augmented reality displays
JP2013203374A (en) Display device for vehicle, control method therefor, and program
JP5948170B2 (en) Information display device, information display method, and program
KR20180014910A (en) Tour content and its delivery system using Augmented Reality in Virtual Reality
US8855365B2 (en) Image processing determining apparatus
CN115119045A (en) Vehicle-mounted multi-camera-based video generation method and device and vehicle-mounted equipment
JP2013109469A (en) Apparatus, method, and program for image processing
US11186289B2 (en) Concealment system for improved safe driving
JP2014153095A (en) Information display device
US9846819B2 (en) Map image display device, navigation device, and map image display method
JP2013210793A (en) System, method, and program for optimizing ar display
JP2007264176A (en) On-vehicle stereoscopic display device
US9835863B2 (en) Display control apparatus, display control method, storage medium, and display apparatus
CN110709671B (en) Information processing apparatus, information processing method, and program
JP5383906B2 (en) Image drawing apparatus and image drawing method
JP2014035763A (en) Information display device
WO2023243048A1 (en) Information presentation device, information presentation method, and program
CN113360109A (en) Vehicle-mounted display method and device and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161027

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161205

R151 Written notification of patent or utility model registration

Ref document number: 6064510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151