JP2017058657A - Information processing device, control method, computer program and storage medium - Google Patents

Information processing device, control method, computer program and storage medium Download PDF

Info

Publication number
JP2017058657A
JP2017058657A JP2016051570A JP2016051570A JP2017058657A JP 2017058657 A JP2017058657 A JP 2017058657A JP 2016051570 A JP2016051570 A JP 2016051570A JP 2016051570 A JP2016051570 A JP 2016051570A JP 2017058657 A JP2017058657 A JP 2017058657A
Authority
JP
Japan
Prior art keywords
information
marker
presentation information
distance
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016051570A
Other languages
Japanese (ja)
Inventor
奥谷 泰夫
Yasuo Okuya
泰夫 奥谷
零 石川
Rei Ishikawa
零 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/263,931 priority Critical patent/US20170076428A1/en
Publication of JP2017058657A publication Critical patent/JP2017058657A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve visibility of users upon conducting a projection display of presentation information onto objects.SOLUTION: In an information processing device provided with an imaging device and a display device, a marker ID and position of a marker included in a shot image obtained through the imaging device are recognized to determine whether one or more markers are included in the shot image (S203). When the marker is included in the shot image (S203:Y), a relevant information acquisition unit is configured to acquire relevant information corresponding to the marker ID (S204). In this case, a distance between the information processing device and the marker is obtained from a size of the marker included in the image (S212). When the distance is short, as to each of a plurality of markers, presentation information relevant to the marker is displayed. When the distance is long, only one presentation information is displayed.SELECTED DRAWING: Figure 2

Description

本発明は、映像から認識した物体に関する情報を表示する技術に関する。   The present invention relates to a technique for displaying information related to an object recognized from an image.

従来、ユーザが着目する対象に、関連情報を投影表示する技術が知られている。例えば、特許文献1には、対象物を撮像し、撮像した対象物に関連する関連情報を検索し、対象物に対して投影する技術が開示されている。この技術においては、対象物の位置及び形状を検出し、検出された位置及び形状に基づいて検索された関連情報を対象物に投影している。
また、特許文献2には、情報を投影する際、情報を投影する装置から投影対象までの距離に応じて投影する画像の大きさや位置を変更する技術が提案されている。
2. Description of the Related Art Conventionally, a technique for projecting and displaying related information on a target focused on by a user is known. For example, Patent Document 1 discloses a technique for capturing an image of an object, searching for related information related to the imaged object, and projecting the image on the object. In this technique, the position and shape of an object are detected, and related information retrieved based on the detected position and shape is projected onto the object.
Patent Document 2 proposes a technique for changing the size and position of an image to be projected according to the distance from a device for projecting information to a projection target when projecting information.

特開平8−86615号公報JP-A-8-86615 国際公開第2011/105502号International Publication No. 2011/105502

実世界に存在する物体に対してその物体の関連情報を投影する場合に、ユーザが視認しやすい関連情報の情報量は、投影環境に応じて異なる。例えば、ユーザが投影装置を把持して運ぶことができるモバイル型の投影装置では、ユーザと投影面となる物体との間の距離が可変となる。一般的には、投影装置が同じ画像を投影し続けている間に投影装置が投影面から離れると、投影面のうち投影光が照射される範囲は広がる。このとき投影面上では、投影画像に含まれる文字や画像は拡大されるように見える。しかしながら、実世界に存在する物体上を投影面として用いる場合、物体の大きさは、ユーザと投影面の距離によらず変化しない。従って、ユーザが投影面から遠ざかるにつれ、拡大されていく投影画像に対し、物体の見た目は相対的に小さくなる。つまり、ユーザと投影面の距離が離れるにつれて、投影画像全体に対して、物体の関連情報を投影すべき部分領域は小さくなる。このように投影範囲の大きさが限られる状況では、投影する情報量が多いと、その内容の視認が困難になる。   When projecting related information of an object on an object existing in the real world, the amount of information of the related information that is easy for the user to visually recognize varies depending on the projection environment. For example, in a mobile projection apparatus in which the user can hold and carry the projection apparatus, the distance between the user and the object that is the projection plane is variable. In general, when the projection apparatus moves away from the projection plane while the projection apparatus continues to project the same image, the range of the projection plane irradiated with the projection light is expanded. At this time, the characters and images included in the projected image appear to be enlarged on the projection plane. However, when an object on the real world is used as a projection plane, the size of the object does not change regardless of the distance between the user and the projection plane. Therefore, as the user moves away from the projection surface, the appearance of the object becomes relatively small with respect to the enlarged projection image. That is, as the distance between the user and the projection surface increases, the partial area where the related information of the object is to be projected becomes smaller with respect to the entire projection image. Thus, in a situation where the size of the projection range is limited, if the amount of information to be projected is large, it becomes difficult to visually recognize the contents.

特許文献1では、投影内容は、装置と投影対象の相対位置に基づいて生成される。しかし、特許文献1は、投影する関連情報の情報量を投影環境で変化させることについては何等記載していない。特許文献2は、投影面の距離に応じて投影画像の大きさや位置を変えることについての記述はあるものの、投影する関連情報の情報量を投影環境で変化させることについては記述していない。本発明は、上記課題を鑑みてなされたものであり、投影装置と投影面となる物体の間の距離が可変な環境で物体上に該物体の関連情報を投影させる場合の関連情報の視認性を向上させることを目的とする。   In Patent Document 1, the projection content is generated based on the relative position between the apparatus and the projection target. However, Patent Document 1 does not describe anything about changing the information amount of the related information to be projected in the projection environment. Japanese Patent Application Laid-Open No. 2003-228561 describes the change of the size and position of the projection image according to the distance of the projection surface, but does not describe changing the information amount of the related information to be projected in the projection environment. The present invention has been made in view of the above problems, and the visibility of related information when projecting related information of an object on the object in an environment where the distance between the projection apparatus and the object serving as the projection surface is variable. It aims at improving.

上記課題を解決するために、本発明にかかる情報処理装置は、対象物を撮像する撮像手段と、前記撮像手段が撮像した撮像画像を用いて、前記対象物に対応する関連情報を前記対象物の位置に基づいて特定される位置に表示するための提示情報を生成する生成手段と、前記生成された提示情報を含んだ画像を表示する画像表示手段と、前記対象物と前記情報処理装置までの距離を取得する距離取得手段と、を備える。前記生成手段は、前記撮像画像および前記距離取得手段が取得した距離が所定値より大きくなったときに、前記提示情報に含まれる情報量を変化させて前記提示情報を生成する。   In order to solve the above-described problem, an information processing apparatus according to the present invention uses an imaging unit that images a target object and a captured image captured by the imaging unit to obtain related information corresponding to the target object. Generation means for generating presentation information for display at a position specified based on the position of the image, image display means for displaying an image including the generated presentation information, the object, and the information processing apparatus And distance acquisition means for acquiring the distance. The generation unit generates the presentation information by changing an amount of information included in the presentation information when the captured image and the distance acquired by the distance acquisition unit are larger than a predetermined value.

本発明によれば、投影装置と投影面となる物体の間の距離が可変な環境で、物体上に該物体の関連情報を投影させる場合の関連情報の視認性を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the visibility of the relevant information when projecting the relevant information of the said object on an object can be improved in the environment where the distance between the object used as a projection apparatus and a projection surface is variable.

(a)は、第1実施形態にかかる情報処理装置のハードウェア構成図、(b)は、情報処理装置に形成される機能を表す機能ブロック図。(A) is a hardware block diagram of the information processing apparatus concerning 1st Embodiment, (b) is a functional block diagram showing the function formed in information processing apparatus. (a)は、第1実施形態における処理を示すフローチャート、(b)は、提示情報の作成処理を示すフローチャート。(A) is a flowchart which shows the process in 1st Embodiment, (b) is a flowchart which shows the preparation process of presentation information. (a)は、関連情報の一例、(b)及び(c)は、作成される提示情報の一例、(d)及び(e)は、投影結果の説明図。(A) is an example of related information, (b) and (c) are examples of presentation information to be created, and (d) and (e) are explanatory diagrams of projection results. (a)は、単一のマーカーに対応する提示情報の作成処理を示すフローチャート、(b)及び(c)は、作成される提示情報の一例、(d)及び(e)は投影結果の説明図。(A) is a flowchart showing a creation process of presentation information corresponding to a single marker, (b) and (c) are examples of created presentation information, (d) and (e) are explanations of projection results Figure. (a)は、複数マーカーの提示情報を作成する処理を示すフローチャート、(b)及び(c)は、作成される提示情報の一例、(d)及び(e)は、投影結果の一例の説明図。(A) is a flowchart showing a process of creating presentation information of a plurality of markers, (b) and (c) are examples of created presentation information, (d) and (e) are examples of projection results. Figure. (a)は、複数のマーカーに対応する提示情報の作成処理を示すフローチャート、(b)及び(c)は、作成される提示情報の一例、(d)及び(e)は、投影結果の説明図。(A) is a flowchart showing a process for creating presentation information corresponding to a plurality of markers, (b) and (c) are examples of created presentation information, and (d) and (e) are explanations of projection results. Figure. 投影画像の説明図。Explanatory drawing of a projection image. (a)、(b)及び(c)は、第2実施形態における提示情報を作成する対象のマーカー群の一例の説明図。(A), (b) and (c) is explanatory drawing of an example of the marker group of the object which produces the presentation information in 2nd Embodiment. (a)は、マーカー群の決定処理を示すフローチャート、(b)は、マーカー間距離を求める式の説明図。(A) is a flowchart which shows the determination process of a marker group, (b) is explanatory drawing of the type | formula which calculates | requires the distance between markers. 第2実施形態におけるマーカー間の距離と項目の値に基づいてグループ分けした場合の提示情報の投影結果の説明図。Explanatory drawing of the projection result of the presentation information at the time of grouping based on the distance between markers and the value of an item in 2nd Embodiment. (a)〜(c)は、第2実施形態における提示情報数の上限を設定した場合の提示情報の投影結果の説明図。(A)-(c) is explanatory drawing of the projection result of the presentation information at the time of setting the upper limit of the number of presentation information in 2nd Embodiment. (a)〜(c)は、第2実施形態における投影中心近傍のグループの提示情報を優先して投影した場合の投影結果の説明図。(A)-(c) is explanatory drawing of the projection result at the time of projecting preferentially the presentation information of the group of the projection center vicinity in 2nd Embodiment. (a)〜(c)は、第2実施形態におけるおおまかなグループ分けを行なった場合の投影結果の説明図。(A)-(c) is explanatory drawing of the projection result at the time of performing rough grouping in 2nd Embodiment. (a)〜(d)は、第2実施形態における時分割で情報提示を行った場合の提示情報の投影結果の説明図。(A)-(d) is explanatory drawing of the projection result of the presentation information at the time of performing information presentation by the time division in 2nd Embodiment. (a)〜(c)は、第2実施形態における文字を使わないことで情報量を減少させる場合の提示情報の投影結果の説明図。(A)-(c) is explanatory drawing of the projection result of the presentation information in the case of reducing information amount by not using the character in 2nd Embodiment.

<第1実施形態>
図1(a)は、本発明の第1実施形態にかかる情報処理装置10のハードウェア構成図である。情報処理装置10は、機能部品としてCPU(Central Processing Unit)101、ROM(Read Only Memory)102及びRAM(Random Access Memory)103を有する。また、情報処理装置10は、HDD(Hard Disk Drive)104、機能部品として光学系撮像手段としてのカメラ105及び光学系画像投影手段としてのプロジェクタ106を有する。各機能部品は、バス107を介して相互にデータを受け渡すことができる。
<First Embodiment>
FIG. 1A is a hardware configuration diagram of the information processing apparatus 10 according to the first embodiment of the present invention. The information processing apparatus 10 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 as functional components. In addition, the information processing apparatus 10 includes a hard disk drive (HDD) 104, a camera 105 as an optical system imaging unit as a functional component, and a projector 106 as an optical image projection unit. Each functional component can exchange data with each other via the bus 107.

CPU101は、ROM102及びHDD104に格納されたプログラムを読み出して実行する。これにより、CPU101は、各ハードウェア部品を制御する。   The CPU 101 reads and executes programs stored in the ROM 102 and the HDD 104. Thereby, the CPU 101 controls each hardware component.

このプログラムには、例えば後述する各機能、シーケンス、処理を実現するための制御プログラムが含まれる。ROM102には、上述した制御プログラムのほか、その実行の際に参照される各種データが記録されている。RAM103には、CPU101に使用されるワーク領域、上記制御プログラムのロード領域などが記録される。   This program includes, for example, a control program for realizing each function, sequence, and processing described later. In addition to the control program described above, the ROM 102 stores various data that are referred to when the program is executed. The RAM 103 stores a work area used by the CPU 101, a load area for the control program, and the like.

HDD104は、ストレージの一種であり、上記制御プログラムが格納されCPU101等により適宜読み出される。カメラ105は、撮像対象となる対象物の画像を撮像し、撮像した撮像画像をRAM103やHDD104に格納する。プロジェクタ106は、RAM103やHDD104に格納された情報を投影する。カメラ105とプロジェクタ106は、情報処理装置10に対し、カメラ105の撮像可能範囲とプロジェクタ106の投影可能範囲が重なるように取り付けられている。バス107は、CPU101が制御する構成要素を指示するアドレス信号、各構成要素を制御するためのコントロール信号、各構成機器相互間で受け渡されるデータの転送などを行う。   The HDD 104 is a kind of storage, stores the control program, and is read appropriately by the CPU 101 or the like. The camera 105 captures an image of an object to be imaged and stores the captured image in the RAM 103 or the HDD 104. Projector 106 projects information stored in RAM 103 or HDD 104. The camera 105 and the projector 106 are attached to the information processing apparatus 10 so that the imageable range of the camera 105 and the projectable range of the projector 106 overlap. The bus 107 performs an address signal for instructing a component controlled by the CPU 101, a control signal for controlling each component, transfer of data passed between the component devices, and the like.

なお、制御プログラムは、ROM102又はHDD104に予め記録されていてもよく、あるいは、必要に応じて外部装置あるいは外部記録媒体などからROM102又はHDD104に格納されてもよい。CPU101は、ROM102又はHDD104等に記録されている上記制御プログラムを実行することにより各機能を実現する。
また、本実施形態では画像表示手段の一例としてプロジェクタを用いるが、本発明はこれに限定されるものではなく、ヘッドマウントディスプレイ、スマートフォン、タブレット等のライブビュー画像を表示可能な任意のデバイスを用いてもよい。
The control program may be recorded in advance in the ROM 102 or the HDD 104, or may be stored in the ROM 102 or the HDD 104 from an external device or an external recording medium as necessary. The CPU 101 realizes each function by executing the control program recorded in the ROM 102 or the HDD 104.
In this embodiment, a projector is used as an example of an image display unit. However, the present invention is not limited to this, and any device capable of displaying a live view image such as a head mounted display, a smartphone, or a tablet is used. May be.

図1(b)は、CPU101が制御プログラムを実行することにより情報処理装置10に形成される機能ブロック図である。本実施形態では、CPU101は、認識部111、関連情報取得部112、投影環境推定部113、提示情報作成部114という機能モジュールを形成する。   FIG. 1B is a functional block diagram formed in the information processing apparatus 10 when the CPU 101 executes a control program. In the present embodiment, the CPU 101 forms functional modules such as a recognition unit 111, a related information acquisition unit 112, a projection environment estimation unit 113, and a presentation information creation unit 114.

認識部111は、カメラ105が撮像した撮像画像の中に含まれている特定の形状をした物体の物体IDと位置を認識する。本実施形態においては、特定の形状をした物体としてマーカーを用い、物体IDはマーカーIDとした。マーカーとは、数値や文字などの情報が埋め込まれた特定のパターンであり、代表的な例として1次元バーコードや2次元バーコードがある。マーカーIDとは、マーカーに埋め込まれた情報であり、パターンが異なるマーカーを区別するためのIDとして用いる。   The recognition unit 111 recognizes the object ID and position of an object having a specific shape included in the captured image captured by the camera 105. In the present embodiment, a marker is used as an object having a specific shape, and the object ID is a marker ID. A marker is a specific pattern in which information such as numerical values and characters are embedded. Typical examples include a one-dimensional barcode and a two-dimensional barcode. The marker ID is information embedded in the marker and is used as an ID for distinguishing markers having different patterns.

関連情報取得部112は、認識されたマーカーIDに対応づけられている関連情報を取得する。マーカーIDと関連情報の対応関係は、ROM102やHDD104に予め格納されている。装置外部のサーバーに格納されている関連情報を、通信デバイスを用いて取得してもよい。本実施形態では、マーカーIDの1つ1つに対し、1以上の項目と、いずれかの項目に分類される値の組が関連情報として対応づけられる。例えば、1つのマーカーIDに対して、物品の「製品名」、「サイズ」、「色」といった複数の項目の関連情報が対応づけられる場合がある。   The related information acquisition unit 112 acquires related information associated with the recognized marker ID. The correspondence relationship between the marker ID and the related information is stored in the ROM 102 or the HDD 104 in advance. The related information stored in the server outside the apparatus may be acquired using a communication device. In the present embodiment, each of the marker IDs is associated with one or more items and a set of values classified into one of the items as related information. For example, there is a case where related information of a plurality of items such as “product name”, “size”, and “color” of an article is associated with one marker ID.

投影環境推定部113は、情報処理装置10と投影面の距離、投影面の色、環境光など、投影に影響を与える環境的要因に関する情報(以下、投影環境と記載する)を撮像画像に基づいて推定する。提示情報作成部114は、関連情報をグループ化し、グループ化された関連情報に基づいて提示情報を作成する。プロジェクタ106は、提示情報作成部114から提示情報を受けて、提示情報を投影する。提示情報とは、関連情報の内容をユーザに提示される情報をいう。例えば、ユーザに提示するためにプロジェクタ106に画像として出力される情報である。   The projection environment estimation unit 113 uses information about environmental factors affecting the projection (hereinafter referred to as projection environment) such as the distance between the information processing apparatus 10 and the projection surface, the color of the projection surface, and ambient light based on the captured image. To estimate. The presentation information creation unit 114 groups related information and creates presentation information based on the grouped related information. The projector 106 receives the presentation information from the presentation information creation unit 114 and projects the presentation information. The presentation information refers to information that presents the content of related information to the user. For example, it is information output as an image to the projector 106 for presentation to the user.

ただし、本実施形態では、一度に複数のマーカーを認識して、同時に複数の提示情報を投影することが可能である。従って、プロジェクタ106が出力している1画面を表す画像に含まれる、複数の部分画像のそれぞれを指して提示情報という場合もある。提示情報作成部114は、投影環境に基づいて提示情報の数や提示情報に含まれる情報量を変更する。例えば、認識されたマーカーIDの数が複数であっても、投影環境によっては、投影する提示情報の1つに集約するといった制御を行う。   However, in this embodiment, it is possible to recognize a plurality of markers at a time and project a plurality of presentation information at the same time. Accordingly, there are cases where each of a plurality of partial images included in the image representing one screen output by the projector 106 is referred to as presentation information. The presentation information creation unit 114 changes the number of presentation information and the amount of information included in the presentation information based on the projection environment. For example, even if there are a plurality of recognized marker IDs, depending on the projection environment, control is performed such that the information is aggregated into one piece of presentation information to be projected.

次に、上記のように構成される情報処理装置10の動作例を説明する。図2(a)に、情報処理装置10を構成する各機能部品が実行する処理のフローチャートを示す。CPU101は、この処理を一定時間おきに実行する。なお、特に断りのない限り、以下に説明する処理は、いずれも認識部111、関連情報取得部112等を通じてCPU101により実行される。   Next, an operation example of the information processing apparatus 10 configured as described above will be described. FIG. 2A shows a flowchart of processing executed by each functional component constituting the information processing apparatus 10. The CPU 101 executes this process at regular intervals. Unless otherwise specified, the processes described below are executed by the CPU 101 through the recognition unit 111, the related information acquisition unit 112, and the like.

図2(a)に示されるように、認識部111は、カメラ105を通じて得られた撮像画像を認識し、前回の実行時から撮像画像が更新されているか否かを判定する(S201)。なお、情報処理装置10が起動されてから最初にこのシーケンスを実行するときは、撮像画像が更新されたと判定する。更新されていない場合(S201:N)、CPU101は、本シーケンスを終了する。更新されている場合(S201:Y)、認識部111は、撮像画像に含まれるマーカーのマーカーIDと位置を取得する(S202)。マーカーIDと位置は、例えば画像認識により取得することができる。   As shown in FIG. 2A, the recognition unit 111 recognizes a captured image obtained through the camera 105, and determines whether the captured image has been updated since the previous execution (S201). When this sequence is executed for the first time after the information processing apparatus 10 is activated, it is determined that the captured image has been updated. If not updated (S201: N), the CPU 101 ends this sequence. When updated (S201: Y), the recognition unit 111 acquires the marker ID and position of the marker included in the captured image (S202). The marker ID and position can be acquired by image recognition, for example.

次に、認識部111は、撮像画像にマーカーが1つ以上含まれているか否かを判定する(S203)。撮像画像にマーカーが含まれていない場合(S203:N)、CPU101は、本シーケンスを終了する。
撮像画像にマーカーが含まれている場合(S203:Y)、関連情報取得部112は、S202で認識部111が認識したマーカーIDに対応する関連情報を取得する(S204)。次に、提示情報作成部114は、マーカーIDの数が複数か否かを判定する(S205)。例えば、マーカーの数が複数である場合とは、側面にマーカーが1つずつ印刷された箱が積み上げられた面を投影面とする場合などが想定される。マーカーIDに、箱に納められた物(製品)に関する情報を関連付けておけば、情報処理装置10を使うことで、箱を開くことなく必要に応じた箱の中身の詳細情報を参照することが可能となる。
Next, the recognition unit 111 determines whether or not one or more markers are included in the captured image (S203). When the marker is not included in the captured image (S203: N), the CPU 101 ends this sequence.
When a marker is included in the captured image (S203: Y), the related information acquisition unit 112 acquires related information corresponding to the marker ID recognized by the recognition unit 111 in S202 (S204). Next, the presentation information creation unit 114 determines whether there are a plurality of marker IDs (S205). For example, the case where the number of markers is plural is assumed to be a case where a projection surface is a surface on which boxes each having one marker printed on a side surface are stacked. By associating the marker ID with information about an object (product) stored in the box, the information processing apparatus 10 can be used to refer to detailed information about the contents of the box as needed without opening the box. It becomes possible.

マーカーIDの数が1つの場合(S205:N)、提示情報作成部114は、単一マーカーについて提示情報を作成する(S206)。マーカーIDの数が複数の場合(S205:Y)、提示情報作成部114は、複数マーカーのそれぞれについて、あるいは、複数マーカーに対応する情報をまとめて、提示情報を作成する(S207)。いずれの処理を実行するかは、後述するようにマーカーに対応づいた関連情報の内容や、マーカーと装置との間の距離によって定まるとする。最後に、提示情報作成部114は、プロジェクタ106に提示情報の投影を指示し(S208)、処理を終了する。   When the number of marker IDs is one (S205: N), the presentation information creation unit 114 creates presentation information for a single marker (S206). When the number of marker IDs is plural (S205: Y), the presentation information creating unit 114 creates presentation information for each of the plurality of markers or by collecting information corresponding to the plurality of markers (S207). It is assumed that which process is executed is determined by the content of related information corresponding to the marker and the distance between the marker and the device, as will be described later. Finally, the presentation information creation unit 114 instructs the projector 106 to project the presentation information (S208), and ends the process.

S202において、認識部111は、撮像画像に含まれるマーカーのマーカーIDと位置を取得する。なお、この例では、撮像領域とプロジェクタ106の投影領域が一致、または、撮像領域が投影領域より小さいことを前提としている。一方で、撮像領域が投影領域よりも広い場合も考えられる。その場合は、撮像画像に含まれ、かつ、投影領域にも含まれるマーカーのマーカーIDと位置を取得すればよい。撮像画像における投影領域を取得する方法としては既存の方法を用いることができる。簡単な方法としては、プロジェクタで全画素赤色を投影し、それを撮像装置で撮像する。撮像画像中で画素が赤色の範囲を投影領域とみなすことにより、撮像画像中の投影領域を決定できる。   In S202, the recognition unit 111 acquires the marker ID and position of the marker included in the captured image. In this example, it is assumed that the imaging area matches the projection area of the projector 106, or the imaging area is smaller than the projection area. On the other hand, there may be a case where the imaging area is wider than the projection area. In that case, the marker ID and position of the marker included in the captured image and also included in the projection area may be acquired. An existing method can be used as a method of acquiring the projection area in the captured image. As a simple method, all pixel red color is projected by a projector, and it is imaged by an imaging device. By regarding the range in which the pixel is red in the captured image as the projection region, the projection region in the captured image can be determined.

図2(b)は、図2(a)のS206における単一マーカーの提示情報を作成の詳細を示すフローチャートである。投影環境推定部113は、撮像画像に含まれているマーカーの大きさを取得する(S211)。次に提示情報作成部114は、撮像画像に含まれているマーカーの大きさを用いてマーカーと装置間の投影距離を求める(S212)。距離取得の方法に関しては、予めマーカーの実寸サイズがわかっている場合、カメラ105の画角と撮像画像の画素数から、撮像画像に映るマーカーとの距離を求めることができる。   FIG. 2B is a flowchart showing details of creation of presentation information of a single marker in S206 of FIG. The projection environment estimation unit 113 acquires the size of the marker included in the captured image (S211). Next, the presentation information creation unit 114 obtains the projection distance between the marker and the device using the size of the marker included in the captured image (S212). Regarding the distance acquisition method, when the actual size of the marker is known in advance, the distance from the marker reflected in the captured image can be obtained from the angle of view of the camera 105 and the number of pixels of the captured image.

例えば、水平画角が90度、撮像画像の画素数が幅640ピクセル、高さ480ピクセルの場合、1mの距離にある長さ1mの対象物は、撮像画像内に320ピクセルで映ることになる。事前にマーカーの幅が10cmとわかっている場合、もし撮像画像内のマーカーの幅が32cmなら距離は1m、20cmなら1.6mであると推定できる。推定に用いる画角と画素数は、一般にカメラ105を構成する部品の1つであるレンズや撮像センサの特性により決まる。
次に、提示情報作成部114は、マーカーに対応する関連情報、マーカーとの距離、及びマーカーの位置に応じて、提示情報を作成し(S213)、処理を終了する。
For example, when the horizontal angle of view is 90 degrees, the number of pixels of the captured image is 640 pixels wide, and the height is 480 pixels, an object having a length of 1 m at a distance of 1 m appears in 320 pixels in the captured image. . If the marker width is known to be 10 cm in advance, it can be estimated that the distance is 1 m if the marker width in the captured image is 32 cm, and 1.6 m if the marker width is 20 cm. The angle of view and the number of pixels used for estimation are generally determined by the characteristics of a lens or an image sensor that is one of the components that constitute the camera 105.
Next, the presentation information creation unit 114 creates presentation information according to the related information corresponding to the marker, the distance from the marker, and the position of the marker (S213), and ends the process.

図3(a)に、関連情報取得部112が図2(a)のS204で取得する関連情報の例を示す。本実施形態において、関連情報は、各マーカーIDに対して一意的に定められる。また、この実施形態では、関連情報には、項目と値の組が複数含まれるものとした。例えば、S1_LC204_240BKというマーカーIDに対しては、図3(a)に示されるように、5つの項目と値の組から構成される関連情報が存在している。
このマーカーにおいては、「製品名」という項目について、その値は「LC204」となっている。このほか、項目として「サイズ」、「色」、「製品ID」及び「画像」が設定され、その値は、それぞれ「20cm」、「黒」、「LC204_240BK」及び「202240BK.jpg」となっている。なお、値は任意の情報とすることができ、文字情報あるいは画像情報とすることもできる。図3(a)の例では、「画像」の値が画像情報とされている。
FIG. 3A shows an example of the related information that the related information acquisition unit 112 acquires in S204 of FIG. In the present embodiment, the related information is uniquely determined for each marker ID. In this embodiment, the related information includes a plurality of pairs of items and values. For example, for the marker ID S1_LC204_240BK, as shown in FIG. 3A, there is related information composed of a set of five items and values.
In this marker, the value of the item “product name” is “LC204”. In addition, “size”, “color”, “product ID”, and “image” are set as items, and the values are “20 cm”, “black”, “LC204_240BK”, and “202240BK.jpg”, respectively. Yes. Note that the value can be arbitrary information, and can be character information or image information. In the example of FIG. 3A, the value of “image” is image information.

図3(b)に、情報処理装置10とマーカーとの距離が2mの場合に、図2(b)のS213で図3(a)に示される関連情報に基づいて提示情報作成部114が作成した投影画像及びその中に含まれる提示情報の例を示す。これらの図において、投影画像301は、カメラ105が撮像した対象物に対してプロジェクタ106が投影する投影画像である。提示情報305は、情報処理装置10とマーカーとの距離が2mの場合における投影画像301内の提示情報を示す。正方形状の領域で示されるマーカー領域306は、投影画像内のうち、実世界に存在するマーカー(マーカーIDがS1_LC204_240BKであるマーカー)と重畳されるべき部分の位置と大きさを示す。   3B, when the distance between the information processing apparatus 10 and the marker is 2 m, the presentation information creating unit 114 creates based on the related information shown in FIG. 3A in S213 of FIG. 2B. An example of the projected image and the presentation information included therein is shown. In these drawings, a projected image 301 is a projected image projected by the projector 106 onto an object captured by the camera 105. The presentation information 305 indicates the presentation information in the projection image 301 when the distance between the information processing apparatus 10 and the marker is 2 m. A marker region 306 indicated by a square region indicates the position and size of a portion to be superimposed on a marker (marker ID is S1_LC204_240BK) existing in the real world in the projection image.

このマーカー領域306は、情報処理装置10が実世界におけるマーカーに重畳するように投影画像を出力する場合に、位置合わせ処理のために定義される領域である。投影画像に画像として表現されるわけではない。図3(b)、(c)において、マーカー領域306は、画像として表現されるテキストや図形と区別するために、点線で示されている。このように実世界のマーカーの位置や大きさを考慮したマーカー領域を、投影画像内に配置して、位置合わせ処理を行うことで、実世界の対象物の近傍に関連情報を投影することが可能となる。ここで対象物の近傍とは、少なくとも対象物に近接する範囲であって、対象物に重なる範囲も含む。   The marker area 306 is an area defined for alignment processing when the information processing apparatus 10 outputs a projection image so as to be superimposed on a marker in the real world. It is not represented as an image in the projected image. In FIGS. 3B and 3C, the marker region 306 is indicated by a dotted line in order to distinguish it from text or graphics expressed as an image. In this way, by positioning the marker area in consideration of the position and size of the marker in the real world in the projection image and performing alignment processing, related information can be projected in the vicinity of the object in the real world. It becomes possible. Here, the vicinity of the object means at least a range close to the object and includes a range overlapping the object.

図3(c)に、情報処理装置10とマーカーとの距離が1mの場合に、図2(b)のS213で図3(a)に示される関連情報に基づいて提示情報作成部114が作成した提示情報の例を示す。この図において、提示情報307は、情報処理装置10とマーカーとの距離が1mの場合における投影画像301内の提示情報を示す。また、図3(b)と同様に、正方形状の領域で示されるマーカー領域306は、投影画像301のうち、マーカーIDがS1_LC204_240BKであるマーカーの重畳すべき部分の位置と大きさを示す。   3C, when the distance between the information processing apparatus 10 and the marker is 1 m, the presentation information creating unit 114 creates based on the related information shown in FIG. 3A in S213 of FIG. 2B. An example of the presented information is shown. In this figure, the presentation information 307 indicates the presentation information in the projection image 301 when the distance between the information processing apparatus 10 and the marker is 1 m. Similarly to FIG. 3B, a marker area 306 indicated by a square area indicates the position and size of the portion of the projected image 301 to which the marker whose marker ID is S1_LC204_240BK should be superimposed.

この実施形態では、提示情報作成部は、投影画像301内にマーカーの画像は生成しないので、図3(b)、(c)においてマーカーの画像自体は示されていない。これらの図において、マーカー領域306は、カメラ105により撮像された対象物に投影画像301を投影したときに、マーカー領域306内にマーカーが重なるように作成される。   In this embodiment, since the presentation information creation unit does not generate a marker image in the projection image 301, the marker image itself is not shown in FIGS. 3 (b) and 3 (c). In these drawings, the marker area 306 is created so that the marker overlaps the marker area 306 when the projection image 301 is projected onto the object imaged by the camera 105.

図3(b)、(c)に示されるように、提示情報作成部114は、情報処理装置10とマーカーとの距離が近い場合、より多くの関連情報を含む提示情報を作成する。本実施形態では、この距離が1.5m以上かつ2.0m未満のときに、提示情報作成部114は、関連情報のうち3つの値を1つの提示情報に含ませる。また、この距離が2.0m以上のときには、図3(b)に示されるように、提示情報作成部114は、関連情報のうち2つの値、すなわち「LC204」と「24cm」とを1つの提示情報に含ませる。なお、情報量を関連情報の値の数に対応させてカウントしているが、項目の数でカウントするようにしても構わない。情報処理装置10とマーカーとの距離が1.5m未満のとき、図3(c)に示されるように、提示情報作成部114は、関連情報のすべて、すなわち、「LC204」、「24cm」、「黒」、「LC204_240BK」及び画像を含む提示情報を作成する。   As shown in FIGS. 3B and 3C, the presentation information creation unit 114 creates presentation information including more related information when the distance between the information processing apparatus 10 and the marker is short. In the present embodiment, when the distance is 1.5 m or more and less than 2.0 m, the presentation information creation unit 114 includes three values of the related information in one presentation information. When the distance is 2.0 m or more, as shown in FIG. 3B, the presentation information creation unit 114 sets two values of the related information, that is, “LC204” and “24 cm” as one. Include in the presentation information. Although the information amount is counted in correspondence with the number of values of related information, it may be counted by the number of items. When the distance between the information processing apparatus 10 and the marker is less than 1.5 m, as shown in FIG. 3C, the presentation information creation unit 114 displays all of the related information, that is, “LC204”, “24cm”, Presentation information including “black”, “LC204_240BK” and an image is created.

なお、この投影画像内におけるマーカーの位置と大きさは、撮像画像に含まれるマーカー領域306の位置と大きさを、補正パラメータを用いて変換することで求める。一般に、情報処理装置10におけるカメラ105とプロジェクタ106は、その取り付け位置、及び投影角度、レンズの焦点距離が互いに異なる。   Note that the position and size of the marker in the projection image are obtained by converting the position and size of the marker region 306 included in the captured image using the correction parameter. In general, the camera 105 and the projector 106 in the information processing apparatus 10 have different mounting positions, projection angles, and focal lengths of lenses.

そのため、カメラ105で対象物を撮像し、その撮像画像をそのままプロジェクタ106で投影しても、撮像画像に映る対象物は、実際の対象物と同じ位置と大きさでは投影されない。撮像画像に含まれる対象物の位置やサイズに合わせて情報を投影するには、撮像画像に含まれるマーカーの形状を、投影画像における形状に変換する必要がある。この変換に使う補正パラメータは、例えば、プロジェクタ106が投影したテストパターン画像をカメラ105で撮像し、撮像された画像に基づいて決定することができる。   Therefore, even if an object is imaged by the camera 105 and the captured image is directly projected by the projector 106, the object reflected in the captured image is not projected at the same position and size as the actual object. In order to project information according to the position and size of the target object included in the captured image, it is necessary to convert the shape of the marker included in the captured image into the shape in the projected image. The correction parameter used for this conversion can be determined based on, for example, a test pattern image projected by the projector 106 captured by the camera 105 and the captured image.

このように変換を行うことで、撮像画像におけるマーカー領域306に情報を投影すると、その情報は、以下の図3(d)、(e)に示される、実世界におけるマーカー303に重畳される。また、上述したように、マーカー303はマーカー領域306内に位置するが、マーカー領域306自体は投影画像には表示されない。また、この例では、提示情報作成部114が情報処理装置10とマーカーとの距離から作成した提示情報は、マーカー領域306の左下の位置を原点として表示される。しかし、原点はこの位置に限られるものではなく、原点を設定する手法には特に制限はない。   By performing the conversion in this way, when information is projected onto the marker region 306 in the captured image, the information is superimposed on the marker 303 in the real world shown in FIGS. 3D and 3E below. As described above, the marker 303 is located in the marker region 306, but the marker region 306 itself is not displayed in the projection image. In this example, the presentation information created by the presentation information creation unit 114 from the distance between the information processing apparatus 10 and the marker is displayed with the lower left position of the marker region 306 as the origin. However, the origin is not limited to this position, and the method for setting the origin is not particularly limited.

図3(d)と図3(e)は、情報処理装置10による実世界への投影結果を示す。なお、図3(d)に示されるマーカー303のマーカーIDは、S1_LC204_240BKである。投影可能面304は、情報処理装置10が投影している範囲である。図3(d)において、マーカー303と情報処理装置10との距離は2mであるので、情報処理装置10は、図3(b)に示される、2つの値を含む提示情報305を投影する。図3(e)において、マーカーと情報処理装置10の距離は1mであるため、情報処理装置10は、図3(c)に示される、すべての値を含む提示情報307を投影する。   FIG. 3D and FIG. 3E show the projection results to the real world by the information processing apparatus 10. Note that the marker ID of the marker 303 shown in FIG. 3D is S1_LC204_240BK. The projectable surface 304 is a range projected by the information processing apparatus 10. In FIG. 3D, since the distance between the marker 303 and the information processing apparatus 10 is 2 m, the information processing apparatus 10 projects the presentation information 305 including two values shown in FIG. In FIG. 3E, since the distance between the marker and the information processing apparatus 10 is 1 m, the information processing apparatus 10 projects the presentation information 307 including all values shown in FIG.

図4(a)は、図2(a)のS206に示す、単一マーカーの提示情報を作成する処理について、図2(b)の処理とは異なる処理を示すフローチャートである。
投影環境推定部113は、投影可能面の大きさを、撮像画像を元に推定する(S401)。例えば、複数のマーカーに囲まれた領域や、マーカーの周囲の領域を投影可能面としてもよい。特に、マーカーの近傍にあってかつ投影された提示情報の視認が可能な領域を投影可能面とすることができる。この例では、投影画像の色の勾配を利用して投影可能面を決定する。投影環境推定部113は、色の勾配を撮像画像から認識し、マーカーに隣接してかつ色の勾配が所定値以下である領域を投影可能面として投影画像を投影する。色の勾配が大きいと、投影画像の視認が困難となり、その一方で、色の勾配が小さければ、投影画像の視認が容易だからである。提示情報作成部114は、マーカーに対応する関連情報、マーカーの周囲の投影可能面及びマーカーの位置に応じて提示情報を作成し(S402)、処理を終了する。
FIG. 4A is a flowchart showing a process different from the process of FIG. 2B regarding the process of creating presentation information of a single marker shown in S206 of FIG. 2A.
The projection environment estimation unit 113 estimates the size of the projectable surface based on the captured image (S401). For example, an area surrounded by a plurality of markers or an area around the markers may be a projectable surface. In particular, an area in the vicinity of the marker where the projected presentation information can be visually recognized can be set as a projectable surface. In this example, the projectable surface is determined using the color gradient of the projection image. The projection environment estimation unit 113 recognizes the color gradient from the captured image, and projects the projection image using a region adjacent to the marker and having a color gradient of a predetermined value or less as a projectable surface. This is because when the color gradient is large, it is difficult to visually recognize the projection image, while when the color gradient is small, the projection image is easily visible. The presentation information creation unit 114 creates presentation information according to the related information corresponding to the marker, the projectable surface around the marker, and the position of the marker (S402), and ends the process.

図4(b)に、提示情報作成部114が作成した、図3(a)に示す関連情報に基づいて作成した投影画像401を示す。この図において、提示情報411は、投影可能面の面積が60,000平方ピクセルの場合の提示情報であり、関連情報のうち3つの項目の3つの値、すなわち「LC204、24cm、黒」が格納されている。また、投影可能面413は、投影画像401内における投影可能面を示す。また、図4(c)に、提示情報作成部114が作成した、図3(a)に示される関連情報に基づいて作成した投影画像402を示す。図4(c)は、図4(b)よりも投影可能面が小さい場合を表す。提示情報412は、投影可能面の面積が25,000平方ピクセルの場合の提示情報であり、関連情報のうち1つの値、すなわち「LC204」のみが格納されている。また、投影可能面414は、投影画像402内における投影可能面を示す。   FIG. 4B shows a projection image 401 created by the presentation information creation unit 114 based on the related information shown in FIG. In this figure, the presentation information 411 is presentation information when the area of the projectable surface is 60,000 square pixels, and stores three values of three items among the related information, that is, “LC204, 24 cm, black”. Has been. A projectable surface 413 indicates a projectable surface in the projection image 401. FIG. 4C shows a projection image 402 created by the presentation information creation unit 114 based on the related information shown in FIG. FIG. 4C shows a case where the projectable surface is smaller than that in FIG. The presentation information 412 is presentation information when the area of the projectable surface is 25,000 square pixels, and stores only one value of the related information, that is, “LC204”. A projectable surface 414 indicates a projectable surface in the projection image 402.

以下、投影可能面に応じた提示情報の作成方法の一例を示す。投影環境推定部113は、まず、映像に含まれる投影可能面の面積を算出する。この実施形態では、投影可能面の面積は平方ピクセル単位で算出した。次に、提示情報作成部114は、投影可能面の面積に収まる量の関連情報を提示情報に含める。本実施形態では、提示情報作成部114は、マーカー領域306の左下の位置を原点として、提示情報411、412を表示する。   Hereinafter, an example of a method for creating presentation information corresponding to a projectable surface will be described. First, the projection environment estimation unit 113 calculates the area of the projectable surface included in the video. In this embodiment, the area of the projectable surface is calculated in units of square pixels. Next, the presentation information creation unit 114 includes the relevant information in an amount that fits in the area of the projectable surface in the presentation information. In the present embodiment, the presentation information creation unit 114 displays the presentation information 411 and 412 with the lower left position of the marker area 306 as the origin.

図4(d)は、図4(b)に示される提示情報を情報処理装置10により投影した結果を示す。同様に、図4(e)は、図4(c)に示される提示情報を情報処理装置10が投影した結果を示す。これらの図において、投影可能面413は、投影環境推定部113が投影可能面と推定した領域を示す。図4(d)において、投影可能面414の大きさは60,000平方ピクセルであるので、情報処理装置10は提示情報411を投影する。図4(e)において、投影可能面の面積は25,000平方ピクセルであるので、情報処理装置10は提示情報412を投影する。   FIG. 4D shows a result of projecting the presentation information shown in FIG. Similarly, FIG. 4E illustrates a result of the information processing apparatus 10 projecting the presentation information illustrated in FIG. In these drawings, a projectable surface 413 indicates a region estimated by the projection environment estimation unit 113 as a projectable surface. In FIG. 4D, since the size of the projectable surface 414 is 60,000 square pixels, the information processing apparatus 10 projects the presentation information 411. In FIG. 4E, since the area of the projectable surface is 25,000 square pixels, the information processing apparatus 10 projects the presentation information 412.

なお、図2(b)のS212においては、撮像画像に映るマーカーの大きさを利用してマーカーとの距離を求めたが、情報処理装置10とマーカーとの距離は任意の手法で求めることができる。例えば、超音波や赤外線などを利用した距離センサを用いて距離を推定してもよい。距離センサを用いることで、マーカーの大きさが事前にわからない場合でも、マーカーとの距離を推定できる。また、この実施形態のように、プロジェクタ106のような光学系投影手段やカメラ105のような光学系撮像手段を用いる場合、その焦点距離からマーカーとの距離を推定してもよい。この場合、ユーザはプロジェクタ106やカメラ105のフォーカスがマーカーに合うよう、焦点距離やマーカーとの距離を調整する。そのためプロジェクタ106やカメラ105のフォーカスはマーカーに合っていると仮定できる。従って、現在の焦点距離からフォーカスの合う距離を推定し、その値を距離に用いることができる。焦点距離からマーカーとの距離を推定することで、マーカーの大きさが事前にわからない場合でも、マーカーとの距離を推定できる。   In S212 of FIG. 2B, the distance from the marker is obtained using the size of the marker shown in the captured image, but the distance between the information processing apparatus 10 and the marker can be obtained by an arbitrary method. it can. For example, the distance may be estimated using a distance sensor using ultrasonic waves or infrared rays. By using the distance sensor, the distance to the marker can be estimated even when the size of the marker is not known in advance. Further, as in this embodiment, when an optical system projection unit such as the projector 106 or an optical system imaging unit such as the camera 105 is used, the distance to the marker may be estimated from the focal length. In this case, the user adjusts the focal length and the distance from the marker so that the projector 106 and the camera 105 are focused on the marker. Therefore, it can be assumed that the projector 106 and the camera 105 are in focus with the marker. Accordingly, it is possible to estimate the distance in focus from the current focal length and use the value as the distance. By estimating the distance to the marker from the focal length, the distance to the marker can be estimated even when the size of the marker is not known in advance.

図2(b)のS213及び図4(a)のS402において、提示情報作成部114は、プロジェクタ106の絞り値に応じて提示情報を作成してもよい。一例として、絞り値が最小、つまり最大まで開放されている場合、提示情報作成部114は、関連情報に含まれる情報量を減らし、その分情報を拡大して表示してもよい。プロジェクタ106の絞りを開放することは、プロジェクタ106の輝度を増す代わり、映像のコントラストを低減させる効果がある。ユーザが絞りを最大まで開放していることは、プロジェクタ106の輝度を最大まで高める必要があるほど、プロジェクタ106の投影映像が見にくいことを意味する。そのため、絞りが最大まで解放されているときに文字や画像を大きく表示することは、ユーザの視認性を向上させる効果がある。   In S213 of FIG. 2B and S402 of FIG. 4A, the presentation information creation unit 114 may create presentation information according to the aperture value of the projector 106. As an example, when the aperture value is at a minimum, that is, opened to the maximum, the presentation information creation unit 114 may reduce the amount of information included in the related information and display the enlarged information accordingly. Opening the aperture of the projector 106 has the effect of reducing the contrast of the image instead of increasing the brightness of the projector 106. When the user opens the aperture to the maximum, it means that the projected image of the projector 106 is difficult to see as the brightness of the projector 106 needs to be increased to the maximum. For this reason, displaying characters and images large when the aperture is fully released has the effect of improving the visibility of the user.

なお、上述の例では、絞り値が最小のときに情報量を減らしているが、絞り値が所定の値より小さいときに情報量を減らすようにしてもよい。
あるいは、絞り値が最小であるか、または所定値より小さい場合、提示情報作成部114は、提示情報の表示形態を変化させるようにしてもよい。この場合、好ましくは提示情報の視認性が向上するように表示形態を変化させる。例えば、文字を大きくする、字間を拡大する、または、文字の表示に変えてアイコン表示を行うことで、表示形態を変化させる。
In the above-described example, the information amount is reduced when the aperture value is minimum. However, the information amount may be decreased when the aperture value is smaller than a predetermined value.
Alternatively, when the aperture value is the minimum or smaller than the predetermined value, the presentation information creation unit 114 may change the display form of the presentation information. In this case, the display form is preferably changed so that the visibility of the presentation information is improved. For example, the display form is changed by enlarging the character, enlarging the space between characters, or displaying the icon instead of displaying the character.

更に、図4(a)のS401において、認識部111は、認識したマーカーIDに対応する投影可能面の大きさをROM102、HDD104、あるいは装置外に定義されたデータベースから取得してもよい。情報処理装置10とマーカーとの位置が既知である場合には、両者の位置情報をROM102等に記憶しておくことで、各マーカーに対応する認識可能面の位置と大きさを事前に定義することができる。   Further, in S401 of FIG. 4A, the recognition unit 111 may acquire the size of the projectable surface corresponding to the recognized marker ID from the ROM 102, the HDD 104, or a database defined outside the apparatus. When the positions of the information processing apparatus 10 and the marker are known, the position information and the size of the recognizable surface corresponding to each marker are defined in advance by storing the position information of both in the ROM 102 or the like. be able to.

提示情報はさまざまな手法で作成可能である。投影可能面の大きさを基準として、その大きさに収めることが可能な情報から順に格納してもよい。この場合、提示情報には、文字数が少ない情報等の、必要な表示面積が小さくてすむ情報から優先的に格納される。また、関連情報に含まれる各値に対して、優先度を決めておき、優先度の高い値から順番に提示情報へ含めてもよい。   Presentation information can be created by various methods. You may store in order from the information which can be accommodated in the magnitude | size on the basis of the magnitude | size of a projectable surface. In this case, the presentation information is preferentially stored from information that requires a small display area, such as information with a small number of characters. In addition, a priority may be determined for each value included in the related information, and may be included in the presentation information in order from a value with a higher priority.

この場合、提示情報に優先度順に値を格納していくと、必要な表示面積が大きい値(以下、値Aとする)を格納することはできないが、より優先度が低くかつ必要な表示面積が小さい値を格納することはできるという状況も発生し得る。この場合、提示情報には値Aを格納せず、次に優先度が高い値について、提示情報に格納可能であるか否かを判断することもできる。この優先度は、事前に決めてもよいし、ユーザが指定してもよい。また、上述した実施形態では、提示情報は、マーカーとは別の領域に投影されている。しかし、提示情報をマーカーの上に重畳投影するよう位置とサイズを決めてもよいし、マーカーと重畳投影しないよう、マーカーのいずれかの方向に情報を投影してもよい。マーカーの色勾配が強い場合は、マーカーの上に重畳投影しないことで視認性を確保できる。   In this case, if values are stored in the presentation information in order of priority, a value with a large required display area (hereinafter referred to as value A) cannot be stored, but a lower priority and a required display area. There may also be situations where a small value can be stored. In this case, the value A is not stored in the presentation information, and it can be determined whether or not the next highest priority value can be stored in the presentation information. This priority may be determined in advance or specified by the user. In the above-described embodiment, the presentation information is projected on a region different from the marker. However, the position and size may be determined so that the presentation information is superimposed on the marker, or the information may be projected in any direction of the marker so as not to be superimposed on the marker. When the color gradient of the marker is strong, visibility can be ensured by not superimposing and projecting on the marker.

図5(a)は、図2(a)のS207に示す複数マーカーの提示情報を作成する処理を示すフローチャートである。投影環境推定部113は、撮像画像に含まれるすべてのマーカーに対し、マーカーと情報処理装置10との距離を求める(S501)。距離の求め方としては、S211とS212の処理と同様、撮像画像に映るマーカーの大きさを用いて推定する手法がある。また、距離センサやプロジェクタ106やカメラ105の焦点距離を用いてもよい。   FIG. 5A is a flowchart showing a process of creating presentation information of a plurality of markers shown in S207 of FIG. The projection environment estimation unit 113 calculates the distance between the marker and the information processing apparatus 10 for all markers included in the captured image (S501). As a method for obtaining the distance, there is a method of estimating using the size of the marker shown in the captured image, as in the processing of S211 and S212. Further, the focal length of the distance sensor, projector 106 or camera 105 may be used.

次に、提示情報作成部114は、マーカーと情報処理装置10との距離に応じて提示情報量を決定する(S502)。特に、この実施形態では、情報量を増減させる処理の一例として、作成する提示情報の数を、マーカーと情報処理装置10との距離に応じて決定する。詳細には、情報処理装置10とマーカーとの距離を求め、その値に応じて提示情報の数を決定する。ここで提示情報の数とは、プロジェクタ106が出力する全体の投影画像の中に、独立した部分領域として配置する画像の数に相当する。   Next, the presentation information creation unit 114 determines the amount of presentation information according to the distance between the marker and the information processing apparatus 10 (S502). In particular, in this embodiment, as an example of processing for increasing or decreasing the amount of information, the number of pieces of presentation information to be created is determined according to the distance between the marker and the information processing apparatus 10. Specifically, the distance between the information processing apparatus 10 and the marker is obtained, and the number of pieces of presentation information is determined according to the value. Here, the number of presentation information corresponds to the number of images arranged as independent partial areas in the entire projection image output by the projector 106.

例えば、矩形や吹き出し形状等の図形オブジェクト内にテキスト情報を配置し、それを実物体に重畳するように投影を行うアプリケーションを考える場合、図形オブジェクトの数を提示情報の数とみなすことができる。本実施形態では、マーカーと情報処理装置10との距離が所定値以上なら、複数のマーカーに対してまとめて1つの提示情報を作成し、所定値未満なら認識したマーカーの数と同数の提示情報を作成するものとした。ここで、1つの提示情報に含まれる情報量は略一定であるとする。従って、マーカーの数と同数の複数の提示情報を作成することは、提示情報を1つだけ生成する場合と比較して、投影可能な情報量が増えることを意味する。なお、情報処理装置10と個々のマーカーとの距離がそれぞれ異なる場合には、その平均値を情報処理装置10とマーカーとの距離とする。以下、この所定値を1.5mとして説明する。   For example, when text information is arranged in a graphic object such as a rectangle or a balloon shape and projection is performed so that the text information is superimposed on a real object, the number of graphic objects can be regarded as the number of presentation information. In this embodiment, if the distance between the marker and the information processing apparatus 10 is equal to or greater than a predetermined value, one presentation information is created for a plurality of markers, and if the distance is less than the predetermined value, the same number of presentation information as the number of recognized markers is created. To create. Here, it is assumed that the amount of information included in one presentation information is substantially constant. Therefore, creating a plurality of pieces of presentation information equal to the number of markers means that the amount of information that can be projected is increased compared to the case where only one piece of presentation information is generated. When the distance between the information processing apparatus 10 and each marker is different, the average value is set as the distance between the information processing apparatus 10 and the marker. Hereinafter, the predetermined value will be described as 1.5 m.

次に、提示情報作成部114は、S502で決定した情報量に従って、提示情報を作成する(S503)。この実施形態では、決定された数の提示情報を作成する。図5(b)は、図5(a)のS503において提示情報作成部114が図3(a)に示す関連情報に基づいて投影画像501内に作成する提示情報の例を示す。図5(b)において、領域511は、マーカーIDがS1_LC204_240BKであるマーカーの、投影画像501内における位置とサイズを示す。領域512は、マーカーIDがS1_LC204_240WHであるマーカーの、投影画像内における位置とサイズを示す。   Next, the presentation information creation unit 114 creates presentation information according to the information amount determined in S502 (S503). In this embodiment, the determined number of presentation information is created. FIG. 5B shows an example of the presentation information created in the projected image 501 by the presentation information creation unit 114 based on the related information shown in FIG. 3A in S503 of FIG. In FIG. 5B, a region 511 indicates the position and size of the marker whose marker ID is S1_LC204_240BK in the projection image 501. An area 512 indicates the position and size in the projection image of the marker whose marker ID is S1_LC204_240WH.

領域513は、マーカーIDがS1_LC204_230BKであるマーカーの、投影画像内における位置とサイズを示す。提示情報515は、情報処理装置10とマーカーとの距離が2mの場合に提示情報作成部114が作成した提示情報を示す。また、この例では、距離が2mの場合、提示情報作成部114はS502で1つの提示情報を作成すると決定する。   An area 513 indicates the position and size of the marker whose marker ID is S1_LC204_230BK in the projection image. The presentation information 515 indicates the presentation information created by the presentation information creation unit 114 when the distance between the information processing apparatus 10 and the marker is 2 m. In this example, when the distance is 2 m, the presentation information creation unit 114 determines to create one presentation information in S502.

図5(c)に、情報処理装置10とマーカーとの距離が1mの場合に提示情報作成部114が投影画像502内に作成する提示情報516、517、518及び519を示す。なお、情報処理装置10とマーカーとの距離が1.5m未満であるので、認識したマーカーと同数の提示情報が作成されている。作成された提示情報516及び517のマーカーIDは、それぞれS1_LC204_240BK及びS1_LC204_240WHである。また、作成された提示情報518及び519のマーカーIDは、それぞれS1_LC204_230BK及びS1_LC204_230WHである。
提示情報作成部114は、複数の提示情報を作成する場合、それぞれの提示情報の内容が異なるように提示情報を作成する。具体的には、各マーカーに対応する関連情報のうち、すべてのマーカーIDにおいて値が異なる情報を提示情報に優先的に含める。
FIG. 5C shows the presentation information 516, 517, 518, and 519 that the presentation information creation unit 114 creates in the projection image 502 when the distance between the information processing apparatus 10 and the marker is 1 m. Since the distance between the information processing apparatus 10 and the marker is less than 1.5 m, the same number of presentation information as the recognized marker is created. The marker IDs of the created presentation information 516 and 517 are S1_LC204_240BK and S1_LC204_240WH, respectively. Also, the marker IDs of the created presentation information 518 and 519 are S1_LC204_230BK and S1_LC204_230WH, respectively.
When creating a plurality of pieces of presentation information, the presentation information creation unit 114 creates the presentation information so that the contents of the respective pieces of presentation information are different. Specifically, among the related information corresponding to each marker, information having different values for all marker IDs is preferentially included in the presentation information.

図3(a)に示すように、各マーカーIDにおいて、製品名はいずれもLC204であり共通している。また、サイズと色については、その値は一部のマーカーにおいて共通している。例えばマーカーIDがS1_LC204_240BK、S1_LC204_230BKにおいて、いずれも色は黒であり共通している。一方、すべてのマーカーIDにおいて、製品IDと画像についてはその値が異なっている。従って、提示情報516、517、518及び519については製品IDを優先して提示情報に含めている。   As shown in FIG. 3A, in each marker ID, the product name is LC204 and is common. In addition, the size and the color are common to some markers. For example, in the case of marker IDs S1_LC204_240BK and S1_LC204_230BK, the color is black and they are common. On the other hand, the product ID and the image have different values for all marker IDs. Therefore, for the presentation information 516, 517, 518 and 519, the product ID is preferentially included in the presentation information.

図5(d)と図5(e)は、情報処理装置10による投影結果を示す。マーカー521、522のマーカーIDは、S1_LC204_240BK及びS1_LC204_240WHである。また、マーカー523、524のマーカーIDは、S1_LC204_230BK及びS1_LC204_230WHである。   FIG. 5D and FIG. 5E show the projection results by the information processing apparatus 10. The marker IDs of the markers 521 and 522 are S1_LC204_240BK and S1_LC204_240WH. The marker IDs of the markers 523 and 524 are S1_LC204_230BK and S1_LC204_230WH.

図5(d)において、マーカー521、522、523及び524と情報処理装置10との距離は2mであり、1.5m以上となっている。従って、情報処理装置10は提示情報515を投影する。
図5(e)において、マーカー521、522、523及び524と情報処理装置10の距離は1mであり、1.5m未満となっている。従って、情報処理装置10は、提示情報516、517、518、519を投影する。
In FIG. 5D, the distance between the markers 521, 522, 523, and 524 and the information processing apparatus 10 is 2 m, which is 1.5 m or more. Therefore, the information processing apparatus 10 projects the presentation information 515.
In FIG. 5E, the distance between the markers 521, 522, 523, and 524 and the information processing apparatus 10 is 1 m, which is less than 1.5 m. Therefore, the information processing apparatus 10 projects the presentation information 516, 517, 518, and 519.

図6(a)は、図2(a)のS207が示す、複数マーカーの提示情報を作成する処理について、図5(a)が示す処理とは異なる方法を示すフローチャートである。
提示情報作成部114は、撮像画像に含まれるすべてのマーカーに対し、マーカーを含む投影可能面を推定する(S601)。投影可能面の推定は図4(a)のS401の処理と同様、撮像画像の色の勾配から求めてもよいし、認識したマーカーIDに対する投影可能面を外部に問い合わせてもよい。
FIG. 6A is a flowchart showing a method different from the process shown in FIG. 5A for the process of creating presentation information of a plurality of markers shown in S207 of FIG. 2A.
The presentation information creation unit 114 estimates a projectable surface including a marker for all markers included in the captured image (S601). As in the process of S401 in FIG. 4A, the projection possible surface may be obtained from the color gradient of the captured image, or the projection possible surface for the recognized marker ID may be inquired to the outside.

次に、提示情報作成部114は、各マーカーの投影可能面の大きさから、作成する提示情報の数を決定する(S602)。提示情報の数を決定する方法の一例としては、投影可能面の面積の合計値に応じて決定する方法がある。本実施形態では、投影可能面の面積が50,000平方ピクセル未満の場合には1つの提示情報を、50,000平方ピクセル以上の場合には認識したマーカーの数と同数の提示情報を作成する。次に提示情報作成部114は、S602で決定した数だけ提示情報を作成する(S603)。   Next, the presentation information creation unit 114 determines the number of presentation information to be created from the size of the projectable surface of each marker (S602). As an example of a method of determining the number of pieces of presentation information, there is a method of determining according to the total value of the area of the projectable surface. In the present embodiment, one presentation information is created when the area of the projectable surface is less than 50,000 square pixels, and the same number of presentation information as the number of recognized markers is created when the area is 50,000 square pixels or more. . Next, the presentation information creation unit 114 creates presentation information by the number determined in S602 (S603).

図6(b)、(c)は、図6(a)のS603で、提示情報作成部114が、図3(a)が示す関連情報に基づいて作成した提示情報の例を示す。 図6(b)において、投影画像601内に配置された提示情報611は、投影可能面の面積が25,000平方ピクセルの場合に提示情報作成部114が作成した提示情報である。投影可能面の面積が50,000平方ピクセル未満であることから、図6(b)の例では1つの提示情報611のみが投影されている。   6B and 6C show examples of the presentation information created by the presentation information creation unit 114 based on the related information shown in FIG. 3A in S603 of FIG. 6A. In FIG. 6B, the presentation information 611 arranged in the projection image 601 is the presentation information created by the presentation information creation unit 114 when the area of the projectable surface is 25,000 square pixels. Since the area of the projectable surface is less than 50,000 square pixels, only one presentation information 611 is projected in the example of FIG. 6B.

また、図6(c)において、投影画像602内に配置された提示情報612、613、614及び615は、投影可能面の面積が60,000平方ピクセルの場合に提示情報作成部114が作成した提示情報である。投影可能面の面積が50,000平方ピクセル以上であることから、図6(c)の例ではマーカーの数と同数の4つの提示情報が作成されている。これら提示情報612及び613は、マーカーIDがS1_LC204_240BK及びS1_LC204_240WHであるマーカーに対応する提示情報である。また、提示情報614及び615は、マーカーIDがS1_LC204_230BK及びS1_LC204_230WHであるマーカーに対応する提示情報である。   In FIG. 6C, the presentation information 612, 613, 614, and 615 arranged in the projection image 602 is created by the presentation information creation unit 114 when the area of the projectable surface is 60,000 square pixels. Presented information. Since the area of the projectable surface is 50,000 square pixels or more, four pieces of presentation information equal to the number of markers are created in the example of FIG. 6C. These presentation information 612 and 613 are presentation information corresponding to markers whose marker IDs are S1_LC204_240BK and S1_LC204_240WH. The presentation information 614 and 615 is presentation information corresponding to markers whose marker IDs are S1_LC204_230BK and S1_LC204_230WH.

図6(d)及び図6(e)に、情報処理装置10による投影結果を示す。図6(d)において、マーカー621、622、623及び624を含む投影可能面633の面積の合計は25,000平方ピクセルである。従って、情報処理装置10は、提示情報611を投影する。図6(e)において、マーカー621、622、623及び624を含む投影可能面634の面積の合計は60.000平方ピクセルであるので、情報処理装置10は、提示情報612、613、614及び615を投影する。   FIG. 6D and FIG. 6E show the projection results by the information processing apparatus 10. In FIG. 6D, the total area of the projectable surface 633 including the markers 621, 622, 623 and 624 is 25,000 square pixels. Therefore, the information processing apparatus 10 projects the presentation information 611. In FIG. 6E, since the total area of the projectable surface 634 including the markers 621, 622, 623, and 624 is 60.000 square pixels, the information processing apparatus 10 displays the presentation information 612, 613, 614, and 615. Project.

図5及び図6(a)〜(e)の例では、1つの投影可能面にすべてのマーカーが含まれている場合を対象として、投影可能面の面積が50,000平方ピクセル未満の場合には、1つの投影可能面に1つの提示情報を投影した。
しかし、投影面の色によっては、投影可能面において、あるマーカーを含む領域と、他のマーカーを含む領域とが連続しない場合がある。その一例として、色の勾配が小さい複数の領域が、色の勾配が大きい領域で分断されている場合が挙げられる。
In the examples of FIGS. 5 and 6A to 6E, in the case where all markers are included in one projectable surface, the area of the projectable surface is less than 50,000 square pixels. Projected one presentation information on one projectable surface.
However, depending on the color of the projection surface, the region including a certain marker and the region including another marker may not be continuous on the projectable surface. As an example, there may be mentioned a case where a plurality of regions having a small color gradient are divided by a region having a large color gradient.

そのような場合、1つの投影可能面内で複数の領域にまたがって提示情報を投影すると、色の勾配の差などにより視認性が低下するおそれがある。そこで、図7に示す例では、提示情報作成部114は、1つの投影可能面を分断された各領域に分割した。以下、このように分割された領域を分割面と称する。そして、各分割面に含まれる1つ又は複数のマーカーに対して1つの提示情報を作成する。以下、その詳細を説明する。   In such a case, when the presentation information is projected across a plurality of regions within one projectable plane, the visibility may be reduced due to a difference in color gradient or the like. Therefore, in the example illustrated in FIG. 7, the presentation information creation unit 114 divides one projectable surface into divided regions. Hereinafter, the region divided in this way is referred to as a divided surface. And one presentation information is produced with respect to the 1 or several marker contained in each division surface. Details will be described below.

図7は、図6(a)のS602において、投影可能面内に投影する提示情報の数が「1」と判定され、かつ、1つの提示情報内には1つの値を含む場合における投影画像の一例を示す。図7に示されるように、認識部111は、投影画像701内において4つのマーカー621、622、623及び624を認識している。
また、この例では、投影可能面内には色の勾配が大きい領域が存在するので、投影可能面は、提示情報作成部114によって第1分割面711と第2分割面712とに分割されている。第1分割面711にはマーカー623、624が含まれる。また、第1分割面711とは連続しない別個の領域にある第2分割面712には、マーカー621と622とが含まれる。
FIG. 7 shows a projected image when the number of pieces of presentation information projected on the projectable surface is determined as “1” in S602 of FIG. 6A and one presentation information includes one value. An example is shown. As shown in FIG. 7, the recognition unit 111 recognizes four markers 621, 622, 623, and 624 in the projection image 701.
In this example, since there is a region having a large color gradient in the projectable surface, the projectable surface is divided into the first divided surface 711 and the second divided surface 712 by the presentation information creation unit 114. Yes. The first dividing surface 711 includes markers 623 and 624. In addition, markers 621 and 622 are included in the second divided surface 712 in a separate area that is not continuous with the first divided surface 711.

上述のように、S602においては、投影可能面内に作成する提示情報の個数は1つであると決定している。しかし、提示情報作成部114は、第1分割面711と第2分割面712のそれぞれについて1つの提示情報を作成する。その結果、分割前の投影可能面には2つの提示情報が投影される。
図7に示すように、第1分割面711には提示情報713、第2分割面712には提示情報714が投影される。これにより、提示情報が色の勾配が大きい領域に投影されて視認性が低下することを防ぐことができる。
以上のように、情報処理装置10とマーカーとの距離や投影可能面の面積、形状に応じて提示情報の内容や数を変えることで、投影環境に応じた適切な情報量の提示情報を投影することができる。
As described above, in S602, it is determined that the number of pieces of presentation information created in the projectable plane is one. However, the presentation information creation unit 114 creates one presentation information for each of the first divided surface 711 and the second divided surface 712. As a result, two pieces of presentation information are projected on the projectable surface before division.
As shown in FIG. 7, presentation information 713 is projected on the first divided plane 711, and presentation information 714 is projected on the second divided plane 712. Thereby, it can prevent that presentation information is projected on the area | region where a color gradient is large, and visibility falls.
As described above, by changing the content and number of the presentation information according to the distance between the information processing apparatus 10 and the marker, the area and shape of the projectable surface, the presentation information with an appropriate amount of information according to the projection environment is projected. can do.

なお、S502やS602において、提示情報作成部114は、プロジェクタ106の絞り値に応じて提示情報の数を決定してもよい。一例として、絞り値が最小、つまり最大まで開放されている場合、提示情報作成部114は、提示情報の数を減らし、その分文字や画像を大きく表示してもよい。ユーザが絞りを最大まで開放していることは、プロジェクタ106の輝度を最大まで高める必要があるほど、プロジェクタ106の投影映像が見にくいことを意味する。そのため、絞りが最大まで解放されているときに提示情報の数を減らし、その分文字や画像を大きく表示することは、ユーザの視認性を向上させる効果がある。また、提示情報の数を減らすことに代えて、提示情報の表示形態を、その視認性が高くなるように変化させてもよい。   In S502 and S602, the presentation information creation unit 114 may determine the number of pieces of presentation information according to the aperture value of the projector 106. As an example, when the aperture value is at a minimum, that is, when the aperture value is opened to the maximum, the presentation information creation unit 114 may reduce the number of presentation information and display characters and images larger accordingly. When the user opens the aperture to the maximum, it means that the projected image of the projector 106 is difficult to see as the brightness of the projector 106 needs to be increased to the maximum. Therefore, reducing the number of pieces of presentation information when the aperture is fully released and displaying characters and images larger accordingly has the effect of improving the visibility of the user. Further, instead of reducing the number of presentation information, the display form of the presentation information may be changed so that the visibility is high.

また、本実施形態では画像表示手段の一例としてプロジェクタを用いたが、これに限定されるものではなく、ヘッドマウントディスプレイ、スマートフォン、タブレット等のライブビュー画像を表示可能な任意のディスプレイデバイスを用いてもよい。画像表示手段としてプロジェクタを使用する場合の距離とは、情報処理装置から投影面までの距離を意味する。一方、画像表示手段としてディスプレイデバイスを使用する場合は投影面という概念が当てはまらないため、距離は、情報処理装置から対象物までの距離を意味する。
画像表示手段としてディスプレイデバイスを使用する場合、対象物とは異なる位置にも情報を表示することが可能である。例えば、対象物の周辺の空間にも情報を表示することが可能である。
In this embodiment, the projector is used as an example of the image display unit. However, the present invention is not limited to this, and any display device that can display a live view image such as a head mounted display, a smartphone, or a tablet is used. Also good. The distance when a projector is used as the image display means means the distance from the information processing apparatus to the projection plane. On the other hand, when a display device is used as the image display unit, the concept of a projection plane does not apply, and thus the distance means a distance from the information processing apparatus to the object.
When a display device is used as the image display means, information can be displayed at a position different from the object. For example, information can be displayed in a space around the object.

本実施形態とは異なる手段(例えば、対象物上以外にも情報を表示)も有効である。しかしながら、画面いっぱいに複数の対象物が並べられており対象物上以外に情報を表示するすき間がないような場合には、前記手段は有効でなく、本実施形態による方法でユーザの視認性を向上させる効果が得られる。更に、本実施形態では、認識部111がマーカーを認識する場合について説明したが、認識部11はマーカー以外のものを認識に用いてもよい。例えば、認識部11は、マーカーではなく物体を認識してもよい。この場合、認識部11は、物体の形状を認識することで物体IDを特定する。従って、対象物自体をマーカーとして認識することになる。   Means different from the present embodiment (for example, displaying information other than on the object) are also effective. However, when a plurality of objects are arranged on the entire screen and there is no gap for displaying information other than on the object, the means is not effective, and the visibility according to the present embodiment is improved. The effect to improve is acquired. Furthermore, although the case where the recognition unit 111 recognizes a marker has been described in the present embodiment, the recognition unit 11 may use something other than the marker for recognition. For example, the recognition unit 11 may recognize an object instead of a marker. In this case, the recognition unit 11 identifies the object ID by recognizing the shape of the object. Therefore, the object itself is recognized as a marker.

物体の形状認識には既存の技術を利用する。簡単な方法としては、事前に物体の形状を複数の角度から撮像した画像を用意しておき、撮像画像と部分マッチングする方法が有効である。また、物体の形状を3Dモデルとして用意しておき、距離画像(この場合は距離画像センサやステレオカメラ等の距離取得可能なデバイスが必要)でマッチングするという手法も有効である。   Existing technology is used for object shape recognition. As a simple method, it is effective to prepare an image obtained by capturing the shape of an object from a plurality of angles in advance and perform partial matching with the captured image. It is also effective to prepare an object shape as a 3D model and perform matching using a distance image (in this case, a device capable of acquiring a distance, such as a distance image sensor or a stereo camera).

<第2実施形態>
第1実施形態では、マーカーが撮像画像内に複数存在するときに、それぞれのマーカーに対して1つずつ提示情報を作成する例と、提示情報を1つだけ作成する例とを示した。各マーカーに対して1つずつ提示情報を作成した場合、提示情報とマーカーとは「1対1」で対応し、両者の関係は明白である。また、提示情報が1つの場合には、その提示情報はすべてのマーカーに対応する「1:全」の対応であることが明白である。従って、これらの例ではマーカーと提示情報との対応関係は自明である。
Second Embodiment
In the first embodiment, when a plurality of markers exist in the captured image, an example in which presentation information is created for each marker and an example in which only one presentation information is created are shown. When presentation information is created for each marker, the presentation information and the marker correspond “one-to-one”, and the relationship between the two is clear. When there is only one presentation information, it is clear that the presentation information is a “1: all” correspondence corresponding to all markers. Therefore, in these examples, the correspondence between the marker and the presentation information is self-evident.

一方、提示情報の数はこれに限定されるものではなく、例えば2以上でかつマーカーの個数未満の数の任意の数とすることもできる。提示情報の数をこの範囲で増加あるいは減少させることで、投影環境に応じて情報量をきめ細かく調整することができ、視認性を向上することが可能である。しかし、この場合は、提示情報、マーカーともに複数存在し、提示情報とマーカーとの対応関係は自明ではない。   On the other hand, the number of pieces of presentation information is not limited to this, and may be any number that is, for example, two or more and less than the number of markers. By increasing or decreasing the number of presentation information within this range, the amount of information can be finely adjusted according to the projection environment, and visibility can be improved. However, in this case, there are a plurality of presentation information and markers, and the correspondence between the presentation information and the markers is not obvious.

第2実施形態では、このようにマーカーと提示情報との関係が自明ではない場合に、両者の関係を明確にするように提示情報の位置を決定する手法を示す。この実施形態では、複数のマーカーを、それぞれ1つ以上のマーカーを含むN個のマーカー群(グループ)にグループ分けし、それぞれのマーカー群に対して1つの提示情報を対応させた。なお、Nは、2以上でかつマーカーの個数未満の数である。   In the second embodiment, when the relationship between the marker and the presentation information is not obvious, a method for determining the position of the presentation information so as to clarify the relationship between the two is shown. In this embodiment, a plurality of markers are grouped into N marker groups (groups) each including one or more markers, and one presentation information is associated with each marker group. N is a number that is 2 or more and less than the number of markers.

なお、マーカー群に含まれるマーカーの組合せが複数通り存在する場合があることから、複数の組合せのうち、視認性が高くなるものを選択することが望ましい。そこで、この実施形態では、マーカー群に含まれるマーカー同士の類似度が高いマーカーが同じマーカー群に配置され、類似度が低いマーカーが異なるマーカー群に配置される組合せを選択した。具体的には、マーカー群を構成するマーカー同士の類似度を求め、各類似度を用いてマーカー群に含まれるマーカーの組合せを決定した。   Since there may be a plurality of combinations of markers included in the marker group, it is desirable to select a combination having a high visibility among the plurality of combinations. Therefore, in this embodiment, a combination is selected in which markers having high similarity between markers included in the marker group are arranged in the same marker group, and markers having low similarity are arranged in different marker groups. Specifically, the similarity between the markers constituting the marker group was determined, and the combination of markers included in the marker group was determined using each similarity.

また、1つのマーカー群に含まれるマーカー同士の距離が離れていると、提示情報をどこに表示しても、少なくとも一方のマーカーから離間した位置に提示情報が表示されることになる。そのためユーザは提示情報に対応するマーカーを識別することが困難である。従って、この実施形態では、マーカー群を構成するマーカー同士の距離を求め、各マーカー群について求められた距離を用いてマーカー群に含まれるマーカーの組合せを決定した。なお、上述のように対象物自体をマーカーとして用いることもできる。この場合には対象物同士の距離を求めて、対象物群に含まれる対象物の組合せを決定する。   Further, if the markers included in one marker group are separated from each other, the presentation information is displayed at a position separated from at least one marker, regardless of where the presentation information is displayed. Therefore, it is difficult for the user to identify the marker corresponding to the presentation information. Therefore, in this embodiment, the distance between the markers constituting the marker group is obtained, and the combination of markers included in the marker group is determined using the distance obtained for each marker group. As described above, the object itself can be used as a marker. In this case, the distance between the objects is obtained, and the combination of objects included in the object group is determined.

図8(a)に、カメラ105で撮像した画像に含まれる4個のマーカーを表す。図示されるように、この例では、撮像した画像にはマーカー621、622、623及び624が含まれる。図8(b)は、図8(a)が示す撮像画像に含まれる4個のマーカーのIDと画像中の位置の説明図である。 図8(c)は、マーカー数が4でありかつ2つのマーカー群を生成する場合における、マーカー群に対するマーカーの選び方の全組合せを示す。ただし、1つのマーカー群には必ず1つ以上のマーカーが割り当てられるものとした。   FIG. 8A shows four markers included in an image captured by the camera 105. As illustrated, in this example, the captured image includes markers 621, 622, 623, and 624. FIG. 8B is an explanatory diagram of IDs of four markers included in the captured image shown in FIG. 8A and positions in the image. FIG. 8C shows all combinations of marker selection methods for the marker group when the number of markers is 4 and two marker groups are generated. However, one marker group must be assigned at least one marker.

図8(a)に示されるように、この例ではマーカーは4つであり、4つのマーカーを2つのマーカー群に割り当てている。
また、図8(b)に示されるように、各マーカーは、投影画像内で画面の左下を原点、図面における横方向をx軸、縦方向をy軸として、その位置が指定される。例えば、マーカーIDがS1_LC204_230WHのマーカーは、(100, 100)の位置にあり、図8(a)において左下に位置するマーカー621に対応する。同様に、マーカーIDがS1_LC204_240BKのマーカーは、(100, 500)の位置にあるマーカー624、マーカーIDがS1_LC204_240WHのマーカーは、(700, 500)の位置にあるマーカー623に対応する。更に、マーカーIDがS1_LC204_230BKのマーカーは、(700, 100)の位置にあるマーカー622に対応する。
As shown in FIG. 8A, in this example, there are four markers, and four markers are assigned to two marker groups.
Further, as shown in FIG. 8B, the position of each marker is designated in the projection image with the lower left of the screen as the origin, the horizontal direction in the drawing as the x axis, and the vertical direction as the y axis. For example, the marker whose marker ID is S1_LC204_230WH is at the position (100, 100), and corresponds to the marker 621 located at the lower left in FIG. Similarly, the marker with marker ID S1_LC204_240BK corresponds to the marker 624 at the position (100, 500), and the marker with marker ID S1_LC204_240WH corresponds to the marker 623 at the position (700, 500). Furthermore, the marker whose marker ID is S1_LC204_230BK corresponds to the marker 622 at the position (700, 100).

図8(c)に示されるように、マーカーの割り当て方には大きくわけて2種類ある。すなわち、一方のマーカー群に1つのマーカー、他方のマーカー群に3つのマーカーを割り当てる選び方(SEL1〜4)と、双方のマーカー群に2つずつマーカーを割り当てる選び方(SEL5〜7)である。   As shown in FIG. 8 (c), there are roughly two types of marker assignment methods. That is, there are a selection method (SEL1 to 4) in which one marker group is assigned one marker and the other marker group is assigned three markers (SEL1 to 4), and a selection method in which two markers are assigned to both marker groups (SEL5 to 7).

SEL1〜4は、4つのマーカーのうちから1つのマーカーを選んでマーカー群1に割り当て、残りの3つのマーカーをマーカー群2に割り当てた結果を示している。 一方、SEL5〜7は、4つのマーカーのうちから2つのマーカーを選んでマーカー群1に割り当て、残りの2つのマーカーをマーカー群2に割り当てた結果を示す。図示されるように、1つのマーカー群には必ず1つ以上のマーカーが割り当てられるようにして、4つのマーカーを2つのマーカー群に割り当てる場合、7通りの組合せがある。   SEL1 to SEL4 indicate the results of selecting one marker from the four markers and assigning it to the marker group 1 and assigning the remaining three markers to the marker group 2. On the other hand, SEL5 to 7 show the results of selecting two markers from the four markers and assigning them to the marker group 1 and assigning the remaining two markers to the marker group 2. As shown in the figure, when one marker group is always assigned one or more markers and four markers are assigned to two marker groups, there are seven combinations.

図9(a)は、図8(b)が示すマーカー群の組合せのうち、どの組合せを採用するかを決定する処理を示すフローチャートである。
提示情報作成部114は、マーカー群の各組合せに対し、各マーカー群に割り当てられたマーカーを識別する(S901)。例えば、図8(c)に示されるSEL1においては、マーカー群1、マーカー群2にそれぞれ割り当てられたマーカーを識別する。その結果、マーカー群1にはマーカーIDがS1_LC204_204BKのマーカーが割り当てられ、マーカー群2には、他の3つのマーカーが割り当てられていることがわかる。
FIG. 9A is a flowchart showing a process for determining which combination is adopted among the combinations of marker groups shown in FIG.
The presentation information creation unit 114 identifies the marker assigned to each marker group for each combination of marker groups (S901). For example, in SEL1 shown in FIG. 8C, the markers assigned to the marker group 1 and the marker group 2 are identified. As a result, it can be seen that the marker group 1 is assigned a marker having a marker ID of S1_LC204_204BK, and the marker group 2 is assigned another three markers.

次に、提示情報作成部114は、各マーカー群に含まれるマーカー間の類似度を算出する(S902)。本実施形態では、類似度を求める方法として、各マーカーに対応する関連情報の類似度を利用する。類似度は任意の手法で定めることができるが、この実施形態では、グループに含まれるすべてのマーカーで同じ値となる関連情報の数により、類似度を定める。同じ値となる関連情報の数が多いほど類似度が高いと判定する。なお、グループに含まれるマーカーの数が1個の場合、類似度は0とする。
従って、例えば図8(c)に示されるSEL1において、マーカー群1に含まれるマーカーの数は1であるので、類似度は0となる。マーカー群2は、図3に示されるように、関連情報のうち製品名の値(LC204)のみがすべてのマーカーで共通し、他の値はいずれも異なる。従って、類似度は1となる。
Next, the presentation information creation unit 114 calculates a similarity between markers included in each marker group (S902). In the present embodiment, the similarity of related information corresponding to each marker is used as a method for obtaining the similarity. Although the degree of similarity can be determined by an arbitrary method, in this embodiment, the degree of similarity is determined by the number of pieces of related information having the same value for all markers included in the group. It is determined that the similarity is higher as the number of related information having the same value is larger. When the number of markers included in the group is one, the similarity is 0.
Therefore, for example, in SEL1 shown in FIG. 8C, the number of markers included in the marker group 1 is 1, so the similarity is 0. In the marker group 2, as shown in FIG. 3, only the product name value (LC204) of the related information is common to all the markers, and all other values are different. Therefore, the similarity is 1.

提示情報作成部114は、S902の処理がすべてのマーカー群に対して完了したか否かを判定する(S903)。完了していない場合には、再度S902を実行する(S903:N)。完了している場合には、マーカー群のすべての選び方に対して処理が完了したか否かを判定する(S904)。図8(c)の例では、すべてのSEL1〜7について処理が完了したか否かを判定する。処理が完了していない場合には(S904:N)、再度S901を実行する。処理が完了している場合には(S904:Y)、提示情報作成部114は、各選び方について、各マーカー群の類似度の合計を求め、その合計が一番高くなる選び方が複数あるか否かを判定する(S905)。図8(c)の例では、SEL1〜7について、各マーカー群の類似度の合計を求め、類似度の合計が一番高い選び方が1つか否かを判定する。
類似度の合計が一番高くなる選び方が一通りである場合(S905:N)、その選び方を用いて提示情報を作成する(S908)。類似度の合計が一番高くなる選び方が複数ある場合(S905:Y)、それらの選び方について、マーカー群内のマーカー間距離を算出する(S906)。
The presentation information creation unit 114 determines whether or not the process of S902 has been completed for all marker groups (S903). If not completed, S902 is executed again (S903: N). If it has been completed, it is determined whether or not processing has been completed for all methods of selecting the marker group (S904). In the example of FIG. 8C, it is determined whether or not the processing has been completed for all SEL1 to SEL7. If the process has not been completed (S904: N), S901 is executed again. When the processing is completed (S904: Y), the presentation information creation unit 114 obtains the total similarity of each marker group for each selection method, and whether or not there are a plurality of selection methods with the highest total. Is determined (S905). In the example of FIG. 8C, for SEL1 to SEL7, the sum of the similarities of each marker group is obtained, and it is determined whether there is one method of selecting the highest sum of similarities.
When there is one way of selecting the highest degree of similarity (S905: N), presentation information is created using the method of selection (S908). When there are a plurality of selection methods having the highest similarity, the distance between the markers in the marker group is calculated (S906).

この実施形態では、マーカー群内のマーカー間距離は、図9(b)に示される式で求める。この式において、Kはマーカー群に含まれるマーカーの数を示しており、X0,X1,,Xi,,XKは各マーカーの撮像画像におけるX方向の位置、Y0,Y1,,Yi,,YKは各マーカーの撮像画像におけるY方向の位置を表す。
提示情報作成部114は、類似度が最も高いグループの選び方のうち、グループ内マーカー間距離の合計が最も小さい選び方を用いて提示情報を作成し、(S907)処理を終了する。
In this embodiment, the distance between markers in the marker group is obtained by the equation shown in FIG. In this equation, K represents the number of markers included in the marker group, X0, X1, Xi, and XK are positions in the X direction in the captured image of each marker, and Y0, Y1, Yi, and YK are It represents the position in the Y direction in the captured image of each marker.
The presentation information creation unit 114 creates presentation information using a method of selecting the group with the highest similarity and using the method of selecting the smallest total distance between the markers in the group (S907), and ends the process.

以下、図8(c)が示すマーカー群の選び方のうちどの選び方を用いて提示情報を作成するかの決定を行う処理を、図9(a)を参照して具体的に示す。
提示情報作成部114は、まず選び方SEL1に含まれる2つのマーカー群に対して、S902に対する処理を実行する。SEL1のマーカー群1には1つのマーカーしか含まれていないため類似度は0、マーカー群2に含まれるマーカーに共通な値は製品名のLC204のため類似度は1である。そのためSEL1の類似度は、マーカー群1の類似度とマーカー群2の類似度を合計して1となる。同様に、SEL2、SEL3、SEL4の類似度はすべて1となる。
Hereinafter, a process for determining which of the marker group selection methods shown in FIG. 8C is used to create the presentation information will be specifically described with reference to FIG.
First, the presentation information creation unit 114 executes a process for S902 on the two marker groups included in the selection method SEL1. Since the marker group 1 of SEL1 includes only one marker, the similarity is 0, and the value common to the markers included in the marker group 2 is LC204 of the product name, and the similarity is 1. Therefore, the similarity of SEL1 is 1 as the sum of the similarity of marker group 1 and the similarity of marker group 2. Similarly, the similarities of SEL2, SEL3, and SEL4 are all 1.

一方、SEL5については、マーカー群1は、関連情報においてのLC204とサイズの23cmが一致するので類似度は2となり、かつ、マーカー群2も、関連情報において製品名とサイズが一致するので類似度は2となる。従って、類似度の合計は4となる。
SEL6については、マーカー群1において関連情報のサイズは異なるものの、色が一致するので、類似度は2となる。同様に、マーカー群2の類似度も2となり、類似度の合計は4となる。
On the other hand, for SEL5, the similarity between the marker group 1 and the LC204 in the related information is 23 cm, so the similarity is 2, and the marker group 2 is also similar because the product name and the size are in the related information Becomes 2. Therefore, the total similarity is 4.
Regarding SEL6, although the size of the related information is different in the marker group 1, the colors match, so the similarity is 2. Similarly, the similarity of the marker group 2 is 2, and the total similarity is 4.

SEL7は、マーカー群1、マーカー群2ともに、関連情報は製品名しか一致しないので、類似度はそれぞれ1となる。従って、類似度の合計は2となる。
従って、提示情報作成部114は、S905で、類似度の最も高い選び方がSEL5とSEL6の2つあると判定する。次に提示情報作成部114は、S906で、SEL5とSEL6に含まれる各マーカー群に対してマーカー群内マーカー間距離を算出する。
In SEL7, since both the marker group 1 and the marker group 2 have related information that matches only the product name, the degree of similarity is 1, respectively. Therefore, the total similarity is 2.
Therefore, the presentation information creation unit 114 determines in S905 that there are two selection methods with the highest degree of similarity, SEL5 and SEL6. Next, in S906, the presentation information creation unit 114 calculates the marker inter-marker distance for each marker group included in SEL5 and SEL6.

ここで、図9(b)の計算式において、XMはマーカー群内のマーカーにおけるX座標の平均値である。SEL5のマーカー群1において、マーカー624のX座標は100、マーカー623のX座標は700であるので、XMは400となる。Y座標については、これらのマーカーのY座標はいずれも500であるので、YMも500となる。
次に、図8(b)が示すマーカーの位置と、図9(b)の計算式より、SEL5のマーカー群1のマーカー間距離を算出する。この値は、 [√{(100-400)2+(500-500)2}+√{(700-400)2+(500-500)2}]、つまり600である。
また、SEL5のマーカー群2のマーカー間距離も600であると求められる(XM=400、YM=100)。そのためSEL5に含まれるマーカー群のマーカー群内マーカー間距離の合計は1200である。
Here, in the calculation formula of FIG. 9B, XM is the average value of the X coordinates of the markers in the marker group. In the marker group 1 of SEL5, since the X coordinate of the marker 624 is 100 and the X coordinate of the marker 623 is 700, XM is 400. Regarding the Y coordinate, since the Y coordinate of these markers is 500, YM is also 500.
Next, the inter-marker distance of the marker group 1 of SEL5 is calculated from the marker position shown in FIG. 8B and the calculation formula of FIG. 9B. This value is [√ {(100−400) 2 + (500−500) 2 } + √ {(700−400) 2 + (500−500) 2 }], that is, 600.
Further, the distance between markers in the marker group 2 of SEL5 is also determined to be 600 (XM = 400, YM = 100). Therefore, the total distance between markers in the marker group of the marker group included in SEL5 is 1200.

次に、SEL6のマーカー群1のマーカー間距離は約721であると求められる(XM=400、YM=300)。またSEL6のマーカー群2のマーカー間距離は約721であると求められる(XM=400、YM=300)。そのため、SEL6に含まれるマーカー群内のマーカー間距離の合計は約1442である。従って、S907において、提示情報作成部114は、マーカー群内でのマーカー間距離の合計が小さいSEL5で提示情報を作成すると決定する。マーカー623とマーカー624とにより構成されるマーカー群1に対して提示情報を投影する。かつ、マーカー621とマーカー622とにより構成されるマーカー群2に対して提示情報を投影する。
図10に、情報処理装置10がこの処理の結果作成した提示情報を投影した様子を示す。この図において、投影画像702には、4つのマーカー621、622、623及び624が示される。
Next, the distance between the markers in the marker group 1 of SEL6 is determined to be about 721 (XM = 400, YM = 300). Further, the distance between markers in the marker group 2 of SEL6 is calculated to be about 721 (XM = 400, YM = 300). Therefore, the total distance between markers in the marker group included in SEL6 is about 1442. Therefore, in S907, the presentation information creation unit 114 determines to create the presentation information with SEL5 in which the total distance between markers in the marker group is small. The presentation information is projected onto the marker group 1 constituted by the markers 623 and 624. And presentation information is projected with respect to the marker group 2 comprised by the marker 621 and the marker 622. FIG.
FIG. 10 shows a state in which the information processing apparatus 10 projects the presentation information created as a result of this processing. In this figure, the projected image 702 shows four markers 621, 622, 623 and 624.

図10に示されるように、SEL5で提示情報を作成したことにより、投影画像702は、第1分割面721と第2分割面722とに分割されている。そして、2つのマーカー623、マーカー624に対して提示情報723が投影される。提示情報723の値としては、「LC204」、「24cm」が投影されている。
また、2つのマーカー621、マーカー622に対しては、提示情報724が投影される。提示情報724の値として「LC204」、「23cm」が投影されている。その結果、類似度が高いマーカーを含むマーカー群を生成し、各マーカー群に提示情報を提示することが可能となっている。更に、マーカーと提示情報との対応関係も明確になっている。
As shown in FIG. 10, by creating presentation information in SEL 5, the projection image 702 is divided into a first divided surface 721 and a second divided surface 722. Then, the presentation information 723 is projected on the two markers 623 and 624. As the value of the presentation information 723, “LC204” and “24 cm” are projected.
Also, presentation information 724 is projected on the two markers 621 and 622. “LC204” and “23 cm” are projected as the values of the presentation information 724. As a result, it is possible to generate a marker group including markers with high similarity and present presentation information to each marker group. Furthermore, the correspondence between the marker and the presentation information is also clarified.

このように、マーカーの関連情報、及び撮像画像に含まれるマーカーの位置をもとにマーカー群の選び方を決定することで、内容の関連度が高く、かつ互いに近くにあるマーカー群に対して提示情報を提示できる。   In this way, by determining how to select a marker group based on the marker related information and the position of the marker included in the captured image, the content is highly related and presented to marker groups that are close to each other. Information can be presented.

図8、図9、図10では、複数のマーカーをグループ分けしグループごとに情報提示する場合について説明した。その際、すべてのマーカーがいずれかのグループに分類されることを前提とした。しかしながらこれに限定されるものではなく、あるマーカーについてはいずれのグループにも分類されることがなく、情報提示もされないようにしてもよい。同様に、あるグループについては、情報提示を行わないようにしてもよい。
例えば、事前に決めた優先度にしたがい、優先度が高い上位M個(Mは事前に決めておく個数)のグループの情報提示を行う。グループの数がMより大きい場合は、優先度が低いいくつかのグループの情報提示を行なわない。
8, 9, and 10, the case where a plurality of markers are grouped and information is presented for each group has been described. At that time, it was assumed that all markers were classified into any group. However, the present invention is not limited to this, and a certain marker may not be classified into any group and information may not be presented. Similarly, information may not be presented for a certain group.
For example, in accordance with priorities determined in advance, information on the top M groups (M is the number determined in advance) with higher priorities is presented. When the number of groups is larger than M, information presentation of some groups with low priority is not performed.

図11(a)〜(c)は、M=2の場合のグループの情報提示例を示す模式図である。図11(a)において、1101〜1112は商品を入れた箱であり、縦3列、横4列に配置されている。箱1101〜1105には商品Aが、箱1106には商品Cが、箱1107〜1112には商品Bがそれぞれ入っているものとする。各商品の箱にはマーカーが取り付けられているが、簡素化のためにマーカーの表示は省略した。図11(b)は、図11(a)で示した商品の箱に対してグループ分けを行い、情報提示数の制限なく表示した場合の結果である。図中において提示情報1113は、商品Aのグループに対する提示情報であり、この例では「商品A」という文字と対象商品を囲む黒の太実線により情報提示がなされている。   FIGS. 11A to 11C are schematic diagrams illustrating examples of group information presentation in the case of M = 2. In FIG. 11A, reference numerals 1101 to 1112 denote boxes containing products, which are arranged in three vertical rows and four horizontal rows. Assume that the products 110 are stored in the boxes 1101 to 1105, the product C is stored in the boxes 1106, and the products B are stored in the boxes 1107 to 1112. A marker is attached to each product box, but the marker display is omitted for simplicity. FIG. 11B shows the result when the product boxes shown in FIG. 11A are grouped and displayed without limitation on the number of information presentations. In the figure, presentation information 1113 is presentation information for a group of products A, and in this example, information is presented by the letters “product A” and a thick black solid line surrounding the target product.

同様に、提示情報1114は商品B、提示情報1115は商品Cについての提示情報である。例えば、この店舗では商品Aと商品Bの販売に注力しており、優先度を商品A>商品B>商品C、また、情報提示数M=2とする。図11(c)は、この場合の情報提示結果を表示したものである。M=2であることから商品Aと商品Bに関する情報提示のみが行われるので、情報処理装置を使用する顧客が商品Aと商品Bに注目しやすくなる。
また、他の形態として、投影中心からの距離が短い商品の優先度を高くしてもよい。この場合、投影中心に近い順にグループの情報提示が行われる。更に他の形態として、提示する個数を予め決めておいてもよいし、投影可能領域のサイズに応じて個数を決めてもよい。
Similarly, the presentation information 1114 is presentation information about the product B, and the presentation information 1115 is presentation information about the product C. For example, the store focuses on the sales of the products A and B, and the priority is the product A> the product B> the product C, and the information presentation number M = 2. FIG. 11C displays the information presentation result in this case. Since M = 2, only information related to the product A and the product B is presented, so that a customer who uses the information processing apparatus can easily focus on the product A and the product B.
As another form, the priority of a product with a short distance from the projection center may be increased. In this case, the group information is presented in the order from the projection center. As yet another form, the number to be presented may be determined in advance, or the number may be determined according to the size of the projectable area.

図12(a)〜(c)は、投影中心からの距離が短い商品の優先度を高くすることで、投影中心に近い2グループ(M=2)の情報提示を行う場合の投影結果の説明図である。
図12(a)においては、図11(a)と同様に、1101〜1112は商品を入れた箱を表し、箱1101〜1105には商品Aが、1106には商品Cが、1107〜1112には商品Bがそれぞれ入っているものとする。
図12(b)は、商品Bが入っている箱のうち、商品Aに近い位置にある箱1109付近に投影中心1201がある場合の投影結果である。M=2であるので、3つの商品A〜Cのうち、投影中心1201に近い商品Bと商品Aの2グループについて情報が提示される。従って、商品Cのグループについては情報提示を行わない。
FIGS. 12A to 12C illustrate the projection results when information is presented in two groups (M = 2) close to the projection center by increasing the priority of a product having a short distance from the projection center. FIG.
In FIG. 12 (a), as in FIG. 11 (a), 1101 to 1112 represent boxes containing products, the product 110 is in the boxes 1101 to 1105, the product C is in 1106, and 1107 to 1112. Suppose that each product B is contained.
FIG. 12B shows a projection result when the projection center 1201 is in the vicinity of the box 1109 located near the product A among the boxes containing the product B. Since M = 2, information is presented for two groups of products B and A that are close to the projection center 1201 among the three products A to C. Therefore, no information is presented for the group of products C.

図12(c)は、商品Aが入っている箱1103付近に投影中心1202がある場合の投影結果である。商品Cと投影中心1202との距離は、商品Bと投影中心1202との距離よりも短い。従って、商品Aと商品Cの2グループの情報が提示され、商品Bのグループの情報は提示されない。これにより、ユーザが情報処理装置により指し示す付近の情報が優先的に提示されることになり、ユーザが注目したい場所の商品情報に対する視認性が向上する。 なお、図8および図10では、複数のマーカーについて、関連情報の少なくとも一部が共通するマーカーごとにグループ分けして情報提示する場合について説明した。   FIG. 12C shows a projection result when the projection center 1202 is in the vicinity of the box 1103 containing the product A. The distance between the product C and the projection center 1202 is shorter than the distance between the product B and the projection center 1202. Accordingly, information on two groups of the product A and the product C is presented, and information on the group of the product B is not presented. As a result, information in the vicinity pointed to by the user by the information processing apparatus is preferentially presented, and the visibility with respect to the merchandise information at the place where the user wants to pay attention is improved. 8 and 10, the case has been described in which information is presented by grouping a plurality of markers for each marker in which at least a part of the related information is common.

しかしながら、本発明はこれに限定されるものではなく、関連情報が一致しないマーカーがグループに存在するようにしてもよい。従って、関連情報が一致しないマーカーを含めてグループを形成し、そのグループに対して情報提示を行うことができる。
例えば、遠距離から全体を俯瞰したい場合など、多少の情報誤差を許容して視認性を優先した情報提示を行うことが求められる場合もある。この場合、関連情報が一致しないマーカーを含めてグループを形成することで、ユーザが全体を概略的に把握しやすくなるという利点がある。
However, the present invention is not limited to this, and markers that do not match the related information may exist in the group. Therefore, it is possible to form a group including markers whose related information does not match and present information to the group.
For example, when it is desired to look down on the whole from a long distance, it may be required to present information giving priority to visibility while allowing some information error. In this case, there is an advantage that it is easy for the user to roughly grasp the whole by forming a group including markers whose related information does not match.

図13(a)〜(c)は、グループ内に項目の値が一致しないマーカーを含むことを可能とした概略的なグループ分けの結果を表示する例の説明図である。この例では、あるマーカーに属する商品数が2未満の場合は、単独のグループとはせずに他のグループに所属させる。   FIGS. 13A to 13C are explanatory diagrams of an example in which a result of a rough grouping that allows a marker having a mismatched item value to be included in a group is displayed. In this example, when the number of products belonging to a certain marker is less than 2, the product belongs to another group without being a single group.

図13(a)においては、図11(a)と同様に、1101〜1112は商品を入れた箱を表し、箱1101〜1105には商品Aが、1106には商品Cが、1107〜1112には商品Bがそれぞれ入っている。図13(b)は、この例における情報提示結果を示している。図示されるように、商品Aのグループには提示情報1301が、商品Bには提示情報1114が示されている。箱1106には実際には商品Cが配置されているが、商品Cに関する提示情報は表示されない。図示されるように、箱1106は、商品Aについての提示情報1301の領域に含まれている。箱1106に配置された商品Cは、商品数が2未満であるため、単独のグループとしての情報提示は行われないからである。   In FIG. 13 (a), as in FIG. 11 (a), 1101 to 1112 represent boxes in which products are put, products 110 are in boxes 1101 to 1105, products C are in 1106, products 1107 to 1112 are in Each contains product B. FIG. 13B shows the information presentation result in this example. As shown in the figure, the presentation information 1301 is shown for the group of products A, and the presentation information 1114 is shown for the products B. Although the product C is actually arranged in the box 1106, the presentation information regarding the product C is not displayed. As illustrated, the box 1106 is included in the region of the presentation information 1301 for the product A. This is because the product C arranged in the box 1106 has less than 2 products, and thus information is not presented as a single group.

なお、この例では、商品Cは、商品Aのグループに含まれるものとしたが、商品Cを商品Aのグループに含めるか、商品Bのグループに含めるかは任意に定めることができる。例えば、商品Cに対する商品A及び商品Bの各相対位置に基づいて、商品Cをどちらのグループに含めるかを決めてもよい。例えば、商品Aと商品Bの各グループの中心位置と、商品Cの中心位置との距離を求め、距離が小さい方の商品に商品Cを含めてグループを形成することもできる。
また、グループを囲む枠の角の数が少なくなるように所属グループを決定してもよい。図13(b)はこの方法を実行した結果と一致している。図13(b)の場合は、商品Aのグループを囲む枠における角の数は4、商品Bのグループを囲む枠における角の数も4であり、角の数は合計8となる。
In this example, the product C is included in the group of the product A. However, whether the product C is included in the group of the product A or the group of the product B can be arbitrarily determined. For example, based on the relative positions of the product A and the product B with respect to the product C, it may be determined which group the product C is included in. For example, the distance between the center position of each group of the product A and the product B and the center position of the product C can be obtained, and the product C can be formed by including the product C in the product having the smaller distance.
In addition, the belonging group may be determined so that the number of corners of the frame surrounding the group is reduced. FIG. 13B is consistent with the result of executing this method. In the case of FIG. 13B, the number of corners in the frame surrounding the group of products A is 4, the number of corners in the frame surrounding the group of products B is 4, and the total number of corners is 8.

一方、商品Cを商品Bに所属させた例を図13(c)に示す。この例では、商品Aのグループを囲む枠は図12(b)に示されるものと同様となり、その角の数は6となる。一方、商品Bのグループを囲む枠における角の数は、図13(c)に示されるように6となる。図8および図10では、グループ分けした結果を同時に情報提示する場合について説明したがこれに限定されるものではなく、グループごとに提示情報を時分割表示してもよい。   On the other hand, an example in which the product C belongs to the product B is shown in FIG. In this example, the frame surrounding the group of products A is the same as that shown in FIG. 12B, and the number of corners is six. On the other hand, the number of corners in the frame surrounding the group of products B is 6, as shown in FIG. 8 and 10, the case has been described in which information on grouped results is presented simultaneously. However, the present invention is not limited to this, and presentation information may be displayed in a time-sharing manner for each group.

図14は、時分割でグループごとに情報提示を行う場合の模式図である。図14(a)は図11の(a)と同じであるため説明を省略する。情報提示を行う場合には事前に決めた時間(例えば3秒)ごとに、図14(b)、図14(c)、図14(d)の順にグループの情報提示を切り替える。このように時分割で情報提示を行うことで、視認性を向上させることができる。なお、図14(d)のように情報提示を行った後に、再度図14(b)から順次表示を繰り返すようにしてもよい。   FIG. 14 is a schematic diagram when information is presented for each group in a time-sharing manner. Since FIG. 14A is the same as FIG. 11A, description thereof is omitted. When information is presented, group information presentation is switched in the order of FIG. 14B, FIG. 14C, and FIG. 14D every predetermined time (for example, 3 seconds). Thus, visibility can be improved by performing information presentation by time division. It should be noted that after the information is presented as shown in FIG. 14 (d), the display may be repeated sequentially from FIG. 14 (b) again.

また、図8および図10では、距離が遠くなるにつれて情報量を減らす手段として文字数を減らす場合について説明したが、情報量を減らす手法はこれに限定されるものではなく、文字を使わずに情報提示を行ってもよい。例えばグループを囲む枠だけを表示したり、グループを色分け表示したり、グループの種類を表すアイコンや画像、イラストなどを表示してもよい。   8 and 10, the case where the number of characters is reduced as a means for reducing the information amount as the distance increases is described. However, the method for reducing the information amount is not limited to this, and information without using characters is used. You may make a presentation. For example, only a frame surrounding the group may be displayed, the group may be displayed in different colors, or an icon, an image, an illustration, or the like representing the type of group may be displayed.

図15(a)〜(c)は、文字を使わずに情報提示する例の説明図である。
図15(a)は、グループを囲む枠だけを表示している。この場合、ユーザは、商品の色やサイズ、型番等の詳細な情報を知ることはできない。しかし、ユーザは、図示される3×4=12個の箱に3種類の商品が配置されていること、及び各種類の商品が配置された位置を視覚的に容易に理解することができる。従って、ユーザは、自分の求める商品があるか否かの確認する場合、すべての箱を確認する必要はなく、3種類の商品についてそれぞれ1箱だけ確認するだけですむ。
FIGS. 15A to 15C are explanatory diagrams of examples in which information is presented without using characters.
FIG. 15A shows only the frame surrounding the group. In this case, the user cannot know detailed information such as the color, size, and model number of the product. However, the user can easily understand visually that the three types of products are arranged in the illustrated 3 × 4 = 12 boxes and the positions where the various types of products are arranged. Therefore, the user does not need to check all the boxes when checking whether there is a product he / she desires, and only needs to check one box for each of the three types of products.

図15(b)は、グループごとに色分けした場合の例である。この例では、図15(a)の例と同様に、ユーザは、商品の詳細な情報を知ることはできない。しかし、図示のように色分けをすることで、ユーザは、各種類の商品が配置された位置等を視覚的に一層容易に理解することができる。
図15(c)は、文字の代わりに画像として靴の絵を表示した場合の例である。この例では、図15(a)、(b)の例と同様に、各種類の商品が配置された位置等を視覚的に容易に理解することができる。更に、画像を用いることで、商品が靴であることや靴の色、靴紐式かマジックテープ式か等の情報を視覚的に容易に理解することができる。
以上のように、図15(a)〜(c)の例では、文字を削除することで情報量を低減し、視認性を向上させることが可能である。更に、商品の画像を用いることで、ユーザは、商品の色や外観等に関する情報を容易に理解することができる。
FIG. 15B shows an example in which colors are grouped for each group. In this example, as in the example of FIG. 15A, the user cannot know detailed information on the product. However, by color-coding as shown in the figure, the user can visually more easily understand the position where each type of product is arranged.
FIG. 15C shows an example in which a shoe picture is displayed as an image instead of characters. In this example, as in the examples of FIGS. 15A and 15B, the positions and the like at which each type of product is arranged can be easily understood visually. Furthermore, by using an image, it is possible to easily visually understand information such as whether the product is a shoe, the color of the shoe, and whether it is a shoelace type or a magic tape type.
As described above, in the examples of FIGS. 15A to 15C, it is possible to reduce the amount of information and improve visibility by deleting characters. Furthermore, by using the product image, the user can easily understand information on the color and appearance of the product.

以上説明したように、本発明によれば、撮像画像を用いて関連情報の情報量を変更することで、提示情報を投影する際におけるユーザの視認性を向上することができる。また、上述した各実施形態は例示的なものであり、種々の変形が可能である。例えば、上述した実施形態ではマーカーとして2次元バーコードを用いたが、識別可能であれば、バーコードに限らず任意の図形等をマーカーとして用いることができる。また、カラーバーコード等を用いてもよい。   As described above, according to the present invention, it is possible to improve the visibility of the user when projecting the presentation information by changing the information amount of the related information using the captured image. Moreover, each embodiment mentioned above is an illustration, and various deformation | transformation are possible. For example, in the above-described embodiment, a two-dimensional barcode is used as a marker. However, as long as identification is possible, not only a barcode but also any figure or the like can be used as a marker. A color barcode or the like may be used.

なお、本発明は、上述した各実施形態の機能を実現するソフトウェアのプログラムコード(制御プログラム)あるいはコンピュータプログラムを記録した記憶媒体を、システムあるいは装置に供給することで実施することも可能である。また、そのシステムあるいは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたコンピュータ読み取り可能なプログラムコードを読み出し実行することにより実施することも可能である。   The present invention can also be implemented by supplying a storage medium storing a program code (control program) of software or a computer program that implements the functions of the above-described embodiments to a system or apparatus. Further, the present invention can also be implemented by reading and executing computer-readable program code stored in a storage medium by a computer (or CPU or MPU) of the system or apparatus.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読出したコンピュータプログラムあるいはプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
Further, the functions of the above-described embodiments are not only realized by executing a computer program or program code read by a computer. This includes the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. .

更に、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU101などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Further, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU 101 or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. It is.

Claims (24)

情報処理装置であって、
対象物を撮像する撮像手段と、
前記撮像手段が撮像した撮像画像を用いて、前記対象物に対応する関連情報を前記対象物の位置に基づいて特定される位置に表示するための提示情報を生成する生成手段と、
前記生成された提示情報を含んだ画像を表示する画像表示手段と、
前記対象物と前記情報処理装置までの距離を取得する距離取得手段と、を備え、
前記生成手段は、前記撮像画像および前記距離取得手段が取得した距離が所定値より大きくなったときに、前記提示情報に含まれる情報量を変化させて前記提示情報を生成することを特徴とする、
情報処理装置。
An information processing apparatus,
An imaging means for imaging an object;
Generating means for generating presentation information for displaying related information corresponding to the object at a position specified based on the position of the object, using a captured image captured by the imaging means;
Image display means for displaying an image including the generated presentation information;
A distance acquisition means for acquiring a distance between the object and the information processing apparatus;
The generating unit generates the presentation information by changing an amount of information included in the presentation information when the captured image and the distance acquired by the distance acquisition unit are larger than a predetermined value. ,
Information processing device.
前記生成手段は、前記取得した距離が前記所定値より大きくなったときに、前記提示情報の表示形態を変化させて前記提示情報を生成することを特徴とする、
請求項1に記載の情報処理装置。
The generation unit generates the presentation information by changing a display form of the presentation information when the acquired distance becomes larger than the predetermined value.
The information processing apparatus according to claim 1.
前記生成手段は、前記取得した距離が前記所定値より大きくなったときに、前記提示情報に含まれる情報量を減少させて前記提示情報を生成することを特徴とする、
請求項1に記載の情報処理装置。
The generating means generates the presentation information by reducing the amount of information included in the presentation information when the acquired distance becomes larger than the predetermined value.
The information processing apparatus according to claim 1.
前記対象物がマーカーであることを特徴とする請求項1〜3のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the object is a marker. 前記マーカーの大きさが既知であり、
前記距離取得手段は、前記マーカーが占める領域であるマーカー領域の大きさを求め、求められたマーカー領域の大きさと前記マーカーの大きさとを用いて距離を決定することを特徴とする、
請求項4に記載の情報処理装置。
The size of the marker is known;
The distance obtaining means obtains the size of a marker region that is an area occupied by the marker, and determines the distance using the obtained size of the marker region and the size of the marker,
The information processing apparatus according to claim 4.
前記対象物の大きさが既知であり、
前記距離取得手段は、前記対象物が占める領域の大きさを求め、求めた領域の大きさと前記対象物の大きさとを用いて距離を決定することを特徴とする、
請求項1に記載の情報処理装置。
The size of the object is known;
The distance acquisition means obtains the size of the area occupied by the object, and determines the distance using the obtained area size and the size of the object,
The information processing apparatus according to claim 1.
前記撮像画像には前記対象物が複数含まれ、
前記生成手段は、前記距離が所定値未満の場合には、前記対象物ごとに前記提示情報を生成し、前記距離が所定値以上の場合には、前記対象物の個数よりも少ない前記提示情報を生成することを特徴とする、
請求項1に記載の情報処理装置。
The captured image includes a plurality of the objects,
The generation means generates the presentation information for each object when the distance is less than a predetermined value, and the presentation information that is less than the number of the objects when the distance is greater than or equal to a predetermined value. Is characterized by generating
The information processing apparatus according to claim 1.
前記撮像手段は、光学系撮像手段であり、
前記距離取得手段は、前記光学系撮像手段の焦点距離から前記距離を求めることを特徴とする、
請求項1に記載の情報処理装置。
The imaging means is an optical imaging means,
The distance acquisition unit obtains the distance from a focal length of the optical system imaging unit,
The information processing apparatus according to claim 1.
前記画像表示手段は、光学系画像投影手段であり、
前記距離取得手段は、前記光学系画像投影手段の焦点距離から前記距離を求めることを特徴とする、
請求項1に記載の情報処理装置。
The image display means is an optical image projection means,
The distance obtaining unit obtains the distance from a focal length of the optical system image projecting unit,
The information processing apparatus according to claim 1.
前記生成手段は、前記対象物に対して、前記対象物の近傍にあってかつ表示された提示情報の視認が可能な領域に前記画像を表示するように前記画像表示手段を制御することを特徴とする、
請求項1に記載の情報処理装置。
The generating means controls the image display means to display the image in an area in the vicinity of the object and in which the displayed presentation information can be visually recognized. And
The information processing apparatus according to claim 1.
前記生成手段は、前記対象物に隣接してかつ色の勾配が所定値以下である領域に前記画像を表示するように前記画像表示手段を制御することを特徴とする、
請求項1に記載の情報処理装置。
The generating means controls the image display means to display the image in an area adjacent to the object and having a color gradient equal to or less than a predetermined value.
The information processing apparatus according to claim 1.
前記撮像画像には前記対象物が複数含まれ、
前記生成手段は、複数の前記対象物を、それぞれ1つ以上の対象物を含んだグループにグループ化し、それぞれのグループに対して1つの提示情報を対応させることを特徴とする、
請求項1に記載の情報処理装置。
The captured image includes a plurality of the objects,
The generating means groups a plurality of the objects into groups each including one or more objects, and associates one presentation information with each group,
The information processing apparatus according to claim 1.
前記生成手段は、前記対象物に対応する関連情報に基づいてグループ分けを行うことを特徴とする、
請求項12に記載の情報処理装置。
The generating means performs grouping based on related information corresponding to the object,
The information processing apparatus according to claim 12.
前記生成手段は、前記グループに含まれる前記対象物に共通する関連情報を前記グループの提示情報として生成することを特徴とする、
請求項13に記載の情報処理装置。
The generating means generates related information common to the objects included in the group as presentation information of the group,
The information processing apparatus according to claim 13.
前記生成手段は、前記対象物の位置に基づいてグループ分けを行うことを特徴とする、
請求項12に記載の情報処理装置。
The generating means performs grouping based on the position of the object,
The information processing apparatus according to claim 12.
前記生成手段は、前記グループに含まれる対象物のうち少なくとも2つ以上に共通する関連情報を前記グループの提示情報として生成することを特徴とする、
請求項12に記載の情報処理装置。
The generation unit generates related information common to at least two or more of objects included in the group as presentation information of the group,
The information processing apparatus according to claim 12.
前記生成手段は、前記取得した距離が所定値より大きくなったときには前記提示情報に含まれる文字を削除することで、情報量を減少させることを特徴とする、
請求項12に記載の情報処理装置。
The generation means reduces the amount of information by deleting characters included in the presentation information when the acquired distance is greater than a predetermined value.
The information processing apparatus according to claim 12.
前記生成手段は、前記グループに含まれる対象物の組合せが複数通り存在する場合は、前記グループを構成する対象物同士の類似度を求め、各グループについて求められた類似度から、前記グループに含まれる対象物の組合せを決定することを特徴とする、
請求項12に記載の情報処理装置。
When there are a plurality of combinations of objects included in the group, the generation unit obtains a similarity between objects constituting the group, and includes the group from the similarity obtained for each group. Determining a combination of objects to be selected,
The information processing apparatus according to claim 12.
前記生成手段は、前記グループに含まれる対象物の組合せが複数通り存在する場合は、前記グループを構成する対象物同士の距離を求め、各グループについて求められた距離から、前記グループに含まれる対象物の組合せを決定することを特徴とする、
請求項12に記載の情報処理装置。
When there are a plurality of combinations of objects included in the group, the generation unit obtains the distance between objects constituting the group, and the object included in the group from the distance obtained for each group. Determining the combination of objects,
The information processing apparatus according to claim 12.
対象物を撮像する撮像手段と、
前記撮像手段が撮像した撮像画像を用いて、前記対象物に対応する関連情報を前記対象物の位置に基づいて特定される位置に表示するための提示情報を生成する生成手段と、
前記生成された提示情報を含んだ画像を表示する画像表示手段と、を備え、
前記撮像画像には、その大きさが既知である対象物が含まれ、
前記生成手段は、前記撮像画像における前記対象物が占める領域の大きさを求め、求められた前記領域の大きさと前記対象物の大きさとを用いて前記提示情報に含まれる情報量を決定することを特徴とする、
情報処理装置。
An imaging means for imaging an object;
Generating means for generating presentation information for displaying related information corresponding to the object at a position specified based on the position of the object, using a captured image captured by the imaging means;
Image display means for displaying an image including the generated presentation information,
The captured image includes an object whose size is known,
The generating means obtains the size of an area occupied by the object in the captured image, and determines the amount of information included in the presentation information using the obtained area size and the size of the object. Characterized by the
Information processing device.
前記生成手段は、前記領域が所定値よりも小さくなったときに前記提示情報に含まれる情報量を減少させて前記提示情報を生成することを特徴とする、
請求項20に記載の情報処理装置。
The generation means generates the presentation information by reducing the amount of information included in the presentation information when the area becomes smaller than a predetermined value.
The information processing apparatus according to claim 20.
情報処理装置の制御方法であって、
撮像手段により、対象物を撮像する工程と、
距離取得手段により、前記対象物と前記情報処理装置までの距離を取得する工程と、
生成手段により、前記撮像手段が撮像した撮像画像を用いて、前記対象物に対応する関連情報を前記対象物の位置に基づいて特定される位置に表示するための提示情報を生成するとともに、前記撮像画像、および、前記距離取得手段が取得した距離を用いて、距離が所定値より大きくなったときに前記提示情報に含まれる情報量を減少させて前記提示情報を生成する工程と、
画像表示手段により、前記生成された提示情報を含んだ画像を表示する工程と、を有することを特徴とする、
情報処理装置の制御方法。
A method for controlling an information processing apparatus,
Imaging an object with an imaging means;
Obtaining a distance between the object and the information processing device by a distance obtaining unit;
The generation unit generates presentation information for displaying related information corresponding to the target object at a position specified based on the position of the target object, using the captured image captured by the imaging unit, and Using the captured image and the distance acquired by the distance acquisition unit, generating the presentation information by reducing the amount of information included in the presentation information when the distance is greater than a predetermined value;
A step of displaying an image including the generated presentation information by an image display means,
A method for controlling an information processing apparatus.
コンピュータを、
対象物を撮像する撮像手段と、
前記撮像手段が撮像した撮像画像を用いて、前記対象物に対応する関連情報を前記対象物の位置に基づいて特定される位置に表示するための提示情報を生成する生成手段と、
前記生成された提示情報を含んだ画像を表示する画像表示手段と、
前記対象物と前記コンピュータまでの距離を取得する距離取得手段と、を備え、
前記生成手段は、前記撮像画像、および、前記距離取得手段が取得した距離を用いて、距離が所定値より大きくなったときに前記提示情報に含まれる情報量を減少させて前記提示情報を生成することを特徴とする、
情報処理装置として機能させためのコンピュータプログラム。
Computer
An imaging means for imaging an object;
Generating means for generating presentation information for displaying related information corresponding to the object at a position specified based on the position of the object, using a captured image captured by the imaging means;
Image display means for displaying an image including the generated presentation information;
A distance acquisition means for acquiring a distance between the object and the computer;
The generation unit generates the presentation information by reducing the amount of information included in the presentation information when the distance becomes larger than a predetermined value using the captured image and the distance acquired by the distance acquisition unit. It is characterized by
A computer program for functioning as an information processing apparatus.
請求項23記載のコンピュータプログラムが格納された、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium in which the computer program according to claim 23 is stored.
JP2016051570A 2015-09-14 2016-03-15 Information processing device, control method, computer program and storage medium Pending JP2017058657A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/263,931 US20170076428A1 (en) 2015-09-14 2016-09-13 Information processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015180978 2015-09-14
JP2015180978 2015-09-14

Publications (1)

Publication Number Publication Date
JP2017058657A true JP2017058657A (en) 2017-03-23

Family

ID=58390154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016051570A Pending JP2017058657A (en) 2015-09-14 2016-03-15 Information processing device, control method, computer program and storage medium

Country Status (1)

Country Link
JP (1) JP2017058657A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168640A (en) * 2018-03-26 2019-10-03 カシオ計算機株式会社 Projection controller, projector, method for inspecting marker, and program
JP2020198997A (en) * 2019-06-07 2020-12-17 トヨタ自動車株式会社 Training device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168640A (en) * 2018-03-26 2019-10-03 カシオ計算機株式会社 Projection controller, projector, method for inspecting marker, and program
JP7187794B2 (en) 2018-03-26 2022-12-13 カシオ計算機株式会社 PROJECTION CONTROL DEVICE, MARKER DETECTION METHOD AND PROGRAM
JP2020198997A (en) * 2019-06-07 2020-12-17 トヨタ自動車株式会社 Training device

Similar Documents

Publication Publication Date Title
US20170076428A1 (en) Information processing apparatus
US8860760B2 (en) Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
KR101330811B1 (en) Apparatus and Method for augmented reality using instant marker
US10699165B2 (en) System and method using augmented reality for efficient collection of training data for machine learning
CN106355153A (en) Virtual object display method, device and system based on augmented reality
US8817046B2 (en) Color channels and optical markers
US9792731B2 (en) System and method for controlling a display
CN109791442A (en) Surface model building system and method
JPH05501184A (en) Method and apparatus for changing the content of continuous images
US11189041B2 (en) Image processing apparatus, control method of image processing apparatus, and non-transitory computer-readable storage medium
KR20180111970A (en) Method and device for displaying target target
KR20170047167A (en) Method and apparatus for converting an impression of a face in video
US9792732B2 (en) Systems and methods for activities solver development in augmented reality applications
KR20100113124A (en) Light projection device and illumination device
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
JPWO2008090908A1 (en) Marker generation and marker detection system, method and program
KR101961758B1 (en) 3-Dimensional Contents Providing System, Method and Computer Readable Recoding Medium
JPWO2020179065A1 (en) Image processing equipment, image processing methods and programs
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
CN105611267A (en) Depth and chroma information based coalescence of real world and virtual world images
CN106971426A (en) A kind of method that virtual reality is merged with real scene
JP2017058657A (en) Information processing device, control method, computer program and storage medium
US10546406B2 (en) User generated character animation
JP6623565B2 (en) Shelf allocation information generation device, shelf allocation information generation system, shelf allocation information generation method, imaging device, and program
JP2006040045A (en) Information processor, cubic object, information processing system and information processing method