JP2017073717A - Information processing unit, information processing method, computer program and recording medium - Google Patents

Information processing unit, information processing method, computer program and recording medium Download PDF

Info

Publication number
JP2017073717A
JP2017073717A JP2015200782A JP2015200782A JP2017073717A JP 2017073717 A JP2017073717 A JP 2017073717A JP 2015200782 A JP2015200782 A JP 2015200782A JP 2015200782 A JP2015200782 A JP 2015200782A JP 2017073717 A JP2017073717 A JP 2017073717A
Authority
JP
Japan
Prior art keywords
image
projection
superimposed
information processing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015200782A
Other languages
Japanese (ja)
Inventor
奥谷 泰夫
Yasuo Okuya
泰夫 奥谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015200782A priority Critical patent/JP2017073717A/en
Publication of JP2017073717A publication Critical patent/JP2017073717A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To project a relevant image so that the relevancy with an object can be understood easily.SOLUTION: An information processing unit including an imaging device and a projector detects an object for an image obtained through the imaging device (S202), and acquires the relevant information of the object (S203). Thereafter, the information processing unit captures an image including the object (S205), generates a superposed image by superposing the relevant image, obtained from the relevant information thus obtained, on the image of the object (S208), before projecting the superposed image. Consequently, the relationship of the object and relevant image becomes clear, even if the superposed image is projected to a place remote from the object.SELECTED DRAWING: Figure 2

Description

本発明は、映像から認識した物体に関する情報を表示する技術に関する。   The present invention relates to a technique for displaying information related to an object recognized from an image.

従来、ユーザが着目する対象に関連情報を投影表示する技術が知られている。例えば、特許文献1には、対象物を撮像し、撮像した対象物に関連する関連情報を検索し、対象物に対して投影する技術が開示されている。この技術においては、対象物の位置及び形状を検出し、検出された位置及び形状に基づいて検索された関連情報を対象物に投影している。
また、特許文献2には、投影面が関連情報を投影するのに適していないと判断した場合に、関連情報の投影位置を自動的に変更する技術が開示されている。
2. Description of the Related Art Conventionally, a technique for projecting and displaying related information on a target focused by a user is known. For example, Patent Document 1 discloses a technique for capturing an image of an object, searching for related information related to the imaged object, and projecting the image on the object. In this technique, the position and shape of an object are detected, and related information retrieved based on the detected position and shape is projected onto the object.
Patent Document 2 discloses a technique for automatically changing the projection position of related information when it is determined that the projection plane is not suitable for projecting related information.

特開平8−86615号公報JP-A-8-86615 特開2012−68363号公報JP 2012-68363 A

特許文献1のシステムによれば、撮像した対象物に関連する関連情報を対象物に投影することが可能となる。また、特許文献2のシステムによれば、関連情報を投影する際に、投影に適する場所に自動的に変更して投影することができるので、ユーザは、投影された関連情報を読み取ることが可能になる。
しかしながら、対象物の周辺に投影に適する場所が存在しない場合は、関連情報を移動させても、投影できる場所を確保できない。また、対象物の周辺から更に離れた場所に投影に適する場所がある場合には、その場所に関連情報を投影することができる。しかし、この場合、対象物と、投影された関連情報との距離が離れていることから、ユーザは両者の関連性を理解しづらい。特に、対象物が複数あるときには、投影した関連情報が、複数存在する対象物のどれに対応するのかが理解しにくい。
従って、対象物について関連情報を投影する際に、対象物との関連性が明確になるように関連情報を投影することが望まれている。
According to the system of Patent Literature 1, it is possible to project related information related to the captured object onto the object. Further, according to the system of Patent Document 2, when related information is projected, it can be automatically changed to a place suitable for projection, so that the user can read the projected related information. become.
However, when there is no place suitable for projection around the object, it is not possible to secure a place where projection can be performed even if the related information is moved. In addition, when there is a place suitable for projection at a place further away from the periphery of the object, related information can be projected at that place. However, in this case, since the distance between the object and the projected related information is large, it is difficult for the user to understand the relationship between the two. In particular, when there are a plurality of objects, it is difficult to understand which of the plurality of objects corresponds to the projected related information.
Therefore, when projecting related information about an object, it is desired to project the related information so that the relationship with the object becomes clear.

上記課題を解決するため、本発明の情報処理装置は、対象物を撮像する撮像手段と、画像投影手段と、前記撮像手段が撮像した、前記対象物が含まれる撮像画像を用いて前記対象物に関連する関連情報を取得し、前記関連情報から生成された関連画像を生成する制御手段と、を有する。前記制御手段は、前記対象物が含まれる撮像画像に前記関連画像が重畳された重畳画像を生成し、前記画像投影手段は、前記生成された重畳画像を投影する。   In order to solve the above problems, an information processing apparatus according to the present invention uses an imaging unit that images a target, an image projection unit, and a captured image that includes the target and is captured by the imaging unit. And control means for acquiring related information related to, and generating a related image generated from the related information. The control unit generates a superimposed image in which the related image is superimposed on a captured image including the object, and the image projecting unit projects the generated superimposed image.

本発明によれば、対象物を撮像した画像と関連情報を重畳して投影することにより、対象物を含む周辺に投影に適する場所がなくとも、情報の関連性を失うことなく対象物とその関連情報との関連性を示すことができる。従って、対象物との関連性が明確になるように関連情報を投影することができる。   According to the present invention, by superimposing and projecting an image of an object and related information, even if there is no place suitable for projection in the periphery including the object, the object and its Relevance with related information can be shown. Therefore, the related information can be projected so that the relevance with the object becomes clear.

(a)は、情報処理装置のハードウェア構成を示すブロック図、(b)は、本機能構成を示すブロック図。(A) is a block diagram showing a hardware configuration of the information processing apparatus, (b) is a block diagram showing this functional configuration. 第1実施形態における処理を示すフローチャート。The flowchart which shows the process in 1st Embodiment. (a)〜(e)は、対象物と重畳画像との関係の説明図。(A)-(e) is explanatory drawing of the relationship between a target object and a superimposed image. 画像取得および投影の処理を示すフローチャート。The flowchart which shows the process of image acquisition and projection. 画像取得および投影の処理を示すフローチャート。The flowchart which shows the process of image acquisition and projection. 重畳画像を対象物と対象物の周辺とのいずれかに投影する処理を示すフローチャート。The flowchart which shows the process which projects a superimposition image on either of a target object and the periphery of a target object. 対象物が複数存在する場合の処理を示すフローチャート。The flowchart which shows a process in case there exist multiple target objects. 対象物が複数存在する場合の投影結果の説明図。Explanatory drawing of a projection result in case a plurality of objects exist.

以下、図面を参照して本発明の実施形態を説明する。なお、以下の実施形態は例示的なものであり、本発明の範囲を限定することを意図するものではない。
<第1実施形態>
図1(a)は、本発明の第1実施形態に係る情報処理装置10のハードウェア構成図である。情報処理装置10は、機能部品としてCPU(Central Processing Unit)101、ROM(Read Only Memory)102及びRAM(Random Access Memory)103を有する。また、情報処理装置10は、HDD(Hard Disk Drive)104、画像投影手段としてのプロジェクタ105、通信インターフェース(以下、I/Fと記載する)106及び撮像装置107、システムバス108及び入力部120を有する。CPU101は、システムバス108を通じてROM102等との通信及び制御を行う。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments are illustrative and are not intended to limit the scope of the present invention.
<First Embodiment>
FIG. 1A is a hardware configuration diagram of the information processing apparatus 10 according to the first embodiment of the present invention. The information processing apparatus 10 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, and a RAM (Random Access Memory) 103 as functional components. The information processing apparatus 10 includes an HDD (Hard Disk Drive) 104, a projector 105 as an image projection unit, a communication interface (hereinafter referred to as I / F) 106, an imaging device 107, a system bus 108, and an input unit 120. Have. The CPU 101 performs communication and control with the ROM 102 and the like through the system bus 108.

CPU101は、ROM102及びHDD104に格納されたプログラムを読み出して実行する。これにより、CPU101は、各ハードウェア部品を制御する。ROM102はプログラムメモリであり、CPUにより実行される、後述する各種処理手順を含む制御プログラムを格納する。   The CPU 101 reads and executes programs stored in the ROM 102 and the HDD 104. Thereby, the CPU 101 controls each hardware component. The ROM 102 is a program memory, and stores a control program including various processing procedures to be described later that are executed by the CPU.

なお、RAM(Random Access Memory)103は、データメモリであり、CPU101に読み出されたプログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを有する。なお、情報処理装置10に接続された外部記憶装置などからRAM103にプログラムをロードすることで、プログラムメモリを実現しても構わない。HDD104は、本実施形態に係る複数の電子データやプログラムを記憶しておくためのハードディスクである。同様の役割を果たすものとして外部記憶装置を用いてもよい。   A RAM (Random Access Memory) 103 is a data memory, and includes a work area for a program read by the CPU 101, a data save area for error processing, a load area for the control program, and the like. Note that the program memory may be realized by loading a program into the RAM 103 from an external storage device connected to the information processing apparatus 10 or the like. The HDD 104 is a hard disk for storing a plurality of electronic data and programs according to the present embodiment. An external storage device may be used as the same role.

ここで、外部記憶装置は、例えば、メディア(記録媒体)と当該メディアへのアクセスを実現するための外部記憶ドライブとを有するものとしてもよい。このようなメディアとしては、例えば、フレキシブルディスク(FD)、CD−ROM、DVD(Digital Versatile Disk)が知られている。また、USB(Universal Serial Bus)メモリ、MOディスク(Magneto-Optical disk)、フラッシュメモリ等も知られている。なお、外部記憶装置は、ネットワークで接続されたサーバー装置などであってもよい。   Here, the external storage device may include, for example, a medium (recording medium) and an external storage drive for realizing access to the medium. As such media, for example, a flexible disk (FD), a CD-ROM, and a DVD (Digital Versatile Disk) are known. Also known are USB (Universal Serial Bus) memory, MO disk (Magneto-Optical disk), flash memory, and the like. The external storage device may be a server device connected via a network.

プロジェクタ105は、撮像装置107で撮像した対象物や対象物に関連する情報を表示するデバイスである。通信I/F106は、公知の通信技術によって、他の情報処理装置10や外部記憶装置と有線あるいは無線で接続し、双方向に情報の送受信を行うことを可能とする。他の情報処理装置10とは直接通信するだけでなく、中継装置を利用した間接的な通信を利用することもできる。撮像装置107は、画像や映像を取得するためのデバイスである。   The projector 105 is a device that displays an object imaged by the imaging apparatus 107 and information related to the object. The communication I / F 106 can be connected to another information processing apparatus 10 or an external storage device by a known communication technique in a wired or wireless manner, and can transmit and receive information bidirectionally. In addition to directly communicating with the other information processing apparatus 10, indirect communication using a relay apparatus can also be used. The imaging device 107 is a device for acquiring images and videos.

図1(b)は、本実施形態に係る情報処理装置10の機能構成の一例を示すブロック図である。情報処理装置10は、情報取得指示部109、対象物検出部110、関連情報取得部111、撮像部112、投影指示部113、重畳画像生成部114及び表示部115を有する。これらの各機能部は、ROM102に格納されたプログラムをCPU101がRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現されている。以下、各要素について説明する。   FIG. 1B is a block diagram illustrating an example of a functional configuration of the information processing apparatus 10 according to the present embodiment. The information processing apparatus 10 includes an information acquisition instruction unit 109, an object detection unit 110, a related information acquisition unit 111, an imaging unit 112, a projection instruction unit 113, a superimposed image generation unit 114, and a display unit 115. Each of these functional units is realized by the CPU 101 developing a program stored in the ROM 102 in the RAM 103 and executing processing according to each flowchart described later. Hereinafter, each element will be described.

情報取得指示部109は、入力部120を通じて入力されるユーザからの撮像指示入力に基づいて、撮像画像取得の指示を行うか、または、対象物検出部110の検出結果に基づいて撮像画像取得の指示を行う。撮像部112は、撮像装置107を制御して撮像を行う。対象物検出部110は、撮像部112が撮像装置107を通じて撮像した画像から対象物を検出する。撮像における対象は、物体であってもよく、また、AR(Augmented Reality)マーカーなどの特殊な記号であってもよい。
関連情報取得部111は、通信I/F106を介して外部サーバー(図示せず)にアクセスし、対象物に関連する情報を取得する。なお、情報処理装置10の内部に関連情報を保持する保持部が存在する場合は通信I/F106を介することなく、直接保持部から対象物の関連情報を取得してもよい。
The information acquisition instructing unit 109 issues an instruction to acquire a captured image based on an imaging instruction input from the user input through the input unit 120, or acquires a captured image based on the detection result of the object detection unit 110. Give instructions. The imaging unit 112 controls the imaging device 107 to perform imaging. The object detection unit 110 detects an object from an image captured by the imaging unit 112 through the imaging device 107. An object in imaging may be an object or a special symbol such as an AR (Augmented Reality) marker.
The related information acquisition unit 111 accesses an external server (not shown) via the communication I / F 106 and acquires information related to the object. In addition, when there is a holding unit that holds related information in the information processing apparatus 10, the related information of the object may be acquired directly from the holding unit without using the communication I / F 106.

撮像部112は、撮像装置107を通じて撮像を行う。この撮像では、対象物や対象物の周辺を撮像する。以下、特に断りのない限り、「対象物の周辺」という用語は、対象物から一定の範囲内の領域を指すものとする。なお、対象物自体はこの「対象物の周辺」に含まれても含まれていなくてもよい。投影指示部113は、プロジェクタにより画像が投影される領域(以下、投影領域と記載する)に関連情報を表示するか否かを指示する。この実施形態では、投影指示部113は、投影指示のためのユーザ入力に基づいて投影指示を行うか、または、後述するように、投影領域の状況を判定結果に基づいて投影指示を行う。重畳画像生成部114は、対象物の画像と関連情報とを重畳した画像を生成する。表示部115は、プロジェクタ105を介して対象物に関連情報を表示し、重畳画像生成部114が生成した重畳画像を投影面に投影する。   The imaging unit 112 performs imaging through the imaging device 107. In this imaging, the object and the periphery of the object are imaged. Hereinafter, unless otherwise specified, the term “around the object” refers to a region within a certain range from the object. Note that the object itself may or may not be included in the “periphery of the object”. The projection instruction unit 113 instructs whether or not to display related information in a region where an image is projected by the projector (hereinafter referred to as a projection region). In this embodiment, the projection instruction unit 113 performs a projection instruction based on a user input for a projection instruction, or performs a projection instruction based on the determination result of the state of the projection region, as will be described later. The superimposed image generation unit 114 generates an image in which the image of the target object and related information are superimposed. The display unit 115 displays related information on the object via the projector 105, and projects the superimposed image generated by the superimposed image generation unit 114 onto the projection plane.

図2に、本実施形態に係る情報処理装置10の基本処理を表すフローチャートを示す。なお、特に断りのない限り、各実施形態において、フローチャート等に示される処理は、CPU101によって制御及び実行される。
情報取得指示部109は撮像部112に撮像指示を行い、これに応答して撮像部112が撮像装置107を通じて画像を撮像する(S201)。以下、撮像部112で撮像された画像を撮像画像と記載する。対象物検出部110は、撮像画像から対象物を検出する(S202)。この検出は、例えば画像認識等により行う。
FIG. 2 is a flowchart showing basic processing of the information processing apparatus 10 according to the present embodiment. Unless otherwise specified, in each embodiment, the processing shown in the flowchart and the like is controlled and executed by the CPU 101.
The information acquisition instruction unit 109 instructs the imaging unit 112 to capture an image, and in response to this, the imaging unit 112 captures an image through the imaging device 107 (S201). Hereinafter, an image captured by the imaging unit 112 is referred to as a captured image. The object detection unit 110 detects the object from the captured image (S202). This detection is performed by, for example, image recognition.

次に、関連情報取得部111は、対象物検出部110が検出した対象物について、関連情報を取得する(S203)。この実施形態では、関連情報取得部111は、通信I/F106を介して外部サーバーにアクセスすることで関連情報を取得する。取得された関連情報は、関連情報取得部111によってRAM103に格納される(S204)。その後、撮像部112は、撮像を行う(S205)ことで対象物を含む領域を撮像し、その画像をRAM103に格納する(S206)。   Next, the related information acquisition unit 111 acquires related information for the object detected by the object detection unit 110 (S203). In this embodiment, the related information acquisition unit 111 acquires related information by accessing an external server via the communication I / F 106. The acquired related information is stored in the RAM 103 by the related information acquisition unit 111 (S204). Thereafter, the imaging unit 112 captures an image (S205), captures an area including the object, and stores the image in the RAM 103 (S206).

投影指示部113は、ユーザからの投影指示を受け付ける(S207)。重畳画像生成部114は、投影指示を受け付けたことに応答して、RAM103に格納されている画像と、関連情報から生成された関連画像と、を重畳した重畳画像を生成する(S208)。なお、関連画像は、関連情報に含まれるものとしても良い。あるいは、関連画像は、関連情報に含まれるテキストデータ等のデータから重畳画像生成部114が生成するものとしてもよい。次に、表示部115は、重畳画像生成部114が生成した重畳画像を投影し(S209)、処理を終了する。   The projection instruction unit 113 receives a projection instruction from the user (S207). In response to receiving the projection instruction, the superimposed image generation unit 114 generates a superimposed image in which the image stored in the RAM 103 and the related image generated from the related information are superimposed (S208). The related image may be included in the related information. Alternatively, the related image may be generated by the superimposed image generation unit 114 from data such as text data included in the related information. Next, the display unit 115 projects the superimposed image generated by the superimposed image generation unit 114 (S209), and ends the process.

このように、対象物を含んだ画像と関連画像とを重畳した重畳画像を生成することで、この重畳画像を対象物から離れた場所に投影しても、投影された関連画像は対象物に関連するものであることが容易に理解できる。好ましくは、対象物を撮像し、撮像された対象物に関連情報を重畳することで、関連情報が、撮像された対象物に関する情報であることを一層明確にする。   In this way, by generating a superimposed image in which an image including the target object and a related image are superimposed, even if the superimposed image is projected to a place away from the target object, the projected related image remains on the target object. It can be easily understood that they are related. Preferably, the object is imaged, and the related information is superimposed on the imaged object, thereby further clarifying that the related information is information regarding the imaged object.

なお、図2の例では、S201で画像を撮像した後に、再度S205で撮像を行っている。しかし、S201で撮像した画像に対して関連画像を重畳することもできる。例えば、S203、204による関連情報の取得及び格納が短時間で行われる場合には、S201での撮像により得られた画像は、S205で得られる画像とほぼ一致する。この場合、S205及びS206を実行せずに、S206及び207を実行した後にS208において、S201で撮像した画像と関連画像とを重畳する。以下の各実施形態でも同様にして、必要に応じてS205及びS206を省略することも可能である。   In the example of FIG. 2, after the image is captured in S201, the image is captured again in S205. However, a related image can be superimposed on the image captured in S201. For example, when the related information is acquired and stored in S203 and 204 in a short time, the image obtained by imaging in S201 substantially matches the image obtained in S205. In this case, without executing S205 and S206, after executing S206 and 207, in S208, the image captured in S201 and the related image are superimposed. Similarly in the following embodiments, S205 and S206 may be omitted as necessary.

図3(a)〜(e)は、本実施形態に係る対象物と重畳画像との関係を示す説明図である。図3(a)は、情報処理装置10を対象物701に向けた状態の説明図である。マーカー702は、対象物に対応して設けられたマーカーである。対象物検出部110は、撮像画像から、マーカー702をキーにして、つまり、画像内にマーカー702が認識されたことに応答して対象物の関連情報を取得する。
図3(b)は、対象物701に対して図2のS209を実行して重畳画像704を投影した状態の説明図である。対象物701が投影に適している場合、投影指示部113は、図3(b)のように対象物に投影を行う。
FIGS. 3A to 3E are explanatory diagrams showing the relationship between the object and the superimposed image according to the present embodiment. FIG. 3A is an explanatory diagram of a state in which the information processing apparatus 10 is directed toward the object 701. The marker 702 is a marker provided corresponding to the object. The object detection unit 110 acquires related information of the object from the captured image using the marker 702 as a key, that is, in response to the recognition of the marker 702 in the image.
FIG. 3B is an explanatory diagram of a state in which the superimposed image 704 is projected by executing S209 of FIG. When the object 701 is suitable for projection, the projection instruction unit 113 projects onto the object as shown in FIG.

一方、図3(c)は、対象物705が投影に適していない場合の説明図である。この図では、対象物705は黒色で投影した画像が視認し難いことから投影に適していないものとなっている。
図3(d)は、投影に適していない黒色の対象物705に対して、図2のS209を実行して重畳画像を投影した状態の説明図である。対象物705は黒色であることから投影に適さないため、対象物705に投影された関連画像707は視認し難くなっている。
図3(e)は、黒色の対象物の右側に、投影に適した領域709がある場合の説明図である。例えば、ユーザは、図2のS209が実行されて図3(d)のように対象物に重畳画像が投影された後に、情報処理装置10を右側に移動するか、あるいは情報処理装置10を右側に向ける。これにより、対象物705の右側の領域709に重畳画像708を投影することができる。また、重畳画像708において、画像708aは対象物705を表す画像であり、関連画像708bは画像708aとともに表示された関連画像である。なお、この例では、重畳画像708には、マーカー702に対応して生成されたマーカー画像702aも含まれる。マーカー画像702aは、対象物705に設けられたマーカー702を撮影することにより生成された画像である。
On the other hand, FIG.3 (c) is explanatory drawing when the target object 705 is not suitable for projection. In this figure, the object 705 is not suitable for projection because it is difficult to visually recognize an image projected in black.
FIG. 3D is an explanatory diagram of a state in which a superimposed image is projected by executing S209 of FIG. 2 on a black object 705 that is not suitable for projection. Since the object 705 is black and is not suitable for projection, the related image 707 projected on the object 705 is difficult to visually recognize.
FIG. 3E is an explanatory diagram in the case where there is a region 709 suitable for projection on the right side of the black object. For example, the user moves the information processing apparatus 10 to the right after S209 in FIG. 2 is executed and the superimposed image is projected onto the object as shown in FIG. Turn to. Thereby, the superimposed image 708 can be projected on the area 709 on the right side of the object 705. In the superimposed image 708, the image 708a is an image representing the object 705, and the related image 708b is a related image displayed together with the image 708a. In this example, the superimposed image 708 also includes a marker image 702a generated corresponding to the marker 702. The marker image 702a is an image generated by photographing the marker 702 provided on the object 705.

以上説明したように、この実施形態では、対象物の画像と対象物の関連画像とを重畳して投影することが可能となっている。単に対象物の関連画像を投影した場合、対象物上ではなく対象物の周囲に関連画像を投影する場合に、投影された関連画像が対象物に関連するものか否かがわかりにくくなるおそれがある。しかし、この実施形態では、関連画像を対象物の画像に重畳している。従って、対象物が存在する場所と離れた場所であっても、図3(e)に示されるように、関連画像が対象物に関連付けられたものであることが明確となる。従って、ユーザは、関連情報が対象物に関連付けられていることを容易に把握することが可能になる。   As described above, in this embodiment, it is possible to project the image of the target object and the related image of the target object in a superimposed manner. If a related image of an object is simply projected, it may be difficult to determine whether or not the projected related image is related to the object when the related image is projected not around the object but around the object. is there. However, in this embodiment, the related image is superimposed on the image of the object. Therefore, even when the object is away from the place where the object exists, it becomes clear that the related image is associated with the object as shown in FIG. Therefore, the user can easily grasp that the related information is associated with the object.

<第2実施形態>
第2実施形態では、上記第1実施形態の変形例として、ユーザが画像取得および投影を指示する例を示す。この実施形態では、ユーザは、情報処理装置10の位置や向きを調整し、情報処理装置10が対象物に向けられた状態で画像取得指示入力を行う。同様に、ユーザは、入力部120を通じて投影指示入力を行う。
図4は、ユーザが画像取得および投影を指示する場合の処理を表すフローチャートである。なお、図2のフローチャートと同じ処理には同じ符号を割り当て、説明を省略する。
Second Embodiment
In the second embodiment, an example in which the user instructs image acquisition and projection is shown as a modification of the first embodiment. In this embodiment, the user adjusts the position and orientation of the information processing apparatus 10 and inputs an image acquisition instruction in a state where the information processing apparatus 10 is directed toward the object. Similarly, the user inputs a projection instruction through the input unit 120.
FIG. 4 is a flowchart showing processing when the user instructs image acquisition and projection. Note that the same processes as those in the flowchart of FIG.

まず、入力部120は、ユーザから撮像指示を受けたか否かを判定する(S401)。ユーザからの撮像指示を受けていない場合(S401:N)、CPU101の処理はS401に戻る。ユーザからの撮像指示を受理した場合(S401:Y)、CPU101の制御の下、撮像部112は撮像装置107を通じて画像を撮像し、S202において対象物検出を行う。その後、CPU101は、S203〜S206を実行した後に、ユーザからの投影指示が入力部120を通じて受理されたか否かを判定する(S402)。ユーザからの投影指示が受理されていない場合(S402:N)、CPU101は再度S402を実行する。ユーザからの投影指示を受理した場合(S402:Y)、CPU101の処理はS208に進み、S401の実行後に撮像されて対象物が検出された画像に関連画像を重畳し、S209において、得られた重畳画像を投影する。
また、入力部120は、ボタン、スイッチ、タッチパネル、ジェスチャー認識、音声認識など任意の既存入力手段を用いることができる。
First, the input unit 120 determines whether an imaging instruction has been received from the user (S401). When the imaging instruction from the user has not been received (S401: N), the processing of the CPU 101 returns to S401. When the imaging instruction from the user is received (S401: Y), the imaging unit 112 captures an image through the imaging device 107 under the control of the CPU 101, and performs object detection in S202. Thereafter, after executing S203 to S206, the CPU 101 determines whether a projection instruction from the user has been received through the input unit 120 (S402). When the projection instruction from the user is not accepted (S402: N), the CPU 101 executes S402 again. When the projection instruction from the user is received (S402: Y), the process of the CPU 101 proceeds to S208, and the related image is superimposed on the image that is captured after the execution of S401 and the target object is detected, and is obtained in S209. A superimposed image is projected.
The input unit 120 can use any existing input means such as buttons, switches, touch panels, gesture recognition, and voice recognition.

以上説明したように、第2実施形態においては、ユーザが撮像指示および投影指示を行うことで、確実に情報が取得できるタイミング、つまり、情報処理装置10が対象物を撮像可能な状態で画像取得の指示を出すことができる。また、投影に適した方向に情報処理装置10を向けた状態で投影指示を出すことができるため、投影された画像をユーザが見やすいという利点がある。   As described above, in the second embodiment, when the user issues an imaging instruction and a projection instruction, the image can be acquired at a timing at which information can be reliably acquired, that is, the information processing apparatus 10 can capture an object. Can give instructions. In addition, since a projection instruction can be issued with the information processing apparatus 10 facing in a direction suitable for projection, there is an advantage that a user can easily see the projected image.

<第3実施形態>
第3実施形態では、撮像指示および投影指示を自動化した例を示す。この場合の処理を示すフローチャートを図5に示す。なお、図5において図2のフローチャートと同じ処理には同じ符号を割り当て、説明を省略する。
<Third Embodiment>
In the third embodiment, an example in which an imaging instruction and a projection instruction are automated is shown. A flowchart showing the processing in this case is shown in FIG. In FIG. 5, the same processes as those in the flowchart of FIG.

図5において、対象物検出部110は、S202で行なった対象物検出結果に基づき、対象物が検出されたか否かを判定(S501)する。対象物が検出されなかった場合(S501:N)、CPU101の処理はS202に戻る。対象物が検出された場合(S501:Y)、CPU101の処理はS203に進み、関連情報の取得を行う。次に、CPU101は、S204で関連情報を格納する。
その後、CPU101は、S205において撮像を行い、撮像画像をS206において格納し、投影領域状況を診断する(S502)。
In FIG. 5, the object detection unit 110 determines whether or not an object has been detected based on the object detection result performed in S202 (S501). When the object is not detected (S501: N), the processing of the CPU 101 returns to S202. When an object is detected (S501: Y), the processing of the CPU 101 proceeds to S203, and related information is acquired. Next, the CPU 101 stores related information in S204.
Thereafter, the CPU 101 captures an image in S205, stores the captured image in S206, and diagnoses the projection area situation (S502).

この診断では、CPU101は、S205で撮像された領域を投影領域として、撮像画像から、この投影領域が所定の条件を満たすか否かを診断する。例えば、この投影領域に投影された画像の視認性が十分ではない、投影領域で投影可能な領域が関連情報を表示するには狭い、等の条件に該当するか否かを診断する。CPU101は、このような条件が満たされた場合、重畳画像の投影はできないと診断する。このような条件が満たされる場合、重畳画像の視認性が確保できないからである。例えば、投影領域が黒い又は反射が強い場合には、投影された画像の視認性が十分ではないと診断される。これらの診断は、既存の画像認識(色認識や領域分割等)技術で実現可能である。
また、S501では、S202で対象物が検出された場合にのみS203以降の処理に進むことから、S204を実行した後にS205で撮像画像には対象物が含まれることになる。
従って、S204〜S206を順次実行した後にS502において投影領域状況を診断した場合、対象物を含む領域が投影領域となる。
In this diagnosis, the CPU 101 diagnoses whether or not the projection area satisfies a predetermined condition from the captured image by using the area imaged in S205 as a projection area. For example, it is diagnosed whether the image projected onto the projection area is not sufficiently visible, or whether the area that can be projected in the projection area is narrow enough to display related information. When such a condition is satisfied, the CPU 101 diagnoses that the superimposed image cannot be projected. This is because when such a condition is satisfied, the visibility of the superimposed image cannot be ensured. For example, when the projection area is black or the reflection is strong, it is diagnosed that the projected image is not sufficiently visible. These diagnoses can be realized by existing image recognition (color recognition, area division, etc.) techniques.
In S501, since the process proceeds to S203 and subsequent steps only when the object is detected in S202, the object is included in the captured image in S205 after executing S204.
Therefore, when the projection region status is diagnosed in S502 after sequentially executing S204 to S206, the region including the object becomes the projection region.

その後、CPU101は、投影領域が重畳画像の投影に適していて重畳画像の投影が可能であるかを判定する(S503)。投影可能な場合(S503:Y)、CPU101は、S208で重畳画像を生成し、S209で重畳画像を投影して処理を終了する。
一方、投影できないと判定した場合(S503:N)、CPU101の処理はS205に戻って撮像を行い、撮像した画像をS206において格納する。その後、CPU101は、再度S502を実行して投影領域の状況を診断する。
Thereafter, the CPU 101 determines whether the projection area is suitable for the projection of the superimposed image and the projection of the superimposed image is possible (S503). If projection is possible (S503: Y), the CPU 101 generates a superimposed image in S208, projects the superimposed image in S209, and ends the process.
On the other hand, if it is determined that projection is not possible (S503: N), the processing of the CPU 101 returns to S205 to perform imaging, and the captured image is stored in S206. Thereafter, the CPU 101 executes S502 again to diagnose the situation of the projection area.

従って、ユーザが情報処理装置10を移動するか、あるいはその向きを変えることで、S503で投影可能ではないと判定された後にCPU101がS205の処理を実行して撮像した画像は、前回撮像した画像から変化する。この変化した画像について、S206以降の処理を行う。投影領域が投影可能と判定されるまでS205〜S503を実行することで、投影可能である領域に重畳画像を投影することが可能となる。従って、投影された重畳画像の視認性が担保される。例えば、この投影領域に投影された画像の視認性が十分ではない、投影領域で投影可能な領域が関連情報を表示するには狭い等の理由によりS503で投影が可能ではないと判定された場合、ユーザは情報処理装置10を移動させる。これにより、情報処理装置10を移動後にS205で撮像した画像がS503で投影可能であると判定されると、S209において、投影領域に重畳画像が投影される。
このような構成により、画像取得指示および投影指示を自動化することが可能となり、ユーザが指示を入力する手間を省略することが可能になる。
Therefore, after the user moves the information processing apparatus 10 or changes its orientation, the CPU 101 executes the process of S205 after it is determined that projection is not possible in S503. Change from. With respect to the changed image, the processes after S206 are performed. By executing S205 to S503 until it is determined that the projection area can be projected, it is possible to project the superimposed image on the area that can be projected. Therefore, the visibility of the projected superimposed image is ensured. For example, when it is determined in step S503 that projection is not possible because the image projected onto the projection area is not sufficiently visible, or the area that can be projected in the projection area is narrow to display related information. The user moves the information processing apparatus 10. As a result, when it is determined in S503 that the image captured in S205 after moving the information processing apparatus 10 can be projected in S503, a superimposed image is projected onto the projection area in S209.
With such a configuration, it is possible to automate the image acquisition instruction and the projection instruction, and it is possible to save the user from inputting the instruction.

<第4実施形態>
第4実施形態では、上記第3実施形態の変形例として、重畳画像を投影する際に、対象物上に関連情報を投影することが可能な場合は投影を行い、投影できない場合には、対象物の周辺に重畳画像を投影する。図6に、第4実施形態における、関連情報を対象物に投影する、または、重畳画像を対象物以外の場所に投影する場合のフローチャートを示す。なお、図6においては、図5のフローチャートと同じ処理には同じ符号を割り当て、説明を省略する。
図6において、CPU101は、S202〜S204を実行した後に、S202で検出した対象物について投影領域状況判断を行う(S601)。
<Fourth embodiment>
In the fourth embodiment, as a modified example of the third embodiment, when a superimposed image is projected, if the related information can be projected on the object, the projection is performed. A superimposed image is projected around the object. FIG. 6 shows a flowchart in the case where the related information is projected onto the object or the superimposed image is projected onto a place other than the object in the fourth embodiment. In FIG. 6, the same processes as those in the flowchart of FIG.
In FIG. 6, after executing S202 to S204, the CPU 101 determines the projection area status for the object detected in S202 (S601).

その後、CPU101は、投影領域が関連情報の表示に適していて関連情報の投影が可能であるかを判定する(S602)。投影領域判定部の判定結果が投影可能である場合(S602:Y)、CPU101は、関連情報取得部111が格納した関連情報を、表示部115を通じて対象物上に投影し(S603)、処理を終了する。   Thereafter, the CPU 101 determines whether the projection area is suitable for displaying related information and the related information can be projected (S602). When the determination result of the projection area determination unit can be projected (S602: Y), the CPU 101 projects the related information stored in the related information acquisition unit 111 onto the object through the display unit 115 (S603), and performs processing. finish.

一方、投影領域判定部の判定結果が投影可能ではなかった場合(S602:N)、CPU101は、S205において再度撮像を行う。その後、CPU101は、S206において撮像画像を格納し、S208において重畳画像の生成を行う。更に、CPU101は、S502を実行して投影領域状況を診断し、S503で、投影領域が重畳画像の投影に適していて重畳画像の投影が可能であるかを判定する。CPU101は、投影が可能であれば(S503:Y)、投影領域に重畳画像を投影して(S209)処理を終了する。投影が可能でない場合(S503:N)、CPU101は、撮像領域を変更(S604)して再度S205を実行する。この撮像領域の変更は、ユーザが情報処理装置10を移動するなどにより行う。また、情報処理装置10に撮像装置の向きの変更機構が設けられている場合には、CPU101がその変更機構を制御することで、撮像領域を変更してもよい。
対象物が投影可能ではない場合、撮像領域が投影可能と判定されるまで、S604〜S503が繰り返される。
なお、S503の判定結果がNの場合、S208における重畳画像作成の処理が複数回繰り返される。しかし、上述のように、この実施形態ではS501の後に撮像された、対象物を含む画像に対して関連画像を重畳しているので、S208での重畳画像は1回だけ実行すればよく、2回目以降で繰り返し重畳画像を作成する必要はない。以下の実施形態でも同様である。CPU101は、撮像領域が対象物の周辺領域となって投影可能と判定されると、S209において重畳画像を投影して処理を終了する。
上述のように、CPU101が、撮像装置の向きの変更機構を制御している場合、プロジェクタの向きも撮像装置の向きに応じて変更する必要がある。この場合、プロジェクタに投影方向変更機構を設ける。CPU101は、撮像装置の向きの変更に応じて投影方向変更機構を制御し、プロジェクタによる投影方向を制御する。
On the other hand, when the determination result of the projection area determination unit is not projectable (S602: N), the CPU 101 performs imaging again in S205. Thereafter, the CPU 101 stores the captured image in S206, and generates a superimposed image in S208. Further, the CPU 101 executes S502 to diagnose the projection region status, and determines in S503 whether the projection region is suitable for projecting the superimposed image and can be projected. If the projection is possible (S503: Y), the CPU 101 projects the superimposed image on the projection area (S209) and ends the process. If projection is not possible (S503: N), the CPU 101 changes the imaging area (S604) and executes S205 again. This change of the imaging area is performed by the user moving the information processing apparatus 10 or the like. Further, when the information processing apparatus 10 is provided with a mechanism for changing the orientation of the imaging apparatus, the CPU 101 may change the imaging area by controlling the changing mechanism.
If the object is not projectable, S604 to S503 are repeated until it is determined that the imaging region can be projected.
If the determination result in S503 is N, the superimposed image creation process in S208 is repeated a plurality of times. However, as described above, in this embodiment, since the related image is superimposed on the image including the object captured after S501, the superimposed image in S208 only needs to be executed once. It is not necessary to repeatedly create a superimposed image after the first time. The same applies to the following embodiments. If it is determined that the imaging region becomes a peripheral region of the target object and can be projected, the CPU 101 projects the superimposed image in S209 and ends the process.
As described above, when the CPU 101 controls the orientation change mechanism of the imaging device, the orientation of the projector needs to be changed according to the orientation of the imaging device. In this case, the projector is provided with a projection direction changing mechanism. The CPU 101 controls the projection direction changing mechanism according to the change in the orientation of the imaging apparatus, and controls the projection direction by the projector.

以上説明したように、この実施形態では、情報処理装置10は、CPU101の制御により、対象物上に重畳画像の投影が可能な場合は関連情報を対象物に直接投影する。一方、対象物上に重畳画像を投影できない場合は、別の場所に周辺画像と関連情報を重畳して投影することが可能になる。よって、いずれの場合も、ユーザは直感的に対象物の関連情報を把握することが可能になる。   As described above, in this embodiment, the information processing apparatus 10 projects the related information directly on the object when the superimposed image can be projected on the object under the control of the CPU 101. On the other hand, when the superimposed image cannot be projected on the target object, it is possible to project the peripheral image and related information on another place in a superimposed manner. Therefore, in any case, the user can intuitively grasp the related information of the object.

<第5実施形態>
第5実施形態は、上記第4実施形態の変形例として、撮像画像に対象物が複数含まれる場合における処理の一例を示す。
図7は、撮像画像に対象物が複数含まれる場合の処理を示すフローチャートである。なお、図7においては、図6のフローチャートと同じ処理には同じ符号を割り当て、説明を省略する。図7のフローチャートは、ユーザが投影可能な領域に向けて情報処理装置10を移動する間に、検出した対象物の関連情報をも併せて表示するための処理を示す。また、この処理では、対象物が一度に複数検出された場合には、検出した複数の対象物それぞれの関連情報を表示する。
<Fifth Embodiment>
The fifth embodiment shows an example of processing when a plurality of objects are included in a captured image as a modification of the fourth embodiment.
FIG. 7 is a flowchart showing processing when a plurality of objects are included in a captured image. In FIG. 7, the same processes as those in the flowchart of FIG. The flowchart of FIG. 7 shows a process for displaying the related information of the detected target object while moving the information processing apparatus 10 toward the area where the user can project. In this process, when a plurality of objects are detected at a time, the related information of each of the detected objects is displayed.

この実施形態では、対象物が少なくとも1つ以上検出され、かつ、S503において投影に適する領域がないと判定された後に、情報処理装置10が投影可能な領域に向ける操作が行われる。以下、この操作をユーザが行うものとして説明する。しかし、撮像部112の向きを変更するための方向調整装置を情報処理装置10に設け、CPU101によってこの方向調整装置を制御して撮像部112を投影可能な領域に向けるようにしてもよい。   In this embodiment, after at least one object is detected and it is determined in S503 that there is no area suitable for projection, an operation for directing the information processing apparatus 10 to an area that can be projected is performed. Hereinafter, description will be made assuming that this operation is performed by the user. However, a direction adjustment device for changing the orientation of the imaging unit 112 may be provided in the information processing apparatus 10, and the direction adjustment device may be controlled by the CPU 101 so that the imaging unit 112 is directed to a projectable region.

図7に示されるように、第5実施形態では、図6に示される第4実施形態における処理と同様に、S202〜S206までの処理が実行され、撮像画像が格納された(S206)後に重畳画像が生成される(S701)。なお、この実施形態では、後述するようにS205での撮像処理が複数回実行され、RAM103に複数の画像が格納されている場合がある。
S701では、RAM103に画像が複数格納されている場合、少なくとも2つの画像を、パノラマ画像のように1つの画像に結合してもよい。これにより、対象物が複数あり、一回の撮像ではその一部しか撮像できない場合でも、複数の対象物、好ましくはすべての対象物を含んだ結合画像を生成することができる。そして、この結合画像内の複数の対象物に対して関連画像を重畳した重畳画像を生成して投影することができる。なお、画像の結合は既存の画像処理で実現可能である。また、周辺画像に関連情報を重畳してから結合を行ってもよく、あるいは、周辺画像を結合した後に関連情報を重畳してもよい。
As shown in FIG. 7, in the fifth embodiment, similar to the processing in the fourth embodiment shown in FIG. 6, the processing from S202 to S206 is executed, and the captured image is stored (S206) and then superimposed. An image is generated (S701). In this embodiment, as will be described later, the imaging processing in S205 may be executed a plurality of times, and a plurality of images may be stored in the RAM 103.
In S701, when a plurality of images are stored in the RAM 103, at least two images may be combined into one image like a panoramic image. Thereby, even when there are a plurality of objects and only a part of the objects can be imaged by one imaging, it is possible to generate a combined image including a plurality of objects, preferably all the objects. A superimposed image in which related images are superimposed on a plurality of objects in the combined image can be generated and projected. Note that image combination can be realized by existing image processing. Further, the related information may be superimposed on the peripheral image and then combined, or the related information may be superimposed after the peripheral image is combined.

CPU101は、S701を実行した後に、投影領域が重畳画像の投影に適しているかを診断し(S502)、重畳画像の投影が可能であるか否かを判定する(S503)。なお、この実施形態では、対象物が複数検出された場合、すべての対象物が投影に適している場合にのみ、投影領域が投影に適していると判定する。かつ、検出された対象物のうち少なくとも1つが投影に適さない場合は、投影領域は投影に適さないと判定する。
S503において、対象物が投影に適すると判定された場合(S503:Y)、CPU101は、重畳画像を投影し(S209)、処理を終了する。
After executing S701, the CPU 101 diagnoses whether the projection area is suitable for the projection of the superimposed image (S502), and determines whether the projection of the superimposed image is possible (S503). In this embodiment, when a plurality of objects are detected, it is determined that the projection area is suitable for projection only when all the objects are suitable for projection. If at least one of the detected objects is not suitable for projection, it is determined that the projection area is not suitable for projection.
If it is determined in S503 that the object is suitable for projection (S503: Y), the CPU 101 projects a superimposed image (S209) and ends the process.

一方、投影領域に重畳画像の投影が可能ではない場合(S503:N)、対象物検出部110は、対象物検出処理を行い(S702)、対象物が検出されたか否かを判定する(S703)。対象物を検出しなかった場合(S703:N)、CPU101の処理はS502に戻る。
対象物検出部110が対象物を検出した場合(S703:Y)、CPU101は、関連情報取得部111を通じて、対象物検出部110が検出した対象物の関連情報を取得する(S704)。その後、関連情報取得部111は、取得した関連情報をRAM103に格納し(S705)、CPU101の処理はS205及びS206を実行し、更に、前述したS701以降の処理を実行する。
On the other hand, when the superimposed image cannot be projected onto the projection area (S503: N), the object detection unit 110 performs an object detection process (S702), and determines whether or not the object is detected (S703). ). When the object is not detected (S703: N), the process of the CPU 101 returns to S502.
When the target object detection unit 110 detects a target object (S703: Y), the CPU 101 acquires related information of the target object detected by the target object detection unit 110 through the related information acquisition unit 111 (S704). Thereafter, the related information acquisition unit 111 stores the acquired related information in the RAM 103 (S705), the processing of the CPU 101 executes S205 and S206, and further executes the above-described processing after S701.

なお、S503の投影可能か否かを判定する処理において、その周辺が投影に適する対象物と、その周辺が投影に適していない対象物とが混在する場合、投影に適する対象物についてのみその関連情報を対象物の周辺に投影するようにしてもよい。また、情報処理装置10が移動された後に投影する場合は、前記対象物の情報も併せて投影してもよいものとする。また、この場合でも、S503の判定結果自体はNとなり、CPU101の処理は、S702に進む。   Note that in the process of determining whether or not projection is possible in S503, when an object whose periphery is suitable for projection and an object whose periphery is not suitable for projection are mixed, only the object suitable for projection is related. Information may be projected around the object. Moreover, when projecting after the information processing apparatus 10 is moved, information on the object may be projected together. Even in this case, the determination result of S503 is N, and the process of the CPU 101 proceeds to S702.

次に、第5実施形態における投影画像の説明図を図8(a)、(b)に示す。図8(a)において、領域801〜806はいずれも対象物を示している。これらの領域のうち、領域801、803及び805は、その表面が黒色で投影に適していない対象物である。また、領域802、804及び806は、その表面が白色で投影に適した対象物を示す。
投影領域808には、領域801、804の全体が含まれ、かつ、領域802、805についてはその一部が含まれる。上述のように、領域801は投影に適さないため、この段階では投影されない。なお、ユーザは情報処理装置10を任意の方向に動かすことが可能である。
Next, an explanatory diagram of a projected image in the fifth embodiment is shown in FIGS. In FIG. 8A, each of the regions 801 to 806 indicates an object. Of these regions, regions 801, 803, and 805 are objects whose surfaces are black and are not suitable for projection. Regions 802, 804, and 806 indicate objects whose surfaces are white and suitable for projection.
The projection area 808 includes the entire areas 801 and 804, and part of the areas 802 and 805. As described above, since the region 801 is not suitable for projection, it is not projected at this stage. Note that the user can move the information processing apparatus 10 in an arbitrary direction.

この実施形態では、情報処理装置10を移動させることですべての投影対象物が投影領域内に入れるようにする。従って、ユーザは、左から右に向かって情報処理装置10を動かし、その過程において、領域802、805については図8(a)において投影領域外になっている部分が投影領域内に入る。また、領域803、806については、その全体が投影領域内に入る。その結果、S205では周辺画像が複数回撮像され、その過程において領域801〜806はいずれも周辺画像内に含まれる。従って、周辺画像を結合することで、領域801〜806を含んだ画像を得ることができる。   In this embodiment, the information processing apparatus 10 is moved so that all projection objects are within the projection area. Accordingly, the user moves the information processing apparatus 10 from the left to the right, and in the process, portions of the regions 802 and 805 that are outside the projection region in FIG. 8A enter the projection region. Further, the regions 803 and 806 are entirely within the projection region. As a result, in S205, the peripheral image is captured a plurality of times, and the regions 801 to 806 are all included in the peripheral image in the process. Therefore, an image including the regions 801 to 806 can be obtained by combining the peripheral images.

RAM103には、情報処理装置10を対象物801〜806よりも右側に移動させることで、その移動中に撮像された対象物801〜806の周辺画像および関連情報が格納される。図8(b)に示されるように、重畳画像生成部114は、図7のS701において、これらを重畳した画像810を生成し、投影に適する領域809に投影する。図8(b)の例では、投影に適する領域809は、領域801〜806の右側に位置している。なお、投影に適する領域は、領域801〜806の右に限定されるわけではない。例えば、領域801〜806の下方であってもよい。この場合は、投影に適する領域809は、図8(b)において領域801〜806の下方となる。   The RAM 103 stores the peripheral image and related information of the objects 801 to 806 captured during the movement by moving the information processing apparatus 10 to the right side of the objects 801 to 806. As shown in FIG. 8B, the superimposed image generation unit 114 generates an image 810 in which these images are superimposed in S701 of FIG. 7 and projects the image on a region 809 suitable for projection. In the example of FIG. 8B, the region 809 suitable for projection is located on the right side of the regions 801 to 806. Note that the area suitable for projection is not limited to the right of the areas 801 to 806. For example, it may be below the regions 801 to 806. In this case, the region 809 suitable for projection is below the regions 801 to 806 in FIG.

以上説明したように、この実施形態においては、複数の対象物が検出され、これらの対象物が1つの投影領域内に収まらない場合でも、これら対象物を含んだ結合画像を得ることができる。また、得られた結合画像に関連情報を重畳することもできる。
複数の対象物が検出された場合に、検出された対象物について個別に重畳画像を投影することはユーザにとって利便性が低い上に、個別に投影するために長時間を要する。しかし、この実施形態では、複数の対象物を結合画像により一枚の画像で表示するので、ユーザの利便性が向上し、かつ、投影に要する時間も短縮できる。
さらには、投影に適する対象物もまとめて投影することができるので、対象物の位置関係を再現しやすく、複数の対象物とその関連情報との対応関係をユーザが把握しやすいという利点がある。
As described above, in this embodiment, even when a plurality of objects are detected and these objects do not fit within one projection area, a combined image including these objects can be obtained. In addition, related information can be superimposed on the obtained combined image.
When a plurality of objects are detected, it is not convenient for the user to project the superimposed image individually for the detected objects, and it takes a long time to project the images individually. However, in this embodiment, since a plurality of objects are displayed as a single image by the combined image, the convenience for the user is improved and the time required for projection can be shortened.
Furthermore, since objects suitable for projection can be projected together, there is an advantage that the positional relationship between the objects can be easily reproduced, and the user can easily grasp the correspondence between a plurality of objects and related information. .

なお、本実施形態に係る情報処理装置10としては、撮像装置と、プロジェクタのような投影装置と、を備えて情報処理を行う任意の装置を用いることができる。例えば、情報処理装置10として、カメラとプロジェクタを搭載するスマートフォン等の任意の情報処理装置を用いることができる。また、情報処理装置10は、必ずしも撮像装置と投影装置とを備える必要はない。例えば、情報処理装置と、撮像装置及び投影装置とを有線あるいは無線により接続し、撮像及び投影のタイミングや投影装置の投影方向を制御してもよい。   As the information processing apparatus 10 according to the present embodiment, an arbitrary apparatus that includes an imaging device and a projection device such as a projector and performs information processing can be used. For example, any information processing apparatus such as a smartphone equipped with a camera and a projector can be used as the information processing apparatus 10. Further, the information processing apparatus 10 does not necessarily include an imaging device and a projection device. For example, the information processing apparatus, the imaging apparatus, and the projection apparatus may be connected by wire or wireless to control the timing of imaging and projection and the projection direction of the projection apparatus.

以上本発明に係る実施形態を説明したが、本発明に係る情報処理装置は、上記各実施形態に限定されるものではない。例えば、本発明に係る情報処理装置は、通常のパーソナルコンピュータ等の汎用情報処理装置で動作するコンピュータプログラムで実現できるものである。また、上記のコンピュータプログラムを、ネットワーク又はコンピュータ読み取り可能な記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し、実行する処理でも実現可能である。更に、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Although the embodiment according to the present invention has been described above, the information processing apparatus according to the present invention is not limited to the above embodiments. For example, the information processing apparatus according to the present invention can be realized by a computer program that operates on a general-purpose information processing apparatus such as a normal personal computer. In addition, the above-described computer program can be supplied to a system or apparatus via a network or a computer-readable recording medium, and one or more processors in the computer of the system or apparatus can read and execute the program. is there. Further, it can be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (12)

対象物を撮像する撮像手段と、
画像投影手段と、
前記撮像手段が撮像した、前記対象物が含まれる撮像画像を用いて前記対象物に関連する関連情報を取得し、前記関連情報から生成された関連画像を生成する制御手段と、を有し、
前記制御手段は、前記対象物が含まれる撮像画像に前記関連画像が重畳された重畳画像を生成し、
前記画像投影手段は、前記生成された重畳画像を投影することを特徴とする、
情報処理装置。
An imaging means for imaging an object;
Image projection means;
Control means for acquiring related information related to the object using a captured image including the object captured by the imaging means, and generating a related image generated from the related information;
The control means generates a superimposed image in which the related image is superimposed on a captured image including the object,
The image projecting unit projects the generated superimposed image,
Information processing device.
前記対象物には、前記対象物に対応するマーカーが含まれ、
前記制御手段は、前記撮像画像における前記マーカーを参照して前記対象物に関連する情報を含む関連画像を生成することを特徴とする、
請求項1に記載の情報処理装置。
The object includes a marker corresponding to the object,
The control means generates a related image including information related to the object with reference to the marker in the captured image,
The information processing apparatus according to claim 1.
ユーザから対象物の撮像指示が入力される第1入力部を有し、
前記撮像手段は、前記第1入力部からの撮像指示の入力に応答して、前記対象物の撮像を行うことを特徴とする、
請求項1又は2に記載の情報処理装置。
A first input unit for inputting an imaging instruction of an object from a user;
The imaging means performs imaging of the object in response to an input of an imaging instruction from the first input unit.
The information processing apparatus according to claim 1 or 2.
ユーザから前記重畳画像の投影指示が入力される第2入力部を有し、
前記画像投影手段は、前記第2入力部からの撮像指示の入力に応答して、前記重畳画像の投影を行うことを特徴とする、
請求項1〜3のいずれか1項に記載の情報処理装置。
A second input unit for inputting a projection instruction of the superimposed image from a user;
The image projecting unit projects the superimposed image in response to an input of an imaging instruction from the second input unit.
The information processing apparatus according to any one of claims 1 to 3.
前記制御手段は、前記撮像画像に対象物が含まれているか否かを判定し、含まれている場合に前記関連情報を取得することを特徴とする、
請求項1〜4のいずれか1項に記載の情報処理装置。
The control means determines whether or not an object is included in the captured image, and acquires the related information when included in the captured image.
The information processing apparatus according to any one of claims 1 to 4.
前記制御手段は、前記撮像画像に対象物が含まれている場合に、撮像画像から前記対象物が前記重畳画像の投影に適しているか否かを判定し、適している場合には、前記画像投影手段を通じて前記対象物に対して前記重畳画像の投影を行うことを特徴とする、
請求項5に記載の情報処理装置。
The control means determines whether or not the object is suitable for projection of the superimposed image from the captured image when the captured image includes the object, and if so, the image Projecting the superimposed image onto the object through projection means,
The information processing apparatus according to claim 5.
前記制御手段は、前記撮像画像に前記対象物が複数含まれている場合、各対象物に対して前記判定を行い、少なくとも1つの前記対象物が投影に適さないと判定されたときは前記重畳画像の投影を行わないことを特徴とする、
請求項6に記載の情報処理装置。
The control means performs the determination on each target object when the captured image includes a plurality of the target objects, and determines that at least one of the target objects is not suitable for projection when the superimposition is performed. The image is not projected,
The information processing apparatus according to claim 6.
前記制御手段は、前記対象物が投影に適さないと判定された後に、前記撮像手段による撮像と、前記撮像手段が撮像した領域が前記重畳画像の投影に適しているかの判定とを、前記撮像した領域が前記重畳画像の投影に適していると判定されるまで繰り返し、前記対象物が投影に適していると判定された後に、前記画像投影手段を通じて前記重畳画像を投影することを特徴とする、
請求項7に記載の情報処理装置。
After determining that the object is not suitable for projection, the control unit performs imaging by the imaging unit and determination of whether an area captured by the imaging unit is suitable for projection of the superimposed image. And repeatedly projecting the superimposed image through the image projecting means after determining that the object is suitable for projection, until it is determined that the region is suitable for projection of the superimposed image. ,
The information processing apparatus according to claim 7.
前記制御手段は、前記撮像手段を通じて撮像を複数回実行して複数の撮像画像を取得し、得られた撮像画像の少なくとも2つ以上を結合した結合画像を生成し、前記結合画像に前記関連画像が重畳された重畳画像を生成することを特徴とする、
請求項1〜8のいずれか1項に記載の情報処理装置。
The control unit performs imaging a plurality of times through the imaging unit to obtain a plurality of captured images, generates a combined image obtained by combining at least two of the obtained captured images, and adds the related image to the combined image. Generating a superimposed image on which is superimposed,
The information processing apparatus according to any one of claims 1 to 8.
対象物を撮像する撮像手段と、画像投影手段と、を備え、前記撮像手段が撮像した、前記対象物が含まれる撮像画像を用いて前記対象物に関連する関連情報を取得し、前記関連情報から生成された関連画像を生成する情報処理装置が実行する方法であって、
前記情報処理装置が、前記対象物が含まれる撮像画像に前記関連画像が重畳された重畳画像を生成し、前記画像投影手段は、前記生成された重畳画像を投影することを特徴とする、
情報処理方法。
An image capturing unit configured to image an object; and an image projecting unit. The related information related to the object is acquired using a captured image captured by the image capturing unit and including the object. A method executed by an information processing apparatus that generates a related image generated from
The information processing apparatus generates a superimposed image in which the related image is superimposed on a captured image including the object, and the image projecting unit projects the generated superimposed image.
Information processing method.
対象物を撮像する撮像手段と、画像投影手段と、を備えたコンピュータを、
前記撮像手段が撮像した、前記対象物が含まれる撮像画像を用いて前記対象物に関連する関連情報を取得して前記関連情報から生成された関連画像を生成するとともに、前記対象物が含まれる撮像画像に前記関連画像が重畳された重畳画像を生成し、前記生成された重畳画像を、
前記画像投影手段を通じて投影する制御手段として機能させためのコンピュータプログラム。
A computer comprising imaging means for imaging an object and image projection means,
The related information related to the target object is acquired using the captured image including the target object captured by the imaging unit to generate the related image generated from the related information, and the target object is included. A superimposed image in which the related image is superimposed on a captured image is generated, and the generated superimposed image is
A computer program for functioning as control means for projecting through the image projecting means.
請求項11記載のコンピュータプログラムが格納された、
コンピュータ読み取り可能な記録媒体。
A computer program according to claim 11 is stored,
Computer-readable recording medium.
JP2015200782A 2015-10-09 2015-10-09 Information processing unit, information processing method, computer program and recording medium Pending JP2017073717A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015200782A JP2017073717A (en) 2015-10-09 2015-10-09 Information processing unit, information processing method, computer program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200782A JP2017073717A (en) 2015-10-09 2015-10-09 Information processing unit, information processing method, computer program and recording medium

Publications (1)

Publication Number Publication Date
JP2017073717A true JP2017073717A (en) 2017-04-13

Family

ID=58537929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200782A Pending JP2017073717A (en) 2015-10-09 2015-10-09 Information processing unit, information processing method, computer program and recording medium

Country Status (1)

Country Link
JP (1) JP2017073717A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039425A1 (en) * 2019-08-28 2021-03-04 パナソニックIpマネジメント株式会社 Projection system and projection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021039425A1 (en) * 2019-08-28 2021-03-04 パナソニックIpマネジメント株式会社 Projection system and projection method
JPWO2021039425A1 (en) * 2019-08-28 2021-03-04
JP7262022B2 (en) 2019-08-28 2023-04-21 パナソニックIpマネジメント株式会社 Projection system and projection method

Similar Documents

Publication Publication Date Title
US10360658B2 (en) Display control apparatus and computer-readable recording medium
US9875074B2 (en) Projection device and control method therefor
CN106605195B (en) Communication apparatus and control method of communication apparatus
JP2007079028A (en) Projection type image display apparatus and multi-projection system
JP2016139334A (en) Information processing apparatus, information processing method, and computer program
US11790583B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2014178968A (en) Information process device and control method of the same
US9979858B2 (en) Image processing apparatus, image processing method and program
CN106373154B (en) Image processing apparatus and image processing method
JP6708407B2 (en) Image processing apparatus, image processing method and program
JP2016224173A (en) Control device and control method
JP5847591B2 (en) Information processing apparatus, information processing method and program for information processing apparatus
US10623610B2 (en) Display processing device and display processing method
JP2017068849A (en) Article assembling status information display device
JP6354385B2 (en) Display device, display method, and program
JP2017073717A (en) Information processing unit, information processing method, computer program and recording medium
JP2018007082A (en) Image reproduction device, control method therefor, and program
JP6237028B2 (en) Projection apparatus, projection method, and information processing system
JP6210758B2 (en) Imaging system, imaging apparatus, and server
US11188743B2 (en) Image processing apparatus and image processing method
US20240155226A1 (en) Information processing apparatus, control apparatus, and control method
JP2019054406A (en) Imaging apparatus, imaging method, imaging system, and imaging assistance server
US20240163559A1 (en) Information processing apparatus and control method thereof
US20150365595A1 (en) Imaging control apparatus and method for generating a display image, and storage medium
JP2015216484A (en) Imaging device, image processing method, program, and recording medium