JP2021179733A - Mounting device, processing method, and program - Google Patents

Mounting device, processing method, and program Download PDF

Info

Publication number
JP2021179733A
JP2021179733A JP2020084038A JP2020084038A JP2021179733A JP 2021179733 A JP2021179733 A JP 2021179733A JP 2020084038 A JP2020084038 A JP 2020084038A JP 2020084038 A JP2020084038 A JP 2020084038A JP 2021179733 A JP2021179733 A JP 2021179733A
Authority
JP
Japan
Prior art keywords
projection
projected image
projected
mounting device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020084038A
Other languages
Japanese (ja)
Inventor
禎文 渡邊
Sadafumi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2020084038A priority Critical patent/JP2021179733A/en
Publication of JP2021179733A publication Critical patent/JP2021179733A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a portable device capable of efficiently sharing information when sharing desired information with other users at arbitrary position.SOLUTION: A mounting device 1 comprises projecting means 91 for projecting a projection image on a projection surface in a forward direction of a user, and at least two photographing means 92 for photographing the projection image at a different position.EFFECT: This directly projects the projection image on a projection surface in front of the user, so the user himself/herself can widely view the projection image without obstructing vision when confirming the projection image, providing the user with a suitable condition. Also, the projection image is projected on the projection surface, so the user can share information appearing on the projection image with other users.SELECTED DRAWING: Figure 9

Description

本発明は、装着装置、処理方法、プログラムに関する。 The present invention relates to a mounting device, a processing method, and a program.

携帯端末のユーザは、他人との間で情報を簡単に共有するために、自身で所有しているスマートフォンなどの携帯端末に情報を表示し、その情報の表示しているディスプレイを他人に見せることにより所望の情報を他人との間で共有することができる。 In order to easily share information with others, mobile terminal users display information on their own mobile terminals such as smartphones and show the display displaying the information to others. Allows you to share the desired information with others.

なお本技術に関連する技術が特許文献1に開示されている。特許文献1の段落0076には、ヘッドマウント型プロジェクタが、小型プロジェクタと、カメラとを備えることが開示されている。当該特許文献1では眼鏡のレンズ面に投影光を出射することが開示されている。 A technique related to this technique is disclosed in Patent Document 1. Paragraph 0076 of Patent Document 1 discloses that the head-mounted projector includes a small projector and a camera. The patent document 1 discloses that the projected light is emitted to the lens surface of the spectacles.

特開2017−21861号公報Japanese Unexamined Patent Publication No. 2017-21861

ディスプレイを備えなくとも、任意の場所で所望の情報を他人との間で共有する際に、効率よく情報共有する携帯デバイスが求められている。 There is a demand for a mobile device that efficiently shares information when sharing desired information with another person at any place without having a display.

そこでこの発明は、上述課題を解決する装着装置、処理方法、プログラムを提供することを目的としている。 Therefore, an object of the present invention is to provide a mounting device, a processing method, and a program that solve the above-mentioned problems.

本発明の第1の態様によれば、装着装置は、ユーザの前方方向の投影面に投影画像を投影する投影手段と、前記投影画像を異なる位置で撮影する少なくとも2つの撮影手段と、を備える。 According to the first aspect of the present invention, the mounting device includes a projection means for projecting a projected image on a projection surface in the front direction of the user, and at least two photographing means for capturing the projected image at different positions. ..

本発明の第2の態様によれば、処理方法は、装着装置の投影手段がユーザの前方方向の投影面に投影画像を投影し、前記装着装置の少なくとも2つの撮影手段が前記投影画像を異なる位置で撮影する。 According to the second aspect of the present invention, in the processing method, the projection means of the mounting device projects the projected image on the projection surface in the front direction of the user, and at least two photographing means of the mounting device differ from the projected image. Take a picture at the position.

本発明の第3の態様によれば、プログラムは、装着装置に設けられた情報処理装置を、ユーザの前方方向の投影面に投影画像を投影する投影手段の前記投影の制御を行う投影制御手段、前記投影画像を異なる位置で撮影する少なくとも2つの撮影手段の前記撮影の制御を行う撮影制御手段と、として機能させる。 According to the third aspect of the present invention, the program controls the projection of the projection means for projecting the projected image onto the projection surface in the front direction of the user by using the information processing device provided in the mounting device. It functions as a shooting control means for controlling the shooting of at least two shooting means that shoot the projected image at different positions.

本発明によれば、ディスプレイを備えなくとも、任意の場所で所望の情報を他人との間で共有する際に、効率よく情報共有する携帯デバイスを提供することができる。 According to the present invention, it is possible to provide a portable device for efficiently sharing information when sharing desired information with another person at any place without providing a display.

本発明の一実施形態による装着装置の外観を示す第一の図である。It is the first figure which shows the appearance of the mounting apparatus by one Embodiment of this invention. 本発明の一実施形態による装着装置の外観を示す第二の図である。It is a second figure which shows the appearance of the mounting apparatus by one Embodiment of this invention. 本発明の一実施形態による装着装置のハードウェア機能ブロック図である。It is a hardware function block diagram of the mounting apparatus according to one Embodiment of this invention. 本発明の一実施形態による装着装置に備わる情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the information processing apparatus provided in the attachment apparatus by one Embodiment of this invention. 本発明の一実施形態による情報処理部の機能ブロック図である。It is a functional block diagram of the information processing unit by one Embodiment of this invention. 本発明の一実施形態による装着装置の使用例を示す第一の図である。It is the first figure which shows the use example of the mounting apparatus by one Embodiment of this invention. 本発明の一実施形態による装着装置の使用例を示す第二の図である。It is a second figure which shows the use example of the mounting apparatus by one Embodiment of this invention. 本発明の一実施形態による情報処理装置の処理フローを示す図である。It is a figure which shows the processing flow of the information processing apparatus by one Embodiment of this invention. 本発明の一実施形態による装着装置の最小構成を示す図である。It is a figure which shows the minimum structure of the mounting apparatus by one Embodiment of this invention. 本発明の一実施形態による最小構成の装着装置による処理フローを示す図である。It is a figure which shows the processing flow by the mounting apparatus of the minimum composition by one Embodiment of this invention.

以下、本発明の一実施形態による装着装置を図面を参照して説明する。
図1は同実施形態による装着装置の外観を示す第一の図である。
図1で示す装着装置1は、眼鏡形状を形成しており、装着装置1の眼鏡形状のフレームのレンズ間に投影手段の一態様であるプロジェクタ11を備え、眼鏡形状のフレームに設けられた2枚のレンズの両端にそれぞれ撮影手段の一態様であるカメラ12を備えている。プロジェクタ11やカメラ12は、図1に図示する以外の眼鏡形状のフレームの箇所に設けられていてもよい。
Hereinafter, the mounting device according to the embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is the first diagram showing the appearance of the mounting device according to the same embodiment.
The wearing device 1 shown in FIG. 1 has a spectacle shape, and is provided with a projector 11 which is one aspect of the projection means between the lenses of the spectacle-shaped frame of the wearing device 1 and is provided on the spectacle-shaped frame. A camera 12 is provided at both ends of each of the lenses, which is one aspect of the photographing means. The projector 11 and the camera 12 may be provided at a position of a spectacle-shaped frame other than that shown in FIG.

図2は同実施形態による装着装置の外観を示す第二の図である。
図2で示す装着装置1は、ゴーグル形状を形成しており、装着装置1のゴーグル形状のフレームの中央に投影手段の一態様であるプロジェクタ11を備え、ゴーグル形状のフレームに設けられたレンズの左右端部にそれぞれ撮影手段の一態様であるカメラ12を備えている。プロジェクタ11やカメラ12は、図2に図示する以外のゴーグル形状のフレームの箇所に設けられていてもよい。
FIG. 2 is a second view showing the appearance of the mounting device according to the same embodiment.
The mounting device 1 shown in FIG. 2 has a goggle shape, and is provided with a projector 11 which is an aspect of the projection means in the center of the goggle-shaped frame of the mounting device 1, and a lens provided in the goggle-shaped frame. Cameras 12, which are one aspect of photographing means, are provided at the left and right ends, respectively. The projector 11 and the camera 12 may be provided at a position of a goggle-shaped frame other than that shown in FIG.

プロジェクタ11は、装着装置1を装着するユーザの前方方向の投影面に投影画像を投影する。プロジェクタ11は、装着装置1を装着するユーザの前方に位置する投影面に投影画像を投影できるように装着装置1の所望位置に設けられればよい。またカメラ12は、プロジェクタ11が投影面に投影した投影画像を異なる位置で撮影する少なくとも2つの撮影手段である。カメラ12は、投影画像の全体を撮影できるように装着装置1の所望位置に設けられればよい。 The projector 11 projects a projected image on a projection surface in the front direction of the user who wears the mounting device 1. The projector 11 may be provided at a desired position of the mounting device 1 so that the projected image can be projected on the projection surface located in front of the user who wears the mounting device 1. Further, the camera 12 is at least two photographing means for photographing the projected image projected on the projection surface by the projector 11 at different positions. The camera 12 may be provided at a desired position of the mounting device 1 so that the entire projected image can be captured.

図1や図2で示す装着装置1は、眼鏡形状のフレームやゴーグル形状のフレームに情報処理装置2の機能を内蔵または装着してよい。情報処理装置2の機能は、プロジェクタ11やカメラ12と信号線を介して接続されている。 The wearing device 1 shown in FIGS. 1 and 2 may incorporate or mount the function of the information processing device 2 in a spectacle-shaped frame or a goggle-shaped frame. The function of the information processing device 2 is connected to the projector 11 and the camera 12 via a signal line.

図3は装着装置のハードウェア機能ブロック図である。
装着装置1は、図3に示すように、プロジェクタ11とカメラ12とが制御部10に接続され、また制御部10は情報処理部13と接続している。情報処理部13は制御部10を介してプロジェクタ11やカメラ12などのハードウェアを制御してよい。制御部10と情報処理部13を備えた情報処理装置2は、装着装置1と別の筐体に設けられたものであってもよい。装着装置1は、このほか、マイク、スピーカー、情報を入力するためにユーザが操作するための入力装置、他の装置と無線信号を送受信する無線装置、などのハードウェア構成を備えてよい。
FIG. 3 is a hardware function block diagram of the mounting device.
As shown in FIG. 3, in the mounting device 1, the projector 11 and the camera 12 are connected to the control unit 10, and the control unit 10 is connected to the information processing unit 13. The information processing unit 13 may control hardware such as the projector 11 and the camera 12 via the control unit 10. The information processing device 2 provided with the control unit 10 and the information processing unit 13 may be provided in a housing different from the mounting device 1. In addition, the mounting device 1 may include a hardware configuration such as a microphone, a speaker, an input device for the user to operate for inputting information, and a wireless device for transmitting and receiving wireless signals to and from other devices.

図4は装着装置に備わる情報処理装置のハードウェア構成を示す図である。
図4で示すように、情報処理装置2は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、データベース104、通信モジュール105等の各ハードウェアを備えたコンピュータである。
FIG. 4 is a diagram showing a hardware configuration of an information processing device provided in the mounting device.
As shown in FIG. 4, the information processing device 2 includes hardware such as a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a database 104, and a communication module 105. It is a computer.

図5は情報処理部の機能ブロック図である。
情報処理装置2は、CPU101がプログラムを実行することにより、投影制御部21、撮影制御部22、歪み補正部23、色補正部24、位置検出部25、アプリケーション処理部26、決済処理部27などの機能を発揮する。
FIG. 5 is a functional block diagram of the information processing unit.
The information processing device 2 includes a projection control unit 21, a shooting control unit 22, a distortion correction unit 23, a color correction unit 24, a position detection unit 25, an application processing unit 26, a payment processing unit 27, and the like when the CPU 101 executes a program. Demonstrate the function of.

投影制御部21は、ユーザの前方方向の投影面に投影画像を投影するプロジェクタの投影の制御を行う。
撮影制御部22は、投影画像を異なる位置で撮影する少なくとも2つのカメラ12の撮影の制御を行う。
The projection control unit 21 controls the projection of the projector that projects the projected image onto the projection surface in the front direction of the user.
The shooting control unit 22 controls the shooting of at least two cameras 12 that shoot the projected images at different positions.

歪み補正部23は、投影画像を撮影した撮影画像を取得し、それら撮影画像における対応点までの距離に基づいて投影面を検出し、当該投影面を表す情報に基づいて、当該投影面に投影する投影画像のゆがみを補正する。
色補正部24は、カメラ12の何れかから取得した撮影画像に基づいて、プロジェクタ11が投影画像の投影に用いる光量を補正する。これにより色補正部24は、投影画像の輝度を変更する。色補正部24は、撮影画像に基づいて投影画像の色調を変更するようにプロジェクタ11を制御してもよい。
The distortion correction unit 23 acquires captured images obtained by capturing the projected images, detects the projected surface based on the distance to the corresponding point in the captured images, and projects the projected surface onto the projected surface based on the information representing the projected surface. Corrects the distortion of the projected image.
The color correction unit 24 corrects the amount of light used by the projector 11 for projecting the projected image based on the captured image acquired from any of the cameras 12. As a result, the color correction unit 24 changes the brightness of the projected image. The color correction unit 24 may control the projector 11 so as to change the color tone of the projected image based on the captured image.

位置検出部25は、投影画像を撮影した撮影画像をカメラ12それぞれから取得し、それら撮影画像に映る指などのポインタの位置の差異等に基づいて投影面において当該ポインタが指し示す投影画像の位置を特定する。
アプリケーション処理部26は、ポインタが指し示す投影画像の位置に応じた入力情報に基づく処理を行う。
決済処理部27は、決済コードを投影画像として投影面に投影する。
The position detection unit 25 acquires captured images of captured images from each of the cameras 12, and determines the position of the projected image pointed to by the pointer on the projection surface based on the difference in the positions of pointers such as fingers reflected in the captured images. Identify.
The application processing unit 26 performs processing based on the input information according to the position of the projected image pointed to by the pointer.
The payment processing unit 27 projects the payment code as a projection image on the projection surface.

図6は装着装置の使用例を示す第一の図である。
図6で示すように、ユーザは眼鏡形状の装着装置1を顔に装着する。また図6では、投影面の一態様である机の天板に投影画像を投影した際のイメージを示す。装着装置1のプロジェクタ11は、机上平面に対して投影画像を斜めに照射するが、情報処理装置2が歪みを補正して、投影画像を正しく長方形に投影されるように補正する。また、情報処理装置2は、机上平面が暗い色調であっても、プロジェクタ11の投影における光の輝度を上げることで、投影画像が明瞭となるよう投影する。
FIG. 6 is a first diagram showing a usage example of the mounting device.
As shown in FIG. 6, the user wears the spectacle-shaped wearing device 1 on the face. Further, FIG. 6 shows an image when the projected image is projected on the top plate of the desk, which is one aspect of the projection surface. The projector 11 of the mounting device 1 irradiates the projected image obliquely with respect to the desktop plane, but the information processing device 2 corrects the distortion so that the projected image is correctly projected in a rectangular shape. Further, the information processing apparatus 2 projects the projected image so that it becomes clear by increasing the brightness of the light in the projection of the projector 11 even if the desktop plane has a dark color tone.

図7は装着装置の使用例を示す第二の図である。
図6同様に、ユーザは眼鏡形状の装着装置1を顔に装着する。また図7では、投影面の一態様である壁に投影画像を投影した際のイメージを示す。情報処理装置2は、壁面に対する距離と投影角度に応じで、プロジェクタ11で照射角を補正して、投影画像が、適正なサイズの長方形に投影されるよう補正する。また、壁面が暗い色調であっても、プロジェクタ11の投影における光の輝度を上げることで、投影画像が明瞭となるよう投影する。
FIG. 7 is a second diagram showing a usage example of the mounting device.
Similarly to FIG. 6, the user wears the spectacle-shaped wearing device 1 on the face. Further, FIG. 7 shows an image when a projected image is projected on a wall, which is one aspect of the projection surface. The information processing apparatus 2 corrects the irradiation angle with the projector 11 according to the distance to the wall surface and the projection angle so that the projected image is projected onto a rectangle of an appropriate size. Further, even if the wall surface has a dark color tone, the projected image is projected so as to be clear by increasing the brightness of the light in the projection of the projector 11.

図8は情報処理装置の処理フローを示す図である。
装着装置1に設けられた情報処理装置2において、投影制御部21は何等かの指示を契機に投影画像の投影開始を検知する(ステップS101)。投影制御部21は、例えばマイクから得た音声が投影開始を示す音声であるかを解析し、投影開始を示す音声である場合には投影画像の投影を開始する。または投影制御部21は、無線装置を介して受信した他装置からの信号に基づいて投影開始を検知し、投影開始を検知した場合には投影画像の投影を開始する。または投影制御部21は、予め起動しているカメラ12から取得した撮影画像を解析し、投影開始を検知した場合には投影画像の投影を開始する。または投影制御部21は、アプリケーション処理部26や決済処理部27からの指示に基づいて投影開始を検知し、投影画像の投影を開始する。
FIG. 8 is a diagram showing a processing flow of the information processing apparatus.
In the information processing device 2 provided in the mounting device 1, the projection control unit 21 detects the start of projection of the projected image triggered by some instruction (step S101). The projection control unit 21 analyzes, for example, whether the sound obtained from the microphone is a sound indicating the start of projection, and if it is a sound indicating the start of projection, starts projecting the projected image. Alternatively, the projection control unit 21 detects the start of projection based on the signal from another device received via the wireless device, and when the start of projection is detected, the projection of the projected image is started. Alternatively, the projection control unit 21 analyzes the captured image acquired from the camera 12 activated in advance, and when it detects the start of projection, starts projecting the projected image. Alternatively, the projection control unit 21 detects the start of projection based on the instructions from the application processing unit 26 and the payment processing unit 27, and starts the projection of the projected image.

投影制御部21は、投影開始の検知に基づいて、指示により特定した投影画像をデータベース104などの記憶部から取得する。投影制御部21は、取得した投影画像をプロジェクタ11へ出力すると共に、プロジェクタ11へ投影指示を出力する。プロジェクタ11は投影画像と投影指示とを投影制御部21から入力し、投影画像を投影する(ステップS102)。ユーザは装着したプロジェクタ11の投影方向が投影面に向くよう顔の向きや体の向きを調整する。すると、投影面に投影画像が投影される。 The projection control unit 21 acquires a projection image specified by an instruction from a storage unit such as a database 104 based on the detection of the start of projection. The projection control unit 21 outputs the acquired projection image to the projector 11 and outputs a projection instruction to the projector 11. The projector 11 inputs a projected image and a projection instruction from the projection control unit 21 and projects the projected image (step S102). The user adjusts the orientation of the face and the orientation of the body so that the projection direction of the mounted projector 11 faces the projection surface. Then, the projected image is projected on the projection surface.

撮影制御部22は、プロジェクタ11の投影開始またはそれより前の上述の投影開始に関する指示に基づいて撮影指示を各カメラ12へ出力する。するとカメラ12は撮影を開始する。カメラ12は撮影画像を生成して情報処理装置2へ出力する(ステップS103)。制御部10は各カメラ12から撮影画像を取得する。制御部10は撮影画像とその撮影画像を出力したカメラ12の識別情報とを紐づけてRAM103など記憶部にその撮影画像を記録する。情報処理装置2は、2つのカメラ12の何れが出力した撮影画像かが分かるように、また時刻を紐づけるなどして同時刻に撮影された撮影画像がわかるように、撮影画像を記憶する。 The shooting control unit 22 outputs a shooting instruction to each camera 12 based on the above-mentioned instruction regarding the start of projection of the projector 11 or the above-mentioned projection start prior to that. Then, the camera 12 starts shooting. The camera 12 generates a captured image and outputs it to the information processing apparatus 2 (step S103). The control unit 10 acquires captured images from each camera 12. The control unit 10 associates the captured image with the identification information of the camera 12 that outputs the captured image, and records the captured image in a storage unit such as a RAM 103. The information processing apparatus 2 stores the captured image so that which of the two cameras 12 outputs the captured image can be known, and the captured image captured at the same time can be known by associating the time with each other.

歪み補正部23は、投影開始の指示を検出する。そして歪み補正部23は、2つのカメラ12からほぼ同時に出力された撮影画像の対を読み取る。歪み補正部23は、各撮影画像を比較し、各撮影画像に写るある対象点の対応する撮影画像における位置の差を検出する。歪み補正部23はその差によって、三角測量により装着装置1におけるある点を基準とする3次元の仮想空間における原点から対象点までの距離を測定する。歪み補正部23は、撮影画像における設定した複数の対象点までの距離をそれぞれ同様に測定する。 The distortion correction unit 23 detects the instruction to start projection. Then, the distortion correction unit 23 reads a pair of captured images output from the two cameras 12 at almost the same time. The distortion correction unit 23 compares each captured image and detects a difference in position of a certain target point in each captured image in the corresponding captured image. The distortion correction unit 23 measures the distance from the origin to the target point in the three-dimensional virtual space based on a certain point in the mounting device 1 by triangulation based on the difference. The distortion correction unit 23 measures the distances to a plurality of set target points in the captured image in the same manner.

歪み補正部23は、各対象点の距離に基づいて、上記仮想空間における投影面の法線方向や、投影面の平面を示す式、などの投影面を表す情報を算出する。また歪み補正部23は、撮影画像における投影画像の範囲の面積を算出する。例えば歪み補正部23は、撮影画像における輝度に基づいて投影画像の範囲を特定し、その範囲に基づいて面積を算出してよい。歪み補正部23は、投影画像の範囲に基づいて投影画像の形状を示す情報を算出してもよい。歪み補正部23は、投影面を表す情報と、投影画像の形状とに基づいて、投影面に写る投影画像の形状が所定の形状により投影されているかを判定する。歪み補正部23は、投影面に写る投影画像の形状が所定の形状でないと判定した場合には、投影面に写る投影画像の形状が所定の形状となるよう投影画像の形状を補正する補正パラメータを算出する(ステップS104)。投影画像の形状を補正する補正パラメータは、投影画像の拡大率や、投影画像が矩形である場合の辺の長さや、その各辺の長さの変更に応じた辺の拡大率などであってよい。所定の形状は例えば、辺の長さや縦横比が定まる矩形(長方形や正方形)などであってよい。歪み補正部23は、また、投影画像の面積が所定の大きさになるよう投影画像の拡大率を示す補正パラメータを算出するようにしてもよい。歪み補正部23は、補正パラメータを含む歪み補正指示をプロジェクタ11へ出力する(ステップS105)。プロジェクタ11は補正パラメータを用いて投影画像を補正する。 The distortion correction unit 23 calculates information representing the projection surface such as the normal direction of the projection surface in the virtual space and the formula indicating the plane of the projection surface based on the distance of each target point. Further, the distortion correction unit 23 calculates the area of the range of the projected image in the captured image. For example, the distortion correction unit 23 may specify a range of the projected image based on the brightness of the captured image, and calculate the area based on the range. The distortion correction unit 23 may calculate information indicating the shape of the projected image based on the range of the projected image. The distortion correction unit 23 determines whether or not the shape of the projected image reflected on the projected surface is projected by a predetermined shape based on the information representing the projected surface and the shape of the projected image. When the distortion correction unit 23 determines that the shape of the projected image reflected on the projection surface is not a predetermined shape, the distortion correction unit 23 corrects the shape of the projected image so that the shape of the projected image reflected on the projection surface becomes a predetermined shape. Is calculated (step S104). The correction parameters that correct the shape of the projected image are the enlargement ratio of the projected image, the length of the sides when the projected image is rectangular, and the enlargement ratio of the sides according to the change in the length of each side. good. The predetermined shape may be, for example, a rectangle (rectangle or square) in which the length of the side and the aspect ratio are determined. The distortion correction unit 23 may also calculate a correction parameter indicating the enlargement ratio of the projected image so that the area of the projected image becomes a predetermined size. The distortion correction unit 23 outputs a distortion correction instruction including correction parameters to the projector 11 (step S105). The projector 11 corrects the projected image using the correction parameters.

また色補正部24も、投影開始の指示を検出する。そして色補正部24は、2つのカメラ12から出力された撮影画像のうちの少なくとも一方を読み取る。色補正部24は、撮影画像の輝度を検出し、その輝度が所定の閾値になるよう、プロジェクタ11が投影画像を照射する光の光量パラメータを算出する(ステップS106)。色補正部24は、光量パラメータをプロジェクタ11へ出力する(ステップS107)。色補正部24は、撮影画像の輝度が所定の閾値未満であれば、撮影画像の輝度と所定の閾値が示す輝度との差に応じた光量の増加値を示す光量パラメータをプロジェクタ11へ出力する。色補正部24は、撮影画像の輝度が所定の閾値以上であれば、撮影画像の輝度と所定の閾値が示す輝度との差に応じた光量の減少値を示す光量パラメータをプロジェクタ11へ出力する。また色補正部24は、撮影画像の各画素の色情報に基づいて、当該色情報が所定の色になるよう色調補正値をプロジェクタ11へ出力してもよい。これによりプロジェクタ11は、指示に応じた光量、または色調の投影画像を投影面に投影する。プロジェクタ11は光量パラメータに基づいて投影画像を投影するさいの光量を変更する。 The color correction unit 24 also detects an instruction to start projection. Then, the color correction unit 24 reads at least one of the captured images output from the two cameras 12. The color correction unit 24 detects the brightness of the captured image, and calculates the light amount parameter of the light that the projector 11 irradiates the projected image so that the brightness becomes a predetermined threshold value (step S106). The color correction unit 24 outputs the light amount parameter to the projector 11 (step S107). If the brightness of the captured image is less than a predetermined threshold value, the color correction unit 24 outputs a light amount parameter indicating an increase value of the light amount according to the difference between the brightness of the captured image and the brightness indicated by the predetermined threshold value to the projector 11. .. If the brightness of the captured image is equal to or higher than a predetermined threshold value, the color correction unit 24 outputs a light amount parameter indicating a decrease value of the light amount according to the difference between the brightness of the captured image and the brightness indicated by the predetermined threshold value to the projector 11. .. Further, the color correction unit 24 may output a color tone correction value to the projector 11 so that the color information becomes a predetermined color based on the color information of each pixel of the captured image. As a result, the projector 11 projects the projected image of the amount of light or the color tone according to the instruction on the projection surface. The projector 11 changes the amount of light when projecting a projected image based on the amount of light parameter.

以上の処理により、装着装置1は、投影面に投影した投影画像を、自動的に所定の形状、所定の輝度、所定の色、所定の大きさになるように投影することができる。 By the above processing, the mounting device 1 can automatically project the projected image projected on the projection surface so as to have a predetermined shape, a predetermined brightness, a predetermined color, and a predetermined size.

また位置検出部25も、投影開始の指示を検出する。そして位置検出部25は、2つのカメラ12から出力された撮影画像を読み取る。位置検出部25は、各撮影画像に写る投影画像において所定のポインタの形状が写っているかを判定する。例えばポインタは人の指であってよい。またはポインタは指示棒などであってもよい。位置検出部25は、撮影画像中の投影画像においてポインタを検出した場合には、各撮影画像からポインタの先端に対応する画像内座標を算出する。 The position detection unit 25 also detects an instruction to start projection. Then, the position detection unit 25 reads the captured images output from the two cameras 12. The position detection unit 25 determines whether or not the shape of a predetermined pointer is captured in the projected image captured in each captured image. For example, the pointer may be a human finger. Alternatively, the pointer may be a pointer or the like. When the position detection unit 25 detects a pointer in the projected image in the captured image, the position detection unit 25 calculates the coordinates in the image corresponding to the tip of the pointer from each captured image.

位置検出部25は、各カメラ12からほぼ同時刻に取得した2つの撮影画像におけるポインタの先端の座標を比較し、ポインタの座標の差によって、三角測量により装着装置1におけるある点を基準とする3次元の仮想空間における原点からポインタ先端までの距離を測定する。位置検出部25は、仮想空間における原点からポインタ先端までの距離と、当該原点からポインタ先端の位置に対応する投影面までの距離との差が所定値以内など、それらの距離が略一致していると判定できるかを判定する。位置検出部25は、仮想空間における原点からポインタ先端までの距離と、当該原点からポインタ先端の位置に対応する投影面までの距離とが一致していると判定した場合、撮影画像中の投影画像のポインタ先端に対応する位置の情報をアプリケーション処理部26へ出力する(ステップS108)。アプリケーション処理部26は、投影画像中の対応する位置を特定し、その位置に応じた処理を行う。例えばその位置にボタンのアイコンが表示されている場合、アプリケーション処理部26は、ユーザがボタンを押下したことを検出する。 The position detection unit 25 compares the coordinates of the tip of the pointer in the two captured images acquired from each camera 12 at approximately the same time, and refers to a certain point in the mounting device 1 by triangulation based on the difference in the coordinates of the pointer. The distance from the origin to the tip of the pointer in a three-dimensional virtual space is measured. In the position detection unit 25, the difference between the distance from the origin to the tip of the pointer in the virtual space and the distance from the origin to the projection plane corresponding to the position of the tip of the pointer is within a predetermined value, and the distances are substantially the same. Determine if it can be determined to be present. When the position detection unit 25 determines that the distance from the origin to the tip of the pointer in the virtual space and the distance from the origin to the projection surface corresponding to the position of the tip of the pointer match, the projected image in the captured image. The information of the position corresponding to the tip of the pointer of is output to the application processing unit 26 (step S108). The application processing unit 26 identifies a corresponding position in the projected image and performs processing according to the position. For example, when the button icon is displayed at that position, the application processing unit 26 detects that the user has pressed the button.

装着装置1は、様々な投影画像を投影面に投影してよい。例えば装着装置1の情報処理装置2において、決済処理部27は、所定の決済処理の指示に基づいて、その決済処理に用いる二次元コード(決済コード)を投影画像として投影制御部21へ出力する。投影制御部21は、その二次元コードを投影画像として投影するようプロジェクタ11を制御する。二次元コードの投影面は、例えばレジカウンタの台の天板であるとする。カメラ12はその二次元コードを撮影する。歪み補正部23は二次元コードの歪みを上述のように補正する。色補正部24は二次元コードの輝度や色情報を補正する。二次元コードには、決済金額とユーザ識別子とを含む。または二次元コードは単にユーザの識別を含むものであってもよい。または二次元コードには、その他の決済代行会社の識別子や、装着装置1の識別子などを含んでもよい。二次元コードにはそれらの情報の少なくとも一つまたは複数が含まれている決済用のコード情報であってよい。 The mounting device 1 may project various projected images onto the projection surface. For example, in the information processing device 2 of the mounting device 1, the payment processing unit 27 outputs a two-dimensional code (payment code) used for the payment processing to the projection control unit 21 as a projection image based on a predetermined payment processing instruction. .. The projection control unit 21 controls the projector 11 to project the two-dimensional code as a projected image. It is assumed that the projection surface of the two-dimensional code is, for example, the top plate of the table of the cash register counter. The camera 12 captures the two-dimensional code. The distortion correction unit 23 corrects the distortion of the two-dimensional code as described above. The color correction unit 24 corrects the brightness and color information of the two-dimensional code. The two-dimensional code includes the payment amount and the user identifier. Alternatively, the two-dimensional code may simply include the identification of the user. Alternatively, the two-dimensional code may include an identifier of another payment agent, an identifier of the wearing device 1, and the like. The two-dimensional code may be code information for payment that includes at least one or a plurality of such information.

レジカウンタの店員は、レジカウンタの台の天板に投影された二次元コードを読取装置で読み取る。読み取り装置はレジ機器に二次元コードを出力する。これにより、レジ機器は二次元コードを用いた、公知の決済処理を行う。 The cashier counter clerk reads the two-dimensional code projected on the top plate of the cashier counter stand with a reading device. The reading device outputs a two-dimensional code to the cash register device. As a result, the cash register device performs a known payment process using a two-dimensional code.

上述の装着装置1の処理によれば、プロジェクタ11により投影画像をユーザの前面にある投影面に直接投影するので、ユーザ自身が投影画像を確認する際に、視界を妨げることなく、投影画像が広く見える状態となりユーザに好適である。
また投影画像を投影面に投影するので、他者との投影画像で映し出される情報の共有が可能となる。
According to the process of the mounting device 1 described above, the projector 11 directly projects the projected image onto the projection surface in front of the user, so that when the user himself / herself confirms the projected image, the projected image can be displayed without obstructing the field of view. It looks wide and is suitable for users.
Moreover, since the projected image is projected on the projection surface, it is possible to share the information projected by the projected image with others.

また一般的なスマートフォン等の携帯端末に対しては、取り出す手間がかからず、また、両手を開けた状態で、他者との間で投影画像により映し出される情報の共有を行うことができる。 Further, for a mobile terminal such as a general smartphone, it does not take time to take it out, and it is possible to share the information projected by the projected image with another person with both hands open.

また投影画像の投影に適する投影面であれば、机の上、壁面、車等のボディ面、さらには、掌や腕などの身体などに投影画像を投影して、何時でも使用することが可能であり、投影面の面積や距離に応じて、画面の大きさを変えることが可能である。 In addition, if the projection surface is suitable for projecting the projected image, the projected image can be projected onto the desk, wall surface, body surface such as a car, and the body such as the palm or arm, and can be used at any time. Therefore, it is possible to change the size of the screen according to the area and distance of the projection surface.

また上述の装着装置1の処理によれば、QR(Quick Response)コード(登録商標)等の二次元コードやバーコード等によるコード決済においても好適である。ここで、コード決済については、ユーザースキャン方式とストアスキャン方式の2つ方式が知られている。ユーザースキャン方式においては、店舗側が掲示しているコードを、利用者側の端末で読み取り、利用者側において利用者が自身の保持する端末に支払金額を入力して当該端末に表示された金額を店員に確認してもらう必要がある。しかしながら、ヘッドマウントディスプレイにおいて用いられている情報の表示方式として存在する虚像投影方式や網膜投影方式では、コード情報を店員に見ることができないため、利用者は自身の保持する端末に入力した支払金額を確認してもらうことが出来ず、支払いを成立させることができない。また、一般的なスマートフォンによる支払方法では、利用者が自身の保持するスマートフォンに利用金額を入力し、スマートフォンを持ち替えて店員に渡し、店員が利用者のスマートフォンに表示された支払金額を確認した後、利用者の元にスマートフォンを返却して貰い、利用者は再びスマートフォンを持ち替えて、自身のスマートフォンを用いて最終的な決済操作を行う、という煩雑なやり取りを踏む必要がある。 Further, according to the above-mentioned processing of the mounting device 1, it is also suitable for code payment using a two-dimensional code such as a QR (Quick Response) code (registered trademark) or a bar code. Here, two methods are known for code payment, a user scan method and a store scan method. In the user scan method, the code posted by the store is read by the user's terminal, the user inputs the payment amount to the terminal held by the user, and the amount displayed on the terminal is displayed. You need to ask the clerk to confirm. However, in the virtual image projection method and the retinal projection method, which exist as the information display method used in the head-mounted display, the code information cannot be seen by the clerk, so the user can enter the payment amount into the terminal held by the user. I can't get confirmation and I can't make the payment. In addition, in the general smartphone payment method, the user inputs the usage amount into the smartphone held by the user, changes the smartphone and hands it to the clerk, and after the clerk confirms the payment amount displayed on the user's smartphone. , It is necessary to have the smartphone returned to the user, and the user has to change the smartphone again and perform the final payment operation using his / her own smartphone, which is a complicated exchange.

ストアスキャン方式は、利用者側の端末に表示した支払い情報が埋め込まれたコードを、店舗側の据え置き型または手持ち型のコードリーダで読み取るものである。しかしながら、上述した虚像投影方式と網膜投影方式では、支払い情報が埋め込まれたコードが表示された画像を、店舗側から読み取ることができないため、支払いを成立させることができない。また、店舗側のコードリーダが、読み取り部が上を向いている据え置き型のコードリーダの場合、一般的なスマートフォンによる支払方法では、利用者がスマートフォンを操作して支払い情報が埋め込まれたコードを表示し、スマートフォンを持ち替えて表裏を反対にして、店舗側のコードリーダの読み取り部にスマートフォンをかざし、コードを読み取らせた後、再びスマートフォンを持ち替えて裏表を反対にし、支払い情報のコード表示を閉じるという、煩雑な取り扱いを行う必要がある。 In the store scan method, a code in which payment information displayed on a terminal on the user side is embedded is read by a stationary or handheld code reader on the store side. However, in the above-mentioned virtual image projection method and retinal projection method, the payment cannot be completed because the image in which the code in which the payment information is embedded cannot be read from the store side. In addition, if the code reader on the store side is a stationary code reader with the reading unit facing up, the user operates the smartphone to insert the code with the payment information embedded in the payment method using a general smartphone. Display, switch the smartphone and turn the front and back, hold the smartphone over the reading part of the code reader on the store side, read the code, then switch the smartphone again and turn the front and back, and close the code display of payment information It is necessary to perform complicated handling.

しかしながら上述の装着装置1によれば、店舗側のコードリーダが、読み取り部が上を向いている据え置き型のコードリーダに対しては、プロジェクタ11がコード情報を表示するための投影画像を、直接、コードリーダの読み取り部に照射して、その上で支払金額の入力から、店員の確認、最終的な決済処理まで進めることが出来るため、煩雑な端末のやり取りは不要である。なお、店舗側のコードリーダが、読み取り部を下に向けることができる手持ち型のコードリーダに対しては、プロジェクタ11がコード情報を表示するための投影画像を、レジカウンタの台の天板に照射することで、コード情報の読み取りから、支払金額の入力、店員の確認、最終的な決済処理まで進めることが出来るため、煩雑な端末のやり取りは不要である。 However, according to the above-mentioned mounting device 1, the code reader on the store side directly displays a projected image for the projector 11 to display the code information for the stationary code reader with the reading unit facing upward. Since it is possible to irradiate the reading unit of the code reader and then proceed from inputting the payment amount to confirmation of the clerk and final payment processing, complicated terminal exchange is not required. For a handheld code reader that allows the code reader on the store side to point the reading unit downward, the projected image for the projector 11 to display the code information is displayed on the top plate of the counter. By irradiating, it is possible to proceed from reading the code information, inputting the payment amount, confirming the clerk, and final payment processing, so that complicated terminal exchange is not required.

図9は装着装置の最小構成を示す図である。
図10は最小構成の装着装置による処理フローを示す図である。
装着装置1は、少なくとも、投影手段91と、少なくとも2つの撮影手段92とを備えればよい。
投影手段91は、ユーザの前方方向の投影面に投影画像を投影する(ステップS901)。
撮影手段92は、投影画像を異なる位置で撮影する(ステップS902)。
FIG. 9 is a diagram showing the minimum configuration of the mounting device.
FIG. 10 is a diagram showing a processing flow by the mounting device having the minimum configuration.
The mounting device 1 may include at least a projection means 91 and at least two photographing means 92.
The projection means 91 projects a projected image on a projection surface in the front direction of the user (step S901).
The photographing means 92 photographs the projected image at different positions (step S902).

上述の装着装置1に備わる情報処理装置2の内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。 A computer system is provided inside the information processing device 2 provided in the above-mentioned mounting device 1. The process of each process described above is stored in a computer-readable recording medium in the form of a program, and the process is performed by the computer reading and executing this program. Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Further, this computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned function in combination with a program already recorded in the computer system.

1・・・装着装置
2・・・情報処理装置
10・・・制御部
11・・・プロジェクタ
12・・・カメラ
13・・・情報処理部
21・・・投影制御部
22・・・撮影制御部
23・・・歪み補正部
24・・・色補正部
25・・・位置検出部
26・・・アプリケーション処理部
27・・・決済処理部
1 ... Mounting device 2 ... Information processing device 10 ... Control unit 11 ... Projector 12 ... Camera 13 ... Information processing unit 21 ... Projection control unit 22 ... Shooting control unit 23 ... Distortion correction unit 24 ... Color correction unit 25 ... Position detection unit 26 ... Application processing unit 27 ... Payment processing unit

本発明の第1の態様によれば、装着装置は、眼鏡形状またはゴーグル形状を成し、前記眼鏡形状または前記ゴーグル形状の中央に備わり、ユーザの前方方向の投影面に投影画像を投影する投影手段と、前記眼鏡形状または前記ゴーグル形状の左右端部の異なる位置において、前記投影画像撮影する少なくとも2つの撮影手段と、前記投影画像を撮影した撮影画像を前記撮影手段からそれぞれ取得し、それら撮影画像における対応点までの距離に基づいて前記投影面を検出し、当該投影面を表す情報に基づいて、当該投影面に投影する前記投影画像のゆがみを補正する歪み補正手段と、を備える。 According to the first aspect of the present invention, the wearing device is in the shape of spectacles or goggles, is provided in the center of the spectacles or goggles, and projects a projected image onto a projection plane in the front direction of the user. The means, at least two photographing means for photographing the projected image at different positions of the left and right ends of the eyeglass shape or the goggles shape, and the photographed image obtained by capturing the projected image are acquired from the photographing means, respectively, and they are obtained. The projection plane is detected based on the distance to the corresponding point in the captured image, and the distortion correction means for correcting the distortion of the projection image projected on the projection plane based on the information representing the projection plane is provided.

本発明の第2の態様によれば、処理方法は、装着装置が眼鏡形状またはゴーグル形状を成し、装着装置の投影手段が前記眼鏡形状または前記ゴーグル形状の中央に備わり、ユーザの前方方向の投影面に投影画像を投影し、前記装着装置の少なくとも2つの撮影手段が前記眼鏡形状または前記ゴーグル形状の左右端部の異なる位置において、前記投影画像撮影し、前記装着装置の歪み補正手段が、前記投影画像を撮影した撮影画像を前記撮影手段からそれぞれ取得し、それら撮影画像における対応点までの距離に基づいて前記投影面を検出し、当該投影面を表す情報に基づいて、当該投影面に投影する前記投影画像のゆがみを補正するAccording to the second aspect of the present invention, in the processing method, the wearing device is in the shape of spectacles or goggles, and the projection means of the wearing device is provided in the center of the spectacles or the goggles, and is directed toward the front of the user. projecting the projected image on the projection surface, at least two imaging means are different right and left end portions of the spectacle-shaped or the goggles shape position of the mounting device, photographs the projection image, the distortion correcting means of the mounting device , The captured image obtained by capturing the projected image is acquired from the imaging means, the projection surface is detected based on the distance to the corresponding point in the captured image, and the projection surface is based on the information representing the projection surface. The distortion of the projected image projected on the image is corrected .

本発明の第3の態様によれば、プログラムは、眼鏡形状またはゴーグル形状を成した装着装置に設けられた情報処理装置を、前記眼鏡形状または前記ゴーグル形状の中央に備わり、ユーザの前方方向の投影面に投影画像を投影する投影手段、前記眼鏡形状または前記ゴーグル形状の左右端部の異なる位置において、前記投影画像撮影する少なくとも2つの撮影手段、前記投影画像を撮影した撮影画像を前記撮影手段からそれぞれ取得し、それら撮影画像における対応点までの距離に基づいて前記投影面を検出し、当該投影面を表す情報に基づいて、当該投影面に投影する前記投影画像のゆがみを補正する歪み補正手段、として機能させる。 According to a third aspect of the present invention, the program is provided with an information processing device provided in a spectacle-shaped or goggle-shaped wearing device in the center of the spectacle-shaped or goggles-shaped, and is directed toward the user's front. A projection means for projecting a projected image on a projection surface, at least two photographing means for photographing the projected image at different positions on the left and right ends of the eyeglass shape or the goggles shape, and the photographed image obtained by capturing the projected image. Distortion that is acquired from each means, detects the projection plane based on the distance to the corresponding point in the captured images, and corrects the distortion of the projection image projected on the projection plane based on the information representing the projection plane. It functions as a correction means.

Claims (10)

ユーザの前方方向の投影面に投影画像を投影する投影手段と、
前記投影画像を異なる位置で撮影する少なくとも2つの撮影手段と、
を備える装着装置。
A projection means that projects a projected image onto the projection plane in the forward direction of the user, and
At least two shooting means for shooting the projected image at different positions, and
A mounting device equipped with.
眼鏡形状またはゴーグル形状を成し、
前記眼鏡形状または前記ゴーグル形状の中央に前記投影手段を備え、
前記眼鏡形状または前記ゴーグル形状の左右端部に前記撮影手段を備える
請求項1に記載の装着装置。
Formed in the shape of glasses or goggles,
The projection means is provided in the center of the spectacle shape or the goggle shape.
The mounting device according to claim 1, wherein the photographing means is provided at the left and right ends of the eyeglass shape or the goggles shape.
前記投影手段は、自装置を装着するユーザの前方に位置する前記投影面に投影画像を投影できる自装置の位置に設けられ、
前記撮影手段は、前記投影画像の全体を撮影できる自装置の位置に設けられる
請求項1または請求項2に記載の装着装置。
The projection means is provided at a position of the own device capable of projecting a projected image on the projection surface located in front of the user who wears the own device.
The mounting device according to claim 1 or 2, wherein the photographing means is provided at a position of the own device capable of photographing the entire projected image.
前記投影画像を撮影した撮影画像を前記撮影手段からそれぞれ取得し、それら撮影画像における対応点までの距離に基づいて前記投影面を検出し、当該投影面を表す情報に基づいて、当該投影面に投影する前記投影画像のゆがみを補正する歪み補正手段と、
を備える請求項1から請求項3の何れか一項に記載の装着装置。
The captured images obtained by capturing the projected images are acquired from the photographing means, the projected surface is detected based on the distance to the corresponding point in the captured images, and the projected surface is formed based on the information representing the projected surface. Distortion correction means for correcting the distortion of the projected image to be projected, and
The mounting device according to any one of claims 1 to 3.
前記投影画像を前記撮影手段の何れかから取得した撮影画像に基づいて、当該撮影画像の輝度を補正する輝度補正手段と、
を備える請求項1から請求項4の何れか一項に記載の装着装置。
A luminance correction means for correcting the brightness of the captured image based on the captured image obtained from the projected image from any of the photographing means.
The mounting device according to any one of claims 1 to 4.
前記投影画像を撮影した撮影画像を前記撮影手段からそれぞれ取得し、それら撮影画像に移るポインタの差異に基づいて前記投影面において当該ポインタが指し示す前記投影画像の位置を特定する位置検出手段と、
を備える請求項1から請求項5の何れか一項に記載の装着装置。
A position detecting means for acquiring a captured image obtained by capturing the projected image from the photographing means and specifying the position of the projected image pointed to by the pointer on the projection surface based on the difference of the pointers transferred to the captured images.
The mounting device according to any one of claims 1 to 5.
前記ポインタが指し示す前記投影画像の位置に応じた入力情報に基づく処理を行うアプリケーション処理手段と、
を備える請求項6に記載の装着装置。
An application processing means that performs processing based on input information according to the position of the projected image pointed to by the pointer, and
The mounting device according to claim 6.
決済コードを前記投影画像として前記投影面に投影する決済処理手段と、
を備える請求項1から請求項7の何れか一項に記載の装着装置。
A payment processing means for projecting a payment code as a projection image onto the projection surface,
The mounting device according to any one of claims 1 to 7.
装着装置の投影手段がユーザの前方方向の投影面に投影画像を投影し、
前記装着装置の少なくとも2つの撮影手段が前記投影画像を異なる位置で撮影する
処理方法。
The projection means of the mounting device projects the projected image on the projection plane in the front direction of the user, and the projection image is projected.
A processing method in which at least two photographing means of the mounting device capture the projected image at different positions.
装着装置に設けられた情報処理装置を、
ユーザの前方方向の投影面に投影画像を投影する投影手段の前記投影の制御を行う投影制御手段、
前記投影画像を異なる位置で撮影する少なくとも2つの撮影手段の前記撮影の制御を行う撮影制御手段と、
として機能させるプログラム。
The information processing device provided in the mounting device,
A projection control means that controls the projection of the projection means that projects the projected image onto the projection surface in the front direction of the user.
A shooting control means for controlling the shooting of at least two shooting means for shooting the projected image at different positions, and a shooting control means.
A program that functions as.
JP2020084038A 2020-05-12 2020-05-12 Mounting device, processing method, and program Pending JP2021179733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020084038A JP2021179733A (en) 2020-05-12 2020-05-12 Mounting device, processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020084038A JP2021179733A (en) 2020-05-12 2020-05-12 Mounting device, processing method, and program

Publications (1)

Publication Number Publication Date
JP2021179733A true JP2021179733A (en) 2021-11-18

Family

ID=78511471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020084038A Pending JP2021179733A (en) 2020-05-12 2020-05-12 Mounting device, processing method, and program

Country Status (1)

Country Link
JP (1) JP2021179733A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005055822A (en) * 2003-08-07 2005-03-03 Seiko Epson Corp Projection display system
JP2007121600A (en) * 2005-10-27 2007-05-17 Yokogawa Electric Corp Image information display device
JP2010146481A (en) * 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
JP2014179032A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Virtual key input device
JP2016509394A (en) * 2012-12-28 2016-03-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and system for projecting digital information on a real object in a real environment
JP2016062336A (en) * 2014-09-18 2016-04-25 凸版印刷株式会社 Operation instruction system, operation instruction method, attached terminal, and operation instruction management server
JP2017147638A (en) * 2016-02-18 2017-08-24 国立大学法人電気通信大学 Video projection system, video processing apparatus, video processing program, and video processing method
WO2017169516A1 (en) * 2016-03-28 2017-10-05 日本電気株式会社 Unmanned flying device control system, unmanned flying device control method, and inspection device
WO2017188244A1 (en) * 2016-04-26 2017-11-02 ウエストユニティス株式会社 Neck band computer

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005055822A (en) * 2003-08-07 2005-03-03 Seiko Epson Corp Projection display system
JP2007121600A (en) * 2005-10-27 2007-05-17 Yokogawa Electric Corp Image information display device
JP2010146481A (en) * 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
JP2016509394A (en) * 2012-12-28 2016-03-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and system for projecting digital information on a real object in a real environment
JP2014179032A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Virtual key input device
JP2016062336A (en) * 2014-09-18 2016-04-25 凸版印刷株式会社 Operation instruction system, operation instruction method, attached terminal, and operation instruction management server
JP2017147638A (en) * 2016-02-18 2017-08-24 国立大学法人電気通信大学 Video projection system, video processing apparatus, video processing program, and video processing method
WO2017169516A1 (en) * 2016-03-28 2017-10-05 日本電気株式会社 Unmanned flying device control system, unmanned flying device control method, and inspection device
WO2017188244A1 (en) * 2016-04-26 2017-11-02 ウエストユニティス株式会社 Neck band computer

Similar Documents

Publication Publication Date Title
EP2991027B1 (en) Image processing program, image processing method and information terminal
TWI486631B (en) Head mounted display and control method thereof
EP3230825B1 (en) Device for and method of corneal imaging
WO2019011091A1 (en) Photographing reminding method and device, terminal and computer storage medium
CN111010560B (en) Anti-distortion adjusting method and device for head-mounted display equipment and virtual reality system
KR20140125183A (en) Eye-glasses which attaches projector and method of controlling thereof
CN108200340A (en) The camera arrangement and photographic method of eye sight line can be detected
KR101690646B1 (en) Camera driving device and method for see-through displaying
AU2019360254B2 (en) Fixtureless lensmeter system
CN110537897B (en) Sight tracking method and device, computer readable storage medium and electronic equipment
US20210034151A1 (en) Electronic device, control method, and non-transitory computer readable medium
CN107436681A (en) Automatically adjust the mobile terminal and its method of the display size of word
JP7081599B2 (en) Information processing equipment, information processing methods, and programs
US11199472B2 (en) Fixtureless lensmeter system
KR20190085787A (en) Electronic device and method for processing image of the same
JP6283329B2 (en) Augmented Reality Object Recognition Device
JP2005117285A (en) Information input device, communication terminal and communication method
TWI603225B (en) Viewing angle adjusting method and apparatus of liquid crystal display
JP2021179733A (en) Mounting device, processing method, and program
JP2019144154A (en) Three-dimensional measuring device
KR100651206B1 (en) System and method for picture-taking of cellular phone using the face recognition algorithm
EP3139586B1 (en) Image shooting processing method and device
JP2017026893A (en) Image display device
US11949993B2 (en) Electric device, controlling method of controlling electric device, and computer readable storage medium
US11483483B2 (en) Display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211005