WO2016129489A1 - Display apparatus, method of controlling display apparatus, control program, and recording medium - Google Patents

Display apparatus, method of controlling display apparatus, control program, and recording medium Download PDF

Info

Publication number
WO2016129489A1
WO2016129489A1 PCT/JP2016/053306 JP2016053306W WO2016129489A1 WO 2016129489 A1 WO2016129489 A1 WO 2016129489A1 JP 2016053306 W JP2016053306 W JP 2016053306W WO 2016129489 A1 WO2016129489 A1 WO 2016129489A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
unit
image
video
display device
Prior art date
Application number
PCT/JP2016/053306
Other languages
French (fr)
Japanese (ja)
Inventor
知之 新井
誠悟 伊藤
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2016574763A priority Critical patent/JPWO2016129489A1/en
Publication of WO2016129489A1 publication Critical patent/WO2016129489A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention has been made in view of the above problems, and an object of the present invention is to realize a display device or the like capable of instructing an image projection position by an intuitive operation.
  • FIG. 10 is a block diagram illustrating an example of a schematic configuration of a display device according to Embodiment 2.
  • FIG. 6 is a block diagram illustrating an example of a hardware configuration of a display device according to Embodiment 2.
  • FIG. 10 is a block diagram illustrating an example of a schematic configuration of a display device according to Embodiment 2.
  • the motor unit 5 is a mechanism that is controlled by the control unit 1 when the imaging range K captured by the imaging unit 2 is moved or the projection range L where the projection unit 3 projects an image is moved.
  • the head 10 and the torso part 20 shown in FIG. 3 are rotated by the rotation angle included in the rotation instruction.
  • the display device 100 may include a plurality of motor units 5. That is, the movement of the imaging range K imaged by the imaging unit 2 and the movement of the projection range L in which the projection unit 3 projects an image may be controlled by one motor unit 5 (see FIG. 3A). These may be controlled by separate motor units 5 (see FIG. 3B).
  • FIG. 6 is a diagram illustrating an example of a method for calculating a target angle when a video is projected to the position of the indicator extracted from the captured image.
  • FIG. 6A illustrates the imaging range K and the projection range L.
  • (b) is an example when the imaging range K and the projection range L do not match.

Abstract

The present invention enables a position on which a video image is to be projected to be indicated by an intuitive operation. This display apparatus (100) is provided with: an indicated position determination unit (12) that extracts, from an image captured by an imaging unit (2), an image of an indicator that indicates the position on which the video image is to be projected, and identifies the position indicated by the indicator; and a projection position control unit (14) that adjusts the position on which the video image is to be projected so that the video image will be projected on the position determined by the indicated position determination unit.

Description

表示装置、表示装置の制御方法、制御プログラム、記録媒体Display device, display device control method, control program, and recording medium
 本発明は、映像を所望の位置に投射して表示することが可能な表示装置およびその制御方法などに関する。 The present invention relates to a display device capable of projecting and displaying an image at a desired position, a control method thereof, and the like.
 投射位置を移動ことができるプロジェクターが従来技術として知られている。例えば、特許文献1に記載のプロジェクターは、投射画面を含んでカメラが撮像した画像から、指示体を抽出して指示体の指示方向を検出し、プロジェクターの投射画面を、検出した指示方向に移動させる。 Projectors that can move the projection position are known as prior art. For example, the projector described in Patent Literature 1 extracts an indicator from an image captured by a camera including a projection screen, detects the indication direction of the indicator, and moves the projection screen of the projector in the detected indication direction. Let
日本国公開特許公報「特開2010-160403号公報(公開日:2010年 7月22日)Japanese Published Patent Publication “Japanese Patent Laid-Open No. 2010-160403” (Publication Date: July 22, 2010)
 しかしながら、特許文献1に記載のプロジェクターは、ユーザが指示する方向にプロジェクターの投射画面を移動させることはできるものの、移動を指示する指示体の検出が可能な領域は、投射画面を含めて撮像した領域内に設けられた所定の検出領域に制限されるため、投射画面の移動を円滑に指示することができない、という問題があった。 However, although the projector described in Patent Document 1 can move the projection screen of the projector in the direction instructed by the user, the area in which the indicator that instructs the movement can be detected is imaged including the projection screen. Since it is limited to a predetermined detection area provided in the area, there has been a problem that it is not possible to smoothly instruct the movement of the projection screen.
 本発明は上記の問題に鑑みてなされたものであり、その目的は、映像を投射する位置を直観的な操作で指示することができる表示装置等を実現することである。 The present invention has been made in view of the above problems, and an object of the present invention is to realize a display device or the like capable of instructing an image projection position by an intuitive operation.
 上記の課題を解決するために、本発明の一態様に係る表示装置は、映像を投射する位置を調節可能な投影部を備える表示装置であって、撮像部が撮像した撮像画像から、上記映像を投射する位置を指示する指示体の画像を抽出して、該指示体が指示する位置を特定する指示位置決定部と、上記指示位置決定部が決定した位置に上記映像が投射されるように、上記投影部が上記映像を投射する位置を調節する投射位置制御部とを備える。 In order to solve the above-described problem, a display device according to one embodiment of the present invention is a display device including a projection unit capable of adjusting a position at which a video is projected, and the video image is obtained from a captured image captured by the imaging unit. An image of a pointer that indicates the position where the pointer is projected is extracted, and the video is projected to the position determined by the pointing position determination unit that specifies the position indicated by the pointer and the pointing position determination unit. A projection position control unit that adjusts a position at which the projection unit projects the video.
 上記の課題を解決するために、本発明の一態様に係る表示装置の制御方法は、映像を投射する位置を調節可能な投影部を備える表示装置の制御方法であって、撮像部が撮像する撮像ステップと、上記撮像ステップで撮像した撮像画像から、上記映像を投射する位置を指示する指示体の画像を抽出して、該指示体が指示する位置を特定する指示位置決定ステップと、上記指示位置決定ステップで決定した位置に上記映像が投射されるように、上記投影部が上記映像を投射する位置を調節する投射位置制御ステップとを含む。 In order to solve the above-described problem, a control method for a display device according to one embodiment of the present invention is a control method for a display device including a projection unit that can adjust a position at which an image is projected, and the imaging unit captures an image. An imaging step, an instruction position determining step for extracting an image of an indicator that indicates a position to project the video from the captured image captured in the imaging step, and specifying a position indicated by the indicator; and the instruction A projection position control step of adjusting a position at which the projection unit projects the video so that the video is projected at the position determined in the position determination step.
 本発明の一態様によれば、映像を投射する位置を直観的な操作で指示することにより、円滑に所望の位置に映像を投射することができるという効果を奏する。 According to one aspect of the present invention, it is possible to smoothly project an image to a desired position by instructing an image projection position by an intuitive operation.
本発明の実施形態1に係る表示装置の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the display apparatus which concerns on Embodiment 1 of this invention. 表示装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of a display apparatus. 表示装置の外観の一例を示す図であり、(a)は撮像部および投射部を一体として移動制御する例、(b)は撮像部および投射部を別々に移動制御する例である。It is a figure which shows an example of the external appearance of a display apparatus, (a) is an example which carries out movement control of an imaging part and a projection part integrally, (b) is an example which carries out movement control of an imaging part and a projection part separately. (a)は撮像部が撮像する撮像範囲について説明する図であり、(b)は投射部が映像を投射する投射範囲について説明する図である。(A) is a figure explaining the imaging range which an imaging part images, (b) is a figure explaining the projection range which a projection part projects an image | video. (a)は、画像検出部が抽出する指示体の画像の例を示す図であり、(b)は、画像検出部が抽出する形状パターンから外れた指示体の画像の例を示す図である。(A) is a figure which shows the example of the image of the indicator which an image detection part extracts, (b) is a figure which shows the example of the image of the indicator which remove | deviated from the shape pattern which an image detection part extracts. . 撮像画像から抽出された指示体の位置に映像を投射するときの目標角度を算出する方法の一例を示す図であり、(a)は撮像範囲と投射範囲とが一致する場合、(b)は撮像範囲と投射範囲とが一致しない場合の例である。It is a figure which shows an example of the method of calculating the target angle when projecting an image | video at the position of the indicator extracted from the captured image, (a) is a case where an imaging range and a projection range correspond, (b) is This is an example where the imaging range and the projection range do not match. 撮像画像から抽出された指示体の位置に映像を投射するときの目標角度を算出する方法の別の例を示す図であり、(a)は撮像範囲と投射範囲とが一致する場合、(b)は撮像範囲と投射範囲とが一致しない場合の例である。It is a figure which shows another example of the method of calculating the target angle at the time of projecting an image | video at the position of the indicator extracted from the captured image, (a) is (b) when an imaging range and a projection range correspond. ) Is an example when the imaging range and the projection range do not match. 表示装置が、指示体が指示する位置に映像を投射する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process in which a display apparatus projects an image | video to the position which a pointer points. 実施形態2に係る表示装置の概略構成の一例を示すブロック図である。10 is a block diagram illustrating an example of a schematic configuration of a display device according to Embodiment 2. FIG. 実施形態2に係る表示装置のハードウェア構成の一例を示すブロック図である。6 is a block diagram illustrating an example of a hardware configuration of a display device according to Embodiment 2. FIG. 表示装置が、指示体が指示する位置に映像の投射を開始する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process which a display apparatus starts the projection of an image | video at the position which a pointer points. 実施形態3に係る表示装置の概略構成の一例を示すブロック図である。6 is a block diagram illustrating an example of a schematic configuration of a display device according to Embodiment 3. FIG. 表示装置が、指示体が指示する位置に映像を投射してフォーカスを制御する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process in which a display apparatus projects an image | video to the position which a pointer instruct | indicates, and controls a focus.
 〔実施形態1〕
 以下、本発明の実施の形態について、詳細に説明する。
[Embodiment 1]
Hereinafter, embodiments of the present invention will be described in detail.
 (表示装置100の外観)
 表示装置100は、映像を投射する位置を調節可能な投射部3(投影部)を備えており、撮像部2が撮像した撮像画像から、映像を投射する位置を指示する指示体の画像を抽出して、指示体が指示する所望の位置に映像を投射する。
(Appearance of display device 100)
The display device 100 includes a projection unit 3 (projection unit) that can adjust a position at which a video is projected, and extracts an image of an indicator that indicates the position at which the video is projected from the captured image captured by the imaging unit 2. Then, an image is projected at a desired position indicated by the indicator.
 はじめに、表示装置100の外観について、図3を用いて説明する。図3は、表示装置100の外観の一例を示す図であり、(a)は撮像部2および投射部3を一体として移動制御する例、(b)は撮像部2および投射部3を別々に移動制御する例である。ここでは、表示装置100が、頭部10および胴体部20を備えるヒト型ロボットの形状である場合を例に挙げて説明するが、これに限定されず、直方体、円柱形、球形、円錐形、およびこれらを組合せた形状など、如何なる形状であってもよい。 First, the appearance of the display device 100 will be described with reference to FIG. 3A and 3B are diagrams illustrating an example of the appearance of the display device 100. FIG. 3A illustrates an example in which the imaging unit 2 and the projection unit 3 are integrally controlled, and FIG. 3B illustrates the imaging unit 2 and the projection unit 3 separately. This is an example of movement control. Here, the case where the display device 100 has the shape of a humanoid robot including the head 10 and the torso 20 will be described as an example. However, the display device 100 is not limited thereto, and is not limited to this, but is a rectangular parallelepiped, a cylinder, a sphere, a cone, And any shape such as a combination thereof.
 図3の(a)に示す表示装置100は、撮像部2と投射部3とを一体として移動制御しており、例えば、撮像部2と投射部3とが常に同じ方向(撮像方向、投射方向)を向くように配置されている。すなわち、撮像部2および投射部3が頭部10に設けられており、撮像部2および投射部3は共にy軸方向を向いている。頭部10は、z軸に平行な回転軸を有する回転、およびxy平面に平行な回転軸を有する回転が可能であり、これにより、撮像部2の撮像範囲Kおよび投射部3が映像を投射する投射範囲Lを同時に上下左右に移動させることができる。 The display device 100 shown in FIG. 3A performs movement control of the imaging unit 2 and the projection unit 3 as one body. For example, the imaging unit 2 and the projection unit 3 are always in the same direction (imaging direction, projection direction). ). That is, the imaging unit 2 and the projection unit 3 are provided on the head 10, and both the imaging unit 2 and the projection unit 3 are directed in the y-axis direction. The head 10 can rotate with a rotation axis parallel to the z-axis and rotation with a rotation axis parallel to the xy plane, whereby the imaging range K and the projection unit 3 of the imaging unit 2 project an image. The projection range L to be moved can be moved vertically and horizontally at the same time.
 図3の(b)に示す表示装置100は、撮像部2と投射部3とを別々に移動制御しており、それぞれが独立して方向(撮像方向、投射方向)を変えることができる。すなわち、撮像部2が頭部10に設けられ、投射部3が胴体部20に設けられている。図3の(b)は、撮像部2および投射部3が共にy軸方向を向いている様子を図示しているが、頭部10および胴体部20の双方が、z軸に平行な回転軸を有する回転、およびxy平面に平行な回転軸を有する回転が可能であり、これにより、撮像部2の撮像範囲および投射部3が映像を投射する投射範囲Lを、別々に移動させることができる。 The display device 100 shown in FIG. 3B separately controls the movement of the imaging unit 2 and the projection unit 3 and can independently change the direction (imaging direction, projection direction). That is, the imaging unit 2 is provided on the head 10, and the projection unit 3 is provided on the body 20. FIG. 3B illustrates a state in which the imaging unit 2 and the projection unit 3 are both oriented in the y-axis direction, but both the head 10 and the body unit 20 are rotational axes parallel to the z-axis. , And a rotation having a rotation axis parallel to the xy plane, and thereby the imaging range of the imaging unit 2 and the projection range L on which the projection unit 3 projects an image can be moved separately. .
 (表示装置100のハードウェア構成)
 続いて、表示装置100のハードウェア構成について図2を用いて説明する。図2は、表示装置100のハードウェア構成の一例を示すブロック図である。図示のように、表示装置100は、制御部1、撮像部2、投射部3、警告部4、およびモーター部5を備えている。
(Hardware configuration of display device 100)
Next, the hardware configuration of the display device 100 will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of a hardware configuration of the display device 100. As illustrated, the display device 100 includes a control unit 1, an imaging unit 2, a projection unit 3, a warning unit 4, and a motor unit 5.
 表示装置100は、撮像した画像から指示体の画像を抽出して該指示体の位置を検出し、検出した指示体の位置に画像を表示する。制御部1は、表示装置100が、映像を所望の位置に投射して表示するように、表示装置100が備える各機能を制御する。 The display device 100 extracts an image of a pointer from the captured image, detects the position of the pointer, and displays the image at the detected position of the pointer. The control unit 1 controls each function included in the display device 100 so that the display device 100 projects and displays an image on a desired position.
 撮像部2は、投射部3が映像を投射可能な領域を含む撮像範囲Kを撮像するカメラである。図3に示すように、撮像部2の方向を制御することが可能であり、撮像範囲Kを移動させながら撮像することができる。例えば、図3に示す表示装置100において、z軸に平行な軸を回転軸として、90°回転する毎に1回撮像してもよい。また、撮像部2が360°旋回して複数枚の画像を撮像し、これらの画像から1枚の全方位パノラマ画像を生成してもよい。なお、投射部3が映像を投射可能な範囲を含む撮像範囲Kが撮像可能であれば、撮像部2の向きが可変でなくてもよい。例えば、投射部3が映像を投射可能な全領域を撮像できる画角を有するものである場合、撮像部2の向きは固定されていてもよい。 The imaging unit 2 is a camera that captures an imaging range K including an area where the projection unit 3 can project an image. As shown in FIG. 3, the direction of the imaging unit 2 can be controlled, and imaging can be performed while moving the imaging range K. For example, in the display device 100 shown in FIG. 3, an image may be taken once every 90 ° with the axis parallel to the z axis as the rotation axis. Alternatively, the imaging unit 2 may rotate 360 ° to capture a plurality of images, and one omnidirectional panoramic image may be generated from these images. Note that the orientation of the imaging unit 2 may not be variable as long as the imaging range K including the range in which the projection unit 3 can project an image can be captured. For example, in the case where the projection unit 3 has an angle of view that can capture the entire region in which video can be projected, the orientation of the imaging unit 2 may be fixed.
 投射部3は、映像データが示す映像を、制御部1が指示する投射位置に映像を投射して表示する。なお、説明を簡略化するために、映像を投射するための照明、投射範囲Lに投射する光量の調節やフォーカス調整を行うレンズなどは図示していない。 The projection unit 3 projects and displays the video indicated by the video data at the projection position indicated by the control unit 1. In order to simplify the description, illumination for projecting an image, a lens for adjusting the amount of light projected to the projection range L, and a lens for performing focus adjustment, and the like are not illustrated.
 警告部4は、表示装置100が映像を投射する位置を指示する指示体を検出できなかった場合に、ユーザに対して警告(指示体提示指示)を発する部材である。例えば、ユーザに対して音声で警告を発する場合であれば、警告部4はスピーカである。なお、警告部4が発する警告は音声に限定されない。例えば、警告がランプの点灯(点滅)であれば、警告部4は表示灯である。あるいは、表示装置100を遠隔操作するためのリモコン装置(図示せず)をユーザが把持する場合、警告を提示するように指示する警告指示を表示装置100からリモコン装置へ送信する通信部であってもよい。 The warning unit 4 is a member that issues a warning (indicator presentation instruction) to the user when the display device 100 cannot detect the indicator that indicates the position to project the video. For example, if a warning is issued to the user by voice, the warning unit 4 is a speaker. The warning issued by the warning unit 4 is not limited to voice. For example, if the warning is lighting (flashing) of the lamp, the warning unit 4 is an indicator lamp. Alternatively, when a user grips a remote control device (not shown) for remotely operating the display device 100, the communication unit transmits a warning instruction for instructing to present a warning from the display device 100 to the remote control device. Also good.
 モーター部5は、撮像部2が撮像する撮像範囲Kを移動させたり、投射部3が映像を投射する投射範囲Lを移動させたりするときに、制御部1によって制御される機構である。例えば、制御部1から取得した回転指示に従って、回転指示に含まれる回転角度だけ、図3に示す頭部10や胴体部20を回転させる。なお、表示装置100は、モーター部5を複数備えていてもよい。すなわち、撮像部2が撮像する撮像範囲Kの移動、および投射部3が映像を投射する投射範囲Lの移動を1つのモーター部5によって制御してもよいし(図3の(a)参照)、それぞれ別のモーター部5によって制御してもよい(図3の(b)参照)。 The motor unit 5 is a mechanism that is controlled by the control unit 1 when the imaging range K captured by the imaging unit 2 is moved or the projection range L where the projection unit 3 projects an image is moved. For example, according to the rotation instruction acquired from the control unit 1, the head 10 and the torso part 20 shown in FIG. 3 are rotated by the rotation angle included in the rotation instruction. The display device 100 may include a plurality of motor units 5. That is, the movement of the imaging range K imaged by the imaging unit 2 and the movement of the projection range L in which the projection unit 3 projects an image may be controlled by one motor unit 5 (see FIG. 3A). These may be controlled by separate motor units 5 (see FIG. 3B).
 (表示装置100の構成)
 次に、表示装置100の構成について、図1を用いて説明する。図1は、本発明の実施形態1に係る表示装置100の概略構成の一例を示すブロック図である。なお、説明の便宜上、図2で説明した部材については、同じ符号を付記し、その説明を省略する。
(Configuration of display device 100)
Next, the configuration of the display device 100 will be described with reference to FIG. FIG. 1 is a block diagram showing an example of a schematic configuration of a display device 100 according to Embodiment 1 of the present invention. For convenience of explanation, members described in FIG. 2 are denoted by the same reference numerals and description thereof is omitted.
 表示装置100は、制御部1、撮像部2、投射部3(投影部)、警告部4、およびモーター部5を備えている。制御部1は、さらに、画像検出部11(指示位置決定部)、指示位置決定部12(指示位置決定部)、投射角度決定部13、および投射位置制御部14を備えている。なお、表示装置100が投射して表示する映像データ、および表示装置100が実行する各種動作の制御情報などを格納する記憶部は、説明を簡略化するために、ここでは図示していない。 The display device 100 includes a control unit 1, an imaging unit 2, a projection unit 3 (projection unit), a warning unit 4, and a motor unit 5. The control unit 1 further includes an image detection unit 11 (indicated position determination unit), an instruction position determination unit 12 (instruction position determination unit), a projection angle determination unit 13, and a projection position control unit 14. Note that a storage unit that stores video data projected and displayed by the display device 100 and control information of various operations performed by the display device 100 is not shown here for the sake of simplicity.
 画像検出部11は、撮像部2が撮像した撮像画像を取得し、撮像画像に含まれている指示体の画像を検出(抽出)する。この指示体とは、映像を投射する位置を指示するためのものであり、例えば、所望の投射する位置を指示するユーザの手であってもよいし、特定の形状を有する指示棒のような器具であってもよい。あるいは、光を発する発光体を備える器具であってもよい。以下では、指示体が、ユーザの手(のひら)である場合を例に挙げて説明する。 The image detection unit 11 acquires a captured image captured by the imaging unit 2, and detects (extracts) an image of a pointer included in the captured image. This indicator is for instructing a position to project an image, and may be, for example, a user's hand that instructs a desired projection position, or an indicator bar having a specific shape. It may be an instrument. Alternatively, it may be an instrument including a light emitter that emits light. Hereinafter, a case where the indicator is the user's hand (palm) will be described as an example.
 指示位置決定部12は、画像検出部11が検出した指示体の画像を解析し、該指示体が指示する位置を特定する。なお、撮像画像から検出された指示体(の画像)が指示する位置を特定する方法については、後に具体例を挙げて説明する。 The indication position determination unit 12 analyzes the image of the indicator detected by the image detection unit 11, and specifies the position indicated by the indicator. A method for specifying the position indicated by the indicator (image thereof) detected from the captured image will be described later with a specific example.
 投射角度決定部13は、投射部3が、指示位置決定部12が特定した位置に映像を投射するために必要な移動角度である目標角度を算出する。目標角度とは、投射部3が映像を投射して表示する投射範囲を、指示された位置に移動させるときに、投射部3の方向を制御するために用いる角度である。具体的には、投射角度決定部13は、撮像画像の撮像範囲Kにおけるユーザの手(指示体)の位置と、投射部3が映像を投射する投射範囲Lの所定の位置とを一致させるために必要な目標角度を算出する。なお、投射角度決定部13が目標角度を算出する方法については、後に具体例を挙げて説明する。 The projection angle determination unit 13 calculates a target angle that is a movement angle necessary for the projection unit 3 to project an image at the position specified by the designated position determination unit 12. The target angle is an angle used to control the direction of the projection unit 3 when the projection range in which the projection unit 3 projects and displays an image is moved to an instructed position. Specifically, the projection angle determination unit 13 matches the position of the user's hand (indicator) in the imaging range K of the captured image with a predetermined position of the projection range L on which the projection unit 3 projects an image. Calculate the target angle required for. The method by which the projection angle determination unit 13 calculates the target angle will be described later with a specific example.
 投射位置制御部14は、投射角度決定部13が算出した目標角度を取得して、該目的角度だけ投射部3の向きを回転するようにモーター部5を制御する。 The projection position control unit 14 acquires the target angle calculated by the projection angle determination unit 13 and controls the motor unit 5 to rotate the direction of the projection unit 3 by the target angle.
 このような構成によれば、映像を投射する位置を調節可能な投射部3を備える表示装置100は、撮像部2が撮像した撮像画像から、映像を投射する位置を指示する手の画像を抽出して、このユーザの手が指示する位置を決定する指示位置決定部12と、上記指示位置決定部12が決定した位置に映像が投射されるように、映像を投射する位置を調節する。これにより、所望の位置に映像を投射するように表示装置100の投射部3の向き(方向)を制御することができる。また、撮像した撮像画像に含まれるユーザの手の画像の位置に基づいて、映像を投射する位置を決定するため、映像を投射する位置を直観的な操作で指示することにより、円滑に所望の位置に映像を投射することができる。 According to such a configuration, the display device 100 including the projection unit 3 capable of adjusting the position at which the video is projected extracts the hand image that indicates the position at which the video is projected from the captured image captured by the imaging unit 2. Then, the position for projecting the image is adjusted so that the position is determined by the user's hand and the image is projected at the position determined by the position determining unit 12. Thereby, the direction (direction) of the projection unit 3 of the display device 100 can be controlled so as to project an image at a desired position. In addition, in order to determine the position to project the video based on the position of the image of the user's hand included in the captured image, the desired position can be smoothly obtained by instructing the position to project the video by an intuitive operation. An image can be projected to a position.
 (撮像範囲Kと投射範囲L)
 ここでは、撮像部2が撮像する撮像範囲K、および投射部3が映像を投射して表示する投射範囲Lについて、図4を用いて説明する。図4の(a)は撮像部2が撮像する撮像範囲Kについて説明する図であり、(b)は投射部3が映像を投射する投射範囲Lについて説明する図である。
(Imaging range K and projection range L)
Here, the imaging range K that the imaging unit 2 captures and the projection range L that the projection unit 3 projects and displays an image will be described with reference to FIG. 4A is a diagram illustrating an imaging range K captured by the imaging unit 2, and FIG. 4B is a diagram illustrating a projection range L in which the projection unit 3 projects an image.
 撮像範囲Kおよび投射範囲Lは、互いに対応付けられた座標系を有しており、投射角度決定部13は、撮像画像の撮像範囲Kにおけるユーザの手(指示体)の位置に対応する座標と、投射部3が映像を投射する投射範囲Lの所定の位置の座標とを一致させるために必要な目標角度を算出する。 The imaging range K and the projection range L have coordinate systems associated with each other, and the projection angle determination unit 13 has coordinates corresponding to the position of the user's hand (indicator) in the imaging range K of the captured image. The target angle required for the projection unit 3 to coincide with the coordinates of a predetermined position of the projection range L on which the video is projected is calculated.
 図4に示す例では、撮像範囲Kの四隅に相当する位置K1、K3、K7、K9、四隅の位置を結ぶ各辺の中点の位置に相当する位置K2、K4、K6、K8、および撮像範囲Kの中心点に相当する位置K5は、それぞれ、投射範囲Lの四隅の位置L1、L3、L7、L9、四隅の位置を結ぶ各辺の中点の位置に相当する位置L2、L4、L6、l8、および投射範囲Lの中心点に相当する位置L5にそれぞれ対応している。 In the example shown in FIG. 4, positions K1, K3, K7, K9 corresponding to the four corners of the imaging range K, positions K2, K4, K6, K8 corresponding to the positions of the midpoints of the sides connecting the four corner positions, and the imaging. Positions K5 corresponding to the center point of the range K are the positions L1, L3, L7, L9 of the four corners of the projection range L, and the positions L2, L4, L6 corresponding to the positions of the midpoints of the sides connecting the positions of the four corners. , L8, and a position L5 corresponding to the center point of the projection range L.
 なお、ここでは撮像範囲Kおよび投射範囲Lの形状が長方形である場合を例に挙げて説明したが、円形、多角形など、任意の形状であってもよい。また撮像範囲Kの形状と投射範囲Lの形状とは必ずしも同じでなくてもよく、各位置の対応関係が規定されているのであれば、如何なる形状であってもよい。 In addition, although the case where the shape of the imaging range K and the projection range L is a rectangle was described as an example here, it may be an arbitrary shape such as a circle or a polygon. In addition, the shape of the imaging range K and the shape of the projection range L are not necessarily the same, and any shape may be used as long as the correspondence between the positions is defined.
 (画像検出部11による指示体の画像の抽出)
 次に、撮像画像から抽出される指示体の画像によって示される投射位置の例について図5を用いて説明する。図5の(a)は画像検出部11が抽出する指示体の画像の例を示す図であり、(b)は画像検出部が抽出する形状パターンから外れた指示体の画像の例を示す図である。
(Extraction of the image of the indicator by the image detection unit 11)
Next, an example of the projection position indicated by the indicator image extracted from the captured image will be described with reference to FIG. FIG. 5A is a diagram illustrating an example of an indicator image extracted by the image detection unit 11, and FIG. 5B is a diagram illustrating an example of an indicator image deviating from the shape pattern extracted by the image detection unit. It is.
 例えば、指示体の画像D1の場合、画像検出部11は、手の指を検出して、手のひらの形状の指示体の画像D1を抽出することができる。そして、指示位置決定部12は、その手のひらを囲むように仮想的な矩形を生成して、指示体の画像D1の中心点P1を特定し、中心点P1を、投射位置を指示する指示位置として決定してもよい。 For example, in the case of the indicator image D1, the image detection unit 11 can detect the finger of the hand and extract the palm-shaped indicator image D1. Then, the indication position determination unit 12 generates a virtual rectangle so as to surround the palm, specifies the center point P1 of the indicator image D1, and uses the center point P1 as the indication position for indicating the projection position. You may decide.
 指示体の画像D2の場合、画像検出部11は、人差し指を用いて指差す形状パターンに基づいて、指示体の画像D2を抽出することができる。そして、指示位置決定部12は、人差し指の先端P2を特定し、先端P2を、投射位置を指示する指示位置として決定してもよい。指示体の画像D3の場合、画像検出部11は、指示棒の先端(発光部P3)が光を発していることを検出することができる。そして、指示位置決定部12は、指示棒の先端の発光部P3の位置を、投射位置を指示する指示位置として決定してもよい。なお、ここに挙げた例に限定されず、さまざまな指示体の画像を抽出するように設定することができる。 In the case of the indicator image D2, the image detection unit 11 can extract the indicator image D2 based on the shape pattern pointed with the index finger. Then, the indication position determination unit 12 may specify the tip P2 of the index finger, and may determine the tip P2 as an indication position that indicates the projection position. In the case of the indicator image D3, the image detection unit 11 can detect that the tip of the pointer (light emitting unit P3) emits light. And the indication position determination part 12 may determine the position of the light emission part P3 of the front-end | tip of an indication rod as an indication position which instruct | indicates a projection position. It should be noted that the present invention is not limited to the example given here, and it can be set to extract images of various indicators.
 例えば、画像検出部11が、手の指を検出して、手のひらの形状の指示体の画像D1を指示体の画像として抽出することが設定されている場合、図5の(b)の示す画像E1~E3は、手のひらの形状の指示体の画像D1の形状パターンに当てはまらず、指示体の画像として抽出されない。 For example, when the image detection unit 11 is set to detect the finger of the hand and extract the palm-shaped indicator image D1 as the indicator image, the image shown in FIG. E1 to E3 do not correspond to the shape pattern of the palm-shaped indicator image D1, and are not extracted as the indicator image.
 映像を投射する前に撮像された撮像画像から指示体が検出されない場合、表示装置100は投射を開始することができない。このような場合、表示装置100は、映像を投射する位置を決定できるまで、警告部4からユーザに対して警告を発し、画像検出部11は、警告を発した後に撮像部2が撮像した撮像画像から指示体の画像を検出することができる。例えば、警告を受けたユーザは、画像検出部11が検出する指示体の画像となるように、手の指同士が接触しないように開いたり、手の向きを変更したりすることによって、映像を投射する位置の指示をやりなおすことができる。 If the indicator is not detected from the captured image captured before projecting the video, the display device 100 cannot start projection. In such a case, the display device 100 issues a warning to the user from the warning unit 4 until the position for projecting the video can be determined, and the image detection unit 11 captures the image captured by the imaging unit 2 after issuing the warning. The image of the indicator can be detected from the image. For example, the user who has received the warning opens the video by changing the orientation of the hand so that the fingers of the hand do not touch each other so that the image of the indicator detected by the image detection unit 11 is obtained. The position of the projection can be instructed again.
 (目標角度の算出)
 続いて、投射角度決定部13が、目標角度を算出する方法について、図6および図7を用いて説明する。図6は、撮像画像から抽出された指示体の位置に映像を投射するときの目標角度を算出する方法の一例を示す図であり、(a)は撮像範囲Kと投射範囲Lとが一致する場合、(b)は撮像範囲Kと投射範囲Lとが一致しない場合の例である。
(Calculation of target angle)
Subsequently, a method in which the projection angle determination unit 13 calculates the target angle will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram illustrating an example of a method for calculating a target angle when a video is projected to the position of the indicator extracted from the captured image. FIG. 6A illustrates the imaging range K and the projection range L. In this case, (b) is an example when the imaging range K and the projection range L do not match.
 図6の(a)は、表示装置100が、撮像部2および投射部3を一体として移動制御する場合において、手のひらの画像が撮像画像から抽出されたときに、手のひらの中心点P1の位置に、投射範囲Lの位置L5(基準位置)が一致するように制御する方法を示している。ここでは、投射範囲Lの位置L5が、撮像範囲Kにおける手のひらの中心点P1の位置と一致させる位置として予め設定されている場合を例に挙げて説明する。具体的には、ユーザの手の画像が検出された撮像画像の撮像画像の中心の位置K5を原点とし、位置K5(原点)からの、手のひらの中心点P1の座標までの差を用いて、投射部3の方向を変更するための目標角度を算出する。より具体的には、投射角度決定部13は、撮像部2から位置K5への方向と、撮像部2から手のひらの中心点P1への方向とを一致させるために必要な角度を目標角度として算出する。なお、撮像部2と投射部3との相対的な位置関係に起因して、撮像範囲Kの中心の位置K5と、投射範囲Lの中心の位置L5との間にずれがある場合には、このずれの補正を考慮して目標角度を算出してもよい。 FIG. 6A shows the position of the palm center point P1 when the palm image is extracted from the captured image when the display device 100 controls the movement of the imaging unit 2 and the projection unit 3 as a unit. The method of controlling so that the position L5 (reference position) of the projection range L matches is shown. Here, a case where the position L5 of the projection range L is set in advance as a position that matches the position of the palm center point P1 in the imaging range K will be described as an example. Specifically, using the difference from the position K5 (origin) to the coordinate of the palm center point P1 using the center position K5 of the captured image of the captured image from which the user's hand image is detected as the origin, A target angle for changing the direction of the projection unit 3 is calculated. More specifically, the projection angle determination unit 13 calculates, as a target angle, an angle necessary to match the direction from the imaging unit 2 to the position K5 and the direction from the imaging unit 2 to the palm center point P1. To do. When there is a deviation between the center position K5 of the imaging range K and the center position L5 of the projection range L due to the relative positional relationship between the imaging unit 2 and the projection unit 3, The target angle may be calculated in consideration of correction of this deviation.
 一方、図6の(b)は、表示装置100が、撮像部2および投射部3を別々に移動制御する場合において、手のひらの画像が撮像画像から抽出されたときに、該撮像画像の撮像範囲Kにおける手のひらの中心点P1の位置(相対位置)が、投射範囲Lの対応する位置(相対位置)に一致するように制御する方法を示している。なお、投射部3の方向を変更して、投射範囲Lを移動する間、撮像部2の向きは固定されていることが望ましい。 On the other hand, FIG. 6B shows an imaging range of the captured image when a palm image is extracted from the captured image when the display device 100 separately controls the imaging unit 2 and the projection unit 3. A method is shown in which control is performed so that the position (relative position) of the palm center point P1 at K coincides with the corresponding position (relative position) of the projection range L. In addition, while changing the direction of the projection part 3 and moving the projection range L, it is desirable that the direction of the imaging part 2 is fixed.
 なお、図6の(a)では、撮像画像から検出されたユーザの手のひらの中心点P1の位置を、映像を投射する投射範囲Lの中心の位置L5と一致させるように制御する例を説明したが、これに限定されない。例えば、撮像画像から検出されたユーザの手のひらの中心点P1の位置を、映像を投射する投射範囲Lの任意の位置(例えば、位置L1:基準位置)と一致させるように制御してもよい。 In FIG. 6A, an example in which the position of the center point P1 of the palm of the user detected from the captured image is controlled to coincide with the position L5 of the center of the projection range L that projects the video has been described. However, it is not limited to this. For example, the position of the center point P1 of the palm of the user detected from the captured image may be controlled to coincide with an arbitrary position (for example, position L1: reference position) of the projection range L that projects the video.
 図7は、撮像画像から抽出された指示体の位置に映像を投射するときの目標角度を算出する方法の一例を示す図であり、(a)は撮像範囲Kと投射範囲Lとが一致する場合、(b)は撮像範囲Kと投射範囲Lとが一致しない場合の例である。すなわち、図7の(a)および(b)のいずれの場合においても、ユーザの手の画像が検出された撮像画像の撮像画像の中心の位置K1を原点とし、位置K1(原点)からの、手のひらの中心点P1の座標までの差を用いて、投射部3の方向を変更するための目標角度を算出してもよい。 FIG. 7 is a diagram illustrating an example of a method for calculating a target angle when a video is projected onto the position of the indicator extracted from the captured image. FIG. 7A illustrates that the imaging range K and the projection range L match. In this case, (b) is an example when the imaging range K and the projection range L do not match. That is, in both cases (a) and (b) of FIG. 7, the center position K1 of the captured image of the captured image from which the image of the user's hand is detected is the origin, and the position K1 (origin) You may calculate the target angle for changing the direction of the projection part 3 using the difference to the coordinate of the palm center point P1.
 なお、撮像部2と投射部3との相対的な位置関係に起因する、撮像範囲Kの位置K1と、投射範囲Lの位置L1との間にずれがある場合には、このずれの補正を考慮して目標角度を算出すればよい。 If there is a deviation between the position K1 of the imaging range K and the position L1 of the projection range L due to the relative positional relationship between the imaging unit 2 and the projection unit 3, correction of this deviation is performed. The target angle may be calculated in consideration.
 (表示装置100が映像を投射する位置を制御して表示する処理の流れ)
 表示装置100が設置され電源がONになり、起動指示が入力されると、撮像部2は、投射部3が映像を投射可能な領域を含む撮像領域を監視して撮像範囲Kの撮像を行う(S1:撮像ステップ)。画像検出部11は、撮像部2が撮像した撮像画像を取得し、該撮像画像にユーザの手のひら(指示体)が含まれているか否かを判定する(S2)。
(Flow of processing for controlling and displaying position where display device 100 projects image)
When the display device 100 is installed, the power is turned on, and an activation instruction is input, the imaging unit 2 monitors the imaging region including the region where the projection unit 3 can project an image and performs imaging of the imaging range K. (S1: Imaging step). The image detection unit 11 acquires the captured image captured by the imaging unit 2, and determines whether or not the captured image includes a user's palm (indicator) (S2).
 撮像画像にユーザの手のひらが含まれている場合(S2にてYes)、画像検出部11は、該撮像画像と、撮像画像にユーザの手のひらの画像が検出された旨を示す画像認識情報とを、指示位置決定部12に送る。一方、撮像画像にユーザの手のひらが検出されない場合(S2にてNo)、警告部4からユーザに対して警告を発し(S6)、その後、S1に戻り、警告を発した後に撮像部2が撮像した撮像画像から指示体を検出する。 When the captured image includes the palm of the user (Yes in S2), the image detection unit 11 displays the captured image and image recognition information indicating that the image of the user's palm is detected in the captured image. And sent to the designated position determination unit 12. On the other hand, if the user's palm is not detected in the captured image (No in S2), the warning unit 4 issues a warning to the user (S6), and then returns to S1 and the imaging unit 2 captures the image after issuing the warning. The indicator is detected from the captured image.
 次に、投射角度決定部13は、撮像画像から検出されたユーザの手のひらの画像に基づいて、指示位置決定部12が決定した(指示位置決定ステップ)、ユーザの手のひらが指し示す位置(例えば、手のひらの中心点P1)の位置に映像を投射するように、投射範囲Lの位置を制御するために用いる目標角度を算出する(S3:指示位置決定ステップ)。 Next, the projection angle determination unit 13 is based on the image of the user's palm detected from the captured image, and is determined by the instruction position determination unit 12 (instruction position determination step). The target angle used for controlling the position of the projection range L is calculated so that an image is projected at the position of the center point P1) (S3: designated position determination step).
 そして、投射位置制御部14は、投射角度決定部13が算出した目標角度に基づいて、投射部3の向きを変更するようにモーター部5を制御して、投射部3の投射角度を制御する(S4:投射位置制御ステップ)。 The projection position control unit 14 controls the projection angle of the projection unit 3 by controlling the motor unit 5 so as to change the direction of the projection unit 3 based on the target angle calculated by the projection angle determination unit 13. (S4: Projection position control step).
 投射位置制御部14が投射部3が映像を投射する位置を制御した後に、映像の投射を開始する(S5)。 After the projection position control unit 14 controls the position where the projection unit 3 projects the video, the projection of the video is started (S5).
 このように、表示装置100は、撮像部2が撮像した撮像画像から映像を投射する位置を指示するユーザの手を抽出して、該抽出したユーザの手が指示する位置に映像が投射されるように、映像を投射する位置を調節する。これにより、所望の位置に映像を投射するように表示装置100の投射部3の向き(方向)を制御することができる。また、映像を投射する位置を直観的な操作で指示することにより、円滑に所望の位置に映像を投射することができる。 As described above, the display device 100 extracts the user's hand indicating the position to project the video from the captured image captured by the imaging unit 2, and the video is projected to the position specified by the extracted user's hand. In this way, the position where the image is projected is adjusted. Thereby, the direction (direction) of the projection unit 3 of the display device 100 can be controlled so as to project an image at a desired position. In addition, by instructing the position to project the image by an intuitive operation, the image can be smoothly projected to a desired position.
 〔実施形態2〕
 本発明の他の実施形態について、図9~図11に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.
 はじめに、実施形態2に係る表示装置100aのハードウェア構成について、図10を用いて説明する。図10は、実施形態2に係る表示装置100aのハードウェア構成の一例を示すブロック図である。図示のように、表示装置100aは、映像の投射開始を指示するユーザからの音声の入力を受け付ける集音部6(投射指示取得部)をさらに備えている点で、表示装置100と異なっている。集音部6は、例えばマイクである。なお、ここでは、映像の投射開始を指示するユーザからの指示の入力を音声として受け付ける場合について例を挙げたが、これに限定されない。例えば、集音部6の代わりに、受光部を備え、ユーザからの、映像の投射開始を赤外線などの光によって入力させる構成であってもよい。 First, the hardware configuration of the display device 100a according to the second embodiment will be described with reference to FIG. FIG. 10 is a block diagram illustrating an example of a hardware configuration of the display device 100a according to the second embodiment. As illustrated, the display device 100a is different from the display device 100 in that the display device 100a further includes a sound collection unit 6 (projection instruction acquisition unit) that receives an input of audio from a user instructing start of video projection. . The sound collection unit 6 is, for example, a microphone. Here, an example has been given in which an input of an instruction from a user instructing start of video projection is received as sound, but the present invention is not limited to this. For example, a configuration in which a light receiving unit is provided instead of the sound collecting unit 6 and the start of video projection from the user is input by light such as infrared rays may be used.
 表示装置100aの構成について、図9を用いて説明する。図9は、表示装置100aの概略構成の一例を示すブロック図である。図示のように、表示装置100aの制御部1aは、集音部6に入力したユーザの発話音声に、所定の音声パターンに合致する音声(投射開始契機となる音声)を検出したときに、映像の投射を開始する投射指示検出部15(投射指示取得部)をさらに備えている。予め設定された音声パターンは、例えば、「スタート」、「OK」など、予め設定されている発話音声であってもよい。 The configuration of the display device 100a will be described with reference to FIG. FIG. 9 is a block diagram illustrating an example of a schematic configuration of the display device 100a. As shown in the figure, when the control unit 1a of the display device 100a detects a voice (sound that triggers the start of projection) that matches a predetermined voice pattern from the user's utterance voice input to the sound collection unit 6, Is further provided with a projection instruction detection unit 15 (projection instruction acquisition unit) that starts the projection. The preset voice pattern may be, for example, a preset utterance voice such as “Start”, “OK”, and the like.
 続いて、表示装置100aが映像を投射する位置を制御して表示する処理の流れについて、図11を用いて説明する。図11は、表示装置100aが、指示体が指示する位置に映像の投射を開始する処理の流れの一例を示すフローチャートである。なお、図11のS11~S14およびS17は、図8のS1~S4およびS6にそれぞれ対応する処理であり、重複を避けるためここでは説明を省略する。 Subsequently, the flow of processing for controlling and displaying the position where the display device 100a projects an image will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a process flow in which the display device 100a starts projecting an image at a position indicated by the indicator. Note that S11 to S14 and S17 in FIG. 11 are processes corresponding to S1 to S4 and S6 in FIG. 8, respectively, and will not be described here to avoid duplication.
 投射位置制御部14が投射部3が映像を投射する位置を制御した後に、投射開始契機の集音を受け付けた場合(S15にてYes)、投射指示検出部15は、映像の投射を開始する(S16)。一方、投射開始契機の集音を受け付けるまで、映像の投射は開始しない(S15にてNo)。なお、投射位置制御部14が、映像を投射する位置の制御を完了したときに、その旨をユーザに通知してもよい。これにより、投射開始契機となる音声の受付を開始したことをユーザに知らせることができる。 When the projection position control unit 14 controls the position at which the projection unit 3 projects the video and then receives the sound collection at the start of projection (Yes in S15), the projection instruction detection unit 15 starts projecting the video. (S16). On the other hand, video projection does not start until the sound collection at the start of projection is received (No in S15). Note that when the projection position control unit 14 completes the control of the position at which the video is projected, the user may be notified of this. Accordingly, it is possible to notify the user that the reception of the voice that is a trigger for starting the projection has started.
 この構成によれば、映像の投射位置が決定した後に、ユーザからの投射開始の指示に応じて、映像の投射を開始する。これにより、所望のタイミングで、映像の投射を開始することができる。よって、ユーザが意図しないタイミングで映像が投射されることを防ぐことができる。 According to this configuration, after the projection position of the video is determined, the projection of the video is started in response to a projection start instruction from the user. Thereby, video projection can be started at a desired timing. Therefore, it is possible to prevent the image from being projected at a timing not intended by the user.
 〔実施形態3〕
 本発明の他の実施形態について、図12および図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe another embodiment of the present invention with reference to FIG. 12 and FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.
 はじめに、実施形態3に係る表示装置100bの概略構成について、図12を用いて説明する。図12は、表示装置100bの概略構成の一例を示すブロック図である。 First, a schematic configuration of the display device 100b according to the third embodiment will be described with reference to FIG. FIG. 12 is a block diagram illustrating an example of a schematic configuration of the display device 100b.
 図示のように、表示装置100bは、フォーカス制御部16を備えている。表示装置100bの制御部1bのフォーカス制御部16は、投射された映像が明瞭に表示されるように、投射部3から投射される映像が通過するレンズを制御して、フォーカスを制御する。 As shown in the figure, the display device 100b includes a focus control unit 16. The focus control unit 16 of the control unit 1b of the display device 100b controls the focus by controlling the lens through which the image projected from the projection unit 3 passes so that the projected image is clearly displayed.
 続いて、表示装置100bが映像を投射する位置を制御して表示する処理の流れについて、図13を用いて説明する。図13は、表示装置100bが、指示体が指示する位置に映像の投射を開始する処理の流れの一例を示すフローチャートである。なお、図13のS21~S25およびS27は、図8のS1~S5およびS6にそれぞれ対応する処理であり、重複を避けるためここでは説明を省略する。 Subsequently, the flow of processing for controlling and displaying the position at which the display device 100b projects an image will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of a processing flow in which the display device 100b starts projecting an image at a position indicated by the indicator. Note that S21 to S25 and S27 in FIG. 13 are processes corresponding to S1 to S5 and S6 in FIG. 8, respectively, and will not be described here to avoid duplication.
 投射位置制御部14が投射部3が映像を投射する位置を制御した後に、フォーカス制御部16は、投射した映像のフォーカスを制御する(S36)。 After the projection position control unit 14 controls the position at which the projection unit 3 projects an image, the focus control unit 16 controls the focus of the projected image (S36).
 投射部3の光源として、レーザを用いていない表示装置100bの場合、投射された映像の焦点(フォーカス)を調整する処理が必要である。上記の構成によれば、映像の投影位置が開始されると、明瞭な映像として投射されるように、自動的にフォーカスを制御する。 In the case of the display device 100b that does not use a laser as the light source of the projection unit 3, a process for adjusting the focus of the projected image is necessary. According to said structure, when the projection position of an image | video is started, a focus is controlled automatically so that it may project as a clear image | video.
 〔ソフトウェアによる実現例〕
 表示装置100、100a、100bの制御ブロック(特に画像検出部11、指示位置決定部12、投射角度決定部13、投射位置制御部14、投射指示検出部15、およびフォーカス制御部16)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks of the display devices 100, 100a, 100b (particularly the image detection unit 11, the instruction position determination unit 12, the projection angle determination unit 13, the projection position control unit 14, the projection instruction detection unit 15, and the focus control unit 16) are integrated. It may be realized by a logic circuit (hardware) formed on a circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit).
 後者の場合、表示装置100、100a、100bは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the display devices 100, 100a, and 100b include a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read that records the above-described program and various data so that the computer (or CPU) can read them. Only Memory) or a storage device (these are referred to as “recording media”), RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
 〔まとめ〕
 本発明の態様1に係る表示装置100、100a、100bは、映像を投射する位置を調節可能な投影部(投射部3)を備える表示装置であって、撮像部2が撮像した撮像画像から、上記映像を投射する位置を指示する指示体の画像を抽出して、該指示体が指示する位置を特定する指示位置決定部(画像検出部11、指示位置決定部12)と、上記指示位置決定部が決定した位置に上記映像が投射されるように、上記投影部が上記映像を投射する位置を調節する投射位置制御部14とを備えている。
[Summary]
The display devices 100, 100a, and 100b according to the first aspect of the present invention are display devices that include a projection unit (projection unit 3) that can adjust the position at which an image is projected. From the captured image captured by the imaging unit 2, An instruction position determination unit (image detection unit 11, instruction position determination unit 12) that extracts an image of a pointer that indicates a position to project the video and specifies the position indicated by the pointer, and the instruction position determination A projection position control unit for adjusting a position at which the projection unit projects the video so that the video is projected at a position determined by the unit.
 上記の構成によれば、撮像部が撮像した撮像画像から映像を投射する位置を指示する指示体の画像を抽出して、該指示体が指示する位置に映像が投射されるように、映像を投射する位置を調節する。これにより、手で指示された位置に映像を投射するように、投射部の向きを制御することができる。よって、映像を投射する位置を直観的な操作で指示することにより、円滑に所望の位置に映像を投射することができる。 According to the above configuration, the image of the indicator that indicates the position where the image is projected is extracted from the captured image captured by the imaging unit, and the image is projected so that the image is projected at the position indicated by the indicator. Adjust the projection position. Thereby, the direction of the projection unit can be controlled so as to project an image at a position instructed by hand. Therefore, the video can be smoothly projected to a desired position by instructing the position to project the video by an intuitive operation.
 本発明の態様2に係る表示装置は、上記態様1において、上記投射位置制御部は、上記指示位置決定部が特定した位置に、上記投影部が上記映像を投射する投射範囲にあらかじめ設定された基準位置が一致するように、上記投射範囲の位置を調節してもよい。 In the display device according to aspect 2 of the present invention, in the aspect 1, the projection position control unit is preset in a projection range in which the projection unit projects the video at the position specified by the instruction position determination unit. The position of the projection range may be adjusted so that the reference positions match.
 上記の構成によれば、指示体が指示する位置に、予め設定された基準位置が一致するように投射範囲の位置を制御する。これにより、映像を投射する位置を違和感なく円滑に調節することができる。 According to the above configuration, the position of the projection range is controlled so that the preset reference position matches the position indicated by the indicator. Thereby, the position which projects an image | video can be adjusted smoothly without discomfort.
 本発明の態様3に係る表示装置は、上記態様1において、上記投射位置制御部は、上記撮像部が上記撮像画像を撮像する撮像範囲における上記指示位置決定部が特定した上記指示体の相対位置と、上記投影部が上記映像を投射する投射範囲における上記指示位置決定部が特定した上記指示体の相対位置とが一致するように、上記投射範囲の位置を調節してもよい。 The display device according to aspect 3 of the present invention is the display apparatus according to aspect 1, wherein the projection position control unit is configured to determine the relative position of the indicator specified by the instruction position determination unit in an imaging range in which the imaging unit captures the captured image. The position of the projection range may be adjusted so that the relative position of the indicator specified by the indication position determination unit in the projection range in which the projection unit projects the video is matched.
 上記の構成によれば、撮像範囲における指示体の相対位置と、投射範囲における指示体の相対位置とが一致するように投射範囲の位置を制御する。これにより、映像を投射する位置を違和感なく円滑に調節することができる。 According to the above configuration, the position of the projection range is controlled so that the relative position of the indicator in the imaging range matches the relative position of the indicator in the projection range. Thereby, the position which projects an image | video can be adjusted smoothly without discomfort.
 本発明の態様4に係る表示装置は、上記態様1から3のいずれかにおいて、上記撮像部は、上記投影部が上記映像を投射することが可能な全領域を撮像可能であるように、撮像方向が可変であってもよい。 The display device according to aspect 4 of the present invention is the display device according to any one of aspects 1 to 3, wherein the imaging unit is capable of imaging the entire region in which the projection unit can project the video. The direction may be variable.
 これにより、投影部が映像を投射することが可能な全領域を指示対象とすることができる。 Thereby, the entire area in which the projection unit can project an image can be designated.
 本発明の態様5に係る表示装置は、上記態様1から4のいずれかにおいて、上記指示位置決定部が上記映像を投射する位置を決定できなかった場合に、上記指示体の提示を促す指示体提示指示を発してもよい。 The display device according to aspect 5 of the present invention provides the indicator that prompts the presentation of the indicator when the indicated position determination unit cannot determine the position at which the video is projected in any of the aspects 1 to 4. A presentation instruction may be issued.
 これにより、映像を投射する位置を指示する指示体の提示を適切に促して、指示するように映像を円滑に投射することができる。また、指示体提示指示をユーザに対して発することにより、映像を投射する位置を決定する工程であることをユーザに知らせることができる。 Thereby, it is possible to smoothly project the image so as to promptly prompt the presentation of the indicator that indicates the position to project the image. Further, by issuing an indicator presentation instruction to the user, the user can be informed that it is a step of determining a position where an image is projected.
 本発明の態様6に係る表示装置は、上記態様1から5のいずれかにおいて、上記投影部は、上記投射位置制御部によって、上記映像を投射する位置が調節された後、上記映像の投射を開始してもよい。 The display device according to aspect 6 of the present invention is the display device according to any one of the aspects 1 to 5, wherein the projection unit projects the image after the projection position control unit adjusts the position at which the image is projected. You may start.
 これにより、指示された位置に映像を投射する準備ができ次第、円滑に映像の投射を開始することができる。 This makes it possible to smoothly start projecting the image as soon as it is ready to project the image to the instructed position.
 本発明の態様7に係る表示装置は、上記態様1から5のいずれかにおいて、上記投射位置制御部によって、上記映像を投射する位置が調節された後、ユーザの投射開始の指示を取得する投射指示取得部をさらに備え、上記投影部は、上記投射指示取得部が上記投射開始の指示を取得したときに、上記映像の投射を開始してもよい。 The display device according to aspect 7 of the present invention is the projection according to any one of aspects 1 to 5, wherein the projection position control unit adjusts a position at which the video is projected, and then obtains an instruction to start projection by the user. The projector may further include an instruction acquisition unit, and the projection unit may start projecting the video when the projection instruction acquisition unit acquires the projection start instruction.
 上記の構成によれば、上記投射指示取得部が投射開始の指示を取得したときに映像の投射を開始する。これにより、所望のタイミングで、映像の投射を開始することができる。よって、ユーザが意図しないタイミングで映像が投射されることを防ぐことができる。 According to the above configuration, when the projection instruction acquisition unit acquires an instruction to start projection, the projection of the video is started. Thereby, video projection can be started at a desired timing. Therefore, it is possible to prevent the image from being projected at a timing not intended by the user.
 本発明の態様8に係る表示装置は、上記態様1から7のいずれかにおいて、上記撮像部と上記投影部とが、一体として動くように配置されていてもよい。 In the display device according to aspect 8 of the present invention, in any one of aspects 1 to 7, the imaging unit and the projection unit may be arranged so as to move together.
 本発明の態様9に係る表示装置は、上記態様1から7のいずれかにおいて、上記撮像部と上記投影部とが、それぞれ独立して動くように配置されていてもよい。 In the display device according to aspect 9 of the present invention, in any of the above aspects 1 to 7, the imaging unit and the projection unit may be arranged to move independently.
 本発明の態様10に係る表示装置の制御方法は、映像を投射する位置を調節可能な投影部を備える表示装置の制御方法であって、撮像部が撮像する撮像ステップ(S1、S11、S21)と、上記撮像ステップで撮像した撮像画像から、上記映像を投射する位置を指示する指示体の画像を抽出して、該指示体が指示する位置を特定する指示位置決定ステップ(S3、S13、S23)と、上記指示位置決定ステップで決定した位置に上記映像が投射されるように、上記投影部が上記映像を投射する位置を調節する投射位置制御ステップ(S4、S14、S24)とを含む。上記の構成によれば、上記態様1と同様の効果を奏する。 The display device control method according to the tenth aspect of the present invention is a display device control method including a projection unit capable of adjusting a position at which an image is projected, and an imaging step in which the imaging unit captures an image (S1, S11, S21). And an instruction position determining step (S3, S13, S23) for extracting an image of an indicator that indicates the position at which the video is projected from the captured image captured in the imaging step and specifying the position indicated by the indicator. And a projection position control step (S4, S14, S24) for adjusting the position at which the projection unit projects the video so that the video is projected at the position determined in the designated position determination step. According to said structure, there exists an effect similar to the said aspect 1. FIG.
 本発明の各態様に係る表示装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置が備える各部(ソフトウェア要素)として動作させることにより上記表示装置をコンピュータにて実現させる表示装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The display device according to each aspect of the present invention may be realized by a computer. In this case, the display device is realized by the computer by operating the computer as each unit (software element) included in the display device. A control program for the display device and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
 本発明は、映像を投射して表示するプロジェクターなどに利用することができる。 The present invention can be used for a projector that projects and displays an image.
1、1a、1b 制御部、2 撮像部、3 投射部(投影部)、6 集音部(投射指示取得部)、11 画像検出部(指示位置決定部)、12 指示位置決定部、14 投射位置制御部、15 投射指示検出部(投射指示取得部)、100、100a、100b 表示装置、S1、S11、S21:撮像ステップ、S3、S13、S23:指示位置決定ステップ、S4、S14、S24:投射位置制御ステップ 1, 1a, 1b control unit, 2 imaging unit, 3 projection unit (projection unit), 6 sound collection unit (projection instruction acquisition unit), 11 image detection unit (instruction position determination unit), 12 instruction position determination unit, 14 projection Position control unit, 15 projection instruction detection unit (projection instruction acquisition unit), 100, 100a, 100b display device, S1, S11, S21: imaging step, S3, S13, S23: designated position determination step, S4, S14, S24: Projection position control step

Claims (12)

  1.  映像を投射する位置を調節可能な投影部を備える表示装置であって、
     撮像部が撮像した撮像画像から、上記映像を投射する位置を指示する指示体の画像を抽出して、該指示体が指示する位置を特定する指示位置決定部と、
     上記指示位置決定部が決定した位置に上記映像が投射されるように、上記投影部が上記映像を投射する位置を調節する投射位置制御部とを備える
    ことを特徴とする表示装置。
    A display device including a projection unit capable of adjusting a position for projecting an image,
    An instruction position determining unit that extracts an image of a pointer that indicates a position at which the video is projected from a captured image captured by the imaging unit, and that specifies a position indicated by the pointer;
    A display device comprising: a projection position control unit that adjusts a position at which the projection unit projects the video so that the video is projected at a position determined by the designated position determination unit.
  2.  上記投射位置制御部は、上記指示位置決定部が特定した位置に、上記投影部が上記映像を投射する投射範囲にあらかじめ設定された基準位置が一致するように、上記投射範囲の位置を調節する
    ことを特徴とする請求項1に記載の表示装置。
    The projection position control unit adjusts the position of the projection range such that a reference position preset in the projection range in which the projection unit projects the video matches the position specified by the designated position determination unit. The display device according to claim 1.
  3.  上記投射位置制御部は、上記撮像部が上記撮像画像を撮像する撮像範囲における上記指示位置決定部が特定した上記指示体の相対位置と、上記投影部が上記映像を投射する投射範囲における上記指示位置決定部が特定した上記指示体の相対位置とが一致するように、上記投射範囲の位置を調節する
    ことを特徴とする請求項1に記載の表示装置。
    The projection position control unit includes the relative position of the indicator specified by the instruction position determination unit in the imaging range in which the imaging unit captures the captured image, and the instruction in the projection range in which the projection unit projects the video. The display device according to claim 1, wherein the position of the projection range is adjusted so that the relative position of the indicator specified by the position determination unit coincides.
  4.  上記撮像部は、上記投影部が上記映像を投射することが可能な全領域を撮像可能であるように、撮像方向が可変である
    ことを特徴とする請求項1から3のいずれか1項に記載の表示装置。
    The imaging unit according to any one of claims 1 to 3, wherein the imaging unit has a variable imaging direction so that the projection unit can capture the entire region in which the video can be projected. The display device described.
  5.  上記指示位置決定部が上記映像を投射する位置を決定できなかった場合に、上記指示体の提示を促す指示体提示指示を発する
    ことを特徴とする請求項1から4のいずれか1項に記載の表示装置。
    5. The indicator presentation instruction for prompting the presentation of the indicator is issued when the indication position determination unit cannot determine the position at which the video is projected. 6. Display device.
  6.  上記投影部は、上記投射位置制御部によって、上記映像を投射する位置が調節された後、上記映像の投射を開始する
    ことを特徴とする請求項1から5のいずれか1項に記載の表示装置。
    6. The display according to claim 1, wherein the projection unit starts projecting the video after the projection position control unit adjusts a position at which the video is projected. 6. apparatus.
  7.  上記投射位置制御部によって、上記映像を投射する位置が調節された後、ユーザの投射開始の指示を取得する投射指示取得部をさらに備え、
     上記投影部は、上記投射指示取得部が上記投射開始の指示を取得したときに、上記映像の投射を開始する
    ことを特徴とする請求項1から5のいずれか1項に記載の表示装置。
    The projection position control unit further includes a projection instruction acquisition unit that acquires a user's projection start instruction after the position for projecting the video is adjusted,
    The display device according to claim 1, wherein the projection unit starts projecting the video when the projection instruction acquisition unit acquires the projection start instruction.
  8.  上記撮像部と上記投影部とが、一体として動くように配置されている
    ことを特徴とする請求項1から7のいずれか1項に記載の表示装置。
    The display device according to claim 1, wherein the imaging unit and the projection unit are arranged so as to move as a unit.
  9.  上記撮像部と上記投影部とが、それぞれ独立して動くように配置されている
    ことを特徴とする請求項1から7のいずれか1項に記載の表示装置。
    The display device according to claim 1, wherein the imaging unit and the projection unit are arranged to move independently of each other.
  10.  映像を投射する位置を調節可能な投影部を備える表示装置の制御方法であって、
     撮像部が撮像する撮像ステップと、
     上記撮像ステップで撮像した撮像画像から、上記映像を投射する位置を指示する指示体の画像を抽出して、該指示体が指示する位置を特定する指示位置決定ステップと、
     上記指示位置決定ステップで決定した位置に上記映像が投射されるように、上記投影部が上記映像を投射する位置を調節する投射位置制御ステップとを含む
    ことを特徴とする表示装置の制御方法。
    A control method of a display device including a projection unit capable of adjusting a position for projecting an image,
    An imaging step of imaging by the imaging unit;
    An instruction position determination step for extracting an image of an indicator that indicates a position to project the video from the captured image captured in the imaging step, and specifying a position indicated by the indicator;
    And a projection position control step for adjusting a position at which the projection unit projects the video so that the video is projected at the position determined in the designated position determination step.
  11.  請求項1に記載の表示装置としてコンピュータを機能させるための制御プログラムであって、上記指示位置決定部および上記投射位置制御部としてコンピュータを機能させるための制御プログラム。 A control program for causing a computer to function as the display device according to claim 1, wherein the control program causes the computer to function as the indicated position determination unit and the projection position control unit.
  12.  請求項11に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the control program according to claim 11 is recorded.
PCT/JP2016/053306 2015-02-10 2016-02-04 Display apparatus, method of controlling display apparatus, control program, and recording medium WO2016129489A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016574763A JPWO2016129489A1 (en) 2015-02-10 2016-02-04 Display device, display device control method, control program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015024665 2015-02-10
JP2015-024665 2015-02-10

Publications (1)

Publication Number Publication Date
WO2016129489A1 true WO2016129489A1 (en) 2016-08-18

Family

ID=56614705

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053306 WO2016129489A1 (en) 2015-02-10 2016-02-04 Display apparatus, method of controlling display apparatus, control program, and recording medium

Country Status (2)

Country Link
JP (1) JPWO2016129489A1 (en)
WO (1) WO2016129489A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176218A1 (en) * 2018-03-16 2019-09-19 ソニー株式会社 Information processing device, information processing method, and storage medium
JPWO2020116290A1 (en) * 2018-12-06 2021-02-15 株式会社アーティフィス Table projection device
US10976648B2 (en) * 2017-02-24 2021-04-13 Sony Mobile Communications Inc. Information processing apparatus, information processing method, and program
WO2021161689A1 (en) * 2020-02-10 2021-08-19 ソニーグループ株式会社 Information processing apparatus, information processing system, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195939A (en) * 2004-01-08 2005-07-21 Nippon Telegr & Teleph Corp <Ntt> Projector projection control system and method
WO2006077665A1 (en) * 2005-01-20 2006-07-27 National University Corporation NARA Institute of Science and Technology Projection device, control method for projection device, composite projection system, control program for projection device, and recording medium having projection device control program recorded therein
JP2008294961A (en) * 2007-05-28 2008-12-04 Panasonic Electric Works Co Ltd Video display apparatus
JP2010160403A (en) * 2009-01-09 2010-07-22 Seiko Epson Corp Projection type display device
JP2012098401A (en) * 2010-10-29 2012-05-24 Sony Corp Projection device, projection method and program
JP2012108479A (en) * 2010-10-28 2012-06-07 Seiko Epson Corp Projection type display device and control method thereof
JP2013003859A (en) * 2011-06-16 2013-01-07 Sony Corp Projection device, projection method and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3729533B2 (en) * 1995-05-25 2005-12-21 沖電気工業株式会社 Pointing system
JP2000200149A (en) * 1999-01-05 2000-07-18 Seiko Epson Corp Display system, pointing control method and recording medium
JP2005292563A (en) * 2004-04-01 2005-10-20 Olympus Corp Projector
JP2007207056A (en) * 2006-02-03 2007-08-16 Seiko Epson Corp Information input system
JP2010243921A (en) * 2009-04-08 2010-10-28 Sanyo Electric Co Ltd Projection video display apparatus
JP2013061680A (en) * 2010-10-14 2013-04-04 Nikon Corp Display device
JP5644421B2 (en) * 2010-11-25 2014-12-24 富士通株式会社 Instruction means shape acquisition apparatus, instruction means shape acquisition program, and projection system
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005195939A (en) * 2004-01-08 2005-07-21 Nippon Telegr & Teleph Corp <Ntt> Projector projection control system and method
WO2006077665A1 (en) * 2005-01-20 2006-07-27 National University Corporation NARA Institute of Science and Technology Projection device, control method for projection device, composite projection system, control program for projection device, and recording medium having projection device control program recorded therein
JP2008294961A (en) * 2007-05-28 2008-12-04 Panasonic Electric Works Co Ltd Video display apparatus
JP2010160403A (en) * 2009-01-09 2010-07-22 Seiko Epson Corp Projection type display device
JP2012108479A (en) * 2010-10-28 2012-06-07 Seiko Epson Corp Projection type display device and control method thereof
JP2012098401A (en) * 2010-10-29 2012-05-24 Sony Corp Projection device, projection method and program
JP2013003859A (en) * 2011-06-16 2013-01-07 Sony Corp Projection device, projection method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10976648B2 (en) * 2017-02-24 2021-04-13 Sony Mobile Communications Inc. Information processing apparatus, information processing method, and program
WO2019176218A1 (en) * 2018-03-16 2019-09-19 ソニー株式会社 Information processing device, information processing method, and storage medium
US11698578B2 (en) 2018-03-16 2023-07-11 Sony Corporation Information processing apparatus, information processing method, and recording medium
JPWO2020116290A1 (en) * 2018-12-06 2021-02-15 株式会社アーティフィス Table projection device
WO2021161689A1 (en) * 2020-02-10 2021-08-19 ソニーグループ株式会社 Information processing apparatus, information processing system, information processing method, and program

Also Published As

Publication number Publication date
JPWO2016129489A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
US7524067B2 (en) Projector device, projecting method and recording medium in which projection control program is recorded
WO2016129489A1 (en) Display apparatus, method of controlling display apparatus, control program, and recording medium
JP5906779B2 (en) Image display device
US9697610B2 (en) Information processing device and information processing method
US20140267427A1 (en) Projector, method of controlling projector, and program thereof
JP6307852B2 (en) Image display device and method for controlling image display device
WO2015052765A1 (en) Projection type image display device, manipulation detection device and projection type image display method
WO2014208168A1 (en) Information processing device, control method, program, and storage medium
JP6812203B2 (en) Information processing system, information processing method, mobile projection terminal
WO2016157803A1 (en) Display device, display device control method, document camera and document camera control method
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
JP2015099293A (en) Projector, and control method of projector
JP2015099522A (en) Projector, and control method of projector
JP2014186203A (en) Image processor, projector and image processing method
JP2007086995A (en) Pointing device
JP6866467B2 (en) Gesture recognition device, gesture recognition method, projector with gesture recognition device and video signal supply device
US10866658B2 (en) Indicator device, mixed reality device and operation method thereof
JP6350175B2 (en) POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD
US20160227203A1 (en) Information processing device, display device, and information processing method
US20170168592A1 (en) System and method for optical tracking
JP2018085579A (en) Imaging apparatus, control method, and information processing program
JP2016071401A (en) Position detection apparatus, projector, and position detection method
WO2020108108A1 (en) Animation projection apparatus employing laser light and control method
GB2581248A (en) Augmented reality tools for lighting design
KR100660137B1 (en) Input apparatus using a raser pointer and system for offering presentation using the apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16749133

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016574763

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16749133

Country of ref document: EP

Kind code of ref document: A1