JP2016197220A - Interaction execution method and device employing interaction execution method, as well as program employing interaction execution method - Google Patents

Interaction execution method and device employing interaction execution method, as well as program employing interaction execution method Download PDF

Info

Publication number
JP2016197220A
JP2016197220A JP2015086277A JP2015086277A JP2016197220A JP 2016197220 A JP2016197220 A JP 2016197220A JP 2015086277 A JP2015086277 A JP 2015086277A JP 2015086277 A JP2015086277 A JP 2015086277A JP 2016197220 A JP2016197220 A JP 2016197220A
Authority
JP
Japan
Prior art keywords
video
image
display area
display
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015086277A
Other languages
Japanese (ja)
Other versions
JP6573101B2 (en
Inventor
隆之 小堀
Takayuki Kobori
隆之 小堀
瀧 良博
Yoshihiro Taki
良博 瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koto Co Ltd
Original Assignee
Koto Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koto Co Ltd filed Critical Koto Co Ltd
Priority to JP2015086277A priority Critical patent/JP6573101B2/en
Publication of JP2016197220A publication Critical patent/JP2016197220A/en
Application granted granted Critical
Publication of JP6573101B2 publication Critical patent/JP6573101B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an interaction execution method that can provide an interactive property to a spatial image to be formed via a half mirror.SOLUTION: A method is adapted to: position a display instrument building in imaging means in the vicinity of an outer peripheral edge of a picture display area in a half mirror so as not to shield an imaging range owned by the imaging means; cause a picture to be displayed in the picture display area of the display instrument; cause the picture to be formed above the half mirror via the half mirror as a spatial picture; and execute an interaction with respect to the spatial picture. After causing the picture to be displayed in the picture display area, whether a pointing body pointing out the spatial picture in the imaging area of the imaging means appears is determined in accordance with an image to be shot by the imaging means, and when it is determined that the pointing body appears in the imaging area, a new picture relevant to the picture is caused to be formed as an action continuous to the spatial picture by causing the new picture to be displayed in the picture display area.SELECTED DRAWING: Figure 2

Description

本発明は、インタラクション実行方法及び該方法を採用するインタラクション実行装置並びにインタラクションを実行させるプログラムに関する。  The present invention relates to an interaction execution method, an interaction execution apparatus employing the method, and a program for executing the interaction.

近年、映像の新たな表示方法として、空中に映像を結像させる映像表示用装置が提案されている。これは元となる表示画面の映像を種々の光学的手法によって表示画面とは別の空間に結像させるものであるが、当該装置には、一般に、レンズアレイやコーナーキューブアレイ等から構成される再帰性反射シートと、ハーフミラーとを用いて当該ハーフミラーを基準とする面対称位置に前記映像を光学結像させる周知技術が採用されている(特許文献1及び2)。  In recent years, as a new video display method, a video display device for forming a video image in the air has been proposed. This is to form an image of the original display screen in a different space from the display screen by various optical methods, and the apparatus is generally composed of a lens array, a corner cube array, or the like. A well-known technique is employed in which the image is optically imaged at a plane-symmetrical position with respect to the half mirror using a retroreflective sheet and a half mirror (Patent Documents 1 and 2).

また、画像表示面内に内蔵されたセンサにより目視者の指の進入位置を検出し、当該進入位置に応じて、画像表示面に表示する二次元画像を変化させるユーザーインタラクティブを実現する画像表示装置が提案されている(特許文献3)。  Further, an image display device that realizes user interaction that detects an approach position of a viewer's finger with a sensor built in the image display surface and changes a two-dimensional image displayed on the image display surface according to the approach position. Has been proposed (Patent Document 3).

一方、本出願人は、図15に図示する空間映像結像装置1を特許出願(特願2015−30040)している。当該装置1は、表示機器2を載置するための支持台座部3と、再帰反射部4と、ハーフミラー部5と、前記各部を特定の角度関係をもって固定するための側板部6とによって構成し、前記表示機器2を前記支持台座部3へ挿入する挿入口7を設けた単純な箱型構造をとっている。  On the other hand, the present applicant has filed a patent application (Japanese Patent Application No. 2015-30040) for the spatial image forming apparatus 1 shown in FIG. The apparatus 1 includes a support pedestal 3 for placing the display device 2, a retroreflecting unit 4, a half mirror unit 5, and a side plate unit 6 for fixing each unit with a specific angular relationship. The display device 2 has a simple box structure in which an insertion port 7 for inserting the display device 2 into the support base 3 is provided.

そして、スマートデバイス等の表示機器2を前記挿入口7から挿入して前記支持台座部3へ装着し、図16に示すように、映像表示領域8に映像9を表示することにより、支持台座部3に載置された表示機器2の映像表示領域8から出力された光が、光路aを進んだ後、一部がハーフミラー部5によって反射され、光路bを進み再帰反射部4に入射し、再帰反射部4に入射された光は同一の光路cを通るように反射され、ハーフミラー部5に再度入射されて、ハーフミラー部5に入射された光の一部は透過した後に光路dを直進し、ハーフミラー部5を対称面とする面対称位置に空間映像10を結像するようになっている。  Then, the display device 2 such as a smart device is inserted through the insertion port 7 and attached to the support pedestal 3, and the video 9 is displayed in the video display area 8 as shown in FIG. After the light output from the video display area 8 of the display device 2 placed on 3 travels along the optical path a, part of the light is reflected by the half mirror unit 5, travels along the optical path b, and enters the retroreflective unit 4. The light incident on the retroreflecting unit 4 is reflected so as to pass through the same optical path c, is incident on the half mirror unit 5 again, and a part of the light incident on the half mirror unit 5 is transmitted through the optical path d. The aerial image 10 is imaged at a plane-symmetrical position with the half mirror 5 as a symmetry plane.

特開昭56−158320号公報JP-A-56-158320 特表平09−506717号公報JP 09-506717 A 国際公開第2007/013215号International Publication No. 2007/013215

本発明は、ハーフミラーを介して結像される空間映像に対してインタラクティブ性を持たせることを技術的課題とし、前記従来の映像表示用装置に対して検討をおこなった。  The present invention has a technical problem of providing an interactive property to a spatial image formed through a half mirror, and has studied the conventional image display device.

前記映像表示用装置の表示画面に表示された映像に対して直接入力する最も簡便な方法は、表示画面に表示された映像に対して直接、指やスタイラスペン等で入力を行う手法であるが、この方法では、操作時の一連の動作が画面表示を遮り、結果として立体の空間映像に影響するという問題点があった。  The simplest method of directly inputting the image displayed on the display screen of the image display device is a method of directly inputting the image displayed on the display screen with a finger or a stylus pen. However, this method has a problem that a series of operations at the time of operation interrupts the screen display and consequently affects a three-dimensional spatial image.

また、Bluetooth等の無線入力機器又はUSB接続の有線入力機器を接続して遠隔操作すれば、前記第一の問題点は回避できるが、空間映像に対するインタラクティブ性が損なわれるという問題点があった。  Further, if a wireless input device such as Bluetooth or a wired input device connected via USB is connected and remotely operated, the first problem can be avoided, but there is a problem that the interactivity with the spatial image is impaired.

さらに、特許文献3に開示されている画像表示装置では、前記第一の問題点に加えて、特殊な画像表示手段を必要とするという問題点があった。  Furthermore, the image display device disclosed in Patent Document 3 has a problem that a special image display means is required in addition to the first problem.

そこで、本発明は、市販のスマートデバイスであるスマートフォンやタブレット等にはカメラが内蔵されていることに着目し、当該内蔵カメラで撮像したデータを利用すれば、市販のスマートデバイスでも空間映像にインタラクティブ性を持たせることができるという知見を得、前記技術的課題を達成したものである。  Therefore, the present invention pays attention to the fact that a commercially available smart device such as a smartphone or a tablet has a built-in camera, and if data captured by the built-in camera is used, even a commercially available smart device can interactively display a spatial image. The above technical problem has been achieved by obtaining the knowledge that it can be imparted with the property.

前記技術的課題は、次の通りの本発明によって解決できる。  The technical problem can be solved by the present invention as follows.

本発明に係るインタラクション実行方法は、表示機器の映像表示領域に映像を表示させ、ハーフミラーを介して当該映像を当該ハーフミラー上方に空間映像として結像させて当該空間映像に対してインタラクションを実行する方法であって、前記表示機器は前記映像表示領域の外周縁近傍に撮像手段を内蔵しており、前記ハーフミラーは前記撮像手段が有する撮像範囲を遮らないように配置され、前記映像表示領域に映像を表示させた後に前記撮像手段の撮像範囲に前記空間映像を指し示す指示体が出現したか否かを前記撮像手段が撮像する画像により判断し、前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域に前記映像に関連する新たな映像を表示させて前記空間映像に連続する動作として結像させるものである。  The interaction execution method according to the present invention displays a video in a video display area of a display device, forms the video as a spatial video above the half mirror via a half mirror, and executes the interaction on the spatial video The display device includes an imaging unit in the vicinity of an outer periphery of the video display area, and the half mirror is arranged so as not to block an imaging range of the imaging unit, and the video display area It is determined from an image captured by the imaging unit whether or not an indicator pointing to the spatial video has appeared in the imaging range of the imaging unit after the video is displayed on the imaging unit, and the indicator appears in the imaging range. When it is determined that a new image related to the image is displayed in the image display area, the image is formed as a continuous operation on the spatial image. .

また、本発明に係るインタラクション実行装置は、映像を表示する映像表示領域と当該映像表示領域の外周縁近傍に内蔵する撮像手段とを備える表示機器と、当該表示機器に対して角度を設けて、前記撮像手段が有する撮像範囲を遮らないように配置されたハーフミラーとを含んで構成され、前記表示機器の映像表示領域に映像を表示させ、前記ハーフミラーを介して当該映像を前記ハーフミラー上方に空間映像として結像させ、当該空間映像に対してインタラクションを実行するインタラクション実行装置であって、前記映像表示領域に映像を表示させる第一の表示手段と、当該第一の表示手段により前記映像表示領域に映像を表示させた後に前記撮像手段の撮像範囲に前記空間映像を指し示す指示体が出現したか否かを判断する判断手段と、当該判断手段により前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域に前記映像に関連する新たな映像を表示させる第二の表示手段と、を具備しているものである。  Further, the interaction execution device according to the present invention is provided with a display device including a video display region for displaying video and an imaging unit built in the vicinity of the outer periphery of the video display region, and an angle with respect to the display device. And a half mirror arranged so as not to obstruct an imaging range of the imaging means, displaying an image in an image display area of the display device, and displaying the image via the half mirror above the half mirror An interaction execution device that forms an image as a spatial video and executes an interaction with the spatial video, wherein the first display means displays the video in the video display area, and the video is displayed by the first display means. Determination means for determining whether or not an indicator pointing to the spatial image has appeared in the imaging range of the imaging means after displaying the video in the display area A second display means for displaying a new video related to the video in the video display area when the judgment means judges that the indicator has appeared in the imaging range. Is.

また、本発明は、前記インタラクション実行装置において、映像表示領域が矩形に形成されて該矩形外周縁の一辺縁近傍に撮像手段が内蔵されており、長手両方向に下降する断面蒲鉾形状の長尺凸レンズが該長尺凸レンズの長辺側を前記一辺縁に沿わせて前記映像表示領域を遮らないように撮像手段の撮像範囲を塞いで配置されているものである。  Further, the present invention provides the interaction executing device, wherein the video display area is formed in a rectangular shape and an imaging means is built in near one edge of the outer peripheral edge of the rectangular shape, and is a long convex lens having a bowl-shaped cross section that descends in both longitudinal directions. However, the long convex side of the long convex lens is arranged along the one edge so as to close the imaging range of the imaging means so as not to block the video display area.

また、本発明は、前記インタラクション実行装置において、長尺凸レンズがハーフミラー面より上方に露出しているものである。  According to the present invention, in the interaction execution device, the long convex lens is exposed above the half mirror surface.

また、本発明に係るプログラムは、映像を表示する映像表示領域と当該映像表示領域の外周縁近傍に内蔵する撮像手段とを備える表示機器に搭載されるコンピュータを、前記映像表示領域に映像を表示させる第一の表示手段と、前記第一の表示手段により前記映像表示領域に映像が表示された後に、当該映像によってハーフミラー上方に結像した空間映像を指し示す指示体が前記撮像手段の撮像範囲に出現したか否かを判断する手段と、前記判断手段により前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域に前記映像に関連する新たな映像を表示させる第二の表示手段として機能させるものである。  Further, the program according to the present invention displays a video in a video display area, a computer mounted on a display device having a video display area for displaying video and an imaging means built in the vicinity of the outer periphery of the video display area. An image display range of the image pickup means is a first display means to be displayed, and an indicator that indicates a spatial image formed above the half mirror by the image after the image is displayed in the image display area by the first display means. And a means for displaying a new video related to the video in the video display area when the determination means determines that the indicator has appeared in the imaging range. It functions as a second display means.

さらに、本発明に係るプログラムは、映像を表示する映像表示領域と当該映像表示領域の外周縁近傍に内蔵する撮像手段とを備える表示機器に搭載されるコンピュータを、前記映像表示領域に映像を表示させる第一の表示手段と、前記第一の表示手段により前記映像表示領域に映像が表示された後に、当該映像によってハーフミラー上方に結像した空間映像を指し示す指示体が前記撮像手段の撮像範囲に出現したか否かを判断する手段と、前記判断手段により前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域における指示体の上下及び/又は左右位置を演算する演算手段と、前記演算手段の演算結果に基づいて新たな映像を選択して前記映像表示領域に当該新たな映像を表示させる第二の表示手段として機能させるものである。  Furthermore, the program according to the present invention displays a video on a display device including a video display area for displaying a video and an imaging unit built in the vicinity of the outer periphery of the video display area. An image display range of the image pickup means is a first display means to be displayed, and an indicator that indicates a spatial image formed above the half mirror by the image after the image is displayed in the image display area by the first display means. And calculating the vertical and / or horizontal position of the indicator in the video display area when it is determined by the determining means that the indicator appears in the imaging range. A calculation means and a second display means for selecting a new video based on the calculation result of the calculation means and displaying the new video in the video display area. It is intended.

本発明によれば、映像表示領域の外周縁近傍に撮像手段を内蔵する表示機器を用いて空間映像を結像させ、前記撮像手段の撮像範囲に前記空間映像を指し示す指示体が出現していると判断した場合に前記映像に関連する新たな映像を表示させて前記空間映像に連続する動作として結像させるようにしたので、前記空間映像に対してインタラクティブ性を持たせることができる。  According to the present invention, a spatial image is imaged using a display device incorporating an imaging means in the vicinity of the outer periphery of the video display area, and an indicator pointing to the spatial video appears in the imaging range of the imaging means. When it is determined that a new video related to the video is displayed and imaged as a continuous operation on the spatial video, the spatial video can be made interactive.

本発明に係るインタラクション実行装置を示す斜視図である。  It is a perspective view which shows the interaction execution apparatus which concerns on this invention. 図1に図示するインタラクション実行装置において結像される新たな空間映像を示す斜視図である。  It is a perspective view which shows the new space image imaged in the interaction execution apparatus shown in FIG. 図1に図示する表示機器の概略ブロック図である。  FIG. 2 is a schematic block diagram of the display device illustrated in FIG. 1. インタラクション実行プログラムの一例を説明するフローチャート図である。  It is a flowchart figure explaining an example of an interaction execution program. 表示機器のカメラの位置による撮影画像の違いを示す、カメラ位置が一辺縁中央の模式図であり、上図(a)は撮影画像、下図(b)は表示機器である。  The camera position is a schematic diagram at the center of one edge, showing the difference in the captured image depending on the position of the camera of the display device. The upper diagram (a) is the captured image, and the lower diagram (b) is the display device. 表示機器のカメラの位置による撮影画像の違いを示す、カメラ位置が一辺縁右寄りの模式図であり、上図(a)は撮影画像、下図(b)は表示機器である。  FIG. 2 is a schematic diagram showing the difference in the captured image depending on the position of the camera of the display device, where the camera position is to the right of one edge, the upper diagram (a) is the captured image, and the lower diagram (b) is the display device. 表示機器のカメラの位置による撮影画像の違いを示す、カメラ位置が一辺縁左寄りの模式図であり、上図(a)は撮影画像、下図(b)は表示機器である。  FIG. 2 is a schematic diagram showing a difference in the captured image depending on the position of the camera of the display device, with the camera position on the left side of one edge, the upper diagram (a) being a captured image, and the lower diagram (b) being a display device. 指示体の指示位置を説明する模式図である。  It is a schematic diagram explaining the indication position of a pointer. インタラクション実行プログラムの一例を説明するフローチャート図である。  It is a flowchart figure explaining an example of an interaction execution program. 新たな空間映像を示す斜視図である。  It is a perspective view which shows a new space image | video. 新たな空間映像を示す斜視図である。  It is a perspective view which shows a new space image | video. 本発明に係るインタラクション実行装置を示す斜視図である。  It is a perspective view which shows the interaction execution apparatus which concerns on this invention. 図12に図示する凸レンズの斜視図である。  FIG. 13 is a perspective view of a convex lens illustrated in FIG. 12. 内蔵カメラ位置の視野領域と凸レンズの光学系との関係を示す模式図である。  It is a schematic diagram which shows the relationship between the visual field area | region of a built-in camera position, and the optical system of a convex lens. 空間映像結像装置の一例を示す斜視図である。  It is a perspective view which shows an example of a spatial image imaging device. 図15に図示する空間映像結像装置における光学系を説明する模式図である。  FIG. 16 is a schematic diagram illustrating an optical system in the spatial image forming apparatus illustrated in FIG. 15.

実施の形態1.  Embodiment 1 FIG.

以下、本発明の実施の形態を、図1〜図7を参照して説明する。これらの図において、図15及び図16と同一符号は同一又は相当部分を示す。  Hereinafter, embodiments of the present invention will be described with reference to FIGS. In these drawings, the same reference numerals as those in FIGS. 15 and 16 denote the same or corresponding parts.

図1において、11はインタラクション実行装置であり、映像9を表示する矩形の表示画面(映像表示領域)8と表示画面8の外周縁12の一辺縁13近傍に内蔵するカメラ(撮像手段)14と通信機能を装備する携帯型の表示機器(所謂、スマートデバイス)2と、当該表示機器2を装着する、図15に図示する箱型空間映像結像装置1とからなり、表示機器2は、表示画面8に映像9を表示させた後にカメラ14の撮像範囲に空間映像10を指し示す指示体15(図2参照)が出現したか否かをカメラ14が撮像する画像により判断し、前記撮像範囲に前記指示体15が出現していると判断した場合に表示画面8に前記映像9に関連する新たな映像16aを表示させる機能を備えている。また、17aは新たな映像16aに対する新たな空間映像である。  In FIG. 1, reference numeral 11 denotes an interaction execution device, which includes a rectangular display screen (video display area) 8 for displaying video 9 and a camera (imaging means) 14 built in the vicinity of one edge 13 of the outer periphery 12 of the display screen 8. A portable display device (so-called smart device) 2 equipped with a communication function and a box-type spatial image forming apparatus 1 shown in FIG. 15 to which the display device 2 is attached. Whether or not the indicator 15 (see FIG. 2) pointing to the spatial video 10 appears in the imaging range of the camera 14 after the video 9 is displayed on the screen 8 is determined based on the image captured by the camera 14, and the imaging range is included in the imaging range. When it is determined that the indicator 15 has appeared, the display screen 8 has a function of displaying a new video 16 a related to the video 9. Reference numeral 17a denotes a new spatial video for the new video 16a.

前記箱型空間映像結像装置1は、表示機器2を装着する扁平な矩形支持台座部3と、支持台座部3に装着される表示機器2の表示画面8に対して角度を有して支持台座部3の上方位置に配置された扁平な矩形ハーフミラー部5と、ハーフミラー部5と支持台座部3とに対してそれぞれ角度を設けて対面する位置に配置され、支持台座部3に対して略直角に屈曲して連続する扁平な矩形再帰反射部4と、支持台座部3に装着される表示機器2とハーフミラー部5と再帰反射部4とにより形成される光学系によりハーフミラー部5の上方に空間映像10を結像するように前記各部を特定の角度関係をもって固定するための側板部6とによって構成されており、前記表示機器2は、矩形外周縁12の一辺縁13をハーフミラー部5側にしてカメラ14を当該ハーフミラー部5の上面から露出するように位置付けて前記支持台座部3に載置され、ハーフミラー部5はカメラ14が有する視野領域である撮像範囲を遮らないように配置されている。  The box-type spatial imaging device 1 is supported with an angle with respect to a flat rectangular support pedestal portion 3 on which the display device 2 is mounted and a display screen 8 of the display device 2 mounted on the support pedestal portion 3. The flat rectangular half mirror part 5 arranged above the pedestal part 3 and the half mirror part 5 and the support pedestal part 3 are arranged at positions facing each other with respect to the support pedestal part 3. The half mirror portion is formed by an optical system formed by the flat rectangular retroreflecting portion 4 that is bent substantially continuously at a right angle, the display device 2 that is attached to the support base portion 3, the half mirror portion 5, and the retroreflecting portion 4. 5 and the side plate portion 6 for fixing the respective portions with a specific angular relationship so as to form a spatial image 10 above, and the display device 2 includes one edge 13 of the rectangular outer peripheral edge 12. Camera 1 on the half mirror 5 side The are placed on the support pedestal 3 positioned so as to be exposed from the upper surface of the half mirror unit 5, the half mirror unit 5 is disposed so as not to block the imaging range is a field area that the camera 14 has.

表示機器2は、図3に示すように、前記映像9や前記新たな映像16aを表示する前記表示画面8と、前記映像9や前記新たな映像16aに関連するミュージックや音声を出力するスピーカ18と、前記指示体15を撮像するカメラ14と、図4に図示するインタラクション実行プログラムや前記映像9、16aの画像データ等をダウンロードできるWiFiや無線LAN、及び電話機能等を構築する通信部19と、前記インタラクション実行プログラムや前記画像データ等を格納するUSB等の外部デバイスを接続するI/Oインタフェース20と、前記映像9等の画像データを格納する第一記憶部21と前記映像9に関連する新たな映像16a等の画像データを格納する第二記憶部22と前記インタラクション実行プログラム等を格納する第三記憶部23とを設けた外部記憶部24と、表示機器2に搭載される前記各種デバイスを制御する中央制御部(CPU)25と、を含んで構成されている。  As shown in FIG. 3, the display device 2 includes the display screen 8 that displays the video 9 and the new video 16a, and a speaker 18 that outputs music and audio related to the video 9 and the new video 16a. A camera 14 that captures the indicator 15, and a communication unit 19 that constructs WiFi, a wireless LAN, a telephone function, and the like that can download the interaction execution program shown in FIG. An I / O interface 20 for connecting an external device such as a USB for storing the interaction execution program and the image data, etc., a first storage unit 21 for storing the image data such as the video 9, and the video 9 A second storage unit 22 for storing image data such as a new video 16a and the interaction execution program are stored. An external storage unit 24 provided with a third storage unit 23 is configured to include a central control unit (CPU) 25 for controlling the various devices to be mounted on the display device 2, a.

次に、図4に図示するインタラクション実行プログラムについて説明する。  Next, the interaction execution program illustrated in FIG. 4 will be described.

表示機器2を箱型空間映像結像装置1に装着した後、CPU25の制御により、前記プログラム記憶部23から前記インタラクション実行プログラムを読み出して当該プログラムを実行する。  After the display device 2 is mounted on the box-type spatial image forming apparatus 1, the interaction execution program is read from the program storage unit 23 and executed by the control of the CPU 25.

CPU25の制御により、第一記憶部21から映像9の画像データを読み込んで表示画面8に映像9を表示する(第一の表示手段:ステップs01)。これにより、ハーフミラー部5の上方には、図1に示すように、空間映像10が現れる。次いで、当該空間映像10を指し示す指示体15がカメラ14の撮像範囲に出現したか否かをカメラ14が内蔵する撮像素子(図示せず)の認識により判断し(判断手段:ステップs02)、CPU25の制御により、前記撮像素子が前記指示体15を認識すれば、続いて、CPU25の制御により、第二記憶部22から前記映像9に対する動きを表現する新たな画像データを読み込んで表示画面8に新たな映像16aとして表示する(第二の表示手段:ステップs03)。これにより、ハーフミラー部5の上方には、図2に示すように、前記映像9に連続する動きの新たな空間映像17aが出現する。  Under the control of the CPU 25, the image data of the video 9 is read from the first storage unit 21, and the video 9 is displayed on the display screen 8 (first display means: step s01). As a result, a spatial image 10 appears above the half mirror unit 5 as shown in FIG. Next, whether or not the indicator 15 pointing to the spatial image 10 has appeared in the imaging range of the camera 14 is determined by recognition of an imaging element (not shown) built in the camera 14 (determination means: step s02), and the CPU 25 If the image pickup device recognizes the indicator 15 under the control of, the CPU 25 then reads new image data representing the movement of the video 9 from the second storage unit 22 under the control of the CPU 25 and displays it on the display screen 8. The new image 16a is displayed (second display means: step s03). As a result, as shown in FIG. 2, a new spatial image 17 a that moves continuously from the image 9 appears above the half mirror unit 5.

本実施の形態では、カメラ14の撮像範囲に指示体15が出現すれば、カメラ14の一辺縁での位置に関係なく、新たな映像16aが表示される。  In the present embodiment, when the indicator 15 appears in the imaging range of the camera 14, a new video 16 a is displayed regardless of the position on one edge of the camera 14.

ところで、表示画面8に表示された映像9はその位置関係を保持した状態で当該映像9の空間映像10が結像される。従って、図5に示すように、カメラ14が一辺縁13の略中央に内蔵されている表示機器2の場合には、カメラ14で撮影される指示体15の撮影画像は前記表示画面8に対して中央位置が撮像範囲であり、当該表示画面8に表示されている映像9と整合性を有した位置関係となる。一方、図6に示すように、カメラ14が一辺縁13の右寄りに内蔵されている表示機器2の場合には、カメラ14で撮影される指示体15の撮影画像は前記表示画面8に対して右寄り位置が撮像範囲となるから、表示画面8に表示されている映像9と整合させるために指示体15の撮影画像を左寄りに位置を修正し、図7に示すように、カメラ14が一辺縁13の左寄りに内蔵されている表示機器2の場合には、カメラ14で撮影される指示体15の撮影画像は前記表示画面8に対して左寄り位置が撮像範囲となるから、表示画面8に表示されている映像9と整合させるために指示体15の撮影画像を右寄りに位置を修正すれば、さらに、前記指示体15の認識精度を上げることができる。  By the way, the image 9 displayed on the display screen 8 forms a spatial image 10 of the image 9 while maintaining its positional relationship. Therefore, as shown in FIG. 5, in the case of the display device 2 in which the camera 14 is built in substantially the center of the one side edge 13, the photographed image of the indicator 15 photographed by the camera 14 is on the display screen 8. The central position is the imaging range, and the positional relationship is consistent with the image 9 displayed on the display screen 8. On the other hand, as shown in FIG. 6, in the case of the display device 2 in which the camera 14 is built on the right side of the one edge 13, the captured image of the indicator 15 captured by the camera 14 is on the display screen 8. Since the right side position is the imaging range, the position of the captured image of the indicator 15 is corrected to the left side so as to be aligned with the image 9 displayed on the display screen 8, and the camera 14 has one edge as shown in FIG. 7. In the case of the display device 2 built in the left side of 13, the photographed image of the indicator 15 taken by the camera 14 is displayed on the display screen 8 because the left side position is an imaging range with respect to the display screen 8. If the position of the captured image of the indicator 15 is corrected to the right in order to match with the image 9 being displayed, the recognition accuracy of the indicator 15 can be further increased.

その他の修正方法の一例として、カメラ位置が異なる表示機器2の機種毎にカメラ位置のデータベースを予め用意して当該データベースを認識時に参照することでカメラ位置のバラつきをソフトウェア的に補正する方法や使用開始時に表示機器2に対して特定の位置で手などを撮影し、期待される基準位置とのずれから補正量を算出して以後の入力操作に反映させるキャリブレーション処理を行う補正方法等を挙げることができる。  As an example of another correction method, a method of using a camera position database for each model of the display device 2 having a different camera position in advance and referencing the database at the time of recognition to correct the camera position variation by software Examples include a correction method in which a hand or the like is photographed at a specific position with respect to the display device 2 at the start, a calibration amount is calculated from a deviation from an expected reference position, and reflected in subsequent input operations. be able to.

従って、カメラ位置は一辺縁13の中央より右寄り側或いは左寄り側、さらには、右端近傍或いは左端近傍であってもよい。  Therefore, the camera position may be on the right side or the left side from the center of the one edge 13, and may be near the right end or near the left end.

なお、映像9、16aは、動画は勿論のこと静止画の画像をも含むものである。また、新たな映像16aは、指示体15を認識しなくなることにより、もとの映像9に戻すようにしてもよく、再度認識されるまで、継続して表示するようにしてもよく、再度認識されることにより、第三の新たな映像を表示するようにしてもよい。また、指示体15は指でもよく、指し棒でもよい。  The videos 9 and 16a include still images as well as moving images. Further, the new video 16a may be returned to the original video 9 by not recognizing the indicator 15, or may be continuously displayed until it is recognized again, and it is recognized again. By doing so, a third new video may be displayed. The indicator 15 may be a finger or a pointing stick.

本実施の形態によれば、表示機器2としてカメラを内蔵するスマートフォンやタブレット等のスマートデバイスを用いれば、内蔵カメラで手の動きや特定の図形・色を持つ物体などを撮影し、撮影された画像の解析処理を経て表示映像に反映させることができるので、入力操作をするために追加の機材を用意する必要がない。  According to the present embodiment, if a smart device such as a smartphone or a tablet with a built-in camera is used as the display device 2, a hand movement or an object having a specific figure / color is photographed with the built-in camera. Since it can be reflected in the display video through the image analysis process, it is not necessary to prepare additional equipment for input operation.

実施の形態2.  Embodiment 2. FIG.

本実施の形態は、実施の形態1における空間映像10を指し示した指示体15の位置によって異なる新たな空間映像を結像するものであり、図8〜図11において、図1〜図3、図15及び図16と同一符号は同一又は相当部分を示し、図1〜図3をも参照して説明する。  The present embodiment forms a new spatial image that differs depending on the position of the indicator 15 that points to the spatial image 10 in the first embodiment, and in FIGS. The same reference numerals as those in FIGS. 15 and 16 denote the same or corresponding parts, which will be described with reference to FIGS.

本実施の形態におけるCPU25では、指示体15が指し示している空間映像10における位置を、カメラ14の撮像範囲に出現した指示体15の位置に基づいて表示画面8における上・下位置、左・右位置として算出し、前記空間映像10の映像9に対応させており、指示体15の表示画面8での位置は、図8に示すように、表示画面8を上下左右に四分割して当該四分割の領域がカメラ14の撮像素子の撮像エリアに対応してデータ化され、どの撮像エリアにおいて指示体15が撮像されているかを演算して表示画面8における指示体15の位置として置換して決定する。そして、分割領域に対応する新たな画像データを第二記憶部22から読み込んで表示画面8に表示させる。よって、第二記憶部22には、表示画面8に対する指示体15の位置に対応する新たな画像データが格納されており、空間映像10を指し示す指示体15が表示画面8における左エリア26である場合に新たに表示される映像16a(図2参照)の画像データと、表示画面8における上エリア27である場合に新たに表示される映像16b(図10参照)の画像データと、表示画面8における下エリア28である場合に新たに表示される映像16c(図11参照)の画像データとが含まれている。そして、プログラム記憶部23には、本実施の形態に係る図9に図示するインタラクション実行プログラムと、前記左エリア26と上エリア27と下エリア28とに分割された表示画面8の撮像エリアデータとが格納されている。  In the CPU 25 according to the present embodiment, the position in the spatial image 10 pointed to by the indicator 15 is determined based on the position of the indicator 15 that appears in the imaging range of the camera 14, the upper / lower positions, left / right The position is calculated to correspond to the image 9 of the spatial image 10, and the position of the indicator 15 on the display screen 8 is divided into four parts by dividing the display screen 8 vertically and horizontally as shown in FIG. The divided area is converted into data corresponding to the imaging area of the image sensor of the camera 14, and in which imaging area the indicator 15 is imaged is calculated and replaced as the position of the indicator 15 on the display screen 8. To do. Then, new image data corresponding to the divided area is read from the second storage unit 22 and displayed on the display screen 8. Therefore, new image data corresponding to the position of the indicator 15 with respect to the display screen 8 is stored in the second storage unit 22, and the indicator 15 pointing to the spatial video 10 is the left area 26 on the display screen 8. Image data of the video 16a (see FIG. 2) newly displayed in the case, image data of the video 16b (see FIG. 10) newly displayed in the upper area 27 on the display screen 8, and the display screen 8 Image data of a video 16c (see FIG. 11) that is newly displayed in the lower area 28 in FIG. In the program storage unit 23, the interaction execution program shown in FIG. 9 according to the present embodiment, the imaging area data of the display screen 8 divided into the left area 26, the upper area 27, and the lower area 28, and Is stored.

前記インタラクション実行プログラムでは、図9に示すように、CPU25の制御により、第一記憶部21から映像9の画像データを読み込んで表示画面8に映像9を表示させて(第一の表示手段:ステップs04)、ハーフミラー部5の上方に図1に示す空間映像10を出現させ、次いで、当該空間映像10を指し示す指示体15がカメラ14の撮像範囲に出現したか否かをカメラ14が内蔵する撮像素子(図示せず)の認識により判断し(判断手段:ステップs05)、CPU25の制御により、前記撮像素子が前記指示体15を認識すれば、続いて、CPU25の制御により、前記表示画面8における指示体15の上・下・左・右位置を前述の方法により演算し(演算手段:ステップs06)、演算の結果、左エリア26であれば、第二記憶部22から前記映像9に対する動きを表現する新たな映像16aの画像データを読み込んで、図2に示すように、表示画面8に新たな映像16aを表示し、上エリア27であれば、同様に表示画面8に新たな映像16b(図10参照)を表示し、下エリア28であれば、同様に表示画面8に新たな映像16c(図11参照)を表示する(第二の表示手段:ステップs07)。  In the interaction execution program, as shown in FIG. 9, under the control of the CPU 25, the image data of the video 9 is read from the first storage unit 21 and displayed on the display screen 8 (first display means: step s04), the spatial image 10 shown in FIG. 1 appears above the half mirror unit 5, and then the camera 14 incorporates whether or not the indicator 15 pointing to the spatial image 10 has appeared in the imaging range of the camera 14. Judgment is made by recognition of an image sensor (not shown) (determination means: step s05), and if the image sensor recognizes the indicator 15 under the control of the CPU 25, then the display screen 8 is controlled under the control of the CPU 25. Is calculated by the above-described method (calculation means: step s06), and if the result of the calculation is the left area 26, The image data of the new video 16a expressing the movement with respect to the video 9 is read from the storage unit 22 and the new video 16a is displayed on the display screen 8 as shown in FIG. A new video 16b (see FIG. 10) is displayed on the display screen 8, and if it is the lower area 28, a new video 16c (see FIG. 11) is similarly displayed on the display screen 8 (second display means: Step s07).

これにより、新たな映像16aの表示によって、ハーフミラー部5の上方には、図2に示すように、映像9に連続する動きの新たな空間映像17aが出現し、新たな映像16bの表示によって、図10に示すように、同様に新たな空間映像17bが出現し、新たな映像16cの表示によって、図11に示すように、同様に新たな空間映像17cが出現する。なお、新たな映像16aが表示されている状態で再度、指示体15を認識することにより、連続してその他の新たな映像16b又は映像16cを表示するようにしてもよい。  As a result, as shown in FIG. 2, a new spatial video 17a that moves continuously to the video 9 appears above the half mirror unit 5 due to the display of the new video 16a, and the new video 16b is displayed. As shown in FIG. 10, a new space image 17b appears in the same manner, and a new space image 17c appears in the same manner as shown in FIG. 11 by the display of the new image 16c. Note that another new video 16b or video 16c may be continuously displayed by recognizing the indicator 15 again while the new video 16a is displayed.

なお、カメラの撮像範囲の中心軸と空間に結像された空間映像の表示面とはほぼ平行となるため、カメラの撮影画像上の上下方向と前記空間映像の表示面の上下方向は一致せず、空間映像の表示面での上下方向はカメラの撮影画像上では奥行き方向となるので、指示体15の奥行き方向位置は指示体15の大きさの変化に基づき捕らえることができるから、基準となる位置での大きさ、例えば、表示画面8の中央に位置する時の指示体15の大きさを予め設定しておけば、表示画面8の上下方向での座標は基準との差分から計算によって求めることができる。  Since the center axis of the imaging range of the camera and the display screen of the spatial image formed in the space are substantially parallel, the vertical direction on the captured image of the camera and the vertical direction of the display screen of the spatial video are the same. First, since the vertical direction on the display surface of the spatial image is the depth direction on the image captured by the camera, the depth direction position of the indicator 15 can be captured based on the change in the size of the indicator 15. If, for example, the size of the indicator 15 at the center of the display screen 8 is set in advance, the vertical coordinate of the display screen 8 is calculated from the difference from the reference. Can be sought.

実施の形態3.  Embodiment 3 FIG.

本実施の形態は、前記実施の形態1又は実施の形態2に係るインタラクション実行装置11において、カメラ14に凸レンズ29を位置付けて配置したものであり、図12〜図14において、図1〜図11、図15及び図16と同一符号は同一又は相当部分を示す。  In the interaction execution apparatus 11 according to the first embodiment or the second embodiment, the present embodiment is configured by positioning the convex lens 29 on the camera 14. In FIGS. 12 to 14, FIGS. 15 and 16 indicate the same or corresponding parts.

図12及び図13に示すように、表示機器2の表示画面8は矩形に形成され、表示画面8の矩形外周縁12の上辺に当たる一辺縁13近傍にカメラ14が内蔵されており、当該カメラ14の視野領域(撮像範囲)30を塞ぐようにして凸レンズ29が配置されている。  As shown in FIGS. 12 and 13, the display screen 8 of the display device 2 is formed in a rectangular shape, and a camera 14 is built in the vicinity of one edge 13 corresponding to the upper edge of the rectangular outer peripheral edge 12 of the display screen 8. A convex lens 29 is arranged so as to close the visual field region (imaging range) 30 of the image.

前記凸レンズ29は、長手両方向に下降する断面蒲鉾形状の長尺レンズであり、凸レンズ29の長辺31を表示機器2の上辺(一辺縁)13に沿わせて表示画面8を遮らないように表示機器2に位置付けられており、凸レンズ29はハーフミラー部5の上面より上方に露出している(図12参照)。さらに、前記凸レンズ29の形状は左右対称形であるから凸レンズ29の光軸は前記上辺13を二分する中心に位置付けられる。  The convex lens 29 is a long lens having a bowl-shaped cross section that descends in both longitudinal directions, and the long side 31 of the convex lens 29 is displayed along the upper side (one side edge) 13 of the display device 2 so as not to block the display screen 8. The convex lens 29 is located above the upper surface of the half mirror unit 5 (see FIG. 12). Furthermore, since the shape of the convex lens 29 is bilaterally symmetric, the optical axis of the convex lens 29 is positioned at the center that bisects the upper side 13.

これにより、前記上辺13の範囲内でカメラ14の位置が異なっても、図14に示すように、中央位置のカメラ14、左寄り位置のカメラ14’及び右寄り位置のカメラ14’’における視野領域30、30’、30’’の光路は前記凸レンズ29を介することにより当該凸レンズ29が有する光学的特性に基づいて屈折して焦点32を通過するので、カメラ14、14’、14’’の視野範囲に出現する指示体15は同じ位置に出現したとして認識することができる。  Thereby, even if the position of the camera 14 is different within the range of the upper side 13, as shown in FIG. 14, the visual field region 30 in the center position camera 14, the left position camera 14 ', and the right position camera 14' '. , 30 ′, 30 ″ are refracted through the convex lens 29 based on the optical characteristics of the convex lens 29 and pass through the focal point 32, so that the field of view range of the cameras 14, 14 ′, 14 ″ The indicator 15 appearing at can be recognized as appearing at the same position.

また、焦点32の位置に存在する指示体15は必ずカメラの撮像範囲の中心にあるように撮影されるから、空間映像10の出現位置を前記凸レンズ29の焦点距離に等しくなるようにすれば、さらに精度よく指示体15を認識することができる。  Further, since the indicator 15 existing at the position of the focal point 32 is always photographed so as to be in the center of the imaging range of the camera, if the appearance position of the spatial image 10 is made equal to the focal length of the convex lens 29, Furthermore, the indicator 15 can be recognized with high accuracy.

なお、凸レンズ29は両凸レンズ又は平凸レンズであってもよく、フレネルレンズを使用してもよい。凸レンズ29は長辺31が上辺13に沿う形状であればよいから、上面視長方形であっても、一方側が上辺13に沿う長辺、他方側が円弧形状であってもよい。また、凸レンズ29の長さは、機種によってばらつく異なるカメラ内蔵位置を網羅できる長さであればよい。また、凸レンズ29はハーフミラー部5に補助部材を介して接着固定するようにしてもよい。また、上面視長方形の長尺凸レンズ29は一軸方向のみ凸であるから、カメラ位置のばらつきが主に表示画面の横幅方向のみであるスマートフォンは表示機器2として最適である。  The convex lens 29 may be a biconvex lens or a plano-convex lens, or a Fresnel lens. Since the convex lens 29 has only to have a shape in which the long side 31 extends along the upper side 13, the convex lens 29 may have a rectangular shape in a top view, or may have a long side on one side along the upper side 13 and an arc shape on the other side. Moreover, the length of the convex lens 29 should just be the length which can cover the different camera built-in position which changes with models. The convex lens 29 may be bonded and fixed to the half mirror part 5 via an auxiliary member. Further, since the long convex lens 29 having a rectangular shape in a top view is convex only in one axial direction, a smartphone whose camera position variation is mainly only in the horizontal width direction of the display screen is optimal as the display device 2.

本実施の形態によれば、前記凸レンズ29を配置したから、前記実施の形態1の効果に加えて、前記一辺縁13の範囲内でカメラ14の内蔵位置がばらつく複数の表示機器2であっても、各種表示機器2毎のカメラ位置のばらつきを考慮することなく、指示体15を認識することができる。  According to the present embodiment, since the convex lens 29 is arranged, in addition to the effects of the first embodiment, a plurality of display devices 2 in which the built-in position of the camera 14 varies within the range of the one edge 13. In addition, it is possible to recognize the indicator 15 without considering the variation in the camera position for each display device 2.

1 空間映像結像装置、2 表示機器(スマートデバイス)、3 支持台座部、4 再帰反射部、5 ハーフミラー部、6 側板部、7 挿入口、8 映像表示領域(表示画面)、9 映像、10 空間映像、11 インタラクション実行装置、12 外周縁、13 一辺縁、14 撮像手段(カメラ)、15 指示体、16a,16b,16c 新たな映像、17a,17b,17c 新たな空間映像、18 スピーカ、19 通信部、20 I/Oインタフェース、21 第一記憶部、22 第二記憶部、23 プログラム記憶部、24 外部記憶部、25 中央制御部(CPU)、26 左エリア、27 上エリア、28 下エリア、29 凸レンズ、30 視野領域(撮像範囲)、31 長辺、32 焦点  DESCRIPTION OF SYMBOLS 1 Spatial image formation apparatus, 2 Display apparatus (smart device), 3 Support base part, 4 Retroreflective part, 5 Half mirror part, 6 Side plate part, 7 Insertion slot, 8 Video display area (display screen), 9 video, DESCRIPTION OF SYMBOLS 10 Spatial image, 11 Interaction execution apparatus, 12 Outer periphery, 13 One edge, 14 Imaging means (camera), 15 Indicator, 16a, 16b, 16c New image, 17a, 17b, 17c New spatial image, 18 Speaker, 19 communication unit, 20 I / O interface, 21 first storage unit, 22 second storage unit, 23 program storage unit, 24 external storage unit, 25 central control unit (CPU), 26 left area, 27 upper area, 28 lower Area, 29 convex lens, 30 field of view (imaging range), 31 long side, 32 focus

Claims (6)

表示機器の映像表示領域に映像を表示させ、ハーフミラーを介して当該映像を当該ハーフミラー上方に空間映像として結像させて当該空間映像に対してインタラクションを実行する方法であって、前記表示機器は前記映像表示領域の外周縁近傍に撮像手段を内蔵しており、前記ハーフミラーは前記撮像手段が有する撮像範囲を遮らないように配置され、前記映像表示領域に映像を表示させた後に前記撮像手段の撮像範囲に前記空間映像を指し示す指示体が出現したか否かを前記撮像手段が撮像する画像により判断し、前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域に前記映像に関連する新たな映像を表示させて前記空間映像に連続する動作として結像させることを特徴とするインタラクション実行方法。  A method of displaying an image in a video display area of a display device, forming the image as a spatial image above the half mirror via a half mirror, and executing an interaction with the spatial image, the display device Incorporates imaging means in the vicinity of the outer peripheral edge of the video display area, and the half mirror is arranged so as not to block the imaging range of the imaging means, and the video is displayed after the video is displayed in the video display area. Whether or not an indicator pointing the spatial video has appeared in the imaging range of the means based on an image captured by the imaging means, and the video display when it is determined that the indicator has appeared in the imaging range An interaction execution method, wherein a new video related to the video is displayed in an area and formed as an operation that is continuous with the spatial video. 映像を表示する映像表示領域と当該映像表示領域の外周縁近傍に内蔵する撮像手段とを備える表示機器と、当該表示機器に対して角度を設けて、前記撮像手段が有する撮像範囲を遮らないように配置されたハーフミラーとを含んで構成され、前記表示機器の映像表示領域に映像を表示させ、前記ハーフミラーを介して当該映像を前記ハーフミラー上方に空間映像として結像させ、当該空間映像に対してインタラクションを実行するインタラクション実行装置であって、前記映像表示領域に映像を表示させる第一の表示手段と、当該第一の表示手段により前記映像表示領域に映像を表示させた後に前記撮像手段の撮像範囲に前記空間映像を指し示す指示体が出現したか否かを判断する判断手段と、当該判断手段により前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域に前記映像に関連する新たな映像を表示させる第二の表示手段と、を具備していることを特徴とするインタラクション実行装置。  A display device including a video display area for displaying video and an imaging unit built in the vicinity of the outer periphery of the video display region, and an angle with respect to the display device so as not to block an imaging range of the imaging unit A half-mirror disposed on the display device, displaying a video on a video display area of the display device, and forming the video as a spatial video above the half-mirror via the half-mirror. An interaction execution device for performing an interaction with the first display means for displaying an image in the image display area, and the imaging after the image is displayed in the image display area by the first display means. Determining means for determining whether or not an indicator pointing to the spatial image has appeared in the imaging range of the means; and the indicator in the imaging range by the determining means Appearance to that fact that comprises a second display means for the displaying the new image associated with the video on the video display area when it is determined, a an interaction execution apparatus according to claim. 映像表示領域が矩形に形成されて該矩形外周縁の一辺縁近傍に撮像手段が内蔵されており、長手両方向に下降する断面蒲鉾形状の長尺凸レンズが該長尺凸レンズの長辺側を前記一辺縁に沿わせて前記映像表示領域を遮らないように撮像手段の撮像範囲を塞いで配置されている請求項2記載のインタラクション実行装置。  An image display area is formed in a rectangular shape, and an image pickup means is built in the vicinity of one edge of the outer periphery of the rectangle. The interaction execution device according to claim 2, wherein the image capturing area of the image capturing unit is closed along the edge so as not to block the image display area. 長尺凸レンズがハーフミラー面より上方に露出している請求項3記載のインタラクション実行装置。  4. The interaction execution device according to claim 3, wherein the long convex lens is exposed above the half mirror surface. 映像を表示する映像表示領域と当該映像表示領域の外周縁近傍に内蔵する撮像手段とを備える表示機器に搭載されるコンピュータを、
前記映像表示領域に映像を表示させる第一の表示手段と、
前記第一の表示手段により前記映像表示領域に映像が表示された後に、当該映像によってハーフミラー上方に結像した空間映像を指し示す指示体が前記撮像手段の撮像範囲に出現したか否かを判断する手段と、
前記判断手段により前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域に前記映像に関連する新たな映像を表示させる第二の表示手段として機能させるプログラム。
A computer mounted on a display device comprising a video display area for displaying video and an imaging means built in the vicinity of the outer periphery of the video display area;
First display means for displaying video in the video display area;
After an image is displayed on the image display area by the first display means, it is determined whether or not an indicator indicating a spatial image formed above the half mirror by the image has appeared in the imaging range of the imaging means. Means to
A program that functions as a second display unit that displays a new video related to the video in the video display area when the determination unit determines that the indicator appears in the imaging range.
映像を表示する映像表示領域と当該映像表示領域の外周縁近傍に内蔵する撮像手段とを備える表示機器に搭載されるコンピュータを、
前記映像表示領域に映像を表示させる第一の表示手段と、
前記第一の表示手段により前記映像表示領域に映像が表示された後に、当該映像によってハーフミラー上方に結像した空間映像を指し示す指示体が前記撮像手段の撮像範囲に出現したか否かを判断する手段と、
前記判断手段により前記撮像範囲に前記指示体が出現していると判断した場合に前記映像表示領域における指示体の上下及び/又は左右位置を演算する演算手段と、
前記演算手段の演算結果に基づいて新たな映像を選択して前記映像表示領域に当該新たな映像を表示させる第二の表示手段として機能させるプログラム。
A computer mounted on a display device comprising a video display area for displaying video and an imaging means built in the vicinity of the outer periphery of the video display area;
First display means for displaying video in the video display area;
After an image is displayed on the image display area by the first display means, it is determined whether or not an indicator indicating a spatial image formed above the half mirror by the image has appeared in the imaging range of the imaging means. Means to
A calculating means for calculating the vertical and / or horizontal position of the indicator in the video display area when the determining means determines that the indicator has appeared in the imaging range;
A program that functions as a second display unit that selects a new video based on a calculation result of the calculation unit and displays the new video in the video display area.
JP2015086277A 2015-04-02 2015-04-02 INTERACTION EXECUTION METHOD, DEVICE USING THE METHOD, AND PROGRAM Active JP6573101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015086277A JP6573101B2 (en) 2015-04-02 2015-04-02 INTERACTION EXECUTION METHOD, DEVICE USING THE METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015086277A JP6573101B2 (en) 2015-04-02 2015-04-02 INTERACTION EXECUTION METHOD, DEVICE USING THE METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2016197220A true JP2016197220A (en) 2016-11-24
JP6573101B2 JP6573101B2 (en) 2019-09-11

Family

ID=57358584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015086277A Active JP6573101B2 (en) 2015-04-02 2015-04-02 INTERACTION EXECUTION METHOD, DEVICE USING THE METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6573101B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (en) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology Mid-air video interaction device and its program
JP2012256110A (en) * 2011-06-07 2012-12-27 Sony Corp Information processing apparatus, information processing method, and program
JP2013047924A (en) * 2011-08-29 2013-03-07 Kyocera Corp Display device
JP2013109421A (en) * 2011-11-17 2013-06-06 Toshiba Corp Electronic apparatus, electronic apparatus control method and electronic apparatus control program
US20130147793A1 (en) * 2011-12-09 2013-06-13 Seongyeom JEON Mobile terminal and controlling method thereof
JP2015060296A (en) * 2013-09-17 2015-03-30 船井電機株式会社 Spatial coordinate specification device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (en) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology Mid-air video interaction device and its program
JP2012256110A (en) * 2011-06-07 2012-12-27 Sony Corp Information processing apparatus, information processing method, and program
JP2013047924A (en) * 2011-08-29 2013-03-07 Kyocera Corp Display device
JP2013109421A (en) * 2011-11-17 2013-06-06 Toshiba Corp Electronic apparatus, electronic apparatus control method and electronic apparatus control program
US20130147793A1 (en) * 2011-12-09 2013-06-13 Seongyeom JEON Mobile terminal and controlling method thereof
JP2015060296A (en) * 2013-09-17 2015-03-30 船井電機株式会社 Spatial coordinate specification device

Also Published As

Publication number Publication date
JP6573101B2 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
JP6531823B2 (en) Imaging system, imaging apparatus, imaging method, and imaging program
EP2571257B1 (en) Projector device and operation detecting method
CN101739567B (en) Terminal apparatus and display control method
US8388146B2 (en) Anamorphic projection device
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
US10277889B2 (en) Method and system for depth estimation based upon object magnification
US20150369593A1 (en) Orthographic image capture system
US10769437B2 (en) Adaptive sampling of training views
JP6494239B2 (en) Control device, control method, and program
JP2013054661A (en) Information display system, information display method and program for information display
US20150339859A1 (en) Apparatus and method for navigating through volume image
JP6804056B2 (en) Projection type display device, control method of projection type display device, and program
CN111694528A (en) Method for identifying typesetting of display wall and electronic device using same
CN105700736A (en) Input operation detection device, projection apparatus, interactive whiteboard and digital signage device
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2016085380A (en) Controller, control method, and program
CN112150560A (en) Method and device for determining vanishing point and computer storage medium
US20130187852A1 (en) Three-dimensional image processing apparatus, three-dimensional image processing method, and program
JP6573101B2 (en) INTERACTION EXECUTION METHOD, DEVICE USING THE METHOD, AND PROGRAM
JP7287408B2 (en) Display method, information processing device, and program
JP6686319B2 (en) Image projection device and image display system
JP6643825B2 (en) Apparatus and method
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
US9551922B1 (en) Foreground analysis on parametric background surfaces
JP6624861B2 (en) Image processing apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190731

R150 Certificate of patent or registration of utility model

Ref document number: 6573101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250