JP2017162334A - Information processing device, and program - Google Patents

Information processing device, and program Download PDF

Info

Publication number
JP2017162334A
JP2017162334A JP2016047962A JP2016047962A JP2017162334A JP 2017162334 A JP2017162334 A JP 2017162334A JP 2016047962 A JP2016047962 A JP 2016047962A JP 2016047962 A JP2016047962 A JP 2016047962A JP 2017162334 A JP2017162334 A JP 2017162334A
Authority
JP
Japan
Prior art keywords
contact
unit
image
image data
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016047962A
Other languages
Japanese (ja)
Inventor
壮史 長尾
Masafumi Nagao
壮史 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016047962A priority Critical patent/JP2017162334A/en
Publication of JP2017162334A publication Critical patent/JP2017162334A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To form an image by properly recognizing an operation corresponding to a touch on a projection image by a stylus and a finger.SOLUTION: An information processing device includes: a position specification part for detecting touches for an operation to projected image data, and specifying the position of the touch; an extraction part for extracting erroneous touches among the detected respective touches; and a generation part for specifying a trajectory of positions of the touches except the erroneous touches from the respective specified positions of the touches, and generating information corresponding to contents of the operation on the basis of the specified trajectory. When a second touch is detected during a prescribed period after the first touch is detected, the extraction part extracts the first touch as the erroneous touch.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理装置、及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

プロジェクタの投影画面に対して、ユーザがスタイラスや指を用いて、描画等をすることが広く行われている。この場合、投影画面に対するスタイラスや指の接触位置の軌跡が特定され、投影画面上の軌跡に対応する箇所に画像が形成される。   It is widely performed that a user draws on a projection screen of a projector using a stylus or a finger. In this case, the locus of the contact position of the stylus or finger with respect to the projection screen is specified, and an image is formed at a location corresponding to the locus on the projection screen.

ユーザがスタイラスを用いる場合、ユーザのスタイラスを持つ手の一部(以下、手付き部分)が投影画面に触れることがある。手つき部分の軌跡に対応する画像が形成されるのを防止するために、スタイラスによる接触と、手つき部分による接触とを区別し、スタイラスの軌跡の画像のみを形成する方法について様々な提案がされている(例えば、特許文献1)。   When the user uses a stylus, a part of the user's hand holding the stylus (hereinafter referred to as a hand-held part) may touch the projection screen. In order to prevent the formation of an image corresponding to the locus of the hand-held part, various proposals have been made regarding a method for distinguishing between contact by the stylus and contact by the hand-held part and forming only the image of the stylus locus. (For example, Patent Document 1).

しかしながら、従来提案されている方法を用いると、投影画面に手を接触させ描画等を行う場合、手の接触は、スタイラス使用時の「手付き部分」と認識されてしまい、手を用いて適切に描画等を行うのが難しいという課題があった。   However, using the conventionally proposed method, when drawing with a hand in contact with the projection screen, the hand contact is recognized as a “hand-held part” when using the stylus, and the hand is used appropriately. There was a problem that it was difficult to perform drawing and the like.

本発明は、上記の課題に鑑みてされたものであって、投影画像に対するスタイラスや指による接触に対応する操作を適切に認識して、該投影画像に対する操作を実行することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to appropriately recognize an operation corresponding to contact with a stylus or a finger on a projection image and execute the operation on the projection image.

一つの態様によれば、投影された画像データに対する操作のための接触を検出し、該接触の位置を特定する位置特定部と、検出された前記接触の各々の中から、誤接触を抽出する抽出部と、特定された前記接触の位置の各々から前記誤接触の位置を除く、接触の位置の軌跡を特定し、特定された該軌跡を基に前記操作の内容に応じた情報を生成する生成部と、を有し、第1の接触が検出されてから、所定の期間に第2の接触が検出された場合、前記抽出部は、前記第1の接触を前記誤接触として抽出する、情報処理装置が提供される。   According to one aspect, a contact for operation on the projected image data is detected, a position specifying unit that specifies the position of the contact, and an erroneous contact is extracted from each of the detected contacts. An extraction unit and a contact position locus that excludes the erroneous contact position from each of the identified contact positions are identified, and information corresponding to the content of the operation is generated based on the identified locus. And when the second contact is detected in a predetermined period after the first contact is detected, the extraction unit extracts the first contact as the erroneous contact. An information processing apparatus is provided.

投影画像に対するスタイラスや指による接触に対応する操作を適切に認識して、該投影画像に対する操作を実行することができる。   It is possible to appropriately recognize an operation corresponding to contact with a stylus or a finger on the projection image and execute the operation on the projection image.

第1の実施形態に係るシステム構成図の一例を示す図である。It is a figure showing an example of a system configuration figure concerning a 1st embodiment. 第1の実施形態に係る動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation | movement sequence which concerns on 1st Embodiment. 第1の実施形態に係るスクリーンにスタイラス等が接触する様子の一例を示す図である。It is a figure which shows an example of a mode that a stylus etc. contact the screen which concerns on 1st Embodiment. 第1の実施形態に係るスタイラスが接触したときの撮影データの一例を示す図である。It is a figure which shows an example of imaging | photography data when the stylus which concerns on 1st Embodiment contacts. 第1の実施形態に係る画像投影装置のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the image projector which concerns on 1st Embodiment. 第1の実施形態に係るライトカーテンモジュールのハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the light curtain module which concerns on 1st Embodiment. 第1の実施形態に係る画像投影システムの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image projection system which concerns on 1st Embodiment. 第1の実施形態に係る動作フローの一例を示す図(その1)である。It is FIG. (1) which shows an example of the operation | movement flow which concerns on 1st Embodiment. 第2の実施形態に係る動作フローの一例を示す図(その2)である。It is FIG. (2) which shows an example of the operation | movement flow which concerns on 2nd Embodiment. 第2の実施形態に係る動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation | movement sequence which concerns on 2nd Embodiment. 第2の実施形態に係る画像投影システムの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image projection system which concerns on 2nd Embodiment. 第2の実施形態に係る動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow which concerns on 2nd Embodiment.

[第1の実施形態]
<システム構成>
図1を用いて第1の実施形態に係る画像投影システム1について説明する。図1は、第1の実施形態に係る画像投影システム1の一例を示す図である。画像投影システム1は、画像投影装置10、カメラ20、ライトカーテンモジュール30、及びスクリーン40を有する。
[First Embodiment]
<System configuration>
An image projection system 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an image projection system 1 according to the first embodiment. The image projection system 1 includes an image projection device 10, a camera 20, a light curtain module 30, and a screen 40.

画像投影装置10は、画像データ(第1の画像データ)の入力を受け付け、第1の画像データをスクリーン40に投影する。スクリーン40には投影画像が形成される。   The image projection device 10 receives input of image data (first image data) and projects the first image data onto the screen 40. A projected image is formed on the screen 40.

ライトカーテンモジュール30は、画像投影装置10の指示を受けて、不可視光をスクリーン40の面と平行な方向(不可視光射出方向35)に不可視光を射出する。スタイラス(指示具、ペン)や指がスクリーン40に接触すると、不可視光は、スタイラス等に反射し、反射光を発生する。ライトカーテンモジュール30と画像投影装置10とは、ケーブル等で有線接続されてもよいし、Bluetooth(登録商標)や無線LAN等の無線により接続されてもよい。   In response to an instruction from the image projection device 10, the light curtain module 30 emits invisible light in a direction parallel to the surface of the screen 40 (invisible light emission direction 35). When the stylus (indicator, pen) or finger touches the screen 40, the invisible light is reflected by the stylus and the like, and the reflected light is generated. The light curtain module 30 and the image projection apparatus 10 may be connected by a cable or the like, or may be connected wirelessly such as Bluetooth (registered trademark) or a wireless LAN.

カメラ20は、画像投影装置10とUSBケーブル等により接続されている。カメラ20は、スクリーン40を撮影し撮影データを生成する。カメラ20は、生成された撮影データを画像投影装置10に送信する。   The camera 20 is connected to the image projection apparatus 10 via a USB cable or the like. The camera 20 shoots the screen 40 and generates shooting data. The camera 20 transmits the generated shooting data to the image projection device 10.

画像投影装置10は、撮影データから、スタイラス又は指の接触した位置の座標を特定する。画像投影装置10は、スタイラス又は指の接触位置の軌跡の座標を算出する。画像投影装置10は、スタイラス又は指の接触位置の軌跡に対応する画像データ(第2の画像データ)を形成する。画像投影装置は、第1の画像データに第2の画像データを重畳した画像データ(第3の画像データ)を生成し、スクリーン40に投影する。スクリーン40には、第3の画像データが投影される。   The image projecting device 10 specifies the coordinates of the position touched by the stylus or finger from the captured data. The image projector 10 calculates the coordinates of the locus of the contact position of the stylus or finger. The image projection apparatus 10 forms image data (second image data) corresponding to the locus of the contact position of the stylus or the finger. The image projection device generates image data (third image data) in which the second image data is superimposed on the first image data, and projects the image data onto the screen 40. Third image data is projected onto the screen 40.

画像投影装置10は、描画のためのスタイラスや指による接触と、スタイラス使用時の手付き部分の接触とを区別し、スタイラスや指による描画動作に対応する画像を形成し、手付き部分の接触に対応する画像を形成しない。区別の方法については、後述する。   The image projection device 10 distinguishes between contact with a stylus or a finger for drawing and contact with a handed part when using the stylus, forms an image corresponding to a drawing operation with the stylus or finger, and supports contact with a handed part Do not form images. A method of distinction will be described later.

上述した、実施形態では、画像投影装置10で、第1の画像データと第2の画像データとを重畳する処理を実行しているが、画像投影装置10をPC等の外部機器に接続し、外部機器が、撮影データ又は軌跡の座標のデータから画像データを重畳する処理を実行し、画像投影装置10は、外部機器から新たに生成された画像データを取得してもよい。   In the above-described embodiment, the image projection device 10 executes the process of superimposing the first image data and the second image data. However, the image projection device 10 is connected to an external device such as a PC, The external device may execute a process of superimposing the image data from the shooting data or the coordinate data of the trajectory, and the image projection apparatus 10 may acquire newly generated image data from the external device.

<動作シーケンス>
図2を用いて、第1の実施形態の動作シーケンスについて説明する。図2は、第1の実施形態に係る動作シーケンスの一例を示す図である。
<Operation sequence>
The operation sequence of the first embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of an operation sequence according to the first embodiment.

ステップS201で、画像投影装置10は、不可視光の射出を、ライトカーテンモジュール30に指示する。   In step S201, the image projection apparatus 10 instructs the light curtain module 30 to emit invisible light.

ステップS202で、ライトカーテンモジュール30は、不可視光の射出を開始する。   In step S202, the light curtain module 30 starts emitting invisible light.

ステップS203で、画像投影装置10は、入力を受け付けた第1の画像データを、スクリーン40に投影する。   In step S <b> 203, the image projection apparatus 10 projects the first image data that has received the input onto the screen 40.

ステップS204で、画像投影装置10は、スクリーン40の撮影を、カメラ20に指示する。   In step S <b> 204, the image projection apparatus 10 instructs the camera 20 to capture the screen 40.

ステップS205で、カメラ20は、スクリーン40を撮影し、撮影の結果を撮影データとして記憶する。   In step S205, the camera 20 captures the screen 40 and stores the captured result as captured data.

ステップS206で、カメラ20は、撮影データを画像投影装置10に送信する。   In step S <b> 206, the camera 20 transmits the shooting data to the image projection device 10.

ステップS207で、画像投影装置10は、撮影データを受信すると、スクリーン40へのスタイラスや指の接触を検出し、接触位置のスクリーン40上の座標を算出する。画像投影装置10は、所定の期間の撮影データからスタイラス等の接触位置の軌跡の座標を算出する。   In step S207, when the image projection apparatus 10 receives the shooting data, the image projection apparatus 10 detects the contact of the stylus or the finger with the screen 40 and calculates the coordinates of the contact position on the screen 40. The image projection apparatus 10 calculates the coordinates of the locus of the contact position such as a stylus from the photographing data for a predetermined period.

画像投影装置10は、スタイラス又は指による投影されている第1の画像データに対する、操作のための接触と、スタイラス使用時の手付き部分の接触とを、接触を検出するタイミングから区別する。画像投影装置10は、スタイラス又は指による接触と、スタイラス使用時の手付き部分の接触とを、スクリーン40上に形成される接触点の面積により区別する。或いは、画像投影装置10は、接触を検出するタイミング及び接触点の面積から、スタイラス又は指による接触と、スタイラス使用時の手付き部分の接触とを区別する。   The image projecting device 10 distinguishes the contact for operation on the first image data projected by the stylus or the finger and the contact of the hand-held portion when using the stylus from the timing of detecting the contact. The image projecting device 10 distinguishes contact with a stylus or a finger from contact with a handed portion when the stylus is used based on the area of a contact point formed on the screen 40. Alternatively, the image projection apparatus 10 distinguishes contact with a stylus or a finger from contact with a hand portion when using the stylus from the timing of detecting contact and the area of the contact point.

ステップS208で、画像投影装置10は、スタイラス等の接触位置の軌跡に対応する画像データ(第2の画像データ)を生成する。   In step S208, the image projection apparatus 10 generates image data (second image data) corresponding to the locus of the contact position such as a stylus.

ステップS209で、画像投影装置10は、第1の画像データと、第2の画像データとを重畳した画像データを、スクリーン40に投影する。   In step S <b> 209, the image projection apparatus 10 projects image data on which the first image data and the second image data are superimposed on the screen 40.

次に、図3を用いて、接触を検出するタイミングについて説明する。図3は、スクリーン40にスタイラス60等が接触するタイミングの一例を示す図である。   Next, the timing for detecting contact will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of timing at which the stylus 60 and the like come into contact with the screen 40.

図3の(A)は、指65がスクリーン40に接触する様子を示している。画像投影装置10は、撮影データから指65が接触していることを検出する。   FIG. 3A shows how the finger 65 contacts the screen 40. The image projecting device 10 detects that the finger 65 is in contact with the captured data.

図3の(B1)及び(B2)は、スタイラス60を用いるときに手付き部分55が、スクリーン40に接触する様子を示している。ユーザは、スタイラス60を用いて描画する場合、描画の動作をしやすいよう、まず、図3の(B1)のように、スクリーン40に手付き部分55を接触させ、次に、図3の(B2)のように、ユーザは、スタイラス60をスクリーン40に接触させることが多い。   (B1) and (B2) of FIG. 3 show how the hand-held portion 55 contacts the screen 40 when the stylus 60 is used. When the user draws using the stylus 60, the hand-held portion 55 is first brought into contact with the screen 40 as shown in (B1) of FIG. 3, and then (B2 of FIG. 3). In many cases, the user brings the stylus 60 into contact with the screen 40.

所定の領域内に、第1の接触を検出してから所定の期間ΔTの範囲内に、第2の接触を検出した場合、画像投影装置10は、第1の接触を手付き部分55の接触として抽出する。この場合、画像投影装置10は、手付き部分55の接触と抽出された部分を除いて、第2の画像データを生成する。ここで、所定の領域は、固定サイズの領域が設定される。例えば、第1の接触の位置の座標が、第2の接触の位置の座標から、縦方向(Y軸方向)及び横方向(X軸方向)100画素以内に存在する場合、画像投影装置10は、第1の接触の位置は、所定の領域に含まれると判断してもよい。また、一般的な人間の手の大きさから所定の領域のサイズを設定してもよい。例えば、第1の接触の位置の座標が、第2の接触の位置の座標から10cm以内に存在する場合、画像投影装置10は、第1の接触の位置は、所定の領域に含まれると判断してもよい。所定の期間ΔTは、一般的なユーザが手付き部分55をスクリーン40に接触させてからスタイラス60をスクリーン40に接触させる時間を基に設定することが好ましい。所定の期間ΔTには、比較的短い時間、例えば、500ms等が設定される。   When the second contact is detected within a predetermined period ΔT after the first contact is detected in the predetermined region, the image projection apparatus 10 sets the first contact as the contact of the hand-held portion 55. Extract. In this case, the image projection apparatus 10 generates the second image data except for the contact with the hand-held portion 55 and the extracted portion. Here, a fixed-size area is set as the predetermined area. For example, when the coordinates of the position of the first contact are within 100 pixels in the vertical direction (Y-axis direction) and the horizontal direction (X-axis direction) from the coordinates of the second contact position, the image projector 10 The position of the first contact may be determined to be included in the predetermined area. Further, the size of the predetermined area may be set based on the size of a general human hand. For example, when the coordinates of the position of the first contact are within 10 cm from the coordinates of the position of the second contact, the image projection apparatus 10 determines that the position of the first contact is included in the predetermined area. May be. The predetermined period ΔT is preferably set based on the time for a general user to bring the hand-held portion 55 into contact with the screen 40 and then the stylus 60 into contact with the screen 40. A relatively short time, for example, 500 ms is set as the predetermined period ΔT.

次に、図4を用いて、スタイラス等が接触したときの撮影データについて説明する。   Next, with reference to FIG. 4, photographing data when a stylus or the like comes into contact will be described.

図4の(A)は、指又はスタイラスがスクリーン40に接触しているときの撮影データを示している。この場合、手付き部分はスクリーン40に接触していない。指等の接触により、ライトカーテンモジュール30からの不可視光が遮られた部分において、不可視光が、反射する。このため、撮影データの指等の接触位置以外の領域42は真っ黒であり、撮影データの指等の接触位置41は、高い輝度を有する。   FIG. 4A shows image data when a finger or stylus is in contact with the screen 40. In this case, the hand-held portion is not in contact with the screen 40. The invisible light is reflected at a portion where the invisible light from the light curtain module 30 is blocked by contact with a finger or the like. For this reason, the area 42 other than the contact position such as the finger of the photographing data is black, and the contact position 41 such as the finger of the photographing data has high luminance.

図4の(B1)は、手付き部分が、スクリーン40に接触しているときの撮影データを示している。この場合も、手付き部分の接触により、ライトカーテンモジュール30からの不可視光が遮られ、不可視光が反射する。このため、撮影データの手付き部分の接触位置以外の領域44は真っ黒であり、撮影データの手付き部分の接触位置43は高い輝度を有する。   (B1) of FIG. 4 shows imaging data when the hand-held portion is in contact with the screen 40. Also in this case, the invisible light from the light curtain module 30 is blocked and the invisible light is reflected by the contact of the hand-held portion. For this reason, the area 44 other than the contact position of the hand-held portion of the photographing data is black, and the contact position 43 of the hand-held portion of the photographing data has high luminance.

図4の(B2)は、図4の(B1)から所定の期間経過後に、手付き部分に加えて、スタイラスがスクリーン40に接触しているときの撮影データを示している。この場合も図4のB1等と同様に、撮影データのスタイラス等の接触位置以外の領域46は、真っ黒であり、撮影データの手付き部分の接触位置43及びスタイラスの接触位置45は、高い輝度を有する。   (B2) in FIG. 4 shows photographing data when the stylus is in contact with the screen 40 in addition to the hand-held portion after a lapse of a predetermined period from (B1) in FIG. Also in this case, similarly to B1 in FIG. 4 and the like, the area 46 other than the contact position of the shooting data, such as the stylus, is black, and the contact position 43 of the hand-held part of the shooting data and the contact position 45 of the stylus have high brightness. Have.

図4の(B1)及び(B2)に示すように手付き部分の接触位置43のサイズは、指の接触位置41のサイズ及びスタイラスの接触位置45のサイズと比べて大きくなる。このため、画像投影装置10は、接触位置のサイズが所定のサイズより大きい場合、手付き部分の接触として抽出する。この場合、画像投影装置10は、手付き部分の接触として抽出された位置を除いて、第2の画像データを生成する。   As shown in FIGS. 4B1 and 4B2, the size of the contact position 43 of the hand-held portion is larger than the size of the contact position 41 of the finger and the size of the contact position 45 of the stylus. For this reason, when the size of the contact position is larger than the predetermined size, the image projecting device 10 extracts the contact with the hand-held portion. In this case, the image projection apparatus 10 generates the second image data except for the position extracted as the contact of the hand-held part.

なお、スタイラスを用いるときでも手付き部分がスクリーン40に接触しない場合には、指が接触する場合と同様の処理が実行される。   Even when the stylus is used, if the hand-held portion does not contact the screen 40, the same processing as that performed when the finger contacts is executed.

<ハードウエア構成>
(1)画像投影装置
図5は、第1の実施形態に係る画像投影装置10のハードウエア構成の一例を示す図である。画像投影装置10は、画像投影装置10全体の動作を制御するCPU1001、CPU1001の駆動に用いられるプログラムを記憶したROM1002、CPU1001のワークエリアとして使用されるRAM1003を備えている。さらに、画像投影装置10は、画像データ、画像投影装置10用のプログラム等の各種データを記憶するメモリモジュール1004を備えている。
<Hardware configuration>
(1) Image Projecting Device FIG. 5 is a diagram illustrating an example of a hardware configuration of the image projecting device 10 according to the first embodiment. The image projection apparatus 10 includes a CPU 1001 that controls the operation of the entire image projection apparatus 10, a ROM 1002 that stores a program used to drive the CPU 1001, and a RAM 1003 that is used as a work area of the CPU 1001. Further, the image projection apparatus 10 includes a memory module 1004 that stores various data such as image data and a program for the image projection apparatus 10.

画像投影装置10は、有線又は無線のネットワークを利用してデータ通信するための複数のネットワークI/F1005を有する。   The image projection apparatus 10 includes a plurality of network I / Fs 1005 for performing data communication using a wired or wireless network.

画像投影装置10は、カメラ20、ライトカーテンモジュール30、及びPC等の外部機器と接続するためのケーブルI/F1006を有する。ケーブルI/F1006は、例えば、USB(Universal Serial Bus) I/Fポートにより実現される。   The image projection apparatus 10 includes a cable I / F 1006 for connecting to the camera 20, the light curtain module 30, and external devices such as a PC. The cable I / F 1006 is realized by, for example, a USB (Universal Serial Bus) I / F port.

画像投影装置10は、PC等の外部機器から画像データを受信するための画像信号受付I/F1007を有する。画像信号受付I/F1007は、入力される画像信号のフォーマット毎に設けられる。例えば、画像信号受付I/F1007は、D−Sub(D−subminiature)、HDMI(登録商標)(High−Definition Multimedia Interface)、又はVGA(Video Graphics Array)のフォーマットに準拠した画像データの送受信を行う。   The image projection apparatus 10 includes an image signal reception I / F 1007 for receiving image data from an external device such as a PC. The image signal reception I / F 1007 is provided for each format of the input image signal. For example, the image signal reception I / F 1007 performs transmission / reception of image data conforming to a D-Sub (D-subminiature), HDMI (registered trademark) (High-Definition Multimedia Interface), or VGA (Video Graphics Array) format. .

画像投影装置10は、画像信号処理モジュール1008を有し、画像信号処理モジュール1008は、画像信号受付1007が受信した画像データを処理する。   The image projection apparatus 10 includes an image signal processing module 1008, and the image signal processing module 1008 processes the image data received by the image signal receiving unit 1007.

画像投影装置10は、操作受付モジュール1009を有する。操作受付モジュール1009は、画像投影装置10のユーザからの操作を受け付けるための装置であり、例えば、操作キーにより実現される。   The image projection apparatus 10 includes an operation reception module 1009. The operation reception module 1009 is a device for receiving an operation from the user of the image projection device 10 and is realized by, for example, an operation key.

画像投影装置10は、光学モジュール1010を有する。光学モジュール1010は、投影される画像を生成する装置である。画像投影装置10が、DLP(Digital Light Processing)プロジェクタの場合、DMD(Digital Mirror Device)又はカラーホイールにより実現される。   The image projection apparatus 10 includes an optical module 1010. The optical module 1010 is a device that generates a projected image. When the image projection apparatus 10 is a DLP (Digital Light Processing) projector, it is realized by a DMD (Digital Mirror Device) or a color wheel.

画像投影装置10は、ランプ1011とランプ制御モジュール1012とを有する。ランプ制御モジュール1012の指示に基づいて、ランプ1011は、発光する。   The image projection apparatus 10 includes a lamp 1011 and a lamp control module 1012. Based on an instruction from the lamp control module 1012, the lamp 1011 emits light.

画像投影装置10は、ファン1013を有する。ファン1013は、画像投影装置10の冷却に用いられる。   The image projector 10 has a fan 1013. The fan 1013 is used for cooling the image projector 10.

画像投影装置10では、上述した装置が、相互にバスラインBで接続される。なお、画像投影装置10は、カメラを有してもよい。ROM1002等に格納したプログラムをCPU1001が実行すること等により、後述する画像投影装置10の各機能が実現される。   In the image projection apparatus 10, the above-described apparatuses are connected to each other via a bus line B. The image projection apparatus 10 may have a camera. Each function of the image projection apparatus 10 to be described later is realized by the CPU 1001 executing a program stored in the ROM 1002 or the like.

(2)ライトカーテンモジュール
図6は、第1の実施形態に係るライトカーテンモジュール30のハードウエア構成の一例を示す図である。ライトカーテンモジュール30は、ライトカーテンモジュール30全体の動作を制御するCPU3001、CPU3001の駆動に用いられるプログラムを記憶したROM3002、CPU3001のワークエリアとして使用されるRAM3003を備えている。
(2) Light Curtain Module FIG. 6 is a diagram illustrating an example of a hardware configuration of the light curtain module 30 according to the first embodiment. The light curtain module 30 includes a CPU 3001 that controls the operation of the entire light curtain module 30, a ROM 3002 that stores a program used to drive the CPU 3001, and a RAM 3003 that is used as a work area for the CPU 3001.

ライトカーテンモジュール30は、光射出モジュール3004を有し、光射出モジュール3004は、不可視光を射出する。また、ライトカーテンモジュール30は、ケーブルI/F3005を有する。ケーブルI/F3005は、例えば、USB(Universal Serial Bus) I/Fポートにより実現される。   The light curtain module 30 includes a light emission module 3004, and the light emission module 3004 emits invisible light. The light curtain module 30 has a cable I / F 3005. The cable I / F 3005 is realized by, for example, a USB (Universal Serial Bus) I / F port.

ライトカーテンモジュール30では、上述した装置が、相互にバスラインBで接続される。ROM3002に格納したプログラムをCPU3001が、実行すること等により、後述する、ライトカーテンモジュール30の各機能が実現される。   In the light curtain module 30, the above-described devices are connected to each other via a bus line B. Each function of the light curtain module 30, which will be described later, is realized by the CPU 3001 executing the program stored in the ROM 3002.

<機能構成>
図7を用いて、第1の実施形態に係る画像投影システム1の機能構成について説明する。
<Functional configuration>
The functional configuration of the image projection system 1 according to the first embodiment will be described with reference to FIG.

(1)画像投影装置
画像投影装置10は、機器制御部105、送受信部110、投影部120、画像入力受付部130、画像編集部140、位置座標算出部150、手付き抽出部160、描画部170、情報記憶部180、及び入力部190を有する。情報記憶部180は、投影データ記憶部181、及び手付き抽出設定記憶部182を有する。
(1) Image Projecting Device The image projecting device 10 includes a device control unit 105, a transmission / reception unit 110, a projection unit 120, an image input reception unit 130, an image editing unit 140, a position coordinate calculation unit 150, a hand extraction unit 160, and a drawing unit 170. , An information storage unit 180, and an input unit 190. The information storage unit 180 includes a projection data storage unit 181 and a hand extraction setting storage unit 182.

機器制御部105は、カメラ20にスクリーン40の撮影指示をする。機器制御部105は、ライトカーテンモジュール30に不可視光の射出を指示する。また、機器制御部105は、画像投影装置10内の各機能ブロックに対する制御を行う。   The device control unit 105 instructs the camera 20 to shoot the screen 40. The device control unit 105 instructs the light curtain module 30 to emit invisible light. In addition, the device control unit 105 controls each functional block in the image projection apparatus 10.

送受信部110は、ネットワーク又はケーブル等を介して、カメラ20及びライトカーテンモジュール30との間で各種データの送受信を行う。   The transmission / reception unit 110 transmits / receives various data to / from the camera 20 and the light curtain module 30 via a network or a cable.

投影部120は、画像編集部140から画像データを取得し、取得した画像データをスクリーン40に投影する。   The projection unit 120 acquires image data from the image editing unit 140 and projects the acquired image data onto the screen 40.

画像入力受付部130は、PC、タブレット端末、及びスマートフォン等の外部機器から画像の入力を受け付ける(第1の画像データの入力受け付け)。画像の入力には、HDMI、及びVGA等のインタフェースが用いられてもよい。また、画像入力受付部130は、送受信部110を介して、外部機器から画像の入力を受け付けてもよい。   The image input receiving unit 130 receives an image input from an external device such as a PC, a tablet terminal, and a smartphone (input reception of first image data). Interfaces such as HDMI and VGA may be used for image input. In addition, the image input receiving unit 130 may receive an input of an image from an external device via the transmission / reception unit 110.

画像編集部140は、画像入力受付部130が受け付けた第1の画像データと、描画部170により生成された第2の画像データとを合成する処理を行う。また、画像編集部140は、変倍等の投影する画像に対する編集処理を実行する。なお、画像編集部140は、投影データ記憶部181から、第1の画像データを取得してもよい。   The image editing unit 140 performs a process of combining the first image data received by the image input receiving unit 130 and the second image data generated by the drawing unit 170. In addition, the image editing unit 140 executes an editing process on the projected image such as scaling. Note that the image editing unit 140 may acquire the first image data from the projection data storage unit 181.

位置座標算出部150は、カメラ20により撮影された撮影データを受信し、撮影データを基に、スタイラス等による投影されている画像データに対する接触を検出し、検出された接触の位置の座標を特定する。   The position coordinate calculation unit 150 receives image data captured by the camera 20, detects contact with the image data projected by a stylus or the like based on the image data, and specifies coordinates of the detected position of the contact. To do.

手付き抽出部160は、位置座標算出部150により特定された接触位置の各々について、描画のためのスタイラスや指による接触によるものか、スタイラス使用時の手付き部分の接触によるものかを判断し、手付き部分による誤接触を抽出する。手付き抽出部160は、抽出設定記憶部182に記憶されている情報を用いて、抽出の処理を実行する。   The hand extraction unit 160 determines whether each of the contact positions specified by the position coordinate calculation unit 150 is due to contact with a stylus for drawing or a finger, or contact with a hand portion when the stylus is used. Extract false contacts due to parts. The hand extraction unit 160 uses the information stored in the extraction setting storage unit 182 to perform extraction processing.

描画部170は、位置座標算出部150が特定したスタイラスや指による接触の軌跡の画像を生成する(第2の画像データ)。第2の画像データを生成するときに、描画部170は、手付き抽出部160から抽出された誤接触の情報を取得し、手付き部分による誤接触として抽出された接触位置には画像を生成しない。ここで、接触の軌跡は、スタイラスや指による投影されている画像データに対する一以上の接触を基に形成される。   The drawing unit 170 generates an image of the locus of contact with the stylus or finger specified by the position coordinate calculation unit 150 (second image data). When generating the second image data, the drawing unit 170 acquires the erroneous contact information extracted from the hand-held extraction unit 160 and does not generate an image at the contact position extracted as the erroneous contact due to the hand-held portion. Here, the contact trajectory is formed based on one or more contacts to the image data projected by the stylus or the finger.

情報記憶部180は、各種情報を記憶する。投影データ記憶部181は、PC等から取得した第1の画像データを記憶する。抽出設定記憶部182は、手付き抽出部160が、手付き部分による接触を抽出するために用いる情報が記憶される。抽出設定記憶部182は、第1の接触を検出してから第2の接触を検出するまでの所定の期間ΔTを記憶する。又、所定の領域のサイズに関する情報を記憶する。手付き抽出部160は、所定の期間ΔTの範囲内に、所定の領域内に第1の接触と第2の接触とを検出した場合、第1の接触は、手付き部分による接触と判断し、第1の接触を誤接触として抽出する。また、抽出設定記憶部182は、手付き部分のサイズに係る所定のサイズを記憶し、手付き抽出部160は、接触位置のサイズが、所定のサイズを上回る場合は、手付き部分による接触として抽出する。   The information storage unit 180 stores various types of information. The projection data storage unit 181 stores first image data acquired from a PC or the like. The extraction setting storage unit 182 stores information used by the hand-held extraction unit 160 to extract contact with a hand-held portion. The extraction setting storage unit 182 stores a predetermined period ΔT from when the first contact is detected to when the second contact is detected. Also, information regarding the size of a predetermined area is stored. When the hand-held extraction unit 160 detects the first contact and the second contact within a predetermined region within the range of the predetermined period ΔT, the first contact is determined to be a contact with a hand-held portion, One contact is extracted as an erroneous contact. Further, the extraction setting storage unit 182 stores a predetermined size related to the size of the hand-held part, and the hand-extracting extraction unit 160 extracts the contact by the hand-held part when the size of the contact position exceeds the predetermined size.

なお、抽出設定記憶部182は、所定の領域のサイズに代えて、第1の接触の位置と第2の接触の位置との所定の距離を記憶してもよい。この場合、手付き抽出部160は、第1の接触が検出されてから、第2の接触が検知されるまでの時間が所定の期間ΔT以下であって、第1の接触の位置と第2の接触の位置との距離が所定の距離以下の場合、第1の接触を手付きによる接触と判断し、第1の接触を誤接触として抽出する。   The extraction setting storage unit 182 may store a predetermined distance between the position of the first contact and the position of the second contact instead of the size of the predetermined area. In this case, the manual extraction unit 160 has a time period from when the first contact is detected to when the second contact is detected is equal to or less than a predetermined period ΔT, and the first contact position and the second contact are detected. When the distance from the contact position is equal to or less than the predetermined distance, the first contact is determined to be a touch by hand, and the first contact is extracted as an erroneous contact.

入力部190は、画像投影装置10に対するユーザからの指示を受け付ける。   The input unit 190 receives an instruction from the user for the image projection apparatus 10.

(2)カメラ
図7を参照してカメラ20の機能構成について説明する。カメラ20は、送受信部210と、撮像部220とを有する。送受信部210は、ネットワーク又はケーブル等を介して画像投影装置10との間でテータの送受信を行う。撮像部220は、画像投影装置10の指示を受けて、スクリーン40を撮影し、撮影データを生成する。撮像部220は、生成された撮影データを、画像投影装置10に送信する。
(2) Camera The functional configuration of the camera 20 will be described with reference to FIG. The camera 20 includes a transmission / reception unit 210 and an imaging unit 220. The transmission / reception unit 210 transmits / receives data to / from the image projection apparatus 10 via a network or a cable. In response to an instruction from the image projection apparatus 10, the imaging unit 220 captures the screen 40 and generates captured data. The imaging unit 220 transmits the generated shooting data to the image projection device 10.

(3)ライトカーテンモジュール
図7を参照してライトカーテンモジュール30の機能構成について説明する。ライトカーテンモジュール30は、送受信部310と、光射出部320とを有する。送受信部310は、ネットワーク又はケーブル等を介して画像投影装置10との間でデータの送受信を行う。光射出部320は、画像投影装置10の指示を受けて、スクリーン40の面と平行な方向(図1の不可視光射出方向35)に不可視光を射出する。
(3) Light Curtain Module A functional configuration of the light curtain module 30 will be described with reference to FIG. The light curtain module 30 includes a transmission / reception unit 310 and a light emission unit 320. The transmission / reception unit 310 transmits / receives data to / from the image projection apparatus 10 via a network or a cable. Upon receiving an instruction from the image projection apparatus 10, the light emitting unit 320 emits invisible light in a direction parallel to the surface of the screen 40 (invisible light emitting direction 35 in FIG. 1).

<動作フロー>
図8及び図9を用いて、画像投影装置10の動作フローについて説明する。
<Operation flow>
The operation flow of the image projection apparatus 10 will be described with reference to FIGS.

(1)動作フロー(その1)
図8は、第1の実施形態に係る画像投影装置10の動作フローの一例について示す図である。
(1) Operation flow (1)
FIG. 8 is a diagram illustrating an example of an operation flow of the image projection apparatus 10 according to the first embodiment.

ステップS801で、画像入力受付部130が、PC等から第1の画像データの入力を受け付けると、投影部120は、第1の画像データをスクリーン40に投影する。なお、入力部190がユーザからの投影指示を受け付けたことに応じて、投影部120が、投影データ記憶部181に記憶されている第1の画像データを投影してもよい。   In step S801, when the image input receiving unit 130 receives input of first image data from a PC or the like, the projecting unit 120 projects the first image data on the screen 40. Note that the projection unit 120 may project the first image data stored in the projection data storage unit 181 in response to the input unit 190 receiving a projection instruction from the user.

ステップS802で、機器制御部105は、ライトカーテンモジュール30に、不可視光の射出を指示する。   In step S <b> 802, the device control unit 105 instructs the light curtain module 30 to emit invisible light.

ステップS803で、機器制御部105は、カメラ20に、スクリーン40の撮影を指示する。カメラ20はスクリーン40を撮影し、撮影データを生成する。   In step S803, the device control unit 105 instructs the camera 20 to shoot the screen 40. The camera 20 images the screen 40 and generates image data.

ステップS804で、位置座標算出部150は、カメラ20から撮影データを取得し、スクリーン40へのスタイラス等の接触位置の座標を算出する。   In step S <b> 804, the position coordinate calculation unit 150 acquires shooting data from the camera 20 and calculates the coordinates of a contact position such as a stylus on the screen 40.

ステップS805乃至ステップS808で、手付き抽出部160は、位置座標算出部150により算出された接触位置の各々が、スタイラスや指による描画による接触によるものか、手付き部分の接触によるものかの判断を行い、手付き部分により誤接触を抽出する。   In steps S805 to S808, the hand extraction unit 160 determines whether each of the contact positions calculated by the position coordinate calculation unit 150 is due to contact with a drawing by a stylus or a finger, or due to contact with a hand portion. , Extract false contact by the handed part.

ステップS805で、手付き抽出部160は、位置座標算出部150により算出された接触位置が、スクリーン40の規定の領域内の最初の接触(第1の接触)か否かを判断する。第1の接触と判断された場合(ステップS805 Yes)、ステップS806に進む。第1の接触と判断されなかった場合(ステップS805 No)、ステップS809に進む。ここで、スクリーン40の規定の領域内とは、例えば、ライトカーテンモジュール30により不可視光が射出される領域である。   In step S <b> 805, the hand extraction unit 160 determines whether or not the contact position calculated by the position coordinate calculation unit 150 is the first contact (first contact) within a prescribed area of the screen 40. When it is determined that the first contact has been made (step S805 Yes), the process proceeds to step S806. If it is not determined to be the first contact (No in step S805), the process proceeds to step S809. Here, the inside of the prescribed area of the screen 40 is an area where invisible light is emitted by the light curtain module 30, for example.

ステップS806で、手付き抽出部160は、抽出設定記憶部182を参照し、所定の期間ΔTを特定する。手付き抽出部160は、第1の接触が検出されたから所定の期間ΔTの範囲内に、位置座標算出部150により検出された接触の位置の情報を取得する。   In step S806, the hand extraction unit 160 refers to the extraction setting storage unit 182 and specifies a predetermined period ΔT. The hand extraction unit 160 acquires information on the position of the contact detected by the position coordinate calculation unit 150 within a predetermined period ΔT after the first contact is detected.

ステップS807で、手付き抽出部160は、抽出設定記憶部182を参照し、所定の領域のサイズを特定する。そして、手付き抽出部160は、第1の接触が検出されてから所定の期間ΔT内に、所定の領域内に2回目の接触(第2の接触)が、検出されたか否かを判断する。第2の接触が検出された場合(ステップS807 Yes)、ステップS808に進む。第2の接触が検出されなかった場合(ステップS807 No)、ステップS809に進む。   In step S807, the hand extraction unit 160 refers to the extraction setting storage unit 182 and identifies the size of a predetermined area. Then, the manual extraction unit 160 determines whether or not a second contact (second contact) has been detected within a predetermined region within a predetermined period ΔT after the first contact is detected. When the second contact is detected (Yes in step S807), the process proceeds to step S808. When the second contact is not detected (No at Step S807), the process proceeds to Step S809.

ここで、所定の領域は、第1の接触を起点とする、所定の距離の範囲内に形成されてもよい。   Here, the predetermined area may be formed within a predetermined distance starting from the first contact.

ステップS808で、手付き抽出部160は、第1の接触に対応する接触位置を描画部170に通知する。また、手付き抽出部160は、通知と共に、第1の接触に対応する接触位置は、手付き部分による誤接触に対応するため、描画しないことを、描画部170に指示する。   In step S808, the hand extraction unit 160 notifies the drawing unit 170 of a contact position corresponding to the first contact. In addition to the notification, the hand-held extraction unit 160 instructs the drawing unit 170 not to draw because the contact position corresponding to the first contact corresponds to an erroneous contact due to the hand-held portion.

ステップS809で、描画部170は、位置座標算出部150により特定された、スタイラスや指による接触の軌跡の画像データを生成する(第2の画像データ)。第2の画像データを生成するときに、描画部170は、手付き部分に対応する部分として手付き抽出部160から通知された接触位置を、描画しない。つまり、描画部170は、検出された接触の位置の各々から手付き部分による接触位置(誤接触位置)を除く、接触の位置の軌跡に対応する画像データを生成する。   In step S809, the drawing unit 170 generates image data of the locus of contact with the stylus or the finger specified by the position coordinate calculation unit 150 (second image data). When generating the second image data, the drawing unit 170 does not draw the contact position notified from the hand-held extraction unit 160 as a portion corresponding to the hand-held portion. In other words, the drawing unit 170 generates image data corresponding to the locus of the contact position excluding the contact position (erroneous contact position) due to the hand-attached portion from each of the detected contact positions.

ステップS810で、画像編集部140は、第1の画像データと第2の画像データとを合成した、第3の画像データを生成する。   In step S810, the image editing unit 140 generates third image data by combining the first image data and the second image data.

ステップS811で、投影部120は、第3の画像データを画像編集部140から取得して、スクリーン40に投影する。   In step S811, the projection unit 120 acquires the third image data from the image editing unit 140 and projects the third image data on the screen 40.

なお、第2の画像データは、予め設定された、色や太さに基づいて生成される。また、スタイラス等による接触が消しゴムとしての動作することが設定されている場合、軌跡に対応する部分に生成されている画像が消去される。   The second image data is generated based on a preset color and thickness. Further, when the contact with the stylus or the like is set to operate as an eraser, the image generated in the portion corresponding to the locus is erased.

なお、ステップS806及びステップS807において、入力部190が、所定の期間ΔT、及び所定の領域(所定の距離)を、ユーザから受け付け、画像投影装置10に設定している場合、手付き抽出部160は、ユーザにより設定された所定の期間ΔTを用いて、第2の接触を検出する。所定の期間ΔTが、ユーザにより設定されていない場合は、画像投影装置10に設定されている所定の期間ΔTのパラメータのデフォルト値を用いて、第2の接触を検出する。   In step S806 and step S807, when the input unit 190 accepts a predetermined period ΔT and a predetermined region (predetermined distance) from the user and sets them in the image projection device 10, the hand-held extraction unit 160 The second contact is detected using a predetermined period ΔT set by the user. When the predetermined period ΔT is not set by the user, the second contact is detected using the default value of the parameter of the predetermined period ΔT set in the image projection apparatus 10.

動作フロー(その2)
図9は、第1の実施形態に係る画像投影装置10の動作フローの一例について示す図である。図9の動作フローでは、手付き抽出部160が、第1の接触位置のサイズが所定のサイズか否かを判断し、所定のサイズを上回る場合、手付き部分による接触と判断し、誤接触として抽出することを特徴としている。
Operation flow (2)
FIG. 9 is a diagram illustrating an example of an operation flow of the image projection apparatus 10 according to the first embodiment. In the operation flow of FIG. 9, the hand extraction unit 160 determines whether or not the size of the first contact position is a predetermined size. If the size exceeds the predetermined size, it is determined that the contact is due to a hand portion and is extracted as an erroneous contact. It is characterized by doing.

ステップS901乃至ステップS907については、ステップS801乃至ステップS807と同じであるため、説明を省略する。   Since steps S901 to S907 are the same as steps S801 to S807, description thereof will be omitted.

ステップS908で、手付き抽出部160は、抽出設定記憶部182を参照し、手付き部分に係る所定のサイズを特定する。そして、第1の接触のサイズが、所定のサイズを上回るか否か判断する。   In step S908, the hand-held extraction unit 160 refers to the extraction setting storage unit 182 and identifies a predetermined size related to the hand-held portion. Then, it is determined whether or not the size of the first contact exceeds a predetermined size.

所定のサイズを上回る場合(ステップS908 Yes)、ステップS909に進む。一方、所定のサイズ以下の場合(ステップS908 No)、ステップS910に進む。   If it exceeds the predetermined size (step S908 Yes), the process proceeds to step S909. On the other hand, if it is equal to or smaller than the predetermined size (No in step S908), the process proceeds to step S910.

ステップS909乃至ステップS912は、ステップS808乃至ステップS811と同じであるため、説明を省略する。   Steps S909 to S912 are the same as steps S808 to S811, and a description thereof will be omitted.

なお、ステップS908において、入力部190が、所定のサイズを、ユーザから受け付け、画像投影装置10に設定している場合、手付き抽出部160は、ユーザにより設定された所定のサイズを用いて、第2の接触を検出する。所定のサイズが、ユーザにより設定されていない場合は、画像投影装置10に設定されている所定のサイズのパラメータのデフォルト値を用いて、第2の接触を検出する。   In step S908, when the input unit 190 accepts a predetermined size from the user and sets the image projection apparatus 10, the hand extraction unit 160 uses the predetermined size set by the user to 2 contact is detected. When the predetermined size is not set by the user, the second contact is detected using the default value of the parameter of the predetermined size set in the image projector 10.

[第2の実施形態]
次に、第2の実施形態について説明する。第1の実施形態と共通する部分については、説明を省略し、異なる部分についてのみ説明する。
[Second Embodiment]
Next, a second embodiment will be described. Description of parts common to the first embodiment will be omitted, and only different parts will be described.

<システム構成>
第2の実施形態に係る画像投影システム1は、画像投影装置10、カメラ20、ライトカーテンモジュール30、及び外部機器50を有する。ここで、外部機器50はPC等である。
<System configuration>
The image projection system 1 according to the second embodiment includes an image projection device 10, a camera 20, a light curtain module 30, and an external device 50. Here, the external device 50 is a PC or the like.

第2の実施形態では、画像投影装置10が、外部機器50から受信した画像データをスクリーン40に投影し、投影された画像データに対する接触を検出し、ユーザによる所定の操作と認識することを特徴としている。   In the second embodiment, the image projecting device 10 projects image data received from the external device 50 onto the screen 40, detects contact with the projected image data, and recognizes it as a predetermined operation by the user. It is said.

外部機器50は、例えば、画像投影装置10と、映像入力用のケーブル及び操作信号の送受信用のケーブルとにより接続される。操作信号の送受信用のケーブルは、例えば、USBケーブルにより実現される。   The external device 50 is connected to, for example, the image projection apparatus 10 by a video input cable and an operation signal transmission / reception cable. The cable for transmitting and receiving the operation signal is realized by a USB cable, for example.

画像投影装置10は、外部機器50から画像データの入力を受け付け、画像データをスクリーン40に投影する。画像投影装置10は、第1の実施形態と同様の方法を用いて、スクリーン40上に投影された画像データへの接触を検出し、接触内容に対応する操作情報を生成し、生成された操作情報を、外部機器50に送信する。   The image projection device 10 receives input of image data from the external device 50 and projects the image data onto the screen 40. The image projection apparatus 10 detects contact with the image data projected on the screen 40 using the same method as in the first embodiment, generates operation information corresponding to the contact content, and generates the generated operation. Information is transmitted to the external device 50.

外部機器50は、受信した操作情報に対する操作を画像データに対して実行する。ここで、操作情報とは、画像データに対する、クリック操作、タップ操作、及びドラッグ操作等である。   The external device 50 performs an operation on the received operation information on the image data. Here, the operation information includes a click operation, a tap operation, a drag operation, and the like on the image data.

なお、画像投影装置10と、外部機器50とは、無線LAN等により接続されてもよい。   The image projection apparatus 10 and the external device 50 may be connected by a wireless LAN or the like.

<動作シーケンス>
図10を用いて、第2の実施形態に係る動作シーケンスについて説明する。
<Operation sequence>
The operation sequence according to the second embodiment will be described with reference to FIG.

ステップS1001で、外部機器50は、画像データを、画像投影装置10に入力すると共に、画像データの投影を指示する。   In step S <b> 1001, the external device 50 inputs image data to the image projecting device 10 and instructs the image data to be projected.

ステップS1002乃至ステップS1008の手順については、ステップS201乃至ステップS207の手順と同様であるため、説明を省略する。   The procedure from step S1002 to step S1008 is the same as the procedure from step S201 to step S207, and a description thereof will be omitted.

ステップS1009で、画像投影装置10は、接触内容に対応する操作情報を生成する。   In step S1009, the image projection device 10 generates operation information corresponding to the contact content.

ステップS1010で、画像投影装置10は、操作情報を外部機器50に送信する。   In step S <b> 1010, the image projection apparatus 10 transmits operation information to the external device 50.

ステップS1011で、外部機器50は、操作情報に対する操作を、画像データに実行し、画像データを更新する。ここで、画像データは、例えば、外部機器50の画面に表示されているアプリケーションのウィンドウである。   In step S1011, the external device 50 performs an operation on the operation information on the image data, and updates the image data. Here, the image data is, for example, an application window displayed on the screen of the external device 50.

ステップS1012で、外部機器50は、更新された画像データを画像投影装置10に送信する。   In step S <b> 1012, the external device 50 transmits the updated image data to the image projection apparatus 10.

ステップS1013で、画像投影装置10は、更新された画像データをスクリーン40に投影する。   In step S <b> 1013, the image projection apparatus 10 projects the updated image data on the screen 40.

<機能構成>
図11を用いて、第2の実施形態に係る画像投影システム1の機能構成について説明する。
<Functional configuration>
The functional configuration of the image projection system 1 according to the second embodiment will be described with reference to FIG.

(1)画像投影装置
画像投影装置10は、機器制御部105、送受信部110、投影部120、画像入力受付部130、画像編集部140、位置座標算出部150、手付き抽出部160、描画部170、情報記憶部180、入力部190、及び操作情報変換部195を有する。
(1) Image Projecting Device The image projecting device 10 includes a device control unit 105, a transmission / reception unit 110, a projection unit 120, an image input reception unit 130, an image editing unit 140, a position coordinate calculation unit 150, a hand extraction unit 160, and a drawing unit 170. , An information storage unit 180, an input unit 190, and an operation information conversion unit 195.

機器制御部105は、画像投影装置10を、描画モード、及び操作モードのいずれかのモードで動作させる。   The device control unit 105 causes the image projection apparatus 10 to operate in either the drawing mode or the operation mode.

画像投影装置10が描画モードで動作している場合、機器制御部105は、位置座標算出部150により接触が検出されたときに、描画部170及び画像編集部140を動作させる。   When the image projection apparatus 10 is operating in the drawing mode, the device control unit 105 operates the drawing unit 170 and the image editing unit 140 when contact is detected by the position coordinate calculation unit 150.

画像投影装置10が操作モードで動作している場合、機器制御部105は、位置座標算出部150により接触が検出されたときに、操作情報変換部195を動作させる。   When the image projection apparatus 10 is operating in the operation mode, the device control unit 105 operates the operation information conversion unit 195 when contact is detected by the position coordinate calculation unit 150.

操作情報変換部195は、位置座標算出部150が特定したスタイラスや指による接触の軌跡から、投影されている画像データが、ユーザから受け付けた操作を特定する。操作情報変換部195は、特定された操作に対応する操作情報を生成する。操作情報変換部195は、手付き抽出部160から抽出された誤接触の位置の情報を取得し、手付き部分の接触として抽出された接触位置を、操作を特定するのに用いない。ここで、接触の軌跡は、投影されている画像データに対する一以上の接触を基に形成される。生成される操作情報は、例えば、USB HID(USB Human Interface Device)のフォーマットに従って生成される。   The operation information conversion unit 195 identifies an operation received by the projected image data from the user from the locus of contact by the stylus or finger identified by the position coordinate calculation unit 150. The operation information conversion unit 195 generates operation information corresponding to the specified operation. The operation information conversion unit 195 acquires the information on the position of the erroneous contact extracted from the hand-held extraction unit 160, and does not use the contact position extracted as the contact of the hand-held portion to specify the operation. Here, the locus of contact is formed based on one or more contacts to the projected image data. The generated operation information is generated in accordance with, for example, a USB HID (USB Human Interface Device) format.

なお、機器制御部105、送受信部110、投影部120、画像入力受付部130、画像編集部140、位置座標算出部150、手付き抽出部160、描画部170、情報記憶部180、及び入力部190は、第1の実施形態と同様の機能を有する。   The device control unit 105, the transmission / reception unit 110, the projection unit 120, the image input reception unit 130, the image editing unit 140, the position coordinate calculation unit 150, the hand extraction unit 160, the drawing unit 170, the information storage unit 180, and the input unit 190. Has the same function as the first embodiment.

(2)外部機器50
外部機器50は、送受信部510、画像出力部520、及び処理実行部530を有する。
(2) External device 50
The external device 50 includes a transmission / reception unit 510, an image output unit 520, and a process execution unit 530.

送受信部510は、画像投影装置10との間で各種データの送受信を行う。   The transmission / reception unit 510 transmits / receives various data to / from the image projection apparatus 10.

画像出力部520は、送受信部510を介して、画像データを、画像投影装置10に送信する。   The image output unit 520 transmits the image data to the image projection device 10 via the transmission / reception unit 510.

処理実行部530は、受信した操作情報に対応する操作を、画像投影装置10を介して出力している画像データに対して実行する。   The process execution unit 530 performs an operation corresponding to the received operation information on the image data output via the image projection device 10.

なお、ライトカーテンモジュール30とカメラ20は、第1の実施形態と同様の機能構成を有する。   The light curtain module 30 and the camera 20 have the same functional configuration as in the first embodiment.

<動作フロー>
図12を用いて、第2の実施形態に係る動作フローについて説明する。
<Operation flow>
The operation flow according to the second embodiment will be described with reference to FIG.

ステップS1201で、画像入力受付部130が、外部機器50から画像データ(第1の画像データ)の入力を受け付けると、投影部120は、第1の画像データをスクリーン40に投影する。   In step S <b> 1201, when the image input receiving unit 130 receives input of image data (first image data) from the external device 50, the projecting unit 120 projects the first image data on the screen 40.

ステップS1202乃至ステップS1208の手順については、ステップS802乃至ステップS808と同じであるため、説明を省略する。   The procedure from step S1202 to step S1208 is the same as that from step S802 to step S808, and the description thereof will be omitted.

ステップS1209で、機器制御部105は、画像投影装置10が操作モードで動作しているか否かの判断を行う。操作モードで動作している場合(ステップS1209 Yes)、ステップS1210に進む。操作モードで動作していない場合、つまり描画モードで動作している場合(ステップS1209 No)、ステップS1212に進む。   In step S1209, the device control unit 105 determines whether or not the image projection apparatus 10 is operating in the operation mode. When operating in the operation mode (step S1209 Yes), the process proceeds to step S1210. When not operating in the operation mode, that is, when operating in the drawing mode (No in step S1209), the process proceeds to step S1212.

ステップS1210で、操作情報変換部195は、スタイラスや指による接触の軌跡から、投影されている画像データが、ユーザから受け付けた操作を特定する。なお、この際に、操作情報変換部195は、抽出された誤接触の位置を特定する情報を、手付き抽出部160から取得し、手付き部分の接触として抽出された接触位置を、操作を特定するのに用いない。操作情報変換部195は、特定された操作に対応する操作情報を生成し、外部機器50に送信する。   In step S <b> 1210, the operation information conversion unit 195 identifies an operation that the projected image data has received from the user from the locus of contact with the stylus or finger. At this time, the operation information conversion unit 195 acquires information for specifying the extracted erroneous contact position from the hand-extracted extraction unit 160, and specifies the operation for the contact position extracted as the contact of the hand-attached part. Not used for The operation information conversion unit 195 generates operation information corresponding to the specified operation and transmits it to the external device 50.

ステップS1211で、画像入力受付部130は、操作情報に対応する処理が実行された画像データ(第4の画像データ)を受信する。   In step S1211, the image input receiving unit 130 receives image data (fourth image data) on which processing corresponding to the operation information has been executed.

ステップS1212及びステップS1213の手順は、ステップS809及びステップS810と同じであるため、説明を省略する。   Since the procedure of step S1212 and step S1213 is the same as that of step S809 and step S810, description is abbreviate | omitted.

ステップS1214で、投影部120は、画像編集部140から取得した第3の画像データ、又は画像入力受付部130が受信した第4の画像データを投影する。   In step S1214, the projection unit 120 projects the third image data acquired from the image editing unit 140 or the fourth image data received by the image input reception unit 130.

なお、ステップS1207の後に、ステップS908と同様の処理、すなわち、第1の接触のサイズが、所定のサイズを上回るか否かの処理が実行されてもよい。また、第2の実施形態でも、第1の実施形態と同様に、入力部190が、所定の期間ΔT、所定の領域(所定の距離)、及び手付き部分に係る所定のサイズをユーザから受け付けて、画像投影装置10に設定されている場合、手付き抽出部160は、ユーザにより設定された所定の期間ΔT等の設定値を用いて、第2の接触を検出する。一方、所定の期間ΔT等が、ユーザにより設定されていない場合は、画像投影装置10に設定されているパラメータのデフォルト値を用いて、第2の接触を検出する。   Note that after step S1207, the same processing as step S908, that is, whether or not the size of the first contact exceeds a predetermined size may be executed. Also in the second embodiment, as in the first embodiment, the input unit 190 receives a predetermined period ΔT, a predetermined area (predetermined distance), and a predetermined size related to the hand-held portion from the user. When the image projection device 10 is set, the hand extraction unit 160 detects the second contact using a set value such as a predetermined period ΔT set by the user. On the other hand, when the predetermined period ΔT or the like is not set by the user, the second contact is detected using the default value of the parameter set in the image projection apparatus 10.

[その他]
上述した実施形態では、画像投影装置10とカメラ20とは別々の装置で実現されていたが、画像投影装置10にカメラを設け、投影された画像データを撮影してもよい。上述した実施形態を、PCやサーバ等の情報処理装置で実現可能なことは勿論である。
[Others]
In the above-described embodiment, the image projecting device 10 and the camera 20 are realized by separate devices. However, a camera may be provided in the image projecting device 10 to capture the projected image data. Of course, the above-described embodiment can be realized by an information processing apparatus such as a PC or a server.

また、画像投影装置10とPC等の外部機器50との機能分担は、上述した実施形態に限定されないのは、勿論である。例えば、位置座標算出部150、手付き抽出部160、描画部170、及び操作情報変換部195と同様の機能が、外部機器50に設けられてもよい。   Of course, the division of functions between the image projection apparatus 10 and the external device 50 such as a PC is not limited to the above-described embodiment. For example, functions similar to the position coordinate calculation unit 150, the hand extraction unit 160, the drawing unit 170, and the operation information conversion unit 195 may be provided in the external device 50.

また、上述した実施形態は、画像投影装置10以外にも適用可能である。例えば、電子黒板(Interactive White Board)に、上述した実施形態を適用可能なことは勿論である。   Further, the above-described embodiment can be applied to other than the image projection apparatus 10. For example, it is needless to say that the above-described embodiment can be applied to an electronic whiteboard (Interactive White Board).

位置座標算出部150は、位置特定部の一例である。手付き抽出部160は、抽出部の一例である。画像編集部140及び操作情報変換部195は、生成部の一例である。画像入力受付部130は、受け付け部の一例である。送受信部110は、送信部の一例である。   The position coordinate calculation unit 150 is an example of a position specifying unit. The hand extraction unit 160 is an example of an extraction unit. The image editing unit 140 and the operation information conversion unit 195 are an example of a generation unit. The image input receiving unit 130 is an example of a receiving unit. The transmission / reception unit 110 is an example of a transmission unit.

上述した実施の形態の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、画像投影装置10に供給してもよい。そして、画像投影装置10が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、上述の実施形態が、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は、いずれかの実施の形態を構成することになる。ここで、記憶媒体は、記録媒体または非一時的な記憶媒体である。   A storage medium that records software program codes that implement the functions of the above-described embodiments may be supplied to the image projection apparatus 10. Needless to say, the above-described embodiment is also achieved when the image projection apparatus 10 reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes any of the embodiments. Here, the storage medium is a recording medium or a non-transitory storage medium.

また、コンピュータ装置が読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。そのプログラムコードの指示に従って、コンピュータ装置上で動作しているオペレーティングシステム(OS)等が実際の処理の一部または全部を行ってもよい。さらに、その処理によって前述した実施形態の機能が実現されてもよいことは言うまでもない。   The functions of the above-described embodiments are not only realized by executing the program code read by the computer device. An operating system (OS) or the like operating on the computer device may perform part or all of the actual processing in accordance with the instruction of the program code. Furthermore, it goes without saying that the functions of the above-described embodiments may be realized by the processing.

以上、本発明の好ましい実施形態について説明したが、本発明はこうした実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to such embodiment, A various deformation | transformation and substitution can be added in the range which does not deviate from the summary of this invention.

1 画像投影システム
10 画像投影装置
20 カメラ
30 ライトカーテンモジュール
35 不可視光射出方向
40 スクリーン
50 外部機器
105 機器制御部
110 送受信部
120 投影部
130 画像入力受付部
140 画像編集部
150 位置座標算出部
160 抽出部
170 描画部
180 情報記憶部
181 投影データ記憶部
182 抽出設定記憶部
190 入力部
195 操作情報変換部
210 送受信部
220 撮像部
310 送受信部
320 光射出部
510 送受信部
520 画像出力部
530 処理実行部
DESCRIPTION OF SYMBOLS 1 Image projection system 10 Image projection apparatus 20 Camera 30 Light curtain module 35 Invisible light emission direction 40 Screen 50 External apparatus 105 Device control part 110 Transmission / reception part 120 Projection part 130 Image input reception part 140 Image editing part 150 Position coordinate calculation part 160 Extraction Unit 170 drawing unit 180 information storage unit 181 projection data storage unit 182 extraction setting storage unit 190 input unit 195 operation information conversion unit 210 transmission / reception unit 220 imaging unit 310 transmission / reception unit 320 light emission unit 510 transmission / reception unit 520 image output unit 530 processing execution unit

特開2013−114688号JP2013-114688A

Claims (7)

投影された画像データに対する操作のための接触を検出し、該接触の位置を特定する位置特定部と、
検出された前記接触の各々の中から、誤接触を抽出する抽出部と、
特定された前記接触の位置の各々から前記誤接触の位置を除く、接触の位置の軌跡を特定し、特定された該軌跡を基に前記操作の内容に応じた情報を生成する生成部と、
を有し、
第1の接触が検出されてから、所定の期間に第2の接触が検出された場合、前記抽出部は、前記第1の接触を前記誤接触として抽出する、情報処理装置。
A position specifying unit that detects a contact for operation on the projected image data and specifies the position of the contact;
An extraction unit for extracting an erroneous contact from each of the detected contacts;
A generation unit that identifies a locus of a contact position, excluding the erroneous contact position from each of the identified contact positions, and generates information according to the content of the operation based on the identified locus;
Have
The information processing apparatus, wherein when the second contact is detected in a predetermined period after the first contact is detected, the extraction unit extracts the first contact as the erroneous contact.
前記第1の接触の位置と前記第2の接触の位置との距離が所定の距離より短い場合、前記抽出部は、前記第1の接触を前記誤接触として抽出する、請求項1に記載の情報処理装置。   The extraction unit according to claim 1, wherein when the distance between the position of the first contact and the position of the second contact is shorter than a predetermined distance, the extraction unit extracts the first contact as the erroneous contact. Information processing device. 前記第1の接触の大きさが所定のサイズを上回る場合、前記抽出部は、前記第1の接触を前記誤接触として抽出する、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein when the magnitude of the first contact exceeds a predetermined size, the extraction unit extracts the first contact as the erroneous contact. 前記所定の期間、前記所定の距離、及び前記所定のサイズの入力を受け付ける入力部を有し、
前記入力部が入力を受け付けなかった場合、入力を受け付けなかったパラメータのデフォルト値が設定される、請求項1乃至3のいずれか一項に記載の情報処理装置。
An input unit that receives input of the predetermined period, the predetermined distance, and the predetermined size;
The information processing apparatus according to any one of claims 1 to 3, wherein when the input unit does not accept an input, a default value of a parameter that does not accept the input is set.
前記軌跡に対応する描画データを生成する描画データ生成部と、
前記描画データと前記画像データとを合成し、新たに投影する画像データを生成する、画像合成部と、を有する、請求項1乃至4のいずれか一項に記載の情報処理装置。
A drawing data generation unit for generating drawing data corresponding to the locus;
The information processing apparatus according to claim 1, further comprising: an image composition unit configured to compose the drawing data and the image data and generate image data to be newly projected.
画像データの入力を外部機器から受け付ける受け付け部と、
前記画像データに対する操作を実行するための情報である操作情報を外部機器に送信する送信部と、を有し、
前記生成部は、前記軌跡を基に、前記画像データに対する操作を特定し、特定された前記操作に対応する操作情報を生成する、請求項1乃至4のいずれか一項に記載の情報処理装置。
A receiving unit for receiving image data input from an external device;
A transmission unit that transmits operation information, which is information for performing an operation on the image data, to an external device;
The information processing apparatus according to claim 1, wherein the generation unit specifies an operation on the image data based on the trajectory, and generates operation information corresponding to the specified operation. .
投影された画像データに対する操作のための接触を検出し、該接触の位置を特定するステップと、
検出された前記接触の各々の中から、誤接触を抽出するステップと、
特定された前記接触の位置の各々から前記誤接触の位置を除く、接触の位置の軌跡を特定し、特定された該軌跡を基に前記操作の内容に応じた情報を生成するステップと、を情報処理装置に実行させるプログラムであって、
第1の接触が検出されてから、所定の期間に第2の接触が検出された場合、前記第1の接触を前記誤接触として抽出される、プログラム。
Detecting a contact for operation on the projected image data and identifying the position of the contact;
Extracting false contacts from each of the detected contacts;
Identifying the locus of the contact position, excluding the erroneous contact position from each of the identified contact positions, and generating information according to the content of the operation based on the identified locus; and A program to be executed by an information processing apparatus,
A program in which, when a second contact is detected in a predetermined period after the first contact is detected, the first contact is extracted as the erroneous contact.
JP2016047962A 2016-03-11 2016-03-11 Information processing device, and program Pending JP2017162334A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016047962A JP2017162334A (en) 2016-03-11 2016-03-11 Information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016047962A JP2017162334A (en) 2016-03-11 2016-03-11 Information processing device, and program

Publications (1)

Publication Number Publication Date
JP2017162334A true JP2017162334A (en) 2017-09-14

Family

ID=59857187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016047962A Pending JP2017162334A (en) 2016-03-11 2016-03-11 Information processing device, and program

Country Status (1)

Country Link
JP (1) JP2017162334A (en)

Similar Documents

Publication Publication Date Title
US10277544B2 (en) Information processing apparatus which cooperate with other apparatus, and method for controlling the same
US9830023B2 (en) Image display apparatus and method of controlling image display apparatus
JP6340958B2 (en) Projector apparatus, interactive system, and interactive control method
WO2006085580A1 (en) Pointer light tracking method, program, and recording medium thereof
US10276133B2 (en) Projector and display control method for displaying split images
CN102194136A (en) Information recognition system and its control method
US20150261385A1 (en) Picture signal output apparatus, picture signal output method, program, and display system
JP6540367B2 (en) Display control apparatus, communication terminal, communication system, display control method, and program
JP2011013396A (en) Projector, image projection system and image projection method
JP6273671B2 (en) Projector, display system, and projector control method
JP2010272078A (en) System, and control unit of electronic information board, and cursor control method
CN109542218B (en) Mobile terminal, human-computer interaction system and method
JP2017162334A (en) Information processing device, and program
JP2010015032A (en) Projector, control method thereof, and image projection display system
JP6358058B2 (en) Display device, display method, and display system
JP2015149648A (en) Image projection device, image projection system, and control method of image projection device
JP2015156167A (en) Image projection device, control method of image projection device, and control program of image projection device
JP7455764B2 (en) Shared display annotation system using mobile devices
JP6145963B2 (en) Projector, display system, and projector control method
JP2017107084A (en) Image display system
JP2017092849A (en) Image display system
JP6707945B2 (en) Display device and display device control method
KR101386840B1 (en) Dual interactive method for ir light source and image recognition and thereof method
JP2015219547A (en) Device control system, device control program, and device control apparatus
JP6183084B2 (en) Image projection apparatus and image projection method