JP2017162334A - Information processing device, and program - Google Patents
Information processing device, and program Download PDFInfo
- Publication number
- JP2017162334A JP2017162334A JP2016047962A JP2016047962A JP2017162334A JP 2017162334 A JP2017162334 A JP 2017162334A JP 2016047962 A JP2016047962 A JP 2016047962A JP 2016047962 A JP2016047962 A JP 2016047962A JP 2017162334 A JP2017162334 A JP 2017162334A
- Authority
- JP
- Japan
- Prior art keywords
- contact
- unit
- image
- image data
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
プロジェクタの投影画面に対して、ユーザがスタイラスや指を用いて、描画等をすることが広く行われている。この場合、投影画面に対するスタイラスや指の接触位置の軌跡が特定され、投影画面上の軌跡に対応する箇所に画像が形成される。 It is widely performed that a user draws on a projection screen of a projector using a stylus or a finger. In this case, the locus of the contact position of the stylus or finger with respect to the projection screen is specified, and an image is formed at a location corresponding to the locus on the projection screen.
ユーザがスタイラスを用いる場合、ユーザのスタイラスを持つ手の一部(以下、手付き部分)が投影画面に触れることがある。手つき部分の軌跡に対応する画像が形成されるのを防止するために、スタイラスによる接触と、手つき部分による接触とを区別し、スタイラスの軌跡の画像のみを形成する方法について様々な提案がされている(例えば、特許文献1)。 When the user uses a stylus, a part of the user's hand holding the stylus (hereinafter referred to as a hand-held part) may touch the projection screen. In order to prevent the formation of an image corresponding to the locus of the hand-held part, various proposals have been made regarding a method for distinguishing between contact by the stylus and contact by the hand-held part and forming only the image of the stylus locus. (For example, Patent Document 1).
しかしながら、従来提案されている方法を用いると、投影画面に手を接触させ描画等を行う場合、手の接触は、スタイラス使用時の「手付き部分」と認識されてしまい、手を用いて適切に描画等を行うのが難しいという課題があった。 However, using the conventionally proposed method, when drawing with a hand in contact with the projection screen, the hand contact is recognized as a “hand-held part” when using the stylus, and the hand is used appropriately. There was a problem that it was difficult to perform drawing and the like.
本発明は、上記の課題に鑑みてされたものであって、投影画像に対するスタイラスや指による接触に対応する操作を適切に認識して、該投影画像に対する操作を実行することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to appropriately recognize an operation corresponding to contact with a stylus or a finger on a projection image and execute the operation on the projection image.
一つの態様によれば、投影された画像データに対する操作のための接触を検出し、該接触の位置を特定する位置特定部と、検出された前記接触の各々の中から、誤接触を抽出する抽出部と、特定された前記接触の位置の各々から前記誤接触の位置を除く、接触の位置の軌跡を特定し、特定された該軌跡を基に前記操作の内容に応じた情報を生成する生成部と、を有し、第1の接触が検出されてから、所定の期間に第2の接触が検出された場合、前記抽出部は、前記第1の接触を前記誤接触として抽出する、情報処理装置が提供される。 According to one aspect, a contact for operation on the projected image data is detected, a position specifying unit that specifies the position of the contact, and an erroneous contact is extracted from each of the detected contacts. An extraction unit and a contact position locus that excludes the erroneous contact position from each of the identified contact positions are identified, and information corresponding to the content of the operation is generated based on the identified locus. And when the second contact is detected in a predetermined period after the first contact is detected, the extraction unit extracts the first contact as the erroneous contact. An information processing apparatus is provided.
投影画像に対するスタイラスや指による接触に対応する操作を適切に認識して、該投影画像に対する操作を実行することができる。 It is possible to appropriately recognize an operation corresponding to contact with a stylus or a finger on the projection image and execute the operation on the projection image.
[第1の実施形態]
<システム構成>
図1を用いて第1の実施形態に係る画像投影システム1について説明する。図1は、第1の実施形態に係る画像投影システム1の一例を示す図である。画像投影システム1は、画像投影装置10、カメラ20、ライトカーテンモジュール30、及びスクリーン40を有する。
[First Embodiment]
<System configuration>
An
画像投影装置10は、画像データ(第1の画像データ)の入力を受け付け、第1の画像データをスクリーン40に投影する。スクリーン40には投影画像が形成される。
The
ライトカーテンモジュール30は、画像投影装置10の指示を受けて、不可視光をスクリーン40の面と平行な方向(不可視光射出方向35)に不可視光を射出する。スタイラス(指示具、ペン)や指がスクリーン40に接触すると、不可視光は、スタイラス等に反射し、反射光を発生する。ライトカーテンモジュール30と画像投影装置10とは、ケーブル等で有線接続されてもよいし、Bluetooth(登録商標)や無線LAN等の無線により接続されてもよい。
In response to an instruction from the
カメラ20は、画像投影装置10とUSBケーブル等により接続されている。カメラ20は、スクリーン40を撮影し撮影データを生成する。カメラ20は、生成された撮影データを画像投影装置10に送信する。
The
画像投影装置10は、撮影データから、スタイラス又は指の接触した位置の座標を特定する。画像投影装置10は、スタイラス又は指の接触位置の軌跡の座標を算出する。画像投影装置10は、スタイラス又は指の接触位置の軌跡に対応する画像データ(第2の画像データ)を形成する。画像投影装置は、第1の画像データに第2の画像データを重畳した画像データ(第3の画像データ)を生成し、スクリーン40に投影する。スクリーン40には、第3の画像データが投影される。
The
画像投影装置10は、描画のためのスタイラスや指による接触と、スタイラス使用時の手付き部分の接触とを区別し、スタイラスや指による描画動作に対応する画像を形成し、手付き部分の接触に対応する画像を形成しない。区別の方法については、後述する。
The
上述した、実施形態では、画像投影装置10で、第1の画像データと第2の画像データとを重畳する処理を実行しているが、画像投影装置10をPC等の外部機器に接続し、外部機器が、撮影データ又は軌跡の座標のデータから画像データを重畳する処理を実行し、画像投影装置10は、外部機器から新たに生成された画像データを取得してもよい。
In the above-described embodiment, the
<動作シーケンス>
図2を用いて、第1の実施形態の動作シーケンスについて説明する。図2は、第1の実施形態に係る動作シーケンスの一例を示す図である。
<Operation sequence>
The operation sequence of the first embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of an operation sequence according to the first embodiment.
ステップS201で、画像投影装置10は、不可視光の射出を、ライトカーテンモジュール30に指示する。
In step S201, the
ステップS202で、ライトカーテンモジュール30は、不可視光の射出を開始する。
In step S202, the
ステップS203で、画像投影装置10は、入力を受け付けた第1の画像データを、スクリーン40に投影する。
In step S <b> 203, the
ステップS204で、画像投影装置10は、スクリーン40の撮影を、カメラ20に指示する。
In step S <b> 204, the
ステップS205で、カメラ20は、スクリーン40を撮影し、撮影の結果を撮影データとして記憶する。
In step S205, the
ステップS206で、カメラ20は、撮影データを画像投影装置10に送信する。
In step S <b> 206, the
ステップS207で、画像投影装置10は、撮影データを受信すると、スクリーン40へのスタイラスや指の接触を検出し、接触位置のスクリーン40上の座標を算出する。画像投影装置10は、所定の期間の撮影データからスタイラス等の接触位置の軌跡の座標を算出する。
In step S207, when the
画像投影装置10は、スタイラス又は指による投影されている第1の画像データに対する、操作のための接触と、スタイラス使用時の手付き部分の接触とを、接触を検出するタイミングから区別する。画像投影装置10は、スタイラス又は指による接触と、スタイラス使用時の手付き部分の接触とを、スクリーン40上に形成される接触点の面積により区別する。或いは、画像投影装置10は、接触を検出するタイミング及び接触点の面積から、スタイラス又は指による接触と、スタイラス使用時の手付き部分の接触とを区別する。
The
ステップS208で、画像投影装置10は、スタイラス等の接触位置の軌跡に対応する画像データ(第2の画像データ)を生成する。
In step S208, the
ステップS209で、画像投影装置10は、第1の画像データと、第2の画像データとを重畳した画像データを、スクリーン40に投影する。
In step S <b> 209, the
次に、図3を用いて、接触を検出するタイミングについて説明する。図3は、スクリーン40にスタイラス60等が接触するタイミングの一例を示す図である。
Next, the timing for detecting contact will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of timing at which the
図3の(A)は、指65がスクリーン40に接触する様子を示している。画像投影装置10は、撮影データから指65が接触していることを検出する。
FIG. 3A shows how the
図3の(B1)及び(B2)は、スタイラス60を用いるときに手付き部分55が、スクリーン40に接触する様子を示している。ユーザは、スタイラス60を用いて描画する場合、描画の動作をしやすいよう、まず、図3の(B1)のように、スクリーン40に手付き部分55を接触させ、次に、図3の(B2)のように、ユーザは、スタイラス60をスクリーン40に接触させることが多い。
(B1) and (B2) of FIG. 3 show how the hand-held
所定の領域内に、第1の接触を検出してから所定の期間ΔTの範囲内に、第2の接触を検出した場合、画像投影装置10は、第1の接触を手付き部分55の接触として抽出する。この場合、画像投影装置10は、手付き部分55の接触と抽出された部分を除いて、第2の画像データを生成する。ここで、所定の領域は、固定サイズの領域が設定される。例えば、第1の接触の位置の座標が、第2の接触の位置の座標から、縦方向(Y軸方向)及び横方向(X軸方向)100画素以内に存在する場合、画像投影装置10は、第1の接触の位置は、所定の領域に含まれると判断してもよい。また、一般的な人間の手の大きさから所定の領域のサイズを設定してもよい。例えば、第1の接触の位置の座標が、第2の接触の位置の座標から10cm以内に存在する場合、画像投影装置10は、第1の接触の位置は、所定の領域に含まれると判断してもよい。所定の期間ΔTは、一般的なユーザが手付き部分55をスクリーン40に接触させてからスタイラス60をスクリーン40に接触させる時間を基に設定することが好ましい。所定の期間ΔTには、比較的短い時間、例えば、500ms等が設定される。
When the second contact is detected within a predetermined period ΔT after the first contact is detected in the predetermined region, the
次に、図4を用いて、スタイラス等が接触したときの撮影データについて説明する。 Next, with reference to FIG. 4, photographing data when a stylus or the like comes into contact will be described.
図4の(A)は、指又はスタイラスがスクリーン40に接触しているときの撮影データを示している。この場合、手付き部分はスクリーン40に接触していない。指等の接触により、ライトカーテンモジュール30からの不可視光が遮られた部分において、不可視光が、反射する。このため、撮影データの指等の接触位置以外の領域42は真っ黒であり、撮影データの指等の接触位置41は、高い輝度を有する。
FIG. 4A shows image data when a finger or stylus is in contact with the
図4の(B1)は、手付き部分が、スクリーン40に接触しているときの撮影データを示している。この場合も、手付き部分の接触により、ライトカーテンモジュール30からの不可視光が遮られ、不可視光が反射する。このため、撮影データの手付き部分の接触位置以外の領域44は真っ黒であり、撮影データの手付き部分の接触位置43は高い輝度を有する。
(B1) of FIG. 4 shows imaging data when the hand-held portion is in contact with the
図4の(B2)は、図4の(B1)から所定の期間経過後に、手付き部分に加えて、スタイラスがスクリーン40に接触しているときの撮影データを示している。この場合も図4のB1等と同様に、撮影データのスタイラス等の接触位置以外の領域46は、真っ黒であり、撮影データの手付き部分の接触位置43及びスタイラスの接触位置45は、高い輝度を有する。
(B2) in FIG. 4 shows photographing data when the stylus is in contact with the
図4の(B1)及び(B2)に示すように手付き部分の接触位置43のサイズは、指の接触位置41のサイズ及びスタイラスの接触位置45のサイズと比べて大きくなる。このため、画像投影装置10は、接触位置のサイズが所定のサイズより大きい場合、手付き部分の接触として抽出する。この場合、画像投影装置10は、手付き部分の接触として抽出された位置を除いて、第2の画像データを生成する。
As shown in FIGS. 4B1 and 4B2, the size of the
なお、スタイラスを用いるときでも手付き部分がスクリーン40に接触しない場合には、指が接触する場合と同様の処理が実行される。
Even when the stylus is used, if the hand-held portion does not contact the
<ハードウエア構成>
(1)画像投影装置
図5は、第1の実施形態に係る画像投影装置10のハードウエア構成の一例を示す図である。画像投影装置10は、画像投影装置10全体の動作を制御するCPU1001、CPU1001の駆動に用いられるプログラムを記憶したROM1002、CPU1001のワークエリアとして使用されるRAM1003を備えている。さらに、画像投影装置10は、画像データ、画像投影装置10用のプログラム等の各種データを記憶するメモリモジュール1004を備えている。
<Hardware configuration>
(1) Image Projecting Device FIG. 5 is a diagram illustrating an example of a hardware configuration of the
画像投影装置10は、有線又は無線のネットワークを利用してデータ通信するための複数のネットワークI/F1005を有する。
The
画像投影装置10は、カメラ20、ライトカーテンモジュール30、及びPC等の外部機器と接続するためのケーブルI/F1006を有する。ケーブルI/F1006は、例えば、USB(Universal Serial Bus) I/Fポートにより実現される。
The
画像投影装置10は、PC等の外部機器から画像データを受信するための画像信号受付I/F1007を有する。画像信号受付I/F1007は、入力される画像信号のフォーマット毎に設けられる。例えば、画像信号受付I/F1007は、D−Sub(D−subminiature)、HDMI(登録商標)(High−Definition Multimedia Interface)、又はVGA(Video Graphics Array)のフォーマットに準拠した画像データの送受信を行う。
The
画像投影装置10は、画像信号処理モジュール1008を有し、画像信号処理モジュール1008は、画像信号受付1007が受信した画像データを処理する。
The
画像投影装置10は、操作受付モジュール1009を有する。操作受付モジュール1009は、画像投影装置10のユーザからの操作を受け付けるための装置であり、例えば、操作キーにより実現される。
The
画像投影装置10は、光学モジュール1010を有する。光学モジュール1010は、投影される画像を生成する装置である。画像投影装置10が、DLP(Digital Light Processing)プロジェクタの場合、DMD(Digital Mirror Device)又はカラーホイールにより実現される。
The
画像投影装置10は、ランプ1011とランプ制御モジュール1012とを有する。ランプ制御モジュール1012の指示に基づいて、ランプ1011は、発光する。
The
画像投影装置10は、ファン1013を有する。ファン1013は、画像投影装置10の冷却に用いられる。
The
画像投影装置10では、上述した装置が、相互にバスラインBで接続される。なお、画像投影装置10は、カメラを有してもよい。ROM1002等に格納したプログラムをCPU1001が実行すること等により、後述する画像投影装置10の各機能が実現される。
In the
(2)ライトカーテンモジュール
図6は、第1の実施形態に係るライトカーテンモジュール30のハードウエア構成の一例を示す図である。ライトカーテンモジュール30は、ライトカーテンモジュール30全体の動作を制御するCPU3001、CPU3001の駆動に用いられるプログラムを記憶したROM3002、CPU3001のワークエリアとして使用されるRAM3003を備えている。
(2) Light Curtain Module FIG. 6 is a diagram illustrating an example of a hardware configuration of the
ライトカーテンモジュール30は、光射出モジュール3004を有し、光射出モジュール3004は、不可視光を射出する。また、ライトカーテンモジュール30は、ケーブルI/F3005を有する。ケーブルI/F3005は、例えば、USB(Universal Serial Bus) I/Fポートにより実現される。
The
ライトカーテンモジュール30では、上述した装置が、相互にバスラインBで接続される。ROM3002に格納したプログラムをCPU3001が、実行すること等により、後述する、ライトカーテンモジュール30の各機能が実現される。
In the
<機能構成>
図7を用いて、第1の実施形態に係る画像投影システム1の機能構成について説明する。
<Functional configuration>
The functional configuration of the
(1)画像投影装置
画像投影装置10は、機器制御部105、送受信部110、投影部120、画像入力受付部130、画像編集部140、位置座標算出部150、手付き抽出部160、描画部170、情報記憶部180、及び入力部190を有する。情報記憶部180は、投影データ記憶部181、及び手付き抽出設定記憶部182を有する。
(1) Image Projecting Device The
機器制御部105は、カメラ20にスクリーン40の撮影指示をする。機器制御部105は、ライトカーテンモジュール30に不可視光の射出を指示する。また、機器制御部105は、画像投影装置10内の各機能ブロックに対する制御を行う。
The
送受信部110は、ネットワーク又はケーブル等を介して、カメラ20及びライトカーテンモジュール30との間で各種データの送受信を行う。
The transmission /
投影部120は、画像編集部140から画像データを取得し、取得した画像データをスクリーン40に投影する。
The
画像入力受付部130は、PC、タブレット端末、及びスマートフォン等の外部機器から画像の入力を受け付ける(第1の画像データの入力受け付け)。画像の入力には、HDMI、及びVGA等のインタフェースが用いられてもよい。また、画像入力受付部130は、送受信部110を介して、外部機器から画像の入力を受け付けてもよい。
The image
画像編集部140は、画像入力受付部130が受け付けた第1の画像データと、描画部170により生成された第2の画像データとを合成する処理を行う。また、画像編集部140は、変倍等の投影する画像に対する編集処理を実行する。なお、画像編集部140は、投影データ記憶部181から、第1の画像データを取得してもよい。
The
位置座標算出部150は、カメラ20により撮影された撮影データを受信し、撮影データを基に、スタイラス等による投影されている画像データに対する接触を検出し、検出された接触の位置の座標を特定する。
The position coordinate
手付き抽出部160は、位置座標算出部150により特定された接触位置の各々について、描画のためのスタイラスや指による接触によるものか、スタイラス使用時の手付き部分の接触によるものかを判断し、手付き部分による誤接触を抽出する。手付き抽出部160は、抽出設定記憶部182に記憶されている情報を用いて、抽出の処理を実行する。
The
描画部170は、位置座標算出部150が特定したスタイラスや指による接触の軌跡の画像を生成する(第2の画像データ)。第2の画像データを生成するときに、描画部170は、手付き抽出部160から抽出された誤接触の情報を取得し、手付き部分による誤接触として抽出された接触位置には画像を生成しない。ここで、接触の軌跡は、スタイラスや指による投影されている画像データに対する一以上の接触を基に形成される。
The
情報記憶部180は、各種情報を記憶する。投影データ記憶部181は、PC等から取得した第1の画像データを記憶する。抽出設定記憶部182は、手付き抽出部160が、手付き部分による接触を抽出するために用いる情報が記憶される。抽出設定記憶部182は、第1の接触を検出してから第2の接触を検出するまでの所定の期間ΔTを記憶する。又、所定の領域のサイズに関する情報を記憶する。手付き抽出部160は、所定の期間ΔTの範囲内に、所定の領域内に第1の接触と第2の接触とを検出した場合、第1の接触は、手付き部分による接触と判断し、第1の接触を誤接触として抽出する。また、抽出設定記憶部182は、手付き部分のサイズに係る所定のサイズを記憶し、手付き抽出部160は、接触位置のサイズが、所定のサイズを上回る場合は、手付き部分による接触として抽出する。
The
なお、抽出設定記憶部182は、所定の領域のサイズに代えて、第1の接触の位置と第2の接触の位置との所定の距離を記憶してもよい。この場合、手付き抽出部160は、第1の接触が検出されてから、第2の接触が検知されるまでの時間が所定の期間ΔT以下であって、第1の接触の位置と第2の接触の位置との距離が所定の距離以下の場合、第1の接触を手付きによる接触と判断し、第1の接触を誤接触として抽出する。
The extraction
入力部190は、画像投影装置10に対するユーザからの指示を受け付ける。
The
(2)カメラ
図7を参照してカメラ20の機能構成について説明する。カメラ20は、送受信部210と、撮像部220とを有する。送受信部210は、ネットワーク又はケーブル等を介して画像投影装置10との間でテータの送受信を行う。撮像部220は、画像投影装置10の指示を受けて、スクリーン40を撮影し、撮影データを生成する。撮像部220は、生成された撮影データを、画像投影装置10に送信する。
(2) Camera The functional configuration of the
(3)ライトカーテンモジュール
図7を参照してライトカーテンモジュール30の機能構成について説明する。ライトカーテンモジュール30は、送受信部310と、光射出部320とを有する。送受信部310は、ネットワーク又はケーブル等を介して画像投影装置10との間でデータの送受信を行う。光射出部320は、画像投影装置10の指示を受けて、スクリーン40の面と平行な方向(図1の不可視光射出方向35)に不可視光を射出する。
(3) Light Curtain Module A functional configuration of the
<動作フロー>
図8及び図9を用いて、画像投影装置10の動作フローについて説明する。
<Operation flow>
The operation flow of the
(1)動作フロー(その1)
図8は、第1の実施形態に係る画像投影装置10の動作フローの一例について示す図である。
(1) Operation flow (1)
FIG. 8 is a diagram illustrating an example of an operation flow of the
ステップS801で、画像入力受付部130が、PC等から第1の画像データの入力を受け付けると、投影部120は、第1の画像データをスクリーン40に投影する。なお、入力部190がユーザからの投影指示を受け付けたことに応じて、投影部120が、投影データ記憶部181に記憶されている第1の画像データを投影してもよい。
In step S801, when the image
ステップS802で、機器制御部105は、ライトカーテンモジュール30に、不可視光の射出を指示する。
In step S <b> 802, the
ステップS803で、機器制御部105は、カメラ20に、スクリーン40の撮影を指示する。カメラ20はスクリーン40を撮影し、撮影データを生成する。
In step S803, the
ステップS804で、位置座標算出部150は、カメラ20から撮影データを取得し、スクリーン40へのスタイラス等の接触位置の座標を算出する。
In step S <b> 804, the position coordinate
ステップS805乃至ステップS808で、手付き抽出部160は、位置座標算出部150により算出された接触位置の各々が、スタイラスや指による描画による接触によるものか、手付き部分の接触によるものかの判断を行い、手付き部分により誤接触を抽出する。
In steps S805 to S808, the
ステップS805で、手付き抽出部160は、位置座標算出部150により算出された接触位置が、スクリーン40の規定の領域内の最初の接触(第1の接触)か否かを判断する。第1の接触と判断された場合(ステップS805 Yes)、ステップS806に進む。第1の接触と判断されなかった場合(ステップS805 No)、ステップS809に進む。ここで、スクリーン40の規定の領域内とは、例えば、ライトカーテンモジュール30により不可視光が射出される領域である。
In step S <b> 805, the
ステップS806で、手付き抽出部160は、抽出設定記憶部182を参照し、所定の期間ΔTを特定する。手付き抽出部160は、第1の接触が検出されたから所定の期間ΔTの範囲内に、位置座標算出部150により検出された接触の位置の情報を取得する。
In step S806, the
ステップS807で、手付き抽出部160は、抽出設定記憶部182を参照し、所定の領域のサイズを特定する。そして、手付き抽出部160は、第1の接触が検出されてから所定の期間ΔT内に、所定の領域内に2回目の接触(第2の接触)が、検出されたか否かを判断する。第2の接触が検出された場合(ステップS807 Yes)、ステップS808に進む。第2の接触が検出されなかった場合(ステップS807 No)、ステップS809に進む。
In step S807, the
ここで、所定の領域は、第1の接触を起点とする、所定の距離の範囲内に形成されてもよい。 Here, the predetermined area may be formed within a predetermined distance starting from the first contact.
ステップS808で、手付き抽出部160は、第1の接触に対応する接触位置を描画部170に通知する。また、手付き抽出部160は、通知と共に、第1の接触に対応する接触位置は、手付き部分による誤接触に対応するため、描画しないことを、描画部170に指示する。
In step S808, the
ステップS809で、描画部170は、位置座標算出部150により特定された、スタイラスや指による接触の軌跡の画像データを生成する(第2の画像データ)。第2の画像データを生成するときに、描画部170は、手付き部分に対応する部分として手付き抽出部160から通知された接触位置を、描画しない。つまり、描画部170は、検出された接触の位置の各々から手付き部分による接触位置(誤接触位置)を除く、接触の位置の軌跡に対応する画像データを生成する。
In step S809, the
ステップS810で、画像編集部140は、第1の画像データと第2の画像データとを合成した、第3の画像データを生成する。
In step S810, the
ステップS811で、投影部120は、第3の画像データを画像編集部140から取得して、スクリーン40に投影する。
In step S811, the
なお、第2の画像データは、予め設定された、色や太さに基づいて生成される。また、スタイラス等による接触が消しゴムとしての動作することが設定されている場合、軌跡に対応する部分に生成されている画像が消去される。 The second image data is generated based on a preset color and thickness. Further, when the contact with the stylus or the like is set to operate as an eraser, the image generated in the portion corresponding to the locus is erased.
なお、ステップS806及びステップS807において、入力部190が、所定の期間ΔT、及び所定の領域(所定の距離)を、ユーザから受け付け、画像投影装置10に設定している場合、手付き抽出部160は、ユーザにより設定された所定の期間ΔTを用いて、第2の接触を検出する。所定の期間ΔTが、ユーザにより設定されていない場合は、画像投影装置10に設定されている所定の期間ΔTのパラメータのデフォルト値を用いて、第2の接触を検出する。
In step S806 and step S807, when the
動作フロー(その2)
図9は、第1の実施形態に係る画像投影装置10の動作フローの一例について示す図である。図9の動作フローでは、手付き抽出部160が、第1の接触位置のサイズが所定のサイズか否かを判断し、所定のサイズを上回る場合、手付き部分による接触と判断し、誤接触として抽出することを特徴としている。
Operation flow (2)
FIG. 9 is a diagram illustrating an example of an operation flow of the
ステップS901乃至ステップS907については、ステップS801乃至ステップS807と同じであるため、説明を省略する。 Since steps S901 to S907 are the same as steps S801 to S807, description thereof will be omitted.
ステップS908で、手付き抽出部160は、抽出設定記憶部182を参照し、手付き部分に係る所定のサイズを特定する。そして、第1の接触のサイズが、所定のサイズを上回るか否か判断する。
In step S908, the hand-held
所定のサイズを上回る場合(ステップS908 Yes)、ステップS909に進む。一方、所定のサイズ以下の場合(ステップS908 No)、ステップS910に進む。 If it exceeds the predetermined size (step S908 Yes), the process proceeds to step S909. On the other hand, if it is equal to or smaller than the predetermined size (No in step S908), the process proceeds to step S910.
ステップS909乃至ステップS912は、ステップS808乃至ステップS811と同じであるため、説明を省略する。 Steps S909 to S912 are the same as steps S808 to S811, and a description thereof will be omitted.
なお、ステップS908において、入力部190が、所定のサイズを、ユーザから受け付け、画像投影装置10に設定している場合、手付き抽出部160は、ユーザにより設定された所定のサイズを用いて、第2の接触を検出する。所定のサイズが、ユーザにより設定されていない場合は、画像投影装置10に設定されている所定のサイズのパラメータのデフォルト値を用いて、第2の接触を検出する。
In step S908, when the
[第2の実施形態]
次に、第2の実施形態について説明する。第1の実施形態と共通する部分については、説明を省略し、異なる部分についてのみ説明する。
[Second Embodiment]
Next, a second embodiment will be described. Description of parts common to the first embodiment will be omitted, and only different parts will be described.
<システム構成>
第2の実施形態に係る画像投影システム1は、画像投影装置10、カメラ20、ライトカーテンモジュール30、及び外部機器50を有する。ここで、外部機器50はPC等である。
<System configuration>
The
第2の実施形態では、画像投影装置10が、外部機器50から受信した画像データをスクリーン40に投影し、投影された画像データに対する接触を検出し、ユーザによる所定の操作と認識することを特徴としている。
In the second embodiment, the
外部機器50は、例えば、画像投影装置10と、映像入力用のケーブル及び操作信号の送受信用のケーブルとにより接続される。操作信号の送受信用のケーブルは、例えば、USBケーブルにより実現される。
The
画像投影装置10は、外部機器50から画像データの入力を受け付け、画像データをスクリーン40に投影する。画像投影装置10は、第1の実施形態と同様の方法を用いて、スクリーン40上に投影された画像データへの接触を検出し、接触内容に対応する操作情報を生成し、生成された操作情報を、外部機器50に送信する。
The
外部機器50は、受信した操作情報に対する操作を画像データに対して実行する。ここで、操作情報とは、画像データに対する、クリック操作、タップ操作、及びドラッグ操作等である。
The
なお、画像投影装置10と、外部機器50とは、無線LAN等により接続されてもよい。
The
<動作シーケンス>
図10を用いて、第2の実施形態に係る動作シーケンスについて説明する。
<Operation sequence>
The operation sequence according to the second embodiment will be described with reference to FIG.
ステップS1001で、外部機器50は、画像データを、画像投影装置10に入力すると共に、画像データの投影を指示する。
In step S <b> 1001, the
ステップS1002乃至ステップS1008の手順については、ステップS201乃至ステップS207の手順と同様であるため、説明を省略する。 The procedure from step S1002 to step S1008 is the same as the procedure from step S201 to step S207, and a description thereof will be omitted.
ステップS1009で、画像投影装置10は、接触内容に対応する操作情報を生成する。
In step S1009, the
ステップS1010で、画像投影装置10は、操作情報を外部機器50に送信する。
In step S <b> 1010, the
ステップS1011で、外部機器50は、操作情報に対する操作を、画像データに実行し、画像データを更新する。ここで、画像データは、例えば、外部機器50の画面に表示されているアプリケーションのウィンドウである。
In step S1011, the
ステップS1012で、外部機器50は、更新された画像データを画像投影装置10に送信する。
In step S <b> 1012, the
ステップS1013で、画像投影装置10は、更新された画像データをスクリーン40に投影する。
In step S <b> 1013, the
<機能構成>
図11を用いて、第2の実施形態に係る画像投影システム1の機能構成について説明する。
<Functional configuration>
The functional configuration of the
(1)画像投影装置
画像投影装置10は、機器制御部105、送受信部110、投影部120、画像入力受付部130、画像編集部140、位置座標算出部150、手付き抽出部160、描画部170、情報記憶部180、入力部190、及び操作情報変換部195を有する。
(1) Image Projecting Device The
機器制御部105は、画像投影装置10を、描画モード、及び操作モードのいずれかのモードで動作させる。
The
画像投影装置10が描画モードで動作している場合、機器制御部105は、位置座標算出部150により接触が検出されたときに、描画部170及び画像編集部140を動作させる。
When the
画像投影装置10が操作モードで動作している場合、機器制御部105は、位置座標算出部150により接触が検出されたときに、操作情報変換部195を動作させる。
When the
操作情報変換部195は、位置座標算出部150が特定したスタイラスや指による接触の軌跡から、投影されている画像データが、ユーザから受け付けた操作を特定する。操作情報変換部195は、特定された操作に対応する操作情報を生成する。操作情報変換部195は、手付き抽出部160から抽出された誤接触の位置の情報を取得し、手付き部分の接触として抽出された接触位置を、操作を特定するのに用いない。ここで、接触の軌跡は、投影されている画像データに対する一以上の接触を基に形成される。生成される操作情報は、例えば、USB HID(USB Human Interface Device)のフォーマットに従って生成される。
The operation
なお、機器制御部105、送受信部110、投影部120、画像入力受付部130、画像編集部140、位置座標算出部150、手付き抽出部160、描画部170、情報記憶部180、及び入力部190は、第1の実施形態と同様の機能を有する。
The
(2)外部機器50
外部機器50は、送受信部510、画像出力部520、及び処理実行部530を有する。
(2)
The
送受信部510は、画像投影装置10との間で各種データの送受信を行う。
The transmission /
画像出力部520は、送受信部510を介して、画像データを、画像投影装置10に送信する。
The
処理実行部530は、受信した操作情報に対応する操作を、画像投影装置10を介して出力している画像データに対して実行する。
The
なお、ライトカーテンモジュール30とカメラ20は、第1の実施形態と同様の機能構成を有する。
The
<動作フロー>
図12を用いて、第2の実施形態に係る動作フローについて説明する。
<Operation flow>
The operation flow according to the second embodiment will be described with reference to FIG.
ステップS1201で、画像入力受付部130が、外部機器50から画像データ(第1の画像データ)の入力を受け付けると、投影部120は、第1の画像データをスクリーン40に投影する。
In step S <b> 1201, when the image
ステップS1202乃至ステップS1208の手順については、ステップS802乃至ステップS808と同じであるため、説明を省略する。 The procedure from step S1202 to step S1208 is the same as that from step S802 to step S808, and the description thereof will be omitted.
ステップS1209で、機器制御部105は、画像投影装置10が操作モードで動作しているか否かの判断を行う。操作モードで動作している場合(ステップS1209 Yes)、ステップS1210に進む。操作モードで動作していない場合、つまり描画モードで動作している場合(ステップS1209 No)、ステップS1212に進む。
In step S1209, the
ステップS1210で、操作情報変換部195は、スタイラスや指による接触の軌跡から、投影されている画像データが、ユーザから受け付けた操作を特定する。なお、この際に、操作情報変換部195は、抽出された誤接触の位置を特定する情報を、手付き抽出部160から取得し、手付き部分の接触として抽出された接触位置を、操作を特定するのに用いない。操作情報変換部195は、特定された操作に対応する操作情報を生成し、外部機器50に送信する。
In step S <b> 1210, the operation
ステップS1211で、画像入力受付部130は、操作情報に対応する処理が実行された画像データ(第4の画像データ)を受信する。
In step S1211, the image
ステップS1212及びステップS1213の手順は、ステップS809及びステップS810と同じであるため、説明を省略する。 Since the procedure of step S1212 and step S1213 is the same as that of step S809 and step S810, description is abbreviate | omitted.
ステップS1214で、投影部120は、画像編集部140から取得した第3の画像データ、又は画像入力受付部130が受信した第4の画像データを投影する。
In step S1214, the
なお、ステップS1207の後に、ステップS908と同様の処理、すなわち、第1の接触のサイズが、所定のサイズを上回るか否かの処理が実行されてもよい。また、第2の実施形態でも、第1の実施形態と同様に、入力部190が、所定の期間ΔT、所定の領域(所定の距離)、及び手付き部分に係る所定のサイズをユーザから受け付けて、画像投影装置10に設定されている場合、手付き抽出部160は、ユーザにより設定された所定の期間ΔT等の設定値を用いて、第2の接触を検出する。一方、所定の期間ΔT等が、ユーザにより設定されていない場合は、画像投影装置10に設定されているパラメータのデフォルト値を用いて、第2の接触を検出する。
Note that after step S1207, the same processing as step S908, that is, whether or not the size of the first contact exceeds a predetermined size may be executed. Also in the second embodiment, as in the first embodiment, the
[その他]
上述した実施形態では、画像投影装置10とカメラ20とは別々の装置で実現されていたが、画像投影装置10にカメラを設け、投影された画像データを撮影してもよい。上述した実施形態を、PCやサーバ等の情報処理装置で実現可能なことは勿論である。
[Others]
In the above-described embodiment, the
また、画像投影装置10とPC等の外部機器50との機能分担は、上述した実施形態に限定されないのは、勿論である。例えば、位置座標算出部150、手付き抽出部160、描画部170、及び操作情報変換部195と同様の機能が、外部機器50に設けられてもよい。
Of course, the division of functions between the
また、上述した実施形態は、画像投影装置10以外にも適用可能である。例えば、電子黒板(Interactive White Board)に、上述した実施形態を適用可能なことは勿論である。
Further, the above-described embodiment can be applied to other than the
位置座標算出部150は、位置特定部の一例である。手付き抽出部160は、抽出部の一例である。画像編集部140及び操作情報変換部195は、生成部の一例である。画像入力受付部130は、受け付け部の一例である。送受信部110は、送信部の一例である。
The position coordinate
上述した実施の形態の機能を実現するソフトウエアのプログラムコードを記録した記憶媒体を、画像投影装置10に供給してもよい。そして、画像投影装置10が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、上述の実施形態が、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は、いずれかの実施の形態を構成することになる。ここで、記憶媒体は、記録媒体または非一時的な記憶媒体である。
A storage medium that records software program codes that implement the functions of the above-described embodiments may be supplied to the
また、コンピュータ装置が読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではない。そのプログラムコードの指示に従って、コンピュータ装置上で動作しているオペレーティングシステム(OS)等が実際の処理の一部または全部を行ってもよい。さらに、その処理によって前述した実施形態の機能が実現されてもよいことは言うまでもない。 The functions of the above-described embodiments are not only realized by executing the program code read by the computer device. An operating system (OS) or the like operating on the computer device may perform part or all of the actual processing in accordance with the instruction of the program code. Furthermore, it goes without saying that the functions of the above-described embodiments may be realized by the processing.
以上、本発明の好ましい実施形態について説明したが、本発明はこうした実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to such embodiment, A various deformation | transformation and substitution can be added in the range which does not deviate from the summary of this invention.
1 画像投影システム
10 画像投影装置
20 カメラ
30 ライトカーテンモジュール
35 不可視光射出方向
40 スクリーン
50 外部機器
105 機器制御部
110 送受信部
120 投影部
130 画像入力受付部
140 画像編集部
150 位置座標算出部
160 抽出部
170 描画部
180 情報記憶部
181 投影データ記憶部
182 抽出設定記憶部
190 入力部
195 操作情報変換部
210 送受信部
220 撮像部
310 送受信部
320 光射出部
510 送受信部
520 画像出力部
530 処理実行部
DESCRIPTION OF
Claims (7)
検出された前記接触の各々の中から、誤接触を抽出する抽出部と、
特定された前記接触の位置の各々から前記誤接触の位置を除く、接触の位置の軌跡を特定し、特定された該軌跡を基に前記操作の内容に応じた情報を生成する生成部と、
を有し、
第1の接触が検出されてから、所定の期間に第2の接触が検出された場合、前記抽出部は、前記第1の接触を前記誤接触として抽出する、情報処理装置。 A position specifying unit that detects a contact for operation on the projected image data and specifies the position of the contact;
An extraction unit for extracting an erroneous contact from each of the detected contacts;
A generation unit that identifies a locus of a contact position, excluding the erroneous contact position from each of the identified contact positions, and generates information according to the content of the operation based on the identified locus;
Have
The information processing apparatus, wherein when the second contact is detected in a predetermined period after the first contact is detected, the extraction unit extracts the first contact as the erroneous contact.
前記入力部が入力を受け付けなかった場合、入力を受け付けなかったパラメータのデフォルト値が設定される、請求項1乃至3のいずれか一項に記載の情報処理装置。 An input unit that receives input of the predetermined period, the predetermined distance, and the predetermined size;
The information processing apparatus according to any one of claims 1 to 3, wherein when the input unit does not accept an input, a default value of a parameter that does not accept the input is set.
前記描画データと前記画像データとを合成し、新たに投影する画像データを生成する、画像合成部と、を有する、請求項1乃至4のいずれか一項に記載の情報処理装置。 A drawing data generation unit for generating drawing data corresponding to the locus;
The information processing apparatus according to claim 1, further comprising: an image composition unit configured to compose the drawing data and the image data and generate image data to be newly projected.
前記画像データに対する操作を実行するための情報である操作情報を外部機器に送信する送信部と、を有し、
前記生成部は、前記軌跡を基に、前記画像データに対する操作を特定し、特定された前記操作に対応する操作情報を生成する、請求項1乃至4のいずれか一項に記載の情報処理装置。 A receiving unit for receiving image data input from an external device;
A transmission unit that transmits operation information, which is information for performing an operation on the image data, to an external device;
The information processing apparatus according to claim 1, wherein the generation unit specifies an operation on the image data based on the trajectory, and generates operation information corresponding to the specified operation. .
検出された前記接触の各々の中から、誤接触を抽出するステップと、
特定された前記接触の位置の各々から前記誤接触の位置を除く、接触の位置の軌跡を特定し、特定された該軌跡を基に前記操作の内容に応じた情報を生成するステップと、を情報処理装置に実行させるプログラムであって、
第1の接触が検出されてから、所定の期間に第2の接触が検出された場合、前記第1の接触を前記誤接触として抽出される、プログラム。 Detecting a contact for operation on the projected image data and identifying the position of the contact;
Extracting false contacts from each of the detected contacts;
Identifying the locus of the contact position, excluding the erroneous contact position from each of the identified contact positions, and generating information according to the content of the operation based on the identified locus; and A program to be executed by an information processing apparatus,
A program in which, when a second contact is detected in a predetermined period after the first contact is detected, the first contact is extracted as the erroneous contact.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016047962A JP2017162334A (en) | 2016-03-11 | 2016-03-11 | Information processing device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016047962A JP2017162334A (en) | 2016-03-11 | 2016-03-11 | Information processing device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017162334A true JP2017162334A (en) | 2017-09-14 |
Family
ID=59857187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016047962A Pending JP2017162334A (en) | 2016-03-11 | 2016-03-11 | Information processing device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017162334A (en) |
-
2016
- 2016-03-11 JP JP2016047962A patent/JP2017162334A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10277544B2 (en) | Information processing apparatus which cooperate with other apparatus, and method for controlling the same | |
US9830023B2 (en) | Image display apparatus and method of controlling image display apparatus | |
JP6340958B2 (en) | Projector apparatus, interactive system, and interactive control method | |
WO2006085580A1 (en) | Pointer light tracking method, program, and recording medium thereof | |
US10276133B2 (en) | Projector and display control method for displaying split images | |
CN102194136A (en) | Information recognition system and its control method | |
US20150261385A1 (en) | Picture signal output apparatus, picture signal output method, program, and display system | |
JP6540367B2 (en) | Display control apparatus, communication terminal, communication system, display control method, and program | |
JP2011013396A (en) | Projector, image projection system and image projection method | |
JP6273671B2 (en) | Projector, display system, and projector control method | |
JP2010272078A (en) | System, and control unit of electronic information board, and cursor control method | |
CN109542218B (en) | Mobile terminal, human-computer interaction system and method | |
JP2017162334A (en) | Information processing device, and program | |
JP2010015032A (en) | Projector, control method thereof, and image projection display system | |
JP6358058B2 (en) | Display device, display method, and display system | |
JP2015149648A (en) | Image projection device, image projection system, and control method of image projection device | |
JP2015156167A (en) | Image projection device, control method of image projection device, and control program of image projection device | |
JP7455764B2 (en) | Shared display annotation system using mobile devices | |
JP6145963B2 (en) | Projector, display system, and projector control method | |
JP2017107084A (en) | Image display system | |
JP2017092849A (en) | Image display system | |
JP6707945B2 (en) | Display device and display device control method | |
KR101386840B1 (en) | Dual interactive method for ir light source and image recognition and thereof method | |
JP2015219547A (en) | Device control system, device control program, and device control apparatus | |
JP6183084B2 (en) | Image projection apparatus and image projection method |