JP2016038876A - Image input device, image output device, and image input/output system - Google Patents

Image input device, image output device, and image input/output system Download PDF

Info

Publication number
JP2016038876A
JP2016038876A JP2014163878A JP2014163878A JP2016038876A JP 2016038876 A JP2016038876 A JP 2016038876A JP 2014163878 A JP2014163878 A JP 2014163878A JP 2014163878 A JP2014163878 A JP 2014163878A JP 2016038876 A JP2016038876 A JP 2016038876A
Authority
JP
Japan
Prior art keywords
image
input
information
input area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014163878A
Other languages
Japanese (ja)
Other versions
JP2016038876A5 (en
Inventor
駿介 原
Shunsuke Hara
駿介 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014163878A priority Critical patent/JP2016038876A/en
Publication of JP2016038876A publication Critical patent/JP2016038876A/en
Publication of JP2016038876A5 publication Critical patent/JP2016038876A5/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To input an image in freely selected size with high operability on a portable apparatus side, and easily reflect and display the input image on a large screen.SOLUTION: A display device includes: an antenna 11 and a radio communication part 12 that receive information on an image transmitted from an input device and information on an input area; and a CPU 20 that projects, with projection systems 13 to 17, an image having the information on the image arranged in an area according to the information on the input area, of the entire input area, on the basis of the received information on the image and information on the input area.SELECTED DRAWING: Figure 2

Description

本発明は、例えばドローソフトの共有使用に好適な画像入力装置、画像出力装置及び画像入出力システムに関する。   The present invention relates to an image input device, an image output device, and an image input / output system suitable for, for example, shared use of draw software.

プロジェクタ装置に接続し、当該プロジェクタ装置が出射する投影画面上に描画を行なうようなスマートフォン用のアプリケーションプログラムが実用化されている。この種のプログラムでは、スマートフォン側のディスプレイがプロジェクタの投影画像と1対1に対応するものとなっており、スマートフォンのディスプレイ上でタッチ操作により描画操作を行なった場合、ディスプレイにおける描画内容の比率に対応して、プロジェクタの投影画像上でも描画内容が再現される。   Application programs for smartphones that are connected to a projector apparatus and perform drawing on a projection screen emitted from the projector apparatus have been put into practical use. In this type of program, the display on the smartphone side has a one-to-one correspondence with the projected image of the projector. When a drawing operation is performed on the smartphone display by a touch operation, the ratio of the drawing content on the display is set. Correspondingly, the drawing content is reproduced on the projection image of the projector.

また上記アプリケーションプログラムとは別に、大型ディスプレイに直接ペンデバイスで描画を行なうような電子黒板アプリケーションシステムにおいて、縦横方向のスクロールをボタン操作で実現するようにした技術が提案されている(例えば、特許文献1)。   In addition to the application program described above, there has been proposed a technology that realizes vertical and horizontal scrolling by button operation in an electronic blackboard application system that directly draws with a pen device on a large display (for example, Patent Documents). 1).

特開2002−268617号公報JP 2002-268617 A

上述した一般的なスマートフォン用のアプリケーションプログラムでは、プロジェクタ装置の投影画面とスマートフォンのディスプレイでの描画範囲とが1対1に対応するため、例えばプロジェクタ装置の投影画面に対して細かな多数の文字列を手書きで入力しようとした場合、絶対的な投影/入力面積の相違があるために、スマートフォンのディスプレイ上で手指により非常に細かな筆記動作を行なわなくてはならず、入力できる文字の大きさに限界がある。   In the above-described general smartphone application program, the projection screen of the projector device and the drawing range on the display of the smartphone correspond to each other on a one-to-one basis. When you try to input a character by hand, there is a difference in absolute projection / input area, so you must perform very fine writing with your fingers on the smartphone display, and the size of characters that can be input. There is a limit.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、大きな画面で表示を行なう装置と、例えば、タッチ入力部及び表示部が一体化したような携帯機器で画像を共有して画像中に任意の画像の入力を行なえるシステムにおいて、携帯機器側での高い操作性により任意の大きさで画像を入力し、入力した画像を大きな画面中に容易に反映して表示させることが可能な画像入力装置、画像出力装置、画像認証システム及びプログラムを提供することにある。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an image on a device that performs display on a large screen and, for example, a portable device in which a touch input unit and a display unit are integrated. In a system that can input any image in the image by sharing the image, input the image in an arbitrary size with high operability on the mobile device side, and easily reflect the input image on the large screen An object of the present invention is to provide an image input device, an image output device, an image authentication system, and a program that can be displayed.

本発明の一態様は、画像の入力領域を表示する表示手段と、上記表示手段で表示する入力領域を指示する指示手段と、上記表示手段で表示する入力領域に対する画像を入力する入力手段と、上記入力手段で入力した画像の情報、及び上記指示手段で指示した入力領域の情報を送信する送信手段と、を備えることを特徴とする。   One aspect of the present invention is a display unit that displays an input area of an image, an instruction unit that instructs an input area to be displayed on the display unit, an input unit that inputs an image for the input area displayed on the display unit, A transmission unit configured to transmit information on an image input by the input unit and information on an input area instructed by the instruction unit.

本発明によれば、大きな画面で表示を行なう装置と、例えば、タッチ入力部及び表示部が一体化したような携帯機器で画像を共有して画像中に任意の画像の入力を行なえるシステムにおいて、携帯機器側での高い操作性により任意の大きさで画像を入力し、入力した画像を大きな画面中に容易に反映して表示させることが可能となる。   According to the present invention, in a system that can display an image on a large screen and, for example, a portable device in which a touch input unit and a display unit are integrated, and can input an arbitrary image in the image. In addition, it is possible to input an image with an arbitrary size due to high operability on the portable device side, and to easily display the input image on a large screen.

本発明の一実施形態に係る画像当システム全体の構成を示す図。1 is a diagram illustrating a configuration of an entire image system according to an embodiment of the present invention. 同実施形態に係るプロジェクタ装置の電子回路の機能構成を示すブロック図。FIG. 2 is a block diagram showing a functional configuration of an electronic circuit of the projector device according to the embodiment. 同実施形態に係るプロジェクタ装置側で実行される共有ドローアプリケーションでの主要な処理の一部を抽出して示すフローチャート。6 is an exemplary flowchart illustrating a part of main processes in a shared draw application executed on the projector device side according to the embodiment. 同実施形態に係るスマートフォンでの入力範囲とスクリーン上に投影される入力範囲の遷移を示す図。The figure which shows the transition of the input range in the smart phone which concerns on the same embodiment, and the input range projected on a screen. 同実施形態に係るスマートフォンでの入力範囲とスクリーン上に投影される入力範囲の遷移を示す図。The figure which shows the transition of the input range in the smart phone which concerns on the same embodiment, and the input range projected on a screen.

以下、本発明をスマートフォンとプロジェクタ装置を用いたドローシステムに適用した場合の一実施形態について図面を参照して詳細に説明する。   Hereinafter, an embodiment in which the present invention is applied to a draw system using a smartphone and a projector device will be described in detail with reference to the drawings.

図1はそのシステム全体の構成を示す図である。同図で、複数、例えば2台のスマートフォンSP1,SP2が、近距離無線通信技術であるBluetooth(登録商標)により、プロジェクタ装置PJと無線接続される。   FIG. 1 is a diagram showing the configuration of the entire system. In the figure, a plurality of, for example, two smartphones SP1 and SP2 are wirelessly connected to the projector device PJ by Bluetooth (registered trademark) which is a short-range wireless communication technology.

これらスマートフォンSP1,SP2及びプロジェクタ装置PJは、それぞれ予めインストールされた共有ドローアプリケーション(プログラム)により、スマートフォンSP1,SP2が画像の入力装置、プロジェクタ装置PJが表示装置として機能し、スマートフォンSP1,SP2でそれぞれのユーザがタッチパネルを手指により描画操作することで画像データが入力され、プロジェクタ装置PJの投影する画像上に当該画像データが反映される。   The smartphones SP1 and SP2 and the projector device PJ respectively function as smartphones SP1 and SP2 as image input devices and the projector device PJ as a display device according to a preinstalled shared draw application (program). The image data is input when the user performs a drawing operation on the touch panel with fingers, and the image data is reflected on the image projected by the projector device PJ.

この図1は、上記共有ドローアプリケーションの初期状態を示す。プロジェクタ装置PJがスクリーンSCに投影する画像は、全体の入力領域を示す矩形の罫線画像となり、その最上左端部にカーソルCが配置されている。   FIG. 1 shows an initial state of the shared draw application. The image projected onto the screen SC by the projector device PJ is a rectangular ruled line image indicating the entire input area, and the cursor C is arranged at the uppermost left end thereof.

このときプロジェクタ装置PJは、スクリーンSCに投影している画像データと全く同じ内容の画像データを、画像サイズを縮小してスマートフォンSP1,SP2へ無線送信しているため、スマートフォンSP1,SP2のディスプレイでは、スクリーンSCと同じ画像が表示されることになる。
なお、スマートフォンSP1,SP2のハードウェア回路の構成自体は、きわめて一般的なものと同様であるものとして、その図示と説明とを省略する。
At this time, since the projector device PJ wirelessly transmits image data having exactly the same content as the image data projected on the screen SC to the smartphones SP1 and SP2 with the image size reduced, the display of the smartphones SP1 and SP2 The same image as the screen SC is displayed.
Note that the hardware circuit configuration of the smartphones SP1 and SP2 is the same as that of a very general one, and illustration and description thereof are omitted.

図2は、上記プロジェクタ装置PJの主として電子回路の機能構成を説明する。同図中、無線通信技術としては例えば上述したようにBluetooth(登録商標)に準拠した近距離無線通信システムに対応し、プロジェクタ装置PJと上記スマートフォンSP1,SP2のペアリング設定が完了しているものとする。上記スマートフォンSP1,SP2に対して無線通信部12からアンテナ11を介して入力領域を示す画像データを送信すると共に、スマートフォンSP1,SP2での描画操作により作成された通信データが、上記アンテナ11を用いて無線通信部12で受信される。無線通信部12は、受信したデータを復調して画像データ及びその他の制御データに分離する。得られた画像データは、後述する画像メモリ24に保存されると共に、バスBを介して投影画像駆動部13に送られる。   FIG. 2 mainly explains the functional configuration of the electronic circuit of the projector device PJ. In the figure, as a wireless communication technology, for example, as described above, it corresponds to a short-range wireless communication system compliant with Bluetooth (registered trademark), and the pairing setting between the projector device PJ and the smartphones SP1 and SP2 has been completed. And The image data indicating the input area is transmitted from the wireless communication unit 12 to the smartphones SP1 and SP2 via the antenna 11, and communication data created by a drawing operation on the smartphones SP1 and SP2 uses the antenna 11. And received by the wireless communication unit 12. The wireless communication unit 12 demodulates the received data and separates it into image data and other control data. The obtained image data is stored in an image memory 24 described later, and is sent to the projection image drive unit 13 via the bus B.

投影画像駆動部13は、送られてきた画像データに応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、表示素子であるマイクロミラー素子14を表示駆動する。   The projection image drive unit 13 multiplies a frame rate according to a predetermined format, for example, 120 [frames / second], the number of color component divisions, and the number of display gradations according to the transmitted image data. The micromirror element 14 that is a display element is driven to display by high-speed time-division driving.

このマイクロミラー素子14は、アレイ状に配列された複数個、例えば横1600個×縦1200個の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。   The micromirror element 14 is reflected by performing a display operation by individually turning on / off each tilt angle of a plurality of micromirrors arranged in an array, for example, 1600 horizontal x 1200 vertical, at high speed. An optical image is formed by light.

一方で、光源部15から時分割でR,G,Bの原色光が循環的に出射される。光源部15は、半導体発光素子であるLEDを有し、R,G,Bの原色光を時分割で繰返し出射する。光源部15が有するLEDは、広義でのLEDとして、LD(半導体レーザ)や有機EL素子を含むものとしても良い。   On the other hand, R, G, and B primary color lights are emitted cyclically from the light source unit 15 in a time-sharing manner. The light source unit 15 includes an LED which is a semiconductor light emitting element, and repeatedly emits R, G, and B primary color lights in a time-sharing manner. The LED included in the light source unit 15 may include an LD (semiconductor laser) or an organic EL element as an LED in a broad sense.

また、LEDから出射された光を蛍光体に照射することで励起される、元の光とは波長が異なる原色光を用いるものとしても良い。この光源部15からの原色光が、ミラー16で全反射して上記マイクロミラー素子14に照射される。   Moreover, it is good also as what uses the primary color light from which a wavelength differs from the original light excited by irradiating the light radiate | emitted from LED to a fluorescent substance. The primary color light from the light source unit 15 is totally reflected by the mirror 16 and applied to the micromirror element 14.

そして、マイクロミラー素子14での反射光で光像が形成され、形成された光像が投影レンズ部17を介して、上記スクリーンSCに投影される。   Then, an optical image is formed by the reflected light from the micromirror element 14, and the formed optical image is projected onto the screen SC via the projection lens unit 17.

また当該共有ドローアプリケーションで使用する効果音等の音声データが、バスBを介して音声処理部18へ送信される。この音声処理部18は、例えばPCM音源などの音源回路を有し、送られてきた音声データに基づいて当該アプリケーションにおけるビープ音等の音声信号を再生して、スピーカ部19L,19Rより放音させる。   Also, sound data such as sound effects used in the shared draw application is transmitted to the sound processing unit 18 via the bus B. The sound processing unit 18 includes a sound source circuit such as a PCM sound source, and reproduces a sound signal such as a beep sound in the application based on the transmitted sound data, and emits sound from the speaker units 19L and 19R. .

上記各回路の動作すべてをCPU20が制御する。このCPU20は、メインメモリ21及びプログラムメモリ22と直接接続される。メインメモリ21は、例えばSRAMで構成され、CPU20のワークメモリとして機能する。プログラムメモリ22は、電気的書換可能な不揮発性メモリ、例えばフラッシュROMで構成され、上記共有ドローアプリを含んでCPU20が実行する動作プログラムや各種定型データ等を記憶する。   The CPU 20 controls all the operations of the above circuits. The CPU 20 is directly connected to the main memory 21 and the program memory 22. The main memory 21 is composed of, for example, an SRAM and functions as a work memory for the CPU 20. The program memory 22 is configured by an electrically rewritable nonvolatile memory such as a flash ROM, and stores an operation program executed by the CPU 20 including the shared draw application, various fixed data, and the like.

CPU20は、上記プログラムメモリ22に記憶されているプログラムや定型データ等を読出し、メインメモリ21に展開して記憶させた上で当該プログラムを実行することにより、このプロジェクタ装置PJを統括して制御する。   The CPU 20 controls the projector device PJ in an integrated manner by reading out the program, fixed data, and the like stored in the program memory 22, developing and storing them in the main memory 21, and executing the program. .

上記CPU20は、操作部23からの操作信号に応じて各種投影動作を実行する。この操作部23は、プロジェクタ装置PJの本体に備えるキー入力部、及びこのプロジェクタ装置PJの図示しないリモートコントローラとその操作信号を受信する受信部とを含み、操作に応じたキー操作信号を直接上記CPU20へ送出する。   The CPU 20 executes various projection operations in response to operation signals from the operation unit 23. The operation unit 23 includes a key input unit provided in the main body of the projector device PJ, a remote controller (not shown) of the projector device PJ, and a reception unit that receives the operation signal. Send to CPU20.

上記CPU20はさらに、上記バスBを介して画像メモリ24、入力部25と接続される。
上記画像メモリ24は、この共有ドローアプリケーションでの入力領域を示す画像データ、上記スマートフォンSP1,SP2での描画操作により作成された画像データ等を記憶し、必要により上記投影画像駆動部13に読出す。
入力部25は、ここでは図示しない外部機器から有線接続により入力された画像データ等を入力し、必要によりA/D変換、スケーリング等の処理を実行して、得た画像データを上記投影画像駆動部13へ出力する。
The CPU 20 is further connected to the image memory 24 and the input unit 25 via the bus B.
The image memory 24 stores image data indicating an input area in the shared draw application, image data created by drawing operations on the smartphones SP1 and SP2, and the like, and reads them to the projection image drive unit 13 as necessary. .
The input unit 25 inputs image data or the like input from a non-illustrated external device by wire connection here, executes processing such as A / D conversion and scaling as necessary, and drives the obtained image data to the projection image drive To the unit 13.

次に上記実施形態の動作について説明する。
本実施形態においては、入力装置であるスマートフォンSP1,SP2がディスプレイと一体化されたタッチパネルでのタッチ操作の検出のみを行ない、検出された座標値列情報は逐次プロジェクタ装置PJ側へ送信する。
Next, the operation of the above embodiment will be described.
In the present embodiment, the smartphones SP1 and SP2 that are input devices only detect a touch operation on a touch panel integrated with a display, and sequentially transmit the detected coordinate value string information to the projector device PJ side.

なおスマートフォンSP1,SP2は、上記タッチパネルにおいて複数の手指により同時にタッチ操作するマルチタッチ操作に対応しているものとする。   Note that the smartphones SP1 and SP2 correspond to a multi-touch operation in which a touch operation is simultaneously performed with a plurality of fingers on the touch panel.

プロジェクタ装置PJでは、スマートフォンSP1,SP2でのタッチ操作に応じてスマートフォンSP1,SP2で表示させる入力領域に関する処理、及び描画に関する処理等を統括して実行し、スクリーンSCでの投影画像に描画内容を反映させる一方で、スマートフォンSP1,SP2にそれぞれ入力領域における描画内容等を反映した画像データを作成して送信し、それらのディスプレイで表示させるものとする。   In the projector device PJ, processing related to the input area displayed on the smartphones SP1 and SP2 and processing related to drawing are performed in an integrated manner in response to touch operations on the smartphones SP1 and SP2, and the drawing contents are displayed on the projection image on the screen SC. On the other hand, image data reflecting drawing contents and the like in the input area is created and transmitted to the smartphones SP1 and SP2, respectively, and displayed on those displays.

図3は、プロジェクタ装置PJにおいてCPU20が実行する、共有ドローアプリケーションでの主要な処理の一部を抽出して示すものである。その当初にCPU20は、一定周期でアンテナ11及び無線通信部12を介してスマートフォンSP1,SP2側からタッチ操作の座標値列情報を取得する(ステップS101)。そして、取得した座標値列情報の内容から、2本指の操作によるピンチイン/アウト操作であるか否か(ステップS102)、2本指のスワイプ操作であるか否か(ステップS103)、1本指のスワイプ操作であるか否か(ステップS104)を順次判断し、それらのいずれでもないと判断した場合には、当該タッチ操作を無効化して、再び上記ステップS101からの処理に戻る。   FIG. 3 shows an extracted part of main processes in the shared draw application executed by the CPU 20 in the projector apparatus PJ. Initially, the CPU 20 acquires coordinate value string information of the touch operation from the smartphones SP1 and SP2 via the antenna 11 and the wireless communication unit 12 at a fixed period (step S101). Then, from the content of the acquired coordinate value string information, whether or not the operation is a pinch-in / out operation by a two-finger operation (step S102), whether or not the operation is a two-finger swipe operation (step S103), one It is sequentially determined whether or not it is a finger swipe operation (step S104), and when it is determined that it is neither of them, the touch operation is invalidated and the process returns to step S101 again.

こうして上記ステップS101〜S104の処理を繰返し実行する過程で、スマートフォンSP1,SP2でのいずれかのタッチ操作がなされるのを待機する。   Thus, in the process of repeatedly executing the processes of steps S101 to S104, the process waits for any touch operation on the smartphones SP1 and SP2.

図4(A)は、上記図1でも示した、上記共有ドローアプリケーションの初期状態を示す。プロジェクタ装置PJがスクリーンSCに投影する画像において、全体の入力領域を示す矩形の罫線画像となり、その最上左端部にカーソルCが配置されている。   FIG. 4A shows an initial state of the shared draw application shown in FIG. In the image projected by the projector device PJ onto the screen SC, a rectangular ruled line image indicating the entire input area is formed, and the cursor C is arranged at the uppermost left end portion thereof.

このときスマートフォンSP1でも、プロジェクタ装置PJからの画像データを受信することで、上記スクリーンSCと同じ画像が表示されている。   At this time, the smartphone SP1 also displays the same image as the screen SC by receiving the image data from the projector device PJ.

ここで例えばスマートフォンSP1のユーザが、タッチパネルによりディスプレイの一部を拡大させるような2本指でのピンチアウト操作(タッチ操作位置が互いに離れるような操作)を行なった場合、プロジェクタ装置PJでは上記ステップS102において当該操作があったことを判断し、その操作量、すなわち操作当初の2本の手指の各座標位置と、操作終了時の2本の手指の各座標位置とから、縮小/拡大率を算出する(ステップS105)。   Here, for example, when the user of the smartphone SP1 performs a two-finger pinch-out operation (an operation in which the touch operation positions are separated from each other) that enlarges a part of the display using the touch panel, the projector device PJ performs the above steps. In S102, it is determined that the operation has been performed, and the reduction / enlargement ratio is calculated from the operation amount, that is, the coordinate positions of the two fingers at the beginning of the operation and the coordinate positions of the two fingers at the end of the operation. Calculate (step S105).

この場合、ピンチアウト操作であり、2本の手指を広げるように操作されたことから、その操作ストロークの比率により拡大率を算出する。   In this case, since it is a pinch-out operation and the operation is performed to spread two fingers, the enlargement ratio is calculated based on the ratio of the operation strokes.

併せてプロジェクタ装置PJのCPU20は、操作当初の2本の手指の中心座標により、縮小/拡大の中心となる位置を特定した上で、上記縮小/拡大率を勘案して、縮小/拡大後にスマートフォンSP1,SP2で表示させる入力範囲を算出する(ステップS106)。   At the same time, the CPU 20 of the projector device PJ specifies the position that becomes the center of reduction / enlargement based on the center coordinates of the two fingers at the beginning of the operation, and takes the above reduction / enlargement ratio into consideration and then reduces the smartphone after reduction / enlargement The input range to be displayed at SP1 and SP2 is calculated (step S106).

例えば上記スマートフォンSP1で入力範囲の左上端近傍で2本の手指によるピンチアウト操作がなされた場合、CPU20では図4(B)に示すように、スクリーンSCに投影する画像中で、それまでのカーソルCに代えて、投影画像中の左上端に上記ピンチアウト操作での操作量に対応したスマートフォンSP1での入力範囲AR1を例えば矩形の破線範囲が点滅するように識別して投影させる(ステップS107)。   For example, when the smartphone SP1 performs a pinch-out operation with two fingers near the upper left end of the input range, the CPU 20 moves the cursor up to that point in the image projected on the screen SC as shown in FIG. Instead of C, the input range AR1 on the smartphone SP1 corresponding to the operation amount in the pinch-out operation is identified and projected on the upper left corner in the projected image so that, for example, a rectangular broken line range blinks (step S107). .

これと共にCPU20は、上記入力範囲AR1がスマートフォンSP1のディスプレイ全域に渡って表示されるようなあらたな画像データを作成し、スマートフォンSP1に対して送信してそのディスプレイで表示させ(ステップS108)、以上でピンチアウト操作に対する処理を終え、次の操作に備えるべく、再び上記ステップS101からの処理に戻る。   At the same time, the CPU 20 creates new image data such that the input range AR1 is displayed over the entire display area of the smartphone SP1, transmits it to the smartphone SP1, and displays it on the display (step S108). Then, the process for the pinch-out operation is finished, and the process returns to the above-described step S101 again to prepare for the next operation.

その後、スマートフォンSP1において、タッチパネルによりディスプレイを一方向になぞるような2本指でのスワイプ操作(タッチ操作位置が平行に移動するような操作)を行なった場合、プロジェクタ装置PJでは上記ステップS103において当該操作があったことを判断し、その操作量、すなわち操作当初の2本の手指の各座標位置と、操作終了時の2本の手指の各座標位置とから、移動の方向と量と算出する(ステップS109)。   Thereafter, when the smartphone SP1 performs a two-finger swipe operation (an operation in which the touch operation position moves in parallel) such that the display is traced in one direction on the touch panel, the projector device PJ performs the operation in step S103. It is determined that there has been an operation, and the direction and amount of movement are calculated from the operation amount, that is, the coordinate positions of the two fingers at the beginning of the operation and the coordinate positions of the two fingers at the end of the operation. (Step S109).

そして、算出した移動の方向と量に応じて、全体の入力領域中における上記入力範囲AR1の移動位置を算出する(ステップS110)。   Then, the movement position of the input range AR1 in the entire input area is calculated according to the calculated direction and amount of movement (step S110).

例えば上記図4(B)の状態から、スマートフォンSP1で2本の手指による右下方向へのスワイプ操作がなされた場合、CPU20では図4(C)に示すように、スクリーンSCに投影する画像中で、入力範囲AR1の位置をそれまでの位置から右下方に移動させる(ステップS111)。   For example, from the state of FIG. 4B, when the smartphone SP1 performs a swipe operation in the lower right direction with two fingers, the CPU 20 displays an image projected on the screen SC as shown in FIG. 4C. Thus, the position of the input range AR1 is moved to the lower right from the previous position (step S111).

これと共にCPU20は、移動したあらたな上記入力範囲AR1の画像データを作成し、スマートフォンSP1に送信してそのディスプレイで表示させ(ステップS112)、以上で2本の手指によるスワイプ操作に対する処理を終え、次の操作に備えるべく、再び上記ステップS101からの処理に戻る。   At the same time, the CPU 20 creates image data of the new input range AR1 that has been moved, transmits it to the smartphone SP1 and displays it on the display (step S112), and the processing for the swipe operation with two fingers is completed. In order to prepare for the next operation, the process returns to step S101.

さらにスマートフォンSP1において、タッチパネルにより表示されている範囲内で任意に描画するような1本指でのスワイプ操作(タッチ操作位置が任意に移動するような操作)を行なった場合、プロジェクタ装置PJでは上記ステップS104において当該操作があったことを判断し、その操作による座標値列の情報を取得する(ステップS113)。   Furthermore, when the smartphone SP1 performs a swipe operation with one finger (an operation in which the touch operation position is arbitrarily moved) such that an arbitrary drawing is performed within the range displayed by the touch panel, the projector device PJ In step S104, it is determined that the operation has been performed, and information on a coordinate value string obtained by the operation is acquired (step S113).

そして、取得した座標値列の情報と、その時点で設定されている描画の線の種類、線の太さ、色等の描画条件情報とに応じて、入力範囲AR1内に投影する描画データを作成する(ステップS114)。   Then, the drawing data to be projected in the input range AR1 according to the information of the acquired coordinate value sequence and the drawing condition information such as the type of drawing line, the thickness of the line, and the color set at that time point. Create (step S114).

例えば上記図4(C)の状態から、スマートフォンSP1で1本の手指によるひらがな「あ」を書くようなスワイプ操作がなされた場合、CPU20では図5(A)に示すように、スクリーンSCに投影する画像中で、入力範囲AR1内に操作に応じた描画データ「あ」を投影させる(ステップS115)。   For example, from the state shown in FIG. 4C, when the smartphone SP1 performs a swipe operation such as writing hiragana “a” with one finger, the CPU 20 projects the image onto the screen SC as shown in FIG. 5A. In the image to be drawn, the drawing data “A” corresponding to the operation is projected within the input range AR1 (step S115).

これと共にCPU20は、描画された内容を反映したあらたな上記入力範囲AR1の画像データを作成し、スマートフォンSP1に送信してそのディスプレイで表示させ(ステップS116)、以上で1本の手指によるスワイプ操作に対する描画に対する処理を終えて、次の操作に備えるべく、再び上記ステップS101からの処理に戻る。   At the same time, the CPU 20 creates new image data of the input range AR1 reflecting the drawn contents, transmits the image data to the smartphone SP1 and displays it on the display (step S116), and the swipe operation with one finger as described above. After finishing the process for drawing, the process returns to step S101 again to prepare for the next operation.

以上は、主としてスマートフォンSP1側でのタッチ操作を具体的な例として説明したが、一方のスマートフォンSP2においても同様のタッチ操作に応じた処理が可能であることは言うまでもない。   The touch operation on the smartphone SP1 side has been mainly described above as a specific example, but it goes without saying that the same touch operation can be performed on one smartphone SP2.

図5(B)は、スマートフォンSP2でのタッチ操作により、その入力範囲AR2を全体の入力範囲の右下方に移動させた状態で、その入力範囲AR2内に操作に応じた描画データ「ア」を投影させた状態を例示する。   FIG. 5B shows the drawing data “A” corresponding to the operation in the input range AR2 in a state where the input range AR2 is moved to the lower right of the entire input range by the touch operation on the smartphone SP2. The projected state is illustrated.

各入力範囲AR1,AR2の大きさや位置はそれぞれのスマートフォンSP1,SP2により任意に操作が可能であり、また入力範囲AR1,AR2が全体の入力範囲中で重複することも考えられる。   The sizes and positions of the input ranges AR1 and AR2 can be arbitrarily operated by the respective smartphones SP1 and SP2, and the input ranges AR1 and AR2 may overlap in the entire input range.

以上詳述した如く本実施形態によれば、大きな画面で表示を行なうプロジェクタ装置PJと、タッチ入力部及び表示部が一体化したスマートフォンSP1,SP2で画像を共有して画像中に任意の画像の入力を行なえるシステムを構築し、スマートフォンSP1,SP2側での高い操作性により任意の大きさで画像を入力し、入力した画像を大きな画面中に容易に反映して表示させることが可能となる。   As described above in detail, according to the present embodiment, an image is shared between the projector device PJ that displays a large screen and the smartphones SP1 and SP2 in which the touch input unit and the display unit are integrated. It is possible to construct a system that can perform input, input an image with an arbitrary size by the high operability on the smartphones SP1 and SP2, and easily display the input image on a large screen. .

また上記実施形態では、描画のためのスワイプ操作とは異なる形態、例えばピンチイン/アウト操作により入力範囲の縮小/拡大を指示するものとしたので、日常スマートフォンなどのタッチパネルを用いた情報端末を使用している者にとってきわめて自然な操作により入力範囲の縮小/拡大を実現できる。   In the above embodiment, since the input range reduction / enlargement is instructed by a form different from the swipe operation for drawing, for example, a pinch-in / out operation, an information terminal using a touch panel such as a daily smartphone is used. The input range can be reduced / expanded by a very natural operation.

さらに上記実施形態では、描画のためのスワイプ操作とは異なる形態、例えば2本指でのスワイプ操作により入力範囲の移動を指示するものとしたので、これも日常スマートフォンなどのタッチパネルを用いた情報端末を使用している者にとってきわめて自然な操作により入力範囲の移動を実現できる。   Furthermore, in the above embodiment, the movement of the input range is instructed by a form different from the swipe operation for drawing, for example, the swipe operation with two fingers, so this is also an information terminal using a touch panel such as a daily smartphone The movement of the input range can be realized by a very natural operation for the person using the.

また上記実施形態では、スマートフォンSP1,SP2での入力領域をプロジェクタ装置PJがスクリーンSCに投影する画像中に入力範囲AR1,AR2として重ねて投影させるものとしたので、スマートフォンSP1,SP2のユーザは全体の入力領域において自装置で表示されている入力領域が占める位置、大きさを投影内容から適切に判断して、描画する内容に活かすことができる。   Moreover, in the said embodiment, since the input area in smart phone SP1, SP2 shall be projected as input range AR1, AR2 in the image which projector apparatus PJ projects on the screen SC, the user of smart phone SP1, SP2 is the whole. In this input area, the position and size occupied by the input area displayed on the own apparatus can be appropriately determined from the projection contents, and can be utilized for the contents to be drawn.

また、特に本実施形態では、複数台、例えば2台のスマートフォンSP1,SP2により1台のプロジェクタ装置PJが投影する画像中に併せて描画を行なえるものとしたので、例えば参加者がスマートフォンやタブレット等の情報端末装置を持ち寄っての会議などで個々の描画内容を共有する大型のディスプレイ上に併せて反映させるなど、使用環境に応じた幅広い用途に適用可能となる。   In particular, in the present embodiment, since a plurality of, for example, two smartphones SP1 and SP2 can perform drawing together in an image projected by one projector device PJ, for example, a participant can use a smartphone or tablet. It can be applied to a wide range of applications according to the usage environment, such as reflecting on the large display that shares the individual drawing contents in a meeting with the information terminal device.

なお、ここでは、2台のスマートフォンSP1,SP2を用いて描画を行なえる共有ドローアプリケーションの例で説明したが、本発明は、3台以上のスマートフォンを用いる場合にも適用できるし、また、1台のスマートフォンのみに対応するドローアプリケーションにも適用できることは言うまでもない。   In addition, although demonstrated here in the example of the shared draw application which can perform drawing using two smart phone SP1, SP2, this invention is applicable also when using three or more smart phones. It goes without saying that it can also be applied to a draw application that supports only one smartphone.

なお上記実施形態では、共有する大きな画像を表示(投影)する機器としてプロジェクタ装置PJを用いた場合を例に取って説明したが、本発明はこれに限るものではない。しかしながら、プロジェクタ装置PJのように大画面で画像を投影することが前提とされる機器を用いることで、複数の画像を混在して画像を共有するようなシステムを構築する上で特に有効となる。   In the above embodiment, the case where the projector apparatus PJ is used as an apparatus for displaying (projecting) a large shared image has been described as an example, but the present invention is not limited to this. However, using a device that is premised on projecting an image on a large screen, such as the projector device PJ, is particularly effective in constructing a system in which a plurality of images are mixed and shared. .

また上記実施形態では、個々のユーザがスマートフォンを入力装置として描画データを入力する場合について説明したが、本発明はこれに限らず、携帯電話端末(フィーチャーフォン)によりテキストデータを画像として入力する場合や、デジタルカメラにより撮影した画像を共有の大きな領域に貼り付けるような使用方法などにも同様に適用可能となる。   Moreover, although the case where each user inputs drawing data by using a smartphone as an input device has been described in the above embodiment, the present invention is not limited to this, and text data is input as an image by a mobile phone terminal (feature phone). In addition, the present invention can be similarly applied to a usage method in which an image photographed by a digital camera is pasted on a large shared area.

同様に、プロジェクタ装置PJとスマートフォンSP1,SP2とを例えば近距離無線通信技術であるBluetooth(登録商標)技術で無線接続する場合について説明したが、Wi−Fi通信で無線接続する場合や、入力装置と表示装置とを接続する手段は無線通信に限らず、例えば広く普及しているイーサネット(登録商標)など有線のLAN接続においても容易に実現可能である。   Similarly, the projector device PJ and the smartphones SP1 and SP2 have been described as being wirelessly connected by, for example, Bluetooth (registered trademark) technology, which is a short-range wireless communication technology. However, when the wireless connection is established by Wi-Fi communication, the input device The means for connecting the display device to the display device is not limited to wireless communication, and can be easily realized by a wired LAN connection such as the widely used Ethernet (registered trademark).

また上記実施形態では、共有ドローアプリケーションとして、入力装置であるスマートフォンSP1,SP2ではタッチ操作と入力結果の部分的な表示のみを行ない、表示装置であるプロジェクタ装置PJ側で、タッチ操作された内容の判断、入力領域の可変設定、描画データの作成等、ほとんどの処理工程を負担するものとしたが、入力装置側で画像データを作成した上で表示装置側へ送信するなど、アプリケーションプログラムを構築する上で各装置の処理負担をどのように振り分けるかは、任意に設定することができるものとする。   In the above embodiment, as the shared draw application, only the touch operation and the partial display of the input result are performed on the smartphones SP1 and SP2 which are the input devices, and the content of the touch operation on the projector device PJ side which is the display device is displayed. Although most of the processing steps such as judgment, variable setting of input area, creation of drawing data, etc. are borne, an application program is constructed such as creating image data on the input device side and sending it to the display device side. It is assumed that how the processing burden of each device is distributed can be arbitrarily set.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
請求項1記載の発明は、画像の入力領域を表示する表示手段と、上記表示手段で表示する入力領域を指示する指示手段と、上記表示手段で表示する入力領域に対する画像を入力する入力手段と、上記入力手段で入力した画像の情報、及び上記指示手段で指示した入力領域の情報を送信する送信手段と、を備えることを特徴とする。
請求項2記載の発明は、上記請求項1記載の発明において、上記入力手段は、上記表示手段で表示する入力領域に対するタッチ操作で描画する画像の情報を入力し、上記指示手段は、上記入力手段でのタッチ操作とは異なる形態のタッチ操作により上記表示手段で表示する入力領域の拡大、縮小及び位置の少なくともいずれかを指示することを特徴とする。
請求項3記載の発明は、上記請求項1記載の発明において、上記入力手段は、上記表示手段で表示する入力領域に対するタッチ操作で描画する画像の情報を入力し、上記入力手段でのタッチ操作とは異なる形態のタッチ操作により上記表示手段で表示する入力領域の移動を指定する指定手段をさらに備えることを特徴とする。
請求項4記載の発明は、上記請求項1乃至3いずれか記載の入力装置と協働する表示装置であって、上記送信手段により送信された画像の情報、及び入力領域の情報を受信する受信手段と、上記受信手段で受信した画像の情報、及び入力領域の情報に基づいて全体の入力領域中の上記入力領域の情報に従った領域に上記画像の情報を配置した画像を表示させる表示制御手段とを備えることを特徴とする。
請求項5記載の発明は、上記請求項4記載の発明において、上記表示制御手段は、上記入力領域の情報に基づき、全体の入力領域中の上記入力領域の範囲を併せて表示させることを特徴とする。
請求項6記載の発明は、上記請求項4または5記載の発明において、上記表示制御手段は、複数の入力装置から受信した画像の情報を区別して表示させることを特徴とする。
請求項7記載の発明は、上記請求項4乃至6いずれか記載の発明において、上記表示制御手段は、全体の入力領域中に上記画像の情報を配置した画像を光像として形成し、装置外部に投影することを特徴とする。
請求項8記載の発明は、画像の入力領域を表示する表示手段、上記表示手段で表示する入力領域を指示する指示手段、上記表示手段で表示する入力領域に対する画像を入力する入力手段、上記入力手段で入力した画像の情報、及び上記指示手段で指示した入力領域の情報を送信する送信手段、を備える入力装置と、上記送信手段により送信された画像の情報、及び位置情報を受信する受信手段、上記受信手段で受信した画像の情報、及び入力領域の情報に基づいて全体の入力領域中の上記入力領域の情報に従った領域に上記画像の情報を配置した画像を表示させる表示制御手段を備える表示装置と、を有することを特徴とする。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
The invention described in claim 1 is a display means for displaying an input area of an image, an instruction means for instructing an input area to be displayed by the display means, and an input means for inputting an image for the input area to be displayed by the display means. And transmitting means for transmitting information on the image input by the input means and information on the input area specified by the instruction means.
According to a second aspect of the present invention, in the first aspect of the present invention, the input means inputs information about an image to be drawn by a touch operation on an input area displayed by the display means, and the instruction means It is characterized in that at least one of enlargement, reduction and position of the input area displayed by the display means is instructed by a touch operation of a form different from the touch operation at the means.
According to a third aspect of the present invention, in the first aspect of the present invention, the input means inputs image information to be drawn by a touch operation on an input area displayed by the display means, and the touch operation by the input means is performed. The display unit further includes a designation unit that designates movement of the input area displayed by the display unit by a touch operation of a different form.
According to a fourth aspect of the present invention, there is provided a display device that cooperates with the input device according to any one of the first to third aspects, wherein the image information and the input area information transmitted by the transmission means are received. And display control for displaying an image in which the information of the image is arranged in an area according to the information of the input area in the entire input area based on the information of the image received by the receiving means and the information of the input area Means.
The invention according to claim 5 is the invention according to claim 4, wherein the display control means also displays the range of the input area in the entire input area based on the information of the input area. And
According to a sixth aspect of the invention, in the invention of the fourth or fifth aspect, the display control means distinguishes and displays image information received from a plurality of input devices.
According to a seventh aspect of the invention, in the invention according to any one of the fourth to sixth aspects, the display control unit forms an image in which the information of the image is arranged in the entire input area as a light image, and It is characterized by projecting on.
According to an eighth aspect of the present invention, there is provided display means for displaying an input area of an image, instruction means for instructing an input area to be displayed by the display means, input means for inputting an image to the input area to be displayed by the display means, and the input An input device comprising: transmission means for transmitting image information inputted by the means and information on the input area designated by the instruction means; and receiving means for receiving image information and position information transmitted by the transmission means Display control means for displaying an image in which the information of the image is arranged in an area according to the information of the input area in the entire input area based on the information of the image received by the receiving means and the information of the input area And a display device provided.

11…アンテナ、
12…無線通信部、
13…投影画像駆動部、
14…マイクロミラー素子、
15…光源部、
16…ミラー、
17…投影レンズ部、
18…音声処理部、
19L,19R…スピーカ部、
20…CPU、
21…メインメモリ、
22…プログラムメモリ、
23…操作部、
24…画像メモリ、
25…入力部、
AR1,AR2…(各スマートフォンの)入力範囲、
B…バス、
PJ…プロジェクタ装置、
SC…スクリーン、
SP1,SP2…スマートフォン。
11 ... Antenna,
12 ... wireless communication part,
13 ... projected image drive unit,
14 ... Micromirror element,
15 ... light source part,
16 ... mirror,
17 ... projection lens part,
18 ... voice processing unit,
19L, 19R ... speaker unit,
20 ... CPU,
21 ... Main memory,
22 ... Program memory,
23 ... operation unit,
24 ... Image memory,
25 ... Input section,
AR1, AR2 ... Input range (for each smartphone)
B ... Bus
PJ ... Projector device,
SC ... Screen,
SP1, SP2 ... Smartphone.

Claims (8)

画像の入力領域を表示する表示手段と、
上記表示手段で表示する入力領域を指示する指示手段と、
上記表示手段で表示する入力領域に対する画像を入力する入力手段と、
上記入力手段で入力した画像の情報、及び上記指示手段で指示した入力領域の情報を送信する送信手段と、
を備えることを特徴とする入力装置。
Display means for displaying an image input area;
Instruction means for indicating an input area to be displayed by the display means;
Input means for inputting an image for an input area to be displayed by the display means;
Transmitting means for transmitting information on the image input by the input means and information on the input area specified by the instruction means;
An input device comprising:
上記入力手段は、上記表示手段で表示する入力領域に対するタッチ操作で描画する画像の情報を入力し、
上記指示手段は、上記入力手段でのタッチ操作とは異なる形態のタッチ操作により上記表示手段で表示する入力領域の拡大、縮小及び位置の少なくともいずれかを指示する
ことを特徴とする請求項1記載の入力装置。
The input means inputs information of an image to be drawn by a touch operation on the input area displayed by the display means,
2. The instruction unit according to claim 1, wherein at least one of enlargement, reduction, and position of an input area displayed on the display unit is instructed by a touch operation different from a touch operation on the input unit. Input device.
上記入力手段は、上記表示手段で表示する入力領域に対するタッチ操作で描画する画像の情報を入力し、
上記入力手段でのタッチ操作とは異なる形態のタッチ操作により上記表示手段で表示する入力領域の移動を指定する指定手段をさらに備える
ことを特徴とする請求項1記載の入力装置。
The input means inputs information of an image to be drawn by a touch operation on the input area displayed by the display means,
The input device according to claim 1, further comprising a designation unit that designates movement of an input area displayed on the display unit by a touch operation of a form different from the touch operation on the input unit.
上記請求項1乃至3いずれか記載の入力装置と協働する表示装置であって、
上記送信手段により送信された画像の情報、及び入力領域の情報を受信する受信手段と、
上記受信手段で受信した画像の情報、及び入力領域の情報に基づいて全体の入力領域中の上記入力領域の情報に従った領域に上記画像の情報を配置した画像を表示させる表示制御手段と
を備えることを特徴とする表示装置。
A display device that cooperates with the input device according to any one of claims 1 to 3,
Receiving means for receiving image information and input area information transmitted by the transmitting means;
Display control means for displaying an image in which the image information is arranged in an area according to the information of the input area in the entire input area based on the information of the image received by the receiving means and the information of the input area; A display device comprising:
上記表示制御手段は、上記入力領域の情報に基づき、全体の入力領域中の上記入力領域の範囲を併せて表示させることを特徴とする請求項4記載の表示装置。   The display device according to claim 4, wherein the display control unit displays the range of the input area in the entire input area based on the information of the input area. 上記表示制御手段は、複数の入力装置から受信した画像の情報を区別して表示させることを特徴とする請求項4または5記載の表示装置。   The display device according to claim 4 or 5, wherein the display control means distinguishes and displays image information received from a plurality of input devices. 上記表示制御手段は、全体の入力領域中に上記画像の情報を配置した画像を光像として形成し、装置外部に投影することを特徴とする請求項4乃至6いずれか記載の表示装置。   7. The display device according to claim 4, wherein the display control unit forms an image in which information of the image is arranged in the entire input area as a light image and projects the image outside the device. 画像の入力領域を表示する表示手段、上記表示手段で表示する入力領域を指示する指示手段、上記表示手段で表示する入力領域に対する画像を入力する入力手段、上記入力手段で入力した画像の情報、及び上記指示手段で指示した入力領域の情報を送信する送信手段、を備える入力装置と、
上記送信手段により送信された画像の情報、及び位置情報を受信する受信手段、上記受信手段で受信した画像の情報、及び入力領域の情報に基づいて全体の入力領域中の上記入力領域の情報に従った領域に上記画像の情報を配置した画像を表示させる表示制御手段を備える表示装置と、
を有することを特徴とする画像入出力システム。
Display means for displaying an input area of an image, instruction means for instructing an input area to be displayed by the display means, input means for inputting an image for the input area to be displayed by the display means, information of an image input by the input means, And an input device comprising: transmission means for transmitting information on the input area instructed by the instruction means;
The information of the input area in the entire input area based on the information of the image received by the receiving means, the information of the image received by the receiving means, and the information of the input area is received. A display device comprising display control means for displaying an image in which the information of the image is arranged in a conforming area;
An image input / output system comprising:
JP2014163878A 2014-08-11 2014-08-11 Image input device, image output device, and image input/output system Pending JP2016038876A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014163878A JP2016038876A (en) 2014-08-11 2014-08-11 Image input device, image output device, and image input/output system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014163878A JP2016038876A (en) 2014-08-11 2014-08-11 Image input device, image output device, and image input/output system

Publications (2)

Publication Number Publication Date
JP2016038876A true JP2016038876A (en) 2016-03-22
JP2016038876A5 JP2016038876A5 (en) 2017-08-10

Family

ID=55529855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014163878A Pending JP2016038876A (en) 2014-08-11 2014-08-11 Image input device, image output device, and image input/output system

Country Status (1)

Country Link
JP (1) JP2016038876A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130019A (en) * 2016-01-20 2017-07-27 パイオニア株式会社 Display system
WO2018139073A1 (en) * 2017-01-24 2018-08-02 シャープ株式会社 Display control device, second display device, method for controlling display control device, and control program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013532872A (en) * 2010-07-26 2013-08-19 アップル インコーポレイテッド Touch input transition
JP2014011808A (en) * 2012-06-29 2014-01-20 Samsung Electronics Co Ltd Method and apparatus for displaying content
JP2014099053A (en) * 2012-11-14 2014-05-29 Murata Mach Ltd Display device, display system, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013532872A (en) * 2010-07-26 2013-08-19 アップル インコーポレイテッド Touch input transition
JP2014011808A (en) * 2012-06-29 2014-01-20 Samsung Electronics Co Ltd Method and apparatus for displaying content
JP2014099053A (en) * 2012-11-14 2014-05-29 Murata Mach Ltd Display device, display system, and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130019A (en) * 2016-01-20 2017-07-27 パイオニア株式会社 Display system
WO2018139073A1 (en) * 2017-01-24 2018-08-02 シャープ株式会社 Display control device, second display device, method for controlling display control device, and control program

Similar Documents

Publication Publication Date Title
US20170142379A1 (en) Image projection system, projector, and control method for image projection system
US20190333479A1 (en) System, apparatus, and method for optimizing viewing experience on an intelligent terminal
EP2897043B1 (en) Display apparatus, display system, and display method
WO2018121193A1 (en) Vr device control method, apparatus, and remote controller
JP6946690B2 (en) Display device, display method and program
CN110018778B (en) Communication apparatus, display apparatus, control method thereof, storage medium, and display system
JP2015158748A (en) Control apparatus, information processing apparatus, control method, information processing method, information processing system and wearable device
EP2824936A1 (en) Projector, projector control method, and recording medium storing projector control program
KR102061867B1 (en) Apparatus for generating image and method thereof
KR101560352B1 (en) Interactive image contents display system using smart table device on large wall surface
JP2016099731A (en) Information processor, information processing system, information processing method and program
US20110296297A1 (en) Display device, display method, and computer-readable non-transitory recording medium encoded with display program
JP2019004243A (en) Display system, display device, and control method of display system
JP2016038876A (en) Image input device, image output device, and image input/output system
TW201413517A (en) Display system and method for controlling display
JP5408175B2 (en) Projection apparatus, projection method, and program
JP6028372B2 (en) Display control apparatus, image processing apparatus, image control method, and program
JP2004120284A (en) Image sharing system, image sharing method, image display equipment, information terminal equipment, and image sharing program
JP6657795B2 (en) Display system, terminal device, and display system control method
JP2015206854A (en) Display system, display device, and display control method
US10855731B2 (en) Information processing apparatus, data processing method thereof, and program
KR20220057388A (en) Terminal for providing virtual augmented reality and control method thereof
JP5944000B2 (en) Image display system, information terminal, information terminal control method and control program
WO2021042622A1 (en) Mind map presentation method and apparatus, storage medium, and electronic device
JP2017054251A (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180828