JP2011043855A - Digital platform device - Google Patents

Digital platform device Download PDF

Info

Publication number
JP2011043855A
JP2011043855A JP2010260014A JP2010260014A JP2011043855A JP 2011043855 A JP2011043855 A JP 2011043855A JP 2010260014 A JP2010260014 A JP 2010260014A JP 2010260014 A JP2010260014 A JP 2010260014A JP 2011043855 A JP2011043855 A JP 2011043855A
Authority
JP
Japan
Prior art keywords
image
camera
image data
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010260014A
Other languages
Japanese (ja)
Other versions
JP5372894B2 (en
Inventor
Osamu Nonaka
修 野中
Kazuhiro Sato
和宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010260014A priority Critical patent/JP5372894B2/en
Publication of JP2011043855A publication Critical patent/JP2011043855A/en
Application granted granted Critical
Publication of JP5372894B2 publication Critical patent/JP5372894B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital platform device capable of achieving the transmission/reception of a signal that is intelligible for a user and is sure by defining equipment placed on a table, a place where data exist and a process of transmitting/receiving a signal to be transmitted and a signal to be received. <P>SOLUTION: Positions of a camera 31 and a printer 35 placed on a screen 15 are detected by a position detection part 23, and the image data are transferred to the printer 35 through a communication part 25 from the camera 31 in response to prescribed instruction operation. When transferring the image data, an image showing the transfer process of the image data is displayed between the position of the camera 31 and the position of the printer 35 on the screen 15. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明はデジタルプラットフォーム装置に関し、より詳細には、画像データをより扱いやすくするためのユーザインターフェースの改良に関する発明である。   The present invention relates to a digital platform device, and more particularly to an improvement in a user interface for making image data easier to handle.

近年、すでにテーブル型ディスプレイとして、プロジェクタを利用したテーブル状のディスプレイに画像データを表示して、複数の人が楽しめる表示手段を提供するテーブル型ディスプレイ装置が提案されている。   In recent years, as a table type display, a table type display device has been proposed in which image data is displayed on a table-like display using a projector to provide display means that can be enjoyed by a plurality of people.

そして、例えば、プロジェクタから投与された光束をミラーで反射して水平設置型のスクリーンの所定領域に投与するテーブル型ディスプレイであって、上記スクリーンを、撓みを少なくするための透明ベース部材と、像を結像する拡散スクリーンとで構成した装置が知られている(例えば、特許文献1参照)。   And, for example, a table-type display that reflects a light beam administered from a projector to a predetermined area of a horizontally installed screen by reflecting it with a mirror, the screen comprising a transparent base member for reducing bending, an image There is known an apparatus composed of a diffusing screen for forming an image (see, for example, Patent Document 1).

特開2004−12712号公報Japanese Patent Laid-Open No. 2004-12712

ところで、テーブル型ディスプレイでは、そのテーブル上に機器を載置することができるが、上記特許文献1に記載の装置では、その点までは言及されていないものであった。したがって、テーブル上に載置された機器から、該機器に収納されている画像データを近傍に表示して、データを簡単に確認できるといった工夫が必要となる。   By the way, in the table type display, an apparatus can be placed on the table. However, in the apparatus described in Patent Document 1, the point is not mentioned up to that point. Therefore, it is necessary to devise such that a device placed on the table can display image data stored in the device in the vicinity and easily check the data.

加えて、従来は、データを授受する場合、送信装置と受信装置との間には、単なる信号線や電波や光通信を行うための空間があるだけで、その送受信の関係が不明瞭なため、ユーザにわかりにくいものとなっていた。   In addition, conventionally, when data is exchanged, there is simply a space for signal lines, radio waves, and optical communication between the transmitting device and the receiving device, and the transmission / reception relationship is unclear. It was difficult for the user to understand.

したがって本発明は、テーブル上に載置される機器やデータの存在する場所、送るべき信号や受信すべき信号の送受信信過程を明確にして、ユーザにわかりやすく確実な信号の送受信をすることができるデジタルプラットフォーム装置を提供することを目的とする。   Therefore, the present invention makes it possible to clearly transmit and receive signals clearly and clearly to the user by clarifying the place where devices and data are placed on the table, the signal transmission and reception processes of signals to be transmitted and received. An object of the present invention is to provide a digital platform device that can be used.

すなわち請求項1に記載の発明は、画像データを送信する送信手段と、上記画像データを受信する受信手段と、上記送信手段及び上記受信手段の位置を検出する位置検出手段と、上記位置検出手段で位置が検出された上記送信手段から上記受信手段に上記画像データを転送制御する制御手段と、上記制御手段によって上記受信手段に転送される上記画像データに対応する画像の転送経過を示す画像を、上記送信手段の位置から上記受信手段の位置の間に表示する表示手段とを具備することを特徴とする。   That is, the invention described in claim 1 is a transmitting means for transmitting image data, a receiving means for receiving the image data, a position detecting means for detecting positions of the transmitting means and the receiving means, and the position detecting means. A control means for controlling transfer of the image data from the transmitting means to which the position is detected to the receiving means, and an image indicating a transfer progress of an image corresponding to the image data transferred to the receiving means by the control means. And display means for displaying between the position of the transmitting means and the position of the receiving means.

本発明によれば、テーブル上に載置される機器やデータの存在する場所、送るべき信号や受信すべき信号の送受信信過程を明確にして、ユーザにわかりやすく確実な信号の送受信をすることができるデジタルプラットフォーム装置を提供することができる。   According to the present invention, it is possible to clearly transmit and receive signals that are easy to understand for the user by clarifying the place where devices and data are placed on the table, the signal to be sent and the signal transmission and reception process to be received, and so on. It is possible to provide a digital platform device capable of

また、面倒な設定を要せず、直感的にデータ操作を行うことができる。   In addition, data operations can be performed intuitively without requiring complicated settings.

本発明の第1の実施形態によるデジタルプラットフォーム装置の構成を示すブロック図である。It is a block diagram which shows the structure of the digital platform apparatus by the 1st Embodiment of this invention. ユーザが図1のデジタルプラットフォーム装置を操作する際の例を示した図である。It is the figure which showed the example at the time of a user operating the digital platform apparatus of FIG. 第1の実施形態によるデジタルプラットフォーム装置のメインの動作を説明するフローチャートである。It is a flowchart explaining the main operation | movement of the digital platform apparatus by 1st Embodiment. 図2の記録領域に作成されるアルバムの例を示した図である。It is the figure which showed the example of the album produced in the recording area of FIG. 第1の実施形態に於けるタッチパネルの構成例を示した図である。It is the figure which showed the structural example of the touchscreen in 1st Embodiment. 第1の実施形態に於ける表示装置部の他の構成例を示した図である。It is the figure which showed the other structural example of the display apparatus part in 1st Embodiment. 本発明の第2の実施形態によるデジタルプラットフォーム装置の構成を示した図である。It is the figure which showed the structure of the digital platform apparatus by the 2nd Embodiment of this invention. 第2の実施形態のデジタルプラットフォーム装置による画像データ表示動作を説明するフローチャートである。It is a flowchart explaining the image data display operation | movement by the digital platform apparatus of 2nd Embodiment. 第2の実施形態によるデジタルプラットフォーム装置に於ける各機器の検出の方法について説明する図である。It is a figure explaining the detection method of each apparatus in the digital platform apparatus by 2nd Embodiment. 図8のフローチャートのステップS21に於けるサブルーチン“カメラ位置検出PC”の動作を説明するフローチャートである。FIG. 9 is a flowchart for explaining an operation of a subroutine “camera position detection P C ” in step S <b> 21 of the flowchart of FIG. 8. 図8のフローチャートのステップS22に於けるサブルーチン“プリンタ位置検出PP”の動作を説明するフローチャートである。FIG. 9 is a flowchart for explaining an operation of a subroutine “printer position detection P P ” in step S <b> 22 of the flowchart of FIG. 8. 本発明の第2の実施形態の変形例で、ストレージ50に蓄積されている画像を、プロジェクタ51によってスクリーン上に表示する例を示した図である。It is the modification of the 2nd Embodiment of this invention, and is the figure which showed the example which displays on the screen by the projector 51 the image accumulate | stored in the storage. スクリーン上に載置される機器の位置検出の他の例を示したもので、(a)は機器としてのカメラの下面部に2次元バーコードを設けた例を示した図、(b)はカメラの下面部にICタグを設けた例を示した図、(c)はカメラの下面部に赤外線通信器を設けた例を示した図である。The other example of the position detection of the apparatus mounted on a screen was shown, (a) is the figure which showed the example which provided the two-dimensional barcode on the lower surface part of the camera as an apparatus, (b) The figure which showed the example which provided the IC tag in the lower surface part of the camera, (c) is the figure which showed the example which provided the infrared communication device in the lower surface part of the camera. 図13(a)に示されるようなバーコードを読み取るタイプのデジタルプラットフォーム装置に於けるカメラの位置検出システムの構成例を示した図である。It is the figure which showed the structural example of the position detection system of the camera in the digital platform apparatus of the type which reads a barcode as shown in Fig.13 (a). 図14に示される構成のカメラの位置検出システムによるバーコード検出の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of barcode detection by the position detection system of the camera of the structure shown by FIG. 本発明の第1及び第2の実施形態の更なる変形例を示すもので、フラットパネルディスプレイを使用して仮想テーブルとして用いた例を示した図である。It is the figure which showed the further modification of the 1st and 2nd embodiment of this invention, and showed the example used as a virtual table using a flat panel display.

以下、図面を参照して本発明に係る撮影装置の実施形態を説明する。   Hereinafter, an embodiment of an imaging device according to the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態によるデジタルプラットフォーム装置の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a digital platform apparatus according to the first embodiment of the present invention.

図1に於いて、テーブル型スクリーン装置10は、表示装置部11と、このテーブル型スクリーン装置10の全体の制御動作を司る制御手段として、マイクロコントローラから成る制御部20と、表示制御部21と、位置検出手段である位置検出部23と、操作判定手段である操作判定部24と、インターフェース手段である通信部25と、記録部26と、プリンタ27とを有して構成されている。上記表示装置部12は、画像を投影するもので投影手段(受信装置、受信手段)としてのプロジェクタ13と、投影像をスクリーン155に導くためのミラー14と、表示手段としてのスクリーン15と、表面センサ部(平面部)として構成されるタッチパネル16と、から構成されている。   In FIG. 1, a table type screen device 10 includes a display device unit 11, a control unit 20 composed of a microcontroller, and a display control unit 21 as control means for controlling the overall control operation of the table type screen device 10. The position detection unit 23 is a position detection unit, the operation determination unit 24 is an operation determination unit, the communication unit 25 is an interface unit, the recording unit 26, and the printer 27. The display device unit 12 projects an image, and includes a projector 13 as a projection unit (reception device, reception unit), a mirror 14 for guiding a projection image to a screen 155, a screen 15 as a display unit, and a surface. It is comprised from the touchscreen 16 comprised as a sensor part (plane part).

上記スクリーン15は、実際には、スクリーン上に力を加えた時にテーブルが撓まないようにするために、所定の厚さをもった透明ベース部と、拡散スクリーン部とから構成されている。このように所定の強度を有するので、タッチパネル16を押しても、また、後述するようにカメラ31等の機器を載置して押す力が加わっても、スクリーン15が撓んだり、壊れたりしないようにしている。   The screen 15 is actually composed of a transparent base portion having a predetermined thickness and a diffusion screen portion so that the table does not bend when a force is applied on the screen. Since it has a predetermined strength as described above, even if the touch panel 16 is pressed or a force such as a camera 31 or the like is placed and pressed as will be described later, the screen 15 does not bend or break. I have to.

タッチパネル16は、スクリーン15上で機器やユーザの指の動きを検出するためのタッチスイッチである。このタッチパネル16は、パネル上を押す力によって電気特性が変化するものが利用される。   The touch panel 16 is a touch switch for detecting movement of a device or a user's finger on the screen 15. As the touch panel 16, a touch panel whose electrical characteristics are changed by a pressing force on the panel is used.

上記表示制御部21は、プロジェクタ13により投影される画像を制御する。位置検出部23は、後述するようにカメラ31が載置されたスクリーン15上の位置を検出し、操作判定部24はタッチパネル16の押されている位置を検出して判定するためのものである。また、通信部25はスクリーン15上に載置されたカメラ31とデータ通信して、カメラ内の画像処理回路によって圧縮保存された画像データを受信するものである。   The display control unit 21 controls an image projected by the projector 13. The position detection unit 23 detects a position on the screen 15 on which the camera 31 is placed as described later, and the operation determination unit 24 detects and determines a position where the touch panel 16 is pressed. . The communication unit 25 performs data communication with the camera 31 placed on the screen 15 and receives image data compressed and stored by an image processing circuit in the camera.

上記記録部26は、上記通信部25を介してカメラ31より取り込まれた画像を記録するためのものであり、例えばアルバム用の記録部を構成している。上記プリンタ27は、取得された画像を用紙等に出力するためのものである。   The recording unit 26 is for recording an image captured from the camera 31 via the communication unit 25, and constitutes a recording unit for an album, for example. The printer 27 is for outputting the acquired image on paper or the like.

このような構成に於いて、ユーザ30が、送信装置として撮影済みで画像データを有するカメラ31をテーブル状スクリーン15の上に載置する。すると、タッチパネル16が反応してカメラ31の位置を検出する。そして、テーブル状スクリーンの通信部25がカメラ31の通信部と通信を開始し、制御部20により、その撮影データが表示装置部11に表示することができるようになっている。   In such a configuration, the user 30 places the camera 31 that has been photographed and has image data as the transmission device on the table-like screen 15. Then, the touch panel 16 reacts to detect the position of the camera 31. Then, the communication unit 25 of the table-like screen starts communication with the communication unit of the camera 31, and the photographing data can be displayed on the display device unit 11 by the control unit 20.

すなわち、表示装置部11に於いて、画像は制御部20によって表示制御部21を介してプロジェクタ13により投影され、ミラー14で反射されたスクリーン15に表示される。ここで、プロジェクタ13により投影される画像は、カメラ31から取得された画像そのものではなく、そのカメラ31の画像を含んだ画像である。加えて、プロジェクタ13から投影された画像は、図2に示されるように、カメラ31の近傍に見えるようにレイアウトされたものとなっている。   That is, in the display device unit 11, the image is projected by the projector 13 via the display control unit 21 by the control unit 20 and displayed on the screen 15 reflected by the mirror 14. Here, the image projected by the projector 13 is not an image acquired from the camera 31 but an image including the image of the camera 31. In addition, the image projected from the projector 13 is laid out so as to be visible in the vicinity of the camera 31, as shown in FIG.

上記スクリーン15上のタッチパネル16は、カメラ31の位置も検出できるようになっていて、カメラ31から取得された画像データに対応した画像は、カメラ31の近くに表示されるように制御される。また、この場合、図2に示されるように、所定の位置にアルバム保存用の記録領域26aが設けられている。ユーザ30が、スクリーン15上の任意の画像33を指でドラッグして、上記記録領域26aの位置に持ってくると、当該画像がアルバム用の記録部26に記録できるようにしている。この際、カメラ31から記録領域26aに、画像33が流れるように移動される。例えば、複数の画像が移動される場合は、スライド表示のように順次カメラ33から記録領域26aに向かって移動される。このような応用も可能である。   The touch panel 16 on the screen 15 can also detect the position of the camera 31, and an image corresponding to the image data acquired from the camera 31 is controlled to be displayed near the camera 31. In this case, as shown in FIG. 2, an album storage recording area 26a is provided at a predetermined position. When the user 30 drags an arbitrary image 33 on the screen 15 with a finger and brings it to the position of the recording area 26a, the image can be recorded in the recording section 26 for album. At this time, the image 33 is moved from the camera 31 to the recording area 26a so as to flow. For example, when a plurality of images are moved, the images are sequentially moved from the camera 33 toward the recording area 26a like a slide display. Such an application is also possible.

このようなドラッグ機能を実現するため、スクリーン15には、ユーザの指の位置を検出するべく、タッチパネルの押されている位置を検出して判定する操作判定部24を有している。この操作判定部24でタッチパネル16が押されていると判定された場合は、制御部20は、その判定結果に基づいて、あたかも画像33がスクリーン15上で引き摺られていくように、表示制御部21を制御して表示を切り替える。   In order to realize such a drag function, the screen 15 includes an operation determination unit 24 that detects and determines the position where the touch panel is pressed in order to detect the position of the user's finger. When the operation determination unit 24 determines that the touch panel 16 is pressed, the control unit 20 displays the display control unit as if the image 33 is dragged on the screen 15 based on the determination result. 21 is controlled to switch the display.

また、画像33をアルバムに保存する際には、記録部26に、画像33に対応した画像データを記録できるように制御を行う。つまり、制御部20は、カメラ31の位置やユーザ30による操作入力を、タッチパネル16と位置検出部23及び操作判定部24によって検出する。そして、通信部25によって入力された画像データを、上述したカメラ31等の機器の位置や上述した操作に従って取り込み、表示制御部21を制御することにより、上述の操作に従った位置に対応する画像を表示する。   When the image 33 is stored in the album, control is performed so that image data corresponding to the image 33 can be recorded in the recording unit 26. That is, the control unit 20 detects the position of the camera 31 and the operation input by the user 30 by the touch panel 16, the position detection unit 23, and the operation determination unit 24. Then, the image data input by the communication unit 25 is captured according to the position of the device such as the camera 31 described above and the operation described above, and the display control unit 21 is controlled so as to correspond to the position according to the operation described above. Is displayed.

図3は、こうした制御部20がコントロールするプログラムに従った動作を説明するフローチャートである。   FIG. 3 is a flowchart for explaining the operation according to the program controlled by the control unit 20.

テーブル型スクリーン装置10の図示されない電源スイッチがオンされると、ステップS1に於いて、スクリーン15上にカメラ30が載置されたか否かが判定される。ユーザ30がカメラ31をテーブル状スクリーン15の上に載置すると、その時の押圧力の変化からカメラが載置されたことが検出される。すると、タッチパネル16の押圧された位置に応じて、ステップS2にてカメラ位置が位置検出部23により検出される。   When a power switch (not shown) of the table type screen device 10 is turned on, it is determined whether or not the camera 30 is placed on the screen 15 in step S1. When the user 30 places the camera 31 on the table-like screen 15, it is detected that the camera is placed from the change in the pressing force at that time. Then, according to the pressed position of the touch panel 16, the camera position is detected by the position detector 23 in step S2.

次いで、ステップS3にて、通信部25によってカメラ31内のデータの読み出しが行われる。そして、ステップS4にて、上記ステップS2で検出されたカメラ位置付近に、その時読み出されたデータに対応した画像が再生されるべく投影されるように、表示制御部21が制御される。   Next, in step S3, data in the camera 31 is read by the communication unit 25. In step S4, the display control unit 21 is controlled so that an image corresponding to the data read at that time is projected to be reproduced near the camera position detected in step S2.

その後、ステップS5に於いて、ユーザ30の操作の有無が判定される。ここで、特に操作されなければ本ルーチンが終了する。一方、何らかの操作がなされたならば、ステップS6へ移行して、それぞれの処理動作が行われる。   Thereafter, in step S5, it is determined whether or not the user 30 has operated. Here, if no particular operation is performed, this routine ends. On the other hand, if any operation is performed, the process proceeds to step S6, and each processing operation is performed.

つまり、タッチパネル16の押された状態や、押された位置の変化が判定されるが、例えばステップS6に於いては、所定画像のダブルクリック(ダブルタップ)が判定される。ここで、ダブルクリックがなされない場合は、後述するステップS10へ移行し、ダブルクリックがなされた場合は、ステップS7へ移行して拡大前画像であるか否かが判定される。   That is, the pressed state of the touch panel 16 and the change in the pressed position are determined. For example, in step S6, a double click (double tap) of a predetermined image is determined. Here, when the double click is not performed, the process proceeds to step S10 described later, and when the double click is performed, the process proceeds to step S7 to determine whether the image is a pre-enlargement image.

ここで、拡大前画像である場合は、ステップS9へ移行して拡大表示が行われる。一方、拡大前画像ではない、すなわち拡大後画像と判定された場合には、ステップS8へ移行して、縮小表示が行われる。このように、ステップS8またはS9にて、ユーザ30が画像拡大によるチェックや鑑賞、画像縮小による整理等、好みの大きさでの扱いができるように工夫されている。これは、制御部20が表示制御部21を制御して行うが、全体画面の中で、上述した所定画像が占める割合を大きくして表示すればよい。   Here, in the case of the pre-enlargement image, the process proceeds to step S9 and an enlarged display is performed. On the other hand, when it is determined that the image is not the pre-enlargement image, that is, the post-enlargement image, the process proceeds to step S8 and the reduced display is performed. In this way, in step S8 or S9, the user 30 is devised so that it can be handled in a desired size, such as checking and appreciation by image enlargement, and arrangement by image reduction. This is performed by the control unit 20 controlling the display control unit 21. The ratio of the predetermined image described above may be increased in the entire screen.

ステップS10に於いては、指でテーブル状スクリーン15上をなぞって、それが所定の画像の位置から別位置にずれていく、すなわち操作位置が移動したか否かが判定される。ここで、移動しなければ後述するステップS12へ移行し、移動される場合は、ステップS11へ移行する。   In step S10, it is determined whether the finger is traced on the table-like screen 15 and is shifted from a predetermined image position to another position, that is, the operation position is moved. Here, if it does not move, it will transfer to step S12 mentioned later, and if it moves, it will transfer to step S11.

ステップS11では、その画像を上記別位置に移動させるような表示位置切り替えが行われる。そして、その移動先が、図2に記録領域26aとして示されるようなアルバム部であれば、ステップS12に於いて移動先が判定される。ここで、移動先が記録領域26aであれば、ステップS13へ移行して記録領域26aに画像データが記録される。   In step S11, the display position is switched so that the image is moved to the different position. If the destination is an album part as shown in FIG. 2 as the recording area 26a, the destination is determined in step S12. If the destination is the recording area 26a, the process proceeds to step S13, and image data is recorded in the recording area 26a.

図4は、このようにして作成されたアルバムの例を示したものである。ここでは、テーブル型のスクリーン装置の記録部26に作られた、電子アルバムの表示形態の一例として示している。   FIG. 4 shows an example of an album created in this way. Here, an example of a display form of an electronic album created in the recording unit 26 of the table type screen device is shown.

このように、移動された画像がテーブル上に載置された簡易アルバム26bのように表示され、全く、紙のアルバムと違いのない表示とすることができる。この場合、ユーザ30が三角スイッチ部16aまたは16bをタッチすると、ページの送り戻りができ、アルバム26bの鑑賞が可能となる。このアルバム26bも、ドラッグ動作でテーブル上の任意の位置に表示位置切り替えが可能である。   In this way, the moved image is displayed like a simple album 26b placed on the table, and can be displayed completely different from a paper album. In this case, when the user 30 touches the triangular switch section 16a or 16b, the page can be returned and the album 26b can be viewed. The display position of the album 26b can also be switched to an arbitrary position on the table by a drag operation.

また、プリント(PRINT)釦16cが押されると、プリント出力吐出口27a(図2参照)から、用紙に記録された画像がプリントアウトされる。   When the print (PRINT) button 16c is pressed, an image recorded on the paper is printed out from the print output discharge port 27a (see FIG. 2).

尚、上記ステップS12に於いて記録先が記録領域26aでない場合、及びステップS13にて記録終了後は、上記ステップS5へ移行して、以降の処理動作が繰り返される。   When the recording destination is not the recording area 26a in step S12 and after the recording is completed in step S13, the process proceeds to step S5 and the subsequent processing operations are repeated.

また、通信部25の通信方法としては、光通信も考えられるが、指向性がない方が好ましいので、ブルートゥース(登録商標)等、微弱な電波を用いた通信を行う方が好ましい。   As a communication method of the communication unit 25, optical communication is also conceivable, but it is preferable that there is no directivity. Therefore, it is preferable to perform communication using weak radio waves such as Bluetooth (registered trademark).

更に、タッチパネル16は、例えば、図5に示されるような構成としてもよい。   Furthermore, the touch panel 16 may be configured as shown in FIG. 5, for example.

すなわち、P1〜P12のような透明電極で構成される複数のスイッチをスクリーン15上に設け、その何れのスイッチが押されてONされているかを判定するようにしてもよい。つまり、スイッチ制御部41によって、時系列で順次スイッチ部42a、42b内の各スイッチをオン/オフしていき、この時通電するか否かを、電流計43aの出力結果等で検出部43bが判定検出すれば、何れのスイッチ(何れの場所)が押されているかを判定することができる。 That is, a plurality of switches composed of transparent electrodes such as P 1 to P 12 may be provided on the screen 15 to determine which switch is pressed and turned on. That is, the switch control unit 41 sequentially turns on / off the switches in the switch units 42a and 42b in time series, and whether or not the current is supplied at this time is determined by the detection unit 43b based on the output result of the ammeter 43a. If the determination is detected, it is possible to determine which switch (which location) is being pressed.

例えば、スイッチP1の位置に指や機器が置かれてスイッチがオンされている場合は、スイッチ部42aのスイッチS1と、スイッチ部42bのスイッチSAがオンした時に、電流計43aにて電流が検出される。 For example, when a finger or a device is placed at the position of the switch P 1 and the switch is turned on, when the switch S1 of the switch unit 42a and the switch SA of the switch unit 42b are turned on, the current is output from the ammeter 43a. Detected.

ここでは、スイッチP1〜P12の12個のスイッチで簡単化したが、実際にはこのようなスイッチが無数に敷き詰められているものとする。 Here, the simplification is made with twelve switches P 1 to P 12 , but in reality, it is assumed that an infinite number of such switches are laid.

また、上述した表示装置部11を、図6に示されるような構成としてもよい。   Further, the display device unit 11 described above may be configured as shown in FIG.

すなわち、表示装置部11′に於いて、指によって押されると反射が変化するようなパネル16′をスクリーン15の上に配置すると共に、プロジェクタ13の光をスクリーン15に導くミラーをハーフミラー14aまたは波長伝導性のあるミラーで構成する。これにより、上記反射の変化による陰影の変化が、受光レンズ45を介した撮像素子46で検出されて、指の位置が検出されるようになっている。   That is, in the display unit 11 ′, a panel 16 ′ whose reflection changes when pressed by a finger is disposed on the screen 15, and a mirror for guiding the light of the projector 13 to the screen 15 is a half mirror 14a or It consists of a mirror with wavelength conductivity. Thereby, the change in shadow due to the change in reflection is detected by the image sensor 46 via the light receiving lens 45, and the position of the finger is detected.

勿論、上述した第1の実施形態による表示装置部11は、図5に示されるタッチパネルと、図6に示される表示装置部11′の両方を組み合わせたもので構成されるようにしてもよい。   Of course, the display device unit 11 according to the first embodiment described above may be configured by combining both the touch panel shown in FIG. 5 and the display device unit 11 ′ shown in FIG.

このようなタッチパネル式スクリーンを利用することによって、機器や指の位置を判定することができる。機器であるか指であるかは、押されている部分の範囲の大きさや形状、或いは上述した通信部25の通信結果に従って判定される。   By using such a touch panel screen, the position of the device or the finger can be determined. Whether the device is a device or a finger is determined according to the size and shape of the range of the pressed portion or the communication result of the communication unit 25 described above.

つまり、図5に示されるタッチパネルの例では、指であれば押されているスイッチの数が少なく、ドラッグ時等、時間による変化がある。一方、カメラ31が載置されている場合は、押されているスイッチの数が多く、時間による変化がない上に、通信部25と所定の通信が成立する。   That is, in the example of the touch panel shown in FIG. 5, the number of switches being pressed is small for a finger, and there is a change with time such as when dragging. On the other hand, when the camera 31 is placed, the number of pressed switches is large, there is no change with time, and predetermined communication with the communication unit 25 is established.

(第2の実施形態)
次に、本発明の第2の実施形態を説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

上述した第1の実施形態では、スクリーン上には1つの機器(カメラ)が載置された場合の例について説明したが、この第2の実施形態では、スクリーン上に複数の機器が載置された場合の例について説明する。   In the first embodiment described above, an example in which one device (camera) is placed on the screen has been described. However, in the second embodiment, a plurality of devices are placed on the screen. An example of the case will be described.

図7は、本発明の第2の実施形態によるデジタルプラットフォーム装置の構成を示した図である。   FIG. 7 is a diagram illustrating a configuration of a digital platform apparatus according to the second embodiment of the present invention.

尚、以下に述べる実施形態に於いては、デジタルプラットフォーム装置の構成及び基本的な動作については、図1乃至図6に示される第1の実施形態と同じであるので、これらの構成及び動作については、同一の部分には同一の参照番号を付して、その図示及び説明は省略するものとし、異なる構成及び動作についてのみ説明する。   In the embodiment described below, the configuration and basic operation of the digital platform device are the same as those in the first embodiment shown in FIGS. The same parts are denoted by the same reference numerals, illustration and description thereof are omitted, and only different configurations and operations will be described.

例えば、スクリーン15上に撮影画像データが記録されたカメラ31と、プリンタ35が載置されている場合について考える。すると、プリンタ35から正しい画像プリントを得るためには、送信装置としてのカメラ31内の画像が、図7に示されるようにスクリーン15上に表示(画像33)される。そのうち、選択された1枚(33a)のみが、受信装置としてのプリンタ35の中に入っていく形式でデータの授受が表示されるので、誤ってユーザが考えていた写真と異なる画像をプリントしてしまうことを防止することができる。   For example, consider a case where a camera 31 in which captured image data is recorded and a printer 35 are placed on the screen 15. Then, in order to obtain a correct image print from the printer 35, an image in the camera 31 as a transmission device is displayed on the screen 15 (image 33) as shown in FIG. Of these, only the selected one (33a) displays the data exchange in a format that enters the printer 35 as a receiving device, so an image different from the photograph that the user had mistakenly thought is printed. Can be prevented.

このような実施形態を実現するために、第2の実施形態では、カメラ31やプリンタ35が、ワイヤレスでテーブル型スクリーン15の通信部25と通信するようにし、該通信部25と制御部20との間に機器の種別を判定する機器種別判定部24aを設けた構成としている。   In order to realize such an embodiment, in the second embodiment, the camera 31 and the printer 35 communicate with the communication unit 25 of the table type screen 15 wirelessly, and the communication unit 25, the control unit 20, The device type determination unit 24a for determining the type of device is provided between the two.

これは、各機器が、その機能を示す信号を送信するようにし、位置検出部23によって、各々の機器の位置が検出できるようにすることによって、簡単に実現することができる。   This can be easily realized by allowing each device to transmit a signal indicating its function and allowing the position detector 23 to detect the position of each device.

例えば、図7に示されるような位置にカメラ31が載置された場合は、その近傍に画像33が表示される。また、ユーザがその画像33のうち1枚をドラッグすれば、指の移動に従って画像33aのように、場所を移動させる形で表示する。そして、表示制御部21によるその移動場所が、プリンタ35の近くまで来たことが判定されれば、ユーザはプリンタ35でその画像を印刷したいと考えていると判定される。制御部20は表示制御部21を介して画像データをプリンタ35に送信し、プリンタ35はその送られたデータに対応した画像をプリントアウトする。   For example, when the camera 31 is placed at a position as shown in FIG. 7, the image 33 is displayed in the vicinity thereof. If the user drags one of the images 33, the image is displayed in such a manner that the location is moved as in the image 33a according to the movement of the finger. If the display control unit 21 determines that the moving location has come close to the printer 35, the user determines that the printer 35 wants to print the image. The control unit 20 transmits image data to the printer 35 via the display control unit 21, and the printer 35 prints out an image corresponding to the transmitted data.

また、図7に於いては画像33aが示されているだけであるが、プリンタ35の近傍にもカメラ31から得た画像を表示することも可能であることは勿論である。   In FIG. 7, only the image 33 a is shown, but it is needless to say that an image obtained from the camera 31 can also be displayed near the printer 35.

このように、ユーザが選択した写真画像を、間違いなくプリントアウトするには、どの位置にどの画像データを表示したかを制御部20が常に把握している必要がある。   As described above, in order to print out the photographic image selected by the user without fail, the control unit 20 must always know which image data is displayed at which position.

図8は、第2の実施形態のデジタルプラットフォーム装置による画像データ表示動作を説明するフローチャートである。以下、このフローチャートを参照して、その画像表示位置把握の方法について説明する。   FIG. 8 is a flowchart illustrating an image data display operation performed by the digital platform device according to the second embodiment. Hereinafter, a method of grasping the image display position will be described with reference to this flowchart.

先ず、ステップS21にて、サブルーチン“カメラ位置検出PC”が実行され、続いてステップS22にてサブルーチン“プリンタ位置検出PP”が実行される。尚、これらのステップS21及びS22の各サブルーチンの詳細については後述する。 First, in step S21, the subroutine “camera position detection P C ” is executed, and then in step S22, the subroutine “printer position detection P P ” is executed. Details of these subroutines of steps S21 and S22 will be described later.

次いで、ステップS23にて、検出されたカメラ31の位置PCの前方Lのスクリーン位置P1〜P3に、図7に示されるように、カメラ31から読み出された画像データが再生されて、画像33が3枚並べられる。更に、続くステップS24にて、その前方の距離Lの位置P4〜P6に、別の撮影画像が表示される。尚、この距離Lは、画像の縦サイズ相当である。 Next, in step S23, the image data read from the camera 31 is reproduced at the screen positions P 1 to P 3 in front L of the detected position P C of the camera 31, as shown in FIG. , Three images 33 are arranged. Furthermore, in the subsequent step S24, the position P 4 to P 6 in the front of the distance L, another captured image is displayed. The distance L is equivalent to the vertical size of the image.

このように、制御部20では、先ずカメラ位置が考慮されて、表示位置が決定されている。   As described above, the control unit 20 first determines the display position in consideration of the camera position.

次に、ステップS25に於いて、この表示位置上に押圧があったか否かが判定される。ここで、上記押圧がほぼ指の先端の大きさや形状に相当する場合、表示位置に指の押圧があったと判定されて、ステップS26へ移行する。この押圧部分は逐次モニタされているもので、ステップS26に於いて、それが移動したか否かが判定される。   Next, in step S25, it is determined whether or not there is a press on the display position. Here, if the above-mentioned pressing substantially corresponds to the size or shape of the tip of the finger, it is determined that the finger is pressed at the display position, and the process proceeds to step S26. This pressed portion is monitored sequentially, and it is determined in step S26 whether or not it has moved.

上記ステップS26で画像の移動が無い場合、または上記ステップS25にて押圧が無い場合は、上記ステップS25へ移行する。これに対し、上記ステップS25で押圧が有り、ステップS26で画像が移動したと判定された場合は、ステップS27へ移行して、上記移動に従って、その部分に表示されていた画像も移動される。そして、続くステップS28にて、移動のたびに何れの画像が何れの位置P7にずらされて表示されているかが、対応付けられる。 If there is no movement of the image in step S26 or if there is no press in step S25, the process proceeds to step S25. On the other hand, if it is determined in step S25 that there is a press and it is determined in step S26 that the image has moved, the process proceeds to step S27, and the image displayed in that portion is also moved in accordance with the movement. Then, at the subsequent step S28, one of the image each time the movement is displayed in staggered position P 7 either are associated.

この対応付けの結果、ステップS29に於いて、その位置と上記ステップS21で検出されたプリンタ位置PPが所定の距離範囲内であるか否かが判定される。ここで、上記所定の距離範囲内に無い場合は上記ステップS25へ移行する。一方、上記所定距離内にプリンタ位置PPがある場合には、ステップS30へ移行する。 This association results in step S29, the printer position P P detected at that position and the step S21 whether or not within a predetermined distance range is determined. If the distance is not within the predetermined distance range, the process proceeds to step S25. On the other hand, if there is a printer location P P is within the predetermined distance, the process proceeds to step S30.

ステップS30では、画像33aがプリンタ35の中に吸い込まれて入っていくようなイメージを表現するために、表示位置シフトが行われる。次いで、ステップS31にて、その表示画像に対応するデジタル画像データがプリンタ35に入力される。更に、ステップS32では、プリンタ35に入力された画像をプリントアウトする命令が送信される。これによって、プリンタ35は、送信されてきた画像データを画像として印刷する。   In step S30, a display position shift is performed in order to express an image in which the image 33a is sucked into the printer 35. In step S31, digital image data corresponding to the display image is input to the printer 35. In step S32, a command to print out the image input to the printer 35 is transmitted. As a result, the printer 35 prints the transmitted image data as an image.

このように、ユーザは、カメラの中の撮影画像データのうち、気に入ったものを、あたかもそこに写真があるような感覚で選択して、確実にプリンタから画像をプリントアウトすることができる。   In this way, the user can select a favorite image of the captured image data in the camera as if there is a photograph, and can reliably print out the image from the printer.

次に、図9を参照して、第2の実施形態によるデジタルプラットフォーム装置に於ける各機器の検出の方法について説明する。   Next, with reference to FIG. 9, a method of detecting each device in the digital platform apparatus according to the second embodiment will be described.

テーブル型スクリーン装置10のタッチパネル式のスクリーン15上に、底面が四角形状でΔxc×Δycのカメラ31が載置されると、その範囲(Δxc×Δyc)でタッチパネルが押される。例えば、図5に示される構成のスイッチで説明すると、その底面に基づいてスイッチがオンされるので、このオンされたスイッチの範囲から、図10のフローチャートに従ってカメラの位置を検出することができる。 When the camera 31 of Δx c × Δy c having a square bottom surface is placed on the touch panel screen 15 of the table type screen device 10, the touch panel is pushed within the range (Δx c × Δy c ). For example, in the case of the switch having the configuration shown in FIG. 5, since the switch is turned on based on the bottom surface, the position of the camera can be detected from the range of the turned on switch according to the flowchart of FIG.

図10は、図8のフローチャートのステップS21に於けるサブルーチン“カメラ位置検出PC”の動作を説明するフローチャートである。 FIG. 10 is a flowchart for explaining the operation of the subroutine “camera position detection P C ” in step S21 of the flowchart of FIG.

本サブルーチンに入ると、先ず、ステップS41にて、オンされたスイッチP1〜P12のうち、上記Δxc×Δycの範囲でオンされている部分が検出される。そして、ステップS42に於いて、上記範囲内でオンされている部分の有無が判定される。ここで、オンされている部分が無ければ上記ステップS41へ移行する。一方、オンされている部分があったならば、ステップS43へ移行する。 When this subroutine is entered, first, in step S41, a portion that is turned on in the range of Δx c × Δy c among the turned-on switches P 1 to P 12 is detected. In step S42, it is determined whether or not there is a portion that is turned on within the above range. If there is no portion that is turned on, the process proceeds to step S41. On the other hand, if there is a part that is turned on, the process proceeds to step S43.

このステップS43では、そのオンされたスイッチ範囲のうち、重心位置座標xc,ycが、カメラ位置PCとされる。但し、このスイッチ範囲に載置されたものがカメラ以外の箱である可能性もあるので、続くステップS44に於いて、通信部25がカメラ31と適切なハンドシェイクとされたか否かが確認される。 In this step S43, the center-of-gravity position coordinates x c and y c in the turned-on switch range are set as the camera position P C. However, since there is a possibility that what is placed in this switch range is a box other than the camera, it is confirmed in the subsequent step S44 whether or not the communication unit 25 has made an appropriate handshake with the camera 31. The

ここで、カメラでないと判定された場合は、上記ステップS41へ移行する。一方、カメラであると判定された場合は、ステップS45へ移行してカメラ位置PCが決定される。その後、本サブルーチンを抜ける。 If it is determined that the camera is not used, the process proceeds to step S41. On the other hand, if it is determined that the camera, the camera position P C is determined, the process proceeds to step S45. Then, this subroutine is exited.

また、プリンタ35は、例えば図9に示されるように、その底面に4箇所、脚部35aが設けられており、その幅と奥行きがΔxp、Δypならば、その各件を満たすパネル上押圧部があるか否かで、プリンタ位置が判定される。 The printer 35, for example as shown in FIG. 9, four places on its bottom surface, is provided with leg portions 35a, its width and depth [Delta] x p, if [Delta] y p, panel that satisfies the respective matter The printer position is determined based on whether or not there is a pressing portion.

図11は、図8のフローチャートのステップS22に於けるサブルーチン“プリンタ位置検出PP”の動作を説明するフローチャートである。 FIG. 11 is a flowchart for explaining the operation of the subroutine “printer position detection P P ” in step S22 of the flowchart of FIG.

本サブルーチンに入ると、先ず、ステップS51に於いて、4つの脚部35aの押圧条件の有無が判定される。ここで、4箇所の押圧部がある場合は、続くステップS52に於いて、脚部35aの距離が所定条件を満たしているか否かが判定される。ここで、上記ステップS51で4箇所の押圧部が無い場合、または上記ステップS52にて脚部35aの距離が所定条件を満たしていない場合は、上記ステップS51へ移行する。   When this subroutine is entered, first, at step S51, it is determined whether or not there are pressing conditions for the four legs 35a. Here, if there are four pressing portions, it is determined in the subsequent step S52 whether or not the distance of the leg portion 35a satisfies a predetermined condition. Here, when there are no four pressing portions in step S51, or when the distance of the leg portion 35a does not satisfy the predetermined condition in step S52, the process proceeds to step S51.

一方、上記ステップS51及びS52にて、4箇所の押圧部が有り、且つ、脚部35aの距離が所定条件を満たしている場合は、ステップS53へ移行する。このステップS53では、上記4箇所の脚部35aを四つの角とする四角形の重心位置の座標xp、ypが検出され、その位置がプリンタの位置とされる。 On the other hand, if there are four pressing portions and the distance between the leg portions 35a satisfies the predetermined condition in steps S51 and S52, the process proceeds to step S53. In this step S53, the coordinates x p and y p of the center of gravity of the quadrangle having the four legs 35a as the four corners are detected, and the position is set as the position of the printer.

但し、図10のフローチャートのステップS44と同様に、上記重心位置に載置されたものがプリンタでない場合もあるので、ステップS54に於いて、プリンタと通信可能であるか否かが判定される。その結果、通信可能であれば、プリンタに間違いないとして、ステップS55に移行し、プリンタ位置PPが確定される。一方、上記ステップS54にてプリンタでないと判定された場合は、上記ステップS51へ移行する。 However, as in step S44 of the flowchart of FIG. 10, there is a case where the one placed at the center of gravity is not a printer, so in step S54, it is determined whether or not communication with the printer is possible. As a result, if communication is possible, it is determined that the printer is correct, the process proceeds to step S55, and the printer position PP is determined. On the other hand, if it is determined in step S54 that the printer is not a printer, the process proceeds to step S51.

尚、ここでは、カメラとプリンタを例として説明したが、カメラから大容量記録手段であるストレージに画像入力する場合や、カメラのデータをプロジェクタ等で投影表示するような場合も、同様の方法で、位置検出と通信を駆使してデータの授受を確実に行うことができる。   Although a camera and a printer have been described as examples here, the same method is used when inputting an image from a camera to a storage, which is a large-capacity recording unit, or when projecting and displaying camera data with a projector or the like. Data can be reliably exchanged using position detection and communication.

例えば、図12に示されるように、送信装置であるストレージ50に蓄積されている画像を、受信装置であるプロジェクタ51によってスクリーン上に表示し、適宜、プロジェクタ51で画像52を拡大撮影することもできる。この場合、例えばスクリーン上に表示される画像33は、ストレージ50の近傍であって、プロジェクト51の近傍であってもよい。或いは、ストレージ50及びプロジェクト51の両者の近傍に表示されるようにしてもよい。   For example, as shown in FIG. 12, an image stored in the storage 50 that is a transmission device is displayed on a screen by a projector 51 that is a reception device, and an image 52 may be appropriately magnified by the projector 51. it can. In this case, for example, the image 33 displayed on the screen may be in the vicinity of the storage 50 and in the vicinity of the project 51. Alternatively, it may be displayed near both the storage 50 and the project 51.

また、図9乃至図11に示されるカメラ位置検出及びプリンタ位置検出では、タッチパネル機能を利用したが、スクリーン上の個々の機器を区別するには、次のような例も考えられる。   Further, in the camera position detection and the printer position detection shown in FIGS. 9 to 11, the touch panel function is used, but the following examples are also conceivable in order to distinguish individual devices on the screen.

すなわち、図13(a)に示されるように、カメラ31等の下面部に、2次元バーコード31aを設けてもよい。また、図13(b)に示されるように、カメラ31の下面部に、ICタグ31bを設けてもよい。更には、図13(c)に示されるように、カメラ31の下面部に、赤外線通信器31cを設けるようにしてもよい。   That is, as shown in FIG. 13A, a two-dimensional barcode 31a may be provided on the lower surface of the camera 31 or the like. Further, as shown in FIG. 13B, an IC tag 31 b may be provided on the lower surface portion of the camera 31. Further, as shown in FIG. 13C, an infrared communication device 31 c may be provided on the lower surface portion of the camera 31.

このように、種々の応用変形例が考えられる。   As described above, various application modifications can be considered.

図14は、例えば、図13(a)に示されるような、バーコード31aを読み取るタイプのデジタルプラットフォーム装置に於けるカメラの位置検出システムの構成例を示した図である。   FIG. 14 is a diagram showing a configuration example of a camera position detection system in a digital platform device of a type that reads a barcode 31a as shown in FIG. 13 (a), for example.

ここでは、スクリーン15aをLCDで構成し、LCD制御回路15bによって、このLCDを透過または光拡散式のスクリーン15aを電気的に切り替え可能なようにしている。つまり、カメラ31の下面部のバーコードの読み取り時には、LCD15aを透過にし、プロジェクタ13の光をハーフミラー14でバーコード31aに照射する。そして、その反射光を受光レンズ45とモニタ用撮像素子(センサ)46で検出するようにしている。   Here, the screen 15a is constituted by an LCD, and the LCD control circuit 15b is configured to be able to electrically switch the transmissive or light diffusion type screen 15a. That is, when reading the barcode on the lower surface of the camera 31, the LCD 15 a is transmitted, and the light from the projector 13 is irradiated to the barcode 31 a by the half mirror 14. The reflected light is detected by the light receiving lens 45 and the monitor image sensor (sensor) 46.

図15は、こうした構成のカメラの位置検出システムによるバーコード検出の動作を説明するフローチャートである。   FIG. 15 is a flowchart for explaining an operation of barcode detection by the camera position detection system having such a configuration.

本ルーチンに入ると、先ず、ステップS61にてLCD15aが透過にされる。次いで、ステップS62にて、プロジェクタ13から均一な光が投射されると、ハーフミラー14aで反射されてカメラ31の下面部に配置されたバーコード31aに導かれる。   When entering this routine, first, the LCD 15a is made transparent in step S61. In step S62, when uniform light is projected from the projector 13, the light is reflected by the half mirror 14a and guided to the barcode 31a disposed on the lower surface of the camera 31.

そして、ステップS63にて、バーコード31aで反射された光がハーフミラー14aを透過し、受光レンズ45を介して撮像素子46によって読み取られる。これにより、カメラ31の位置が検出される。ここで、ステップS64にて、通信部(図1参照)によってカメラ31と通信が行われる。   In step S 63, the light reflected by the barcode 31 a passes through the half mirror 14 a and is read by the image sensor 46 through the light receiving lens 45. Thereby, the position of the camera 31 is detected. Here, in step S64, communication with the camera 31 is performed by the communication unit (see FIG. 1).

次いで、ステップS65では、プロジェクタ13の出力画像が表示可能なように、LCD制御回路15bによって、LCD15aが光拡散モードに切り替えられる。その後、ステップS66にて、カメラ31の近傍にカメラ31内の画像を再生表示するべくプロジェクタ13から投影される。   Next, in step S65, the LCD 15a is switched to the light diffusion mode by the LCD control circuit 15b so that the output image of the projector 13 can be displayed. Thereafter, in step S66, the image in the camera 31 is projected from the projector 13 to reproduce and display in the vicinity of the camera 31.

以上説明したように、第2の実施形態によれば、画像データ用の電波による通信手段以外に機器を検出するコード検出によって、より正確に機器情報とその位置を判定することができる。   As described above, according to the second embodiment, device information and its position can be determined more accurately by code detection that detects a device other than the communication means using radio waves for image data.

また、上述した第1及び第2の実施形態では、表示機能付きのテーブルの上に機器を載置した例で説明したが、これに限られるものではない。   In the first and second embodiments described above, the example is described in which the device is placed on the table with the display function. However, the present invention is not limited to this.

例えば、図16に示されるように、フラットパネルディスプレイ10aを一般的なテーブル10b上に立てる。この状態で、テーブル10b上にカメラ31やプリンタ35が載置されると、通信部25a及び25bによって各々の機器が判定される。すると、カメラ31の内部メモリに記録されている画像データは、フラットパネルディスプレイ10a上の仮想テーブル10c上に、画像33として図示の如く表示される。   For example, as shown in FIG. 16, the flat panel display 10a is placed on a general table 10b. In this state, when the camera 31 or the printer 35 is placed on the table 10b, each device is determined by the communication units 25a and 25b. Then, the image data recorded in the internal memory of the camera 31 is displayed as an image 33 on the virtual table 10c on the flat panel display 10a as shown in the figure.

このように構成しても、上述した第1及び第2の実施形態と同様の効果を得ることも可能である。この例では、特別なテーブル構成のディスプレイを用いなくとも、本発明の目的を達成することができる。   Even if comprised in this way, it is also possible to acquire the effect similar to 1st and 2nd embodiment mentioned above. In this example, the object of the present invention can be achieved without using a display with a special table configuration.

上述した実施形態によれば、機器に入っている画像を直接的に表示することができ、画像データ転送時には、その転送経過に、当該画像をユーザに明示することができるので、画像信号の取り扱いを失敗することなく、確実な送信、受信が可能となる。   According to the above-described embodiment, the image stored in the device can be directly displayed, and when transferring image data, the image can be clearly shown to the user during the transfer process. Can be reliably transmitted and received without failure.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形実施が可能であるのは勿論である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

10…テーブル型スクリーン装置、11…表示装置部、13…プロジェクタ、14…ミラー、14a…ハーフミラー、15…スクリーン、16…タッチパネル、16a、16b…三角スイッチ部、20…制御部、21…表示制御部、23…位置検出部、24…操作判定部、25…通信部、26…記録部、26a…記録領域、26b…アルバム、27…プリンタ、27a…プリント出力吐出口、30…ユーザ、31…カメラ、33…画像、35…プリンタ、41…スイッチ制御部、42a、42b…スイッチ部、43a…電流計、43b…検出部、45…受光レンズ、46…撮像素子。   DESCRIPTION OF SYMBOLS 10 ... Table type screen apparatus, 11 ... Display apparatus part, 13 ... Projector, 14 ... Mirror, 14a ... Half mirror, 15 ... Screen, 16 ... Touch panel, 16a, 16b ... Triangular switch part, 20 ... Control part, 21 ... Display Control unit, 23 ... Position detection unit, 24 ... Operation determination unit, 25 ... Communication unit, 26 ... Recording unit, 26a ... Recording area, 26b ... Album, 27 ... Printer, 27a ... Print output discharge port, 30 ... User, 31 DESCRIPTION OF SYMBOLS ... Camera, 33 ... Image, 35 ... Printer, 41 ... Switch control part, 42a, 42b ... Switch part, 43a ... Ammeter, 43b ... Detection part, 45 ... Light receiving lens, 46 ... Image sensor.

Claims (6)

画像データを送信する送信手段と、
上記画像データを受信する受信手段と、
上記送信手段及び上記受信手段の位置を検出する位置検出手段と、
上記位置検出手段で位置が検出された上記送信手段から上記受信手段に上記画像データを転送制御する制御手段と、
上記制御手段によって上記受信手段に転送される上記画像データに対応する画像の転送経過を示す画像を、上記送信手段の位置から上記受信手段の位置の間に表示する表示手段と、
を具備することを特徴とするデジタルプラットフォーム装置。
A transmission means for transmitting image data;
Receiving means for receiving the image data;
Position detecting means for detecting positions of the transmitting means and the receiving means;
Control means for controlling transfer of the image data from the transmitting means whose position is detected by the position detecting means to the receiving means;
Display means for displaying an image indicating the transfer progress of the image corresponding to the image data transferred to the receiving means by the control means between the position of the transmitting means and the position of the receiving means;
A digital platform device comprising:
上記送信手段の位置から上記受信手段の位置の間に表示された画像位置に対応するユーザの操作を検出して判定する操作判定手段を更に具備し、
上記制御手段は、上記操作判定手段で判定されたユーザの操作結果に基づいて、上記画像データを上記送信手段から上記受信手段に転送させることを特徴とする請求項1に記載のデジタルプラットフォーム装置。
And further comprising an operation determination means for detecting and determining a user operation corresponding to an image position displayed between the position of the transmission means and the position of the reception means,
2. The digital platform apparatus according to claim 1, wherein the control unit causes the image data to be transferred from the transmission unit to the reception unit based on a user operation result determined by the operation determination unit.
上記表示手段は、上記位置検出手段によって検出された上記送信手段の位置の近傍に上記送信手段が送信する画像データに対応する画像を表示することを特徴とする請求項1に記載のデジタルプラットフォーム装置。   2. The digital platform apparatus according to claim 1, wherein the display unit displays an image corresponding to the image data transmitted by the transmission unit in the vicinity of the position of the transmission unit detected by the position detection unit. . 上記表示手段は、上記位置検出手段によって検出された上記受信手段の位置の近傍に上記受信手段に入力される画像データに対応する画像を表示することを特徴とする請求項1に記載のデジタルプラットフォーム装置。   The digital platform according to claim 1, wherein the display means displays an image corresponding to image data input to the receiving means in the vicinity of the position of the receiving means detected by the position detecting means. apparatus. 上記表示手段は光拡散性を有する半透明部材で構成されることを特徴とする請求項1に記載のデジタルプラットフォーム装置。   2. The digital platform apparatus according to claim 1, wherein the display means is made of a translucent member having light diffusibility. 上記送信装置及び上記受信装置とデータ通信を行うためのインタフェース手段を更に具備することを特徴とする請求項1に記載のデジタルプラットフォーム装置。   2. The digital platform apparatus according to claim 1, further comprising an interface unit for performing data communication with the transmission apparatus and the reception apparatus.
JP2010260014A 2010-11-22 2010-11-22 Digital platform device Expired - Fee Related JP5372894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010260014A JP5372894B2 (en) 2010-11-22 2010-11-22 Digital platform device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010260014A JP5372894B2 (en) 2010-11-22 2010-11-22 Digital platform device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004371678A Division JP4664665B2 (en) 2004-12-22 2004-12-22 Digital platform device

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2011120778A Division JP5657471B2 (en) 2011-05-30 2011-05-30 Digital platform device
JP2011120777A Division JP5296144B2 (en) 2011-05-30 2011-05-30 Digital platform device

Publications (2)

Publication Number Publication Date
JP2011043855A true JP2011043855A (en) 2011-03-03
JP5372894B2 JP5372894B2 (en) 2013-12-18

Family

ID=43831264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010260014A Expired - Fee Related JP5372894B2 (en) 2010-11-22 2010-11-22 Digital platform device

Country Status (1)

Country Link
JP (1) JP5372894B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013089187A (en) * 2011-10-21 2013-05-13 Sharp Corp Display device and display method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1157216A (en) * 1997-08-15 1999-03-02 Sony Corp Game device
JP2001075733A (en) * 1999-08-31 2001-03-23 Nec Corp Information input and output device
JP2001109570A (en) * 1999-10-08 2001-04-20 Sony Corp System and method for inputting and outputting information
JP2001136504A (en) * 1999-11-08 2001-05-18 Sony Corp System and method for information input and output
JP2004012712A (en) * 2002-06-05 2004-01-15 Olympus Corp Table type display unit
JP2004164069A (en) * 2002-11-11 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> Information control system, information control method, program for the same, recording medium recording that program
JP2004262091A (en) * 2003-02-28 2004-09-24 Seiko Epson Corp Printer
JP2004274152A (en) * 2003-03-05 2004-09-30 Canon Inc Pico-net building method
JP2004282189A (en) * 2003-03-13 2004-10-07 Konica Minolta Holdings Inc Image output system, printer, digital camera, display, and image output method
JP2004297509A (en) * 2003-03-27 2004-10-21 Minolta Co Ltd Image forming apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1157216A (en) * 1997-08-15 1999-03-02 Sony Corp Game device
JP2001075733A (en) * 1999-08-31 2001-03-23 Nec Corp Information input and output device
JP2001109570A (en) * 1999-10-08 2001-04-20 Sony Corp System and method for inputting and outputting information
JP2001136504A (en) * 1999-11-08 2001-05-18 Sony Corp System and method for information input and output
JP2004012712A (en) * 2002-06-05 2004-01-15 Olympus Corp Table type display unit
JP2004164069A (en) * 2002-11-11 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> Information control system, information control method, program for the same, recording medium recording that program
JP2004262091A (en) * 2003-02-28 2004-09-24 Seiko Epson Corp Printer
JP2004274152A (en) * 2003-03-05 2004-09-30 Canon Inc Pico-net building method
JP2004282189A (en) * 2003-03-13 2004-10-07 Konica Minolta Holdings Inc Image output system, printer, digital camera, display, and image output method
JP2004297509A (en) * 2003-03-27 2004-10-21 Minolta Co Ltd Image forming apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013089187A (en) * 2011-10-21 2013-05-13 Sharp Corp Display device and display method

Also Published As

Publication number Publication date
JP5372894B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP4664665B2 (en) Digital platform device
JP5657471B2 (en) Digital platform device
US7705832B2 (en) Image display apparatus, and image display method
US8016198B2 (en) Alignment and non-alignment assist images
US9544556B2 (en) Projection control apparatus and projection control method
US10268277B2 (en) Gesture based manipulation of three-dimensional images
US20150294645A1 (en) Communication terminal, screen display method, and recording medium
JP5645444B2 (en) Image display system and control method thereof
JP6079695B2 (en) Image display photographing system, photographing device, display device, image display and photographing method, and computer program
JP2014197380A (en) Image projector, system, image projection method and program
JP2008242367A (en) Display-control device, display device, display system, and program
JP2008276219A (en) Digital platform device
JP4957327B2 (en) Display control device
JP5353090B2 (en) digital photo frame
KR102295823B1 (en) Method of providing an interface using a mobile device and a wearable device
JP5693022B2 (en) Display control device, display control system, and control method, program, and storage medium thereof
US20150253932A1 (en) Information processing apparatus, information processing system and information processing method
JP5773003B2 (en) Display control apparatus, display control method, and program
JP5372894B2 (en) Digital platform device
JP2005100315A (en) Paper document information operating system and information operating method
JP5296144B2 (en) Digital platform device
TWI474294B (en) Method to set a navigation environment
TW201435656A (en) Information technology device input systems and associated methods
JP6686319B2 (en) Image projection device and image display system
JP2019092064A (en) Display and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

R151 Written notification of patent or utility model registration

Ref document number: 5372894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees