JP4686176B2 - Image playback device - Google Patents
Image playback device Download PDFInfo
- Publication number
- JP4686176B2 JP4686176B2 JP2004336842A JP2004336842A JP4686176B2 JP 4686176 B2 JP4686176 B2 JP 4686176B2 JP 2004336842 A JP2004336842 A JP 2004336842A JP 2004336842 A JP2004336842 A JP 2004336842A JP 4686176 B2 JP4686176 B2 JP 4686176B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- area
- unit
- back side
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Control Of El Displays (AREA)
- Digital Computer Display Output (AREA)
- Liquid Crystal Display Device Control (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、背面側が視認できる光透過型の表示部からなる画像再生装置に関する。 The present invention relates to an image reproducing apparatus including a light transmission type display unit whose rear side can be visually recognized.
近年、デジタルカメラが一般的に広く利用されるようになっている。そして、撮影された画像データを表示する装置についても、単なる机の上に置く形式の表示装置ばかりではなく、色々な形式が製品化あるいは提案されている。 In recent years, digital cameras have been widely used. In addition, not only display devices that are simply placed on a desk but also various types of devices that display captured image data have been commercialized or proposed.
その中でも、LCD(liquid crystal display)やEL(electro luminescent )を表示素子とする薄型タイプの表示装置が携帯性の利点もあり、開発が活発である。例えばELを利用した表示装置としては、シート状の表示媒体が提案されている。(例えば、特許文献1参照。)
そして更に、そのELを表示素子とするものの中で、電極等を透明材で構成して直接画像を表示する範囲以外が透明性を有するようなEL表示体から構成される透過型の表示装置がある。
Among them, a thin-type display device using a liquid crystal display (LCD) or an electroluminescent (EL) as a display element has an advantage of portability and is actively developed. For example, as a display device using EL, a sheet-like display medium has been proposed. (For example, refer to Patent Document 1.)
Furthermore, among the devices that use the EL as a display element, there is a transmission type display device constituted by an EL display body in which an electrode or the like is made of a transparent material and a portion other than a range in which an image is directly displayed is transparent. is there.
そして、例えば、この透明な画像表示装置に表示される情報の変更あるいは修正が容易なタッチパネルセンサが付いた画像表示装置も提案されている(例えば、特許文献2参照。)
このような装置では、従来出来なかった実体物と撮影画像を相互に比較観察することも容易にできる。
With such an apparatus, it is possible to easily compare and observe an entity and a photographed image, which have not been possible in the past.
ところで、上記の先行例にあるような透過型の表示装置では、背景に存在する物が透過で確認できるという点で通常の表示装置にはない大きな利点がある。
ところが、このような装置では、画像を大きく表示すると背景が見えなくなるし、逆に背景にあるものの視認性を向上させるために、画像の大きさを小さくすると、表示画像の視認性に欠けるというように、表示画像と背景にある実体物の視認性のバランスをいかに図るかが大きな問題になる。
By the way, the transmissive display device as in the preceding example has a great advantage over a normal display device in that an object existing in the background can be confirmed through transmission.
However, in such a device, when the image is displayed large, the background becomes invisible, and conversely, in order to improve the visibility of what is in the background, if the image size is reduced, the visibility of the display image is lacking. In addition, how to balance the visibility of the display image and the entity in the background is a big problem.
本発明の課題は、上記従来の実情に鑑み、透過型の画像再生装置において、背景の実体物の視認を妨げないよう表示する画像再生装置を提供することである。 An object of the present invention is to provide an image reproducing apparatus that displays in a transmissive image reproducing apparatus so as not to obstruct the visual recognition of a background entity.
以下に、本発明に係わる画像再生装置の構成を述べる。
先ず、第1 の発明の画像再生装置は、前面側に画像を表示するともに、背面側からの光を前面側に透過させて前面側から背面側が視認可能な光透過性を有する画像表示手段と、
前記画像表示手段の画面上に複数配置され、前記背面側の実体物から発信された信号を受信する受信部と、前記受信した信号の分布に基づいて、前記画像表示手段の画面の中で、前記背面側の実体物を透して見る範囲を画像表示をさせない非表示領域として設定する設定手段と、
前記非表示領域以外の領域に画像を表示するよう前記画像表示手段を制御する表示制御手段と、を備えて構成される。
The configuration of the image reproducing apparatus according to the present invention will be described below.
First, an image reproducing device according to a first aspect of the present invention is an image display means that displays an image on the front side, transmits light from the back side to the front side, and has light transmissivity so that the back side can be visually recognized from the front side. ,
A plurality of arranged on the screen of the image display means, receiving the signal transmitted from the back side entity, and based on the distribution of the received signal, in the screen of the image display means, A setting means for setting a range seen through the entity on the back side as a non-display area that does not display an image;
Display control means for controlling the image display means to display an image in an area other than the non-display area.
また、上記設定手段は、操作指示によって上記非表示領域を設定するように構成してもよい。
この画像再生装置において、例えば上記非表示領域を設定するための上記操作指示のための部材として、上記画像表示手段の前面側にタッチパネルを備えるように構成してもよい。
The setting means may be configured to set the non-display area according to an operation instruction.
In this image reproduction device, for example, a touch panel may be provided on the front side of the image display means as a member for the operation instruction for setting the non-display area.
また、上記表示制御手段は、例えば上記非表示領域以外の領域である表示許可領域に、当該表示許可領域の大きさと表示する画像数に応じて画像を表示させるよう制御するように構成される。 The display control means is configured to control to display an image in a display permission area which is an area other than the non-display area, for example, according to the size of the display permission area and the number of images to be displayed.
また、例えば上記画像表示手段は薄板状に構成され、上記画像表示手段の側部に把持部を備えるように構成されるのが好ましい。
その場合、例えば上記把持部内部に画像を記憶する画像記憶手段を備えることが好ましい。
For example, it is preferable that the image display unit is configured in a thin plate shape and includes a grip portion on a side portion of the image display unit.
In that case, for example, it is preferable to include image storage means for storing an image inside the grip portion.
次に、第2 の発明の画像再生装置における表示方法は、前面側に画像を表示するともに、背面側からの光を前面側に透過させて前面側から背面側が視認可能な光透過性を有する画像表示手段を備える画像再生装置における表示方法において、前記背面側の実体物から発信された信号を、前記画像表示手段の画面上に複数配置された受信部により受信し、前記受信した信号の分布に基づいて、前記画像表示手段の画面の中で、前記背面側の実体物を透して見える範囲を画像表示をさせない非表示領域として設定し、前記非表示領域以外の領域に画像を表示するよう制御するように構成される。 Next, the display method in the image reproducing device according to the second aspect of the present invention displays light on the front side, transmits light from the back side to the front side, and has light transmissivity so that the back side can be seen from the front side. In a display method in an image reproduction apparatus including an image display means, a signal transmitted from the rear side entity is received by a plurality of receiving units arranged on a screen of the image display means, and the distribution of the received signal Based on the above, a range that can be seen through the substance on the back side in the screen of the image display means is set as a non-display area that does not display an image, and an image is displayed in an area other than the non-display area Configured to control.
本発明によれば、透過型の画像再生装置において、背景の実体物の視認を妨げないよう表示する画像再生装置を提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the image reproduction apparatus which displays in a transmissive | pervious image reproduction apparatus so that the visual recognition of the background entity may not be prevented .
以下、本発明の実施の形態を図面を参照しながら説明する。なお、以下の説明において上記画像表示手段は、例えば透明ビュワー1、画像表示部2等から成り、又は例えばLCD36等から成り、上記設定手段は、例えばB−CPU14等から成り、又は例えばG−CPU52等から成り、上記表示制御手段は、例えばB−CPU14等から成り、又は例えばG−CPU52等から成り、上記実体物は、例えばチケット14等から成り、上記検出手段は、例えばループアンテナ25等から成り、又は例えばアンテナ送受信部48等から成り、そして、上記光学手段は、例えばレンズ群46、自由曲面プリズム47等から成る。 Embodiments of the present invention will be described below with reference to the drawings. In the following description, the image display means includes, for example, the transparent viewer 1, the image display unit 2, etc., or includes, for example, the LCD 36, and the setting means includes, for example, the B-CPU 14 or the like, or, for example, the G-CPU 52. The display control means is composed of, for example, a B-CPU 14 or the like, or is composed of, for example, a G-CPU 52, the entity is composed of, for example, a ticket 14 or the like, and the detection means is composed of, for example, a loop antenna 25 or the like. Or, for example, the antenna transmitting / receiving unit 48, and the optical means includes, for example, a lens group 46, a free-form surface prism 47, and the like.
図1は、背後の実体物(例としてチケット)と表示画面の画像とを同時に観賞できる透明ビュワーの外観斜視図である。同図に示すように、透明ビュワー1は、例えば略A4判程度の大きさの透明な画像表示部2と、この画像表示部2の右端側部に沿って形成されている把持部3を備えている。 FIG. 1 is an external perspective view of a transparent viewer capable of simultaneously viewing an object behind (for example, a ticket) and an image on a display screen. As shown in the figure, the transparent viewer 1 includes a transparent image display unit 2 having a size of about A4 size, for example, and a grip unit 3 formed along the right end side of the image display unit 2. ing.
把持部3は、これを右手4で把持すれば、透明ビュワー1を空中に容易に保持することができるようになっている。把持部3の上端部にスピーカ5が配設され、その下方の、把持部3を把持する右手4の親指で容易に操作が可能な位置に、上下2個の操作ボタン6が配設されている。また、把持部3には、複数の画像データファイルが記録されているメモリカード7を、下部の開口8から矢印aで示すように着脱自在に装着可能なメモリ装着部9が設けられている。 The grip part 3 can easily hold the transparent viewer 1 in the air if it is gripped by the right hand 4. A speaker 5 is disposed at the upper end of the grip portion 3, and two upper and lower operation buttons 6 are disposed at a position below which the user can easily operate with the thumb of the right hand 4 that grips the grip portion 3. Yes. In addition, the grip portion 3 is provided with a memory mounting portion 9 in which a memory card 7 in which a plurality of image data files are recorded can be detachably mounted from the lower opening 8 as indicated by an arrow a.
この透明ビュワー1を用いることによって、例えばスクラップブックのページのようにA4判程度の適宜のシート11に貼って保管されているチケット10を、半分は透明ビュワー1の画像表示部2越しに眺めながら、他方ではその画像表示部2に表示されている複数の画像12(12a、12b、12c、12d)をチケット10が見える位置を避ける位置に表示させて、チケット10と画像12とを共に観賞することができる。 By using this transparent viewer 1, for example, half of the ticket 10 that is stored on an appropriate sheet 11 of about A4 size, such as a scrapbook page, is viewed through the image display unit 2 of the transparent viewer 1. On the other hand, a plurality of images 12 (12a, 12b, 12c, 12d) displayed on the image display unit 2 are displayed at positions avoiding the position where the ticket 10 can be seen, and the ticket 10 and the image 12 are viewed together. be able to.
尚、同図に示すチケット10の例では、無線タグ13を取り付けられたシール14がチケット10の左上角に貼着されている。
ここで、上記の無線タグ13について説明する。
In the example of the ticket 10 shown in the figure, a seal 14 to which a wireless tag 13 is attached is attached to the upper left corner of the ticket 10.
Here, the wireless tag 13 will be described.
一般に、無線タグは、交信距離により分類され、密着型、近傍型(数ミリから数メートル)、遠隔型に分類される。本実施例において用いられる無線タグ13は、電磁結合型からなる密着型(ISO 10536)又は電磁誘導型から成る近傍型(ISO 15696)と呼ばれる分類に属し(本例では電磁誘導型から成る近傍型を用いる)、利用周波数は例えば13.56MHzの規格がある。また、一度だけ情報が書き込める安価なワンタイム型が好適である。 In general, the wireless tag is classified according to a communication distance, and is classified into a contact type, a proximity type (several millimeters to several meters), and a remote type. The wireless tag 13 used in this embodiment belongs to a classification called a close contact type (ISO 10536) composed of an electromagnetic coupling type or a proximity type (ISO 15696) composed of an electromagnetic induction type (in this example, a proximity type composed of an electromagnetic induction type). The frequency used is, for example, 13.56 MHz. An inexpensive one-time type in which information can be written only once is preferable.
また、これらのタグの通信方式は、基本的には同一の原理で動作する。すなわち、電源方式は、無線タグリーダ又は無線タグライタからコイルアンテナを介しての電磁誘導による誘起電圧で電力を受けるパッシブ型であり、この型は、短距離で通信が可能であり、低コスト且つ小型化に適している。 These tag communication systems basically operate on the same principle. That is, the power supply system is a passive type that receives power from an induction voltage generated by electromagnetic induction from a wireless tag reader or wireless tag writer via a coil antenna. This type can communicate over a short distance, and is low in cost and size. Suitable for
図2は、上記透明ビュワーの構成を示すブロック図である。同図に示すように、透明ビュワー1には、B−CPU14と、このB−CPU14にバス15を介して接続された音声処理部16、画像処理部17、送受信部18のコントローラ19、図1に示した画像表示部2、及び着脱自在なメモリカード7が備えられている。B−CPU14は不図示のROMに記憶されたプログラムを読み出して、ビュワー1の全体の制御処理を行うコンピュータである。 FIG. 2 is a block diagram showing the configuration of the transparent viewer. As shown in the figure, the transparent viewer 1 includes a B-CPU 14, a sound processing unit 16 connected to the B-CPU 14 via a bus 15, an image processing unit 17, a controller 19 of the transmission / reception unit 18, and FIG. And the detachable memory card 7 are provided. The B-CPU 14 is a computer that reads a program stored in a ROM (not shown) and performs overall control processing of the viewer 1.
更にB−CPU14には、本体操作部21と位置検出部22が直接接続されており、位置検出部22にはタッチパネル23が接続されている。このタッチパネル23は図1において画像表示部(EL表示装置)2の上面に重ねて配設されている。 Further, a main body operation unit 21 and a position detection unit 22 are directly connected to the B-CPU 14, and a touch panel 23 is connected to the position detection unit 22. The touch panel 23 is disposed on the upper surface of the image display unit (EL display device) 2 in FIG.
また、音声処理部17には、音声出力部24を介して図1にも示したスピーカ5が接続されている。更に、送受信部18には、無線タグ13からの信号を復調して読み出したり無線タグ13の位置を検出するための9個のループアンテナ25(25−1〜25−9)が接続されている。 Further, the speaker 5 shown in FIG. 1 is also connected to the audio processing unit 17 via the audio output unit 24. Further, nine loop antennas 25 (25-1 to 25-9) for demodulating and reading a signal from the wireless tag 13 and detecting the position of the wireless tag 13 are connected to the transmission / reception unit 18. .
B−CPU14は、本体操作部21から入力される操作イベントに基づく不図示の電源部の接続/遮断、及び本体操作部21又はタッチパネル23から入力される操作イベントに基づいて、無線タグ13から送信される信号電波に基づく位置の検出や無線タグ13の信号電波の復調とを行うことをコントローラ19に指示する。 The B-CPU 14 transmits from the wireless tag 13 based on connection / cutoff of a power supply unit (not shown) based on an operation event input from the main body operation unit 21 and an operation event input from the main body operation unit 21 or the touch panel 23. The controller 19 is instructed to detect the position based on the signal radio wave and to demodulate the signal radio wave of the wireless tag 13.
また、B−CPU14は、本体操作部21又はタッチパネル23から入力される操作イベントに基づいて、メモリカード7のデータフォルダから画像データファイルを読み出したり、その読み出した画像データファイルによる画像を画像表示部2の所定の位置に表示することを画像処理部17に指示する。 Further, the B-CPU 14 reads an image data file from the data folder of the memory card 7 based on an operation event input from the main body operation unit 21 or the touch panel 23, and displays an image based on the read image data file as the image display unit 2. The image processing unit 17 is instructed to display at a predetermined position.
更に、B−CPU14は、上記画像表示部2に表示された画像の画像データファイルに関連する音声データファイルがメモリカード7のデータフォルダ中にあるときは、音声出力部24を介してスピーカ5から上記音声データファイルに基づく音声の放音を行うことを音声処理部16に指示する。 Further, when there is an audio data file related to the image data file of the image displayed on the image display unit 2 in the data folder of the memory card 7, the B-CPU 14 sends the above data from the speaker 5 via the audio output unit 24. The voice processing unit 16 is instructed to emit voice based on the voice data file.
図3は、上記の透明ビュワー1において上記の無線タグ13の位置を検出するための9個のアンテナ25(25−1〜25−9)の配置構成を示す図であり、右に透明ビュワー1の模式的側面図を示し、左にその背面図を示している。 FIG. 3 is a diagram showing an arrangement configuration of nine antennas 25 (25-1 to 25-9) for detecting the position of the wireless tag 13 in the transparent viewer 1, with the transparent viewer 1 on the right. The schematic side view is shown, and the rear view is shown on the left.
図3に示すように、透明ビュワー1の画像表示部2は、その手前側の面2−1にタッチパネル23が重ねて配設され、背面側の面2−2には、透明電極がループ状に形成されて成る9個のループアンテナ25が、均等な間隔で後述する仕切り升目の角部に配設されている。 As shown in FIG. 3, the image display unit 2 of the transparent viewer 1 has a touch panel 23 superimposed on a front surface 2-1, and transparent electrodes are looped on a rear surface 2-2. Nine loop antennas 25 are formed at the corners of a partition grid, which will be described later, at equal intervals.
これら9個のループアンテナ25は、図1に示した状態において、シート11に取り付けられて保管されていたチケット10に貼着されているシール14の無線タグ13から送信されるリンク情報の信号電波をそれぞれ受信する。 In the state shown in FIG. 1, these nine loop antennas 25 are signal radio waves of link information transmitted from the wireless tag 13 of the seal 14 attached to the ticket 10 that has been attached to the sheet 11 and stored. Are received respectively.
尚、チケット10は、スクラップブックのページのようなシート11に貼って保管されると限るものではなく、説明ラベルなどを取り付けた袋に入れて保管されていてもよい。この場合は、袋から取り出したチケット10を机の上などに置いて、その上から透明ビュワー1を透して見ることになる。 The ticket 10 is not limited to being stored on a sheet 11 such as a scrapbook page, and may be stored in a bag with an explanatory label or the like. In this case, the ticket 10 taken out from the bag is placed on a desk or the like and viewed through the transparent viewer 1 from above.
図2に示すB−CPU14、9個のループアンテナ25がそれぞれ受信する無線タグ13からの信号電波の強弱によって、無線タグ13の位置、延いてはチケット10が在る位置を認識し、そのチケット10が在る位置つまり範囲を、表示画像の非表示領域に設定する。 The B-CPU 14 and the nine loop antennas 25 shown in FIG. 2 recognize the position of the wireless tag 13 and the position where the ticket 10 is located by the strength of the signal radio wave received from the wireless tag 13 respectively. The position, that is, the range where 10 is present is set in the non-display area of the display image.
図4は、上記無線タグ13からの信号電波の強弱によってチケット10が在る範囲を表示画像の非表示領域に設定する方法を説明する図である。同図に示すように、透明ビュワー1の画像表示部2は、縦横それぞれ6個の升目になるように仕切られている。 FIG. 4 is a diagram for explaining a method for setting a range in which the ticket 10 is present in the non-display area of the display image according to the strength of the signal radio wave from the wireless tag 13. As shown in the figure, the image display unit 2 of the transparent viewer 1 is partitioned so that there are six grids in each of the vertical and horizontal directions.
中央の4個の升目の角が集まる画像表示部2の中心に、図3に示したループアンテナ25−5が配置されている。そして、その中央の4個の升目の周囲を反時計回り方向に取り巻く4個一組の升目の角が集まる8箇所に、図3に示したループアンテナ25−1、25−2、25−3、25−6、25−9、25−8、25−7、及び25−4がそれぞれ配置されている。 The loop antenna 25-5 shown in FIG. 3 is arranged at the center of the image display unit 2 where the four corners of the center are gathered. Then, the loop antennas 25-1, 25-2, 25-3 shown in FIG. 3 are provided at eight places where the corners of a set of four surrounding the four squares around the center in the counterclockwise direction gather. 25-6, 25-9, 25-8, 25-7, and 25-4, respectively.
いま、図1に示した状態において、上記9個のループアンテナ25(25−1〜25−9)が、無線タグ13から受信した信号電波の受信強度をH(high)、L(Low )及び0の3段階として、無線タグ13から受信した信号電波の強弱が、図4に示すように、ループアンテナ25−1〜25−4、及び25−7については強度0、ループアンテナ25−5、25−8、及び25−9については強度L、そして、ループアンテナ25−6については強度Hであるとする。 Now, in the state shown in FIG. 1, the nine loop antennas 25 (25-1 to 25-9) set the reception intensity of the signal radio wave received from the wireless tag 13 to H (high), L (Low) and As shown in FIG. 4, the strength of the signal radio wave received from the wireless tag 13 is 0 for the loop antennas 25-1 to 25-4 and 25-7, as shown in FIG. It is assumed that the intensity is L for 25-8 and 25-9, and the intensity H is for the loop antenna 25-6.
B−CPU14は、上記9個のループアンテナ25が受信したリンク情報の信号電波の強弱の分布から、例えば強度Hの信号電波を受信したループアンテナ25−6を中心とする4個の升目領域26、及び、強度0の信号電波を受信したループアンテナ25−i(図4の例では、i=1、2、3、4、7)から最も遠い位置に在って強度Lの信号電波を受信したループアンテナ25−9を中心とする4個の升目のうち、上記強度Hの信号電波を受信したループアンテナ25−6を中心とする4個の升目に隣接する2個の升目領域27を、透明ビュワー1の画像表示部2を透して見えるチケット10の在る範囲であるとして、この範囲を表示画像の非表示位置28として設定する。 The B-CPU 14 determines, based on the distribution of signal radio waves of link information received by the nine loop antennas 25, for example, four grid areas 26 centered on the loop antenna 25-6 that has received a signal radio wave of strength H. , And the signal radio wave having the intensity L at the position farthest from the loop antenna 25-i (i = 1, 2, 3, 4, 7 in the example of FIG. 4) that received the signal radio wave having the intensity 0. Among the four grids centered on the loop antenna 25-9, the two grid areas 27 adjacent to the four grids centered on the loop antenna 25-6 that has received the signal radio wave having the strength H are Assuming that the ticket 10 is seen through the image display unit 2 of the transparent viewer 1, this range is set as the non-display position 28 of the display image.
図5は、上記透明ビュワー1のB−CPU14による画像表示部2への画像表示処理の動作を示すフローチャートである。尚、この処理は透明ビュワー1の電源スイッチが操作されて、透明ビュワー1に電源が入力されることにより開始される。 FIG. 5 is a flowchart showing an operation of image display processing on the image display unit 2 by the B-CPU 14 of the transparent viewer 1. This process is started by operating the power switch of the transparent viewer 1 and inputting power to the transparent viewer 1.
同図において、先ず表示画像が選択される(S1)。この処理では、メモリカード7に記録されている画像データファイルに基づいて例えばサムネイル画像が画像表示部2に表示され、そのサムネイル画像を見ながら、透明ビュワー1の使用者が本体操作部21又はタッチパネル23からの入力操作で、見たい画像を選択する。 In the figure, a display image is first selected (S1). In this process, for example, a thumbnail image is displayed on the image display unit 2 based on the image data file recorded on the memory card 7, and the user of the transparent viewer 1 can view the thumbnail image while the main body operation unit 21 or the touch panel is displayed. The image to be viewed is selected by the input operation from 23.
続いて、画像の読み出しが行われる(S2)。この処理では、上記の使用者による入力操作で選択された画像の画像データファイルがメモリカード7から読み出される。そして、画像処理部17において画像データの伸長処理等を行い、その画像データを不図示の表示用メモリに格納する処理である。 Subsequently, the image is read (S2). In this process, the image data file of the image selected by the input operation by the user is read from the memory card 7. The image processing unit 17 performs image data decompression processing and the like, and stores the image data in a display memory (not shown).
次に、B−CPU14は、領域規制指示が行われているか否かを判別する(S3)。この処理では、使用者は、本体操作部21又はタッチパネル23によって、マニュアルで非表示領域の指定が可能である。 Next, the B-CPU 14 determines whether or not an area restriction instruction has been issued (S3). In this process, the user can manually specify a non-display area by the main body operation unit 21 or the touch panel 23.
そして、使用者からの非表示領域の指定が無ければ(S3がN)、続いて、タグ有り検出を行う(S4)。この処理は、実体物であるチケット10に、無線タグ13が取り付けられているか否かを判別する処理であり、9個のループアンテナ25の全てが受信する信号電波の強度が段階0の強度であれば、B−CPU14は、チケット10に無線タグ13は無いと判断する。 If there is no designation of a non-display area from the user (S3 is N), then the presence of a tag is detected (S4). This process is a process for determining whether or not the wireless tag 13 is attached to the ticket 10 which is an entity, and the intensity of the signal radio wave received by all nine loop antennas 25 is the intensity of stage 0. If there is, the B-CPU 14 determines that there is no wireless tag 13 in the ticket 10.
そして、そのようにチケット10に無線タグ13が無いときは(S4がN)、通常位置に画像を表示する(S5)。この処理では、選択されている画像が1枚であれば、その画像が画像表示部2の中央に大きく表示される。また、画像が複数であれば、画像表示部2の全面に均等に配分されて表示される。 When the ticket 10 does not have the wireless tag 13 (N in S4), an image is displayed at the normal position (S5). In this process, if one image is selected, that image is displayed large in the center of the image display unit 2. If there are a plurality of images, they are displayed evenly distributed over the entire surface of the image display unit 2.
その後、B−CPU14は、タッチパネルで画像接触有りか否かを判別する(S6)。この処理は、表示されている画像に対して使用者による指先での又は専用ペンでの接触が行われているか否かを判断する処理である。 Thereafter, the B-CPU 14 determines whether there is an image contact on the touch panel (S6). This process is a process for determining whether or not the displayed image is touched by the user with the fingertip or with the dedicated pen.
尚、上記の処理S4の判別でチケット10に無線タグ13が有ると判断されたときは(S4がY)、先ず、非表示位置の設定を行う(S7)。この処理では、図4で説明した方法により、例えば図4に示すように非表示位置28が設定される。 When it is determined in the above-described processing S4 that the ticket 10 has the wireless tag 13 (Y in S4), first, a non-display position is set (S7). In this process, the non-display position 28 is set by the method described with reference to FIG. 4, for example, as shown in FIG.
上記に続いて B−CPU14は、表示態様の設定を行う(S8)。この処理では、画像の表示位置が上記の非表示位置28とオーバーラップしないように画像表示領域の座標が演算される。 Following the above, the B-CPU 14 sets the display mode (S8). In this process, the coordinates of the image display area are calculated so that the image display position does not overlap the non-display position 28 described above.
そして、B−CPU14は、画像表示を行う(S9)。この処理では、上記座標が演算された画像表示領域に画像が表示される。
図6は、非表示位置28を避けて且つ設定された表示態様で画像が表示される例を2例示す図である。同図の上は、表示画像が1枚の場合の例であり、非表示位置28を避けて非表示位置28の上方に1枚の画像29aが表示されている。
Then, the B-CPU 14 performs image display (S9). In this process, an image is displayed in the image display area where the coordinates are calculated.
FIG. 6 is a diagram illustrating two examples in which an image is displayed in a set display manner while avoiding the non-display position 28. The upper part of the figure is an example in the case of one display image, and one image 29 a is displayed above the non-display position 28 while avoiding the non-display position 28.
また、同図の下は、表示画像が3枚の場合の例であり、非表示位置28を避けて非表示位置28の周囲に分散して3枚の画像29b、29c、及び29dが表示されている。
これにより、透明ビュワー1の使用者は、例えば図1に示したように、チケット10の透明ビュワー1の陰になる部分を図6の非表示位置28を透して見ることにより、チケット10の透明ビュワー1の陰になる部分と陰にならない部分を連続して完全な1枚のチケット10として眺めることができると共に、自分が選択した1枚又は複数の画像を同時に眺めることができる。
The lower part of the figure shows an example in the case where there are three display images. Three images 29b, 29c, and 29d are displayed around the non-display position 28 while avoiding the non-display position 28. ing.
As a result, the user of the transparent viewer 1 sees the portion of the ticket 10 that is behind the transparent viewer 1 through the non-display position 28 of FIG. 6 as shown in FIG. The shaded portion and the non-shaded portion of the transparent viewer 1 can be viewed continuously as a complete ticket 10 and one or more images selected by the user can be viewed simultaneously.
再び図5に戻り、図5における処理S3の判別で、領域規制指示があったときは(S3がY)、表示態様の設定をする(S10)。そして、その表示態様に基づく画像の表示を行う(S11)。 Returning to FIG. 5 again, if there is an area restriction instruction in the determination of step S3 in FIG. 5 (S3 is Y), the display mode is set (S10). Then, an image based on the display mode is displayed (S11).
図7は、透明ビュワー1の使用者による領域規制指示の結果と、その領域規制指示に応じた表示態様に基づく画像表示の例を2例示す図である。この例では、先ず透明ビュワー1の適宜の表示領域に領域規制指示を行うか否かを選択するボタンが表示され、使用者30が本体操作部21又はタッチパネル23で、領域規制指示を行うボタンを選択して確定し、任意の境界線31を指示して、更に規制領域がその境界線31よりも上であるか下であるかを指示入力する。 FIG. 7 is a diagram illustrating two examples of the image display based on the result of the area restriction instruction by the user of the transparent viewer 1 and the display mode corresponding to the area restriction instruction. In this example, first, a button for selecting whether or not to issue an area restriction instruction is displayed in an appropriate display area of the transparent viewer 1, and the user 30 selects a button for performing an area restriction instruction on the main body operation unit 21 or the touch panel 23. The selected boundary line 31 is selected, an arbitrary boundary line 31 is designated, and whether or not the restricted area is above or below the boundary line 31 is inputted.
同図の上は、規制領域を境界線31よりも下に指定したときであり、同図の下は、規制領域を境界線31よりも上に指定したときである。B−CPU14は、規制領域が境界線31よりも下に指定されているときは、同図の上に示すように、上記指定された境界線31の上の領域に画像32の表示を行う。 The upper part of the figure is when the restricted area is designated below the boundary line 31, and the lower part of the figure is when the restricted area is designated above the boundary line 31. When the restricted area is designated below the boundary line 31, the B-CPU 14 displays the image 32 in the area above the designated boundary line 31, as shown in the upper part of FIG.
また、B−CPU14は、規制領域が境界線31よりも上に指定されているときは、同図の下に示すように、上記指定された境界線31の下の領域に画像32の表示を行う。
上述した処理S5、S9、又はS11の3通りのいずれかの画像表示処理の後、処理S6のタッチパネルで画像接触有りか否かの判別で、使用者によるタッチパネルでの画像接触が有れば(S6がY)、位置移動であるか否かを判別する(S12)。この処理は、使用者が画像に接触させたままの指先を、そのまま所望の方向へ移動させたか否かを判別する処理である。
Further, when the restricted area is designated above the boundary line 31, the B-CPU 14 displays the image 32 in the area below the designated boundary line 31, as shown in the lower part of FIG. Do.
After any of the three image display processes of the above-described processes S5, S9, or S11, if it is determined whether or not there is an image contact on the touch panel in the process S6, if there is an image contact on the touch panel by the user ( S6 is Y), it is determined whether or not the position is moved (S12). This process is a process for determining whether or not the user has moved the fingertip that is still in contact with the image in a desired direction.
そして、使用者が画像に接触させたままの指先を所望の方向へ移動させているときは(S12がY)、その移動先の位置を検出し(S13)、その検出した位置に新たな表示位置を設定し、すなわち表示画像の座標を補正して、その設定位置に画像を表示する(S15)。 When the user moves the fingertip in contact with the image in a desired direction (S12 is Y), the position of the movement destination is detected (S13), and a new display is displayed at the detected position. The position is set, that is, the coordinates of the display image are corrected, and the image is displayed at the set position (S15).
また、処理S12の判別で、使用者が画像に接触させたままの指先をそのまま動かさずにいるときは(S12がN)、その画像に関わる所定のメニューを表示し(S16)、使用者がメニューを選択したならば(S17)、その選択されたメニューの画像を表示する(S18)。 If it is determined in step S12 that the user does not move the fingertip that is in contact with the image (N in S12), a predetermined menu related to the image is displayed (S16), and the user If a menu is selected (S17), an image of the selected menu is displayed (S18).
図8は、上記の処理S12、S16、S17、及びS18の処理に従って透明ビュワー1に表示される表示態様の例を示す図である。同図は右から左へ、使用者が画像に接触させたままの指先をそのまま動かさずにいる状態33−1を示し、次に、その画像に関わる所定のメニューが表示された状態33−2を示し、更に、使用者がメニューを選択している状態33−3を示し、そして、その選択されたメニューの画像が表示された状態33−4を示している。 FIG. 8 is a diagram illustrating an example of a display mode displayed on the transparent viewer 1 in accordance with the processes of the above processes S12, S16, S17, and S18. This figure shows, from right to left, a state 33-1 in which the user does not move the fingertip while still touching the image, and then a state 33-2 in which a predetermined menu related to the image is displayed. Furthermore, a state 33-3 in which the user selects a menu is shown, and a state 33-4 in which an image of the selected menu is displayed is shown.
上記の実施の形態では、実体物(チケット)に無線タグが取り付けられている例を示しているが、実体物には必ずしも無線タグが取り付けられている訳ではない。
図9は、無線タグの無い実体物を透明ビュワーが検出する方法を示す図である。同図の上は実体物検出時の外観斜視図(図1と逆の方向から見た図)を示し、同図の下は検出部の内部構造と検出方法の原理を示している。
In the above embodiment, an example is shown in which a wireless tag is attached to an entity (ticket), but a wireless tag is not necessarily attached to the entity.
FIG. 9 is a diagram illustrating a method in which a transparent viewer detects an entity without a wireless tag. The upper part of the figure shows an external perspective view (viewed from the opposite direction to FIG. 1) when detecting an entity, and the lower part of the figure shows the internal structure of the detection unit and the principle of the detection method.
同図において、透明ビュワー1´は、把持部3の内部に検出部34を備え、検出部34には、投光窓35と受光窓36が設けられ、投光窓35の背後には赤外LED(liquid crystal display)37が配置されている。投光窓35と受光窓36は把持部3のそれぞれ背面の両端部の近くに配置されている。 In the figure, the transparent viewer 1 ′ includes a detection unit 34 inside the gripping unit 3, and a light projection window 35 and a light reception window 36 are provided in the detection unit 34, and an infrared ray is behind the light projection window 35. An LED (liquid crystal display) 37 is arranged. The light projecting window 35 and the light receiving window 36 are arranged near both end portions on the back surface of the grip portion 3.
また、受光窓36の背後には、受光レンズ38とラインセンサ39が配置されている。赤外LED37から投光窓35を介して外部に対し所定の角度で照射された投光光41は、近接した位置に在る実体物10−1に当たって反射光42−1、又は離れた位置にある実体物10−2に当たって反射光42−2となって、受光窓36に入射し、受光レンズ38を介してラインセンサ39上に結像する。 A light receiving lens 38 and a line sensor 39 are arranged behind the light receiving window 36. The projection light 41 irradiated from the infrared LED 37 through the projection window 35 to the outside at a predetermined angle hits the entity 10-1 at a close position and is reflected light 42-1, or at a position away from it. The light hits a certain entity 10-2, becomes reflected light 42-2, enters the light receiving window 36, and forms an image on the line sensor 39 through the light receiving lens 38.
このラインセンサ39上に結像する受光位置によって、透明ビュワー1´と、実体物10−1又は10−2との距離が算出される。この方法はカメラの測距装置として周知の技術である。 The distance between the transparent viewer 1 ′ and the entity 10-1 or 10-2 is calculated based on the light receiving position that forms an image on the line sensor 39. This method is a well-known technique as a camera distance measuring device.
尚、この方法で実体物の存在を検出する場合は、近接位置に実体物が在るか否かを知ることができるだけであり、図4で説明したような在り場所までは検知できないので、本例では、非表示領域を実体物の在り場所に合わせて種々設定することはせずに、近接の実体物の検出時に、透明ビュワー1´の表示画面全体の例えば下1/3を非表示領域とするように、処理を実行するとよい。 In addition, when detecting the presence of an entity by this method, it is only possible to know whether or not an entity is present at a close position, and it is impossible to detect the location as described in FIG. In the example, the non-display area is not variously set according to the location of the entity, and, for example, the lower 1/3 of the entire display screen of the transparent viewer 1 'is detected when the close entity is detected. It is better to execute the process so that
図10は、実施例2における眼鏡型ビュワーの例を模式的に示す図である。同図に示すように、眼鏡型ビュワー43は、人44の鼻44−1と耳44−2の間に掛け渡され、一方の眼(同図の例では左眼)44−3で虚像を眺め、他方の眼(図外左方の右眼)では通常の視野で物を見ることが出来る形態のものである。 FIG. 10 is a diagram schematically illustrating an example of a glasses-type viewer according to the second embodiment. As shown in the figure, the spectacle-type viewer 43 is spanned between the nose 44-1 and the ear 44-2 of a person 44, and a virtual image is formed with one eye (the left eye in the example of the figure) 44-3. In the view, the other eye (the right eye on the left side of the figure) can see an object with a normal visual field.
同図に示すように、眼鏡型ビュワー43は、画像表示部を構成する画像表示素子であるLCD(liquid crystal display:液晶表示装置)45、その画像表示面の前方に配置されたレンズ群46、その前方に、左眼44−3の前まで延在する自由曲面プリズム47、及びアンテナ送受信部48を備えている。レンズ群46と自由曲面プリズム47で光学手段を構成する。 As shown in the figure, an eyeglass-type viewer 43 includes an LCD (liquid crystal display) 45 that is an image display element constituting an image display unit, a lens group 46 disposed in front of the image display surface, In front thereof, a free-form surface prism 47 extending to the front of the left eye 44-3 and an antenna transmission / reception unit 48 are provided. The lens group 46 and the free-form surface prism 47 constitute an optical means.
人44は、左眼44−3で、外部から入射する背景光線49とオーバーラップさせて、レンズ群46及び自由曲面プリズム47を介して、LCD44に表示される画像の虚像51を見ることが出来る。 The person 44 can see the virtual image 51 of the image displayed on the LCD 44 through the lens group 46 and the free-form surface prism 47 by overlapping with the background ray 49 incident from the outside with the left eye 44-3. .
図11は、上記の眼鏡型ビュワー43の構成ブロック図である。同図に示すように、眼鏡型ビュワー43には、G−CPU52と、このG−CPU52にバス53を介して接続された画像処理部54、図10にも示したLCD45、図10では図示を省略したメモリカード55、及びコントローラ56が備えられている。G−CPU52は、不図示のROMに記憶されたプログラムを読み出して、眼鏡型ビュワー43の全体制御処理を行うコンピュータである。 FIG. 11 is a block diagram showing the configuration of the eyeglass viewer 43 described above. As shown in the figure, the glasses-type viewer 43 includes a G-CPU 52, an image processing unit 54 connected to the G-CPU 52 via a bus 53, an LCD 45 shown in FIG. 10, and an illustration shown in FIG. An omitted memory card 55 and a controller 56 are provided. The G-CPU 52 is a computer that reads out a program stored in a ROM (not shown) and performs overall control processing of the eyeglass viewer 43.
更にB−CPU52には、本体操作部57が直接接続され、また、コントローラ56には、図10に示したアンテナ送受信部48を構成する送受信部58及びこの送受信部58を介してアンテナ59が接続されている。上記の送受信部58は、コントローラ56の制御のもとに、アンテナ48を介して実体物10の無線タグ13からの信号を復調して読み出し、無線タグ13の存在を検出する。 Further, a main body operation unit 57 is directly connected to the B-CPU 52, and an antenna 59 is connected to the controller 56 through the transmission / reception unit 58 and the transmission / reception unit 58 constituting the antenna transmission / reception unit 48 shown in FIG. Has been. The transmitter / receiver 58 demodulates and reads the signal from the wireless tag 13 of the entity 10 via the antenna 48 under the control of the controller 56, and detects the presence of the wireless tag 13.
G−CPU52は、本体操作部57から入力される操作イベントに基づき、不図示の電源部の接続/遮断、コントローラ56を介して無線タグ13の信号電波の復調と無線タグ13の存在検出を行う。 The G-CPU 52 performs connection / cutoff of a power supply unit (not shown) based on an operation event input from the main body operation unit 57, demodulation of the signal radio wave of the wireless tag 13 and detection of the presence of the wireless tag 13 via the controller 56. .
また、G−CPU52は、本体操作部57から入力される操作イベントに基づいて、メモリカード55のデータフォルダから画像データファイルを読み出し、その読み出した画像データファイルによる画像をLCD45に表示する。 Further, the G-CPU 52 reads an image data file from the data folder of the memory card 55 based on an operation event input from the main body operation unit 57 and displays an image based on the read image data file on the LCD 45.
このとき、G−CPU52は上記無線タグ13の存在が検出されていれば、LCD45の表示画面の所定の領域を非表示領域に設定して、上記の画像を再生表示する。
図12は、上記眼鏡型ビュワー43のLCD45の表示画面の表示例を示す図である。同図に示すLCD45の表示画面61において、G−CPU52は、コントローラ56が無線タグ13の存在を検出しなかったときは、表示画面61の中央に大きく画像62(62−1)を表示し、コントローラ56が無線タグ13の存在を検出しているときは、表示画面61の右下部分の一定領域を非表示領域63に設定し、この非表示領域63とオーバーラップしない位置に画像62(62−2)を表示する。
At this time, if the presence of the wireless tag 13 is detected, the G-CPU 52 sets a predetermined area on the display screen of the LCD 45 as a non-display area, and reproduces and displays the image.
FIG. 12 is a view showing a display example of the display screen of the LCD 45 of the eyeglass-type viewer 43. In the display screen 61 of the LCD 45 shown in the figure, when the controller 56 does not detect the presence of the wireless tag 13, the G-CPU 52 displays a large image 62 (62-1) at the center of the display screen 61. When the controller 56 detects the presence of the wireless tag 13, the fixed area in the lower right portion of the display screen 61 is set as the non-display area 63, and the image 62 (62 is placed at a position not overlapping the non-display area 63. -2) is displayed.
これにより、図10に示す人44は、左眼44−3で画像62−2の虚像51を眺めると同時に、非表示領域63を透して、図外の右眼目と共に図11に実体物10を眺めることができる。 Accordingly, the person 44 shown in FIG. 10 views the virtual image 51 of the image 62-2 with the left eye 44-3, and at the same time, passes through the non-display area 63 and has the entity 10 in FIG. Can be seen.
ところで、図1に示したチケット10に貼着されたシール14に取り付けられている無線タグ13については、単に透明ビュワー1に位置を知らせるだけでなく、チケット10に関連する画像データファイルをメモリカード7から読み出すためのリンク情報を発信するように設定することもできる。以下、これを第4の実施の形態として説明する。 By the way, for the wireless tag 13 attached to the sticker 14 attached to the ticket 10 shown in FIG. 1, not only the position is notified to the transparent viewer 1, but also the image data file related to the ticket 10 is stored in the memory card. It is also possible to set so as to transmit link information for reading out from. Hereinafter, this will be described as a fourth embodiment.
図13は、実施例4としての、カメラによる風景、人物、閲覧物、観覧物、その他の撮影から、その撮影に関連して入手した記念物(例えばチケット)に無線タグを貼付するまでの操作手順を説明する図である。 FIG. 13 shows operations from scenery of a camera, a person, a browsing object, a viewing object, and other shootings to attaching a wireless tag to a monument (for example, a ticket) obtained in connection with the shooting as Example 4. It is a figure explaining a procedure.
同図において、先ず、手順S1において「TICKET」というチケット61を入手する。このチケット61は、行楽地の遊園地、記念館などの入場料、あるいはお寺の拝観料などを支払った後で手元に残る半券などである。勿論、使い終わった後の割り箸の名入りの箸袋やサービスマッチの小箱などであってもよい。 In the figure, first, a ticket 61 “TICKET” is obtained in step S1. This ticket 61 is a stub that remains at hand after paying an admission fee to an amusement park, a memorial hall, etc., or a temple admission fee. Of course, it may be a chopsticks bag with the name of the disposable chopsticks after use, or a small box of service matches.
次に、手順S2において、デジタルカメラで写真62を撮影する。この写真62は、遊園地であれば自分の子供が遊び興じている姿、記念館であれば撮影が許可されているものに限るが興味深く感じたもの、お寺であればこれも撮影が許可されているものに限るが屋内では陳列物、屋外では由緒のある池、庭などの庭園のしつらえを背景とした家族の写真、などが一般的に多い。 Next, in step S2, a photograph 62 is taken with a digital camera. This photo 62 shows the appearance of your child playing at an amusement park, what you felt interesting in a memorial hall, which is allowed to be taken, but if it is a temple, you can also take this photo Although it is limited to the ones that are present, there are generally many items such as indoors, displays outdoors, historical ponds, and family photos against the backdrop of gardens and other gardens.
続いて、手順S3において、撮影した写真62をカメラ63の表示画面64でプレビューする。このプレビューは、撮影直後でもよく、また撮影が一段落した後でもよく、あるいは旅館やホテルに戻ってからでもよい。要は撮影した写真62と入手したチケット61との関連性への記憶が失われないうちであれば何時でもよい。 Subsequently, in step S3, the photographed photograph 62 is previewed on the display screen 64 of the camera 63. This preview may be performed immediately after shooting, after shooting is completed, or after returning to an inn or hotel. In short, any time may be used as long as the memory of the relationship between the photographed photograph 62 and the acquired ticket 61 is not lost.
そして、手順S4において、上記のプレビューにより所望の画像データ(写真62)がカメラ63の表示画面64に表示されたならば、シャッタボタン65を押す。これにより、カメラ63のシール排出口66から、シール67が排出される。このシール67は、シール本体67−1と台紙(剥離紙)67−2とからなり、シール本体67−1には無線タグ68が予め貼着されている。 In step S4, if desired image data (photograph 62) is displayed on the display screen 64 of the camera 63 by the above preview, the shutter button 65 is pressed. As a result, the seal 67 is discharged from the seal discharge port 66 of the camera 63. The seal 67 includes a seal body 67-1 and a mount (release paper) 67-2, and a wireless tag 68 is attached to the seal body 67-1 in advance.
この後、手順S5において、写真の撮影者は、上記のシール67から台紙(剥離紙)67−2を剥ぎ取って取り除き、シール本体67−1をチケット61の適宜の余白部(図では左上角部)に貼り付ける。 Thereafter, in step S5, the photographer peels off and removes the mount (release paper) 67-2 from the seal 67, and removes the seal body 67-1 from an appropriate margin of the ticket 61 (upper left corner in the figure). Part).
図14は、実施例4において、無線タグ68が貼着されたシール67を排出するカメラ63の構成を示すブロック図である。同図に示すように、カメラ63は、カメラ本体69とリンク情報出力部71とから成る。 FIG. 14 is a block diagram illustrating a configuration of the camera 63 that ejects the seal 67 to which the wireless tag 68 is attached in the fourth embodiment. As shown in the figure, the camera 63 includes a camera body 69 and a link information output unit 71.
カメラ本体69には、C−CPU72と、このC−CPU72にバス73を介して接続された撮像部74、音声処理部75、本実施例のリンク情報出力部71を構成するタグライタ76のコントローラ77、画像処理部78、画像表示部79、及び着脱自在なメモリカード81が備えられている。 The camera main body 69 includes a C-CPU 72, a controller 77 of a tag writer 76 that constitutes an imaging unit 74, an audio processing unit 75, and a link information output unit 71 of this embodiment connected to the C-CPU 72 via a bus 73. , An image processing unit 78, an image display unit 79, and a removable memory card 81 are provided.
更にカメラ本体69には、C−CPU72に直接接続された本体操作部82、音声処理部75に接続された音声出力部83、この音声出力部83に接続されたスピーカ接続端子84、撮像部74に接続された撮像素子85、及びこの撮像素子85の撮像面前方に配置されたレンズ86が備えられている。 Further, the camera main body 69 includes a main body operation unit 82 directly connected to the C-CPU 72, an audio output unit 83 connected to the audio processing unit 75, a speaker connection terminal 84 connected to the audio output unit 83, and an imaging unit 74. An image sensor 85 connected to the image sensor 85 and a lens 86 disposed in front of the image pickup surface of the image sensor 85 are provided.
C−CPU72は、本体操作部82から入力される操作イベントに基づいて、不図示の電源部の接続/遮断、レンズ駆動部によるレンズ86のズーム又は焦点の制御、撮像部74を介しての撮像素子85の駆動すなわち画像の撮影の制御、画像処理部78で処理された撮像画像データのメモリカード81への記録の制御、画像表示部79を介しての表示装置の表示画面64(図13参照)への画像表示の制御、音声出力部83及びスピーカ接続端子84を介してスピーカを放音駆動するための音声処理部75への制御、タグライタ76のコントローラ77への指示等を行う。C−CPU72は、不図示のROMに記憶されたプログラムを読み出して、カメラ63の全体制御処理を行うコンピュータである。 Based on an operation event input from the main body operation unit 82, the C-CPU 72 connects / disconnects a power supply unit (not shown), controls the zoom or focus of the lens 86 by the lens driving unit, and performs imaging through the imaging unit 74. Control of driving of the element 85, that is, control of image capturing, control of recording of captured image data processed by the image processing unit 78 to the memory card 81, display screen 64 of the display device via the image display unit 79 (see FIG. 13). ), Display control to the sound processing unit 75 for driving sound emission through the sound output unit 83 and the speaker connection terminal 84, instructions to the controller 77 of the tag writer 76, and the like. The C-CPU 72 is a computer that reads out a program stored in a ROM (not shown) and performs overall control processing of the camera 63.
リンク情報出力部71は、上述したタグライタ76の他に、連続シール87と送り部88とを備えている。タグライタ76は、上述したコントローラ77の他に、送受信部91とアンテナ92を備えている。 The link information output unit 71 includes a continuous seal 87 and a feeding unit 88 in addition to the tag writer 76 described above. The tag writer 76 includes a transmission / reception unit 91 and an antenna 92 in addition to the controller 77 described above.
連続シール87は、図13に示したタグ68をそれぞれ貼着された複数枚のシール67が連続して例えばロール状に巻かれた状態で、消耗品としてリンク情報出力部71に着脱自在に装着されているものである。 The continuous seal 87 is detachably attached to the link information output unit 71 as a consumable in a state where a plurality of seals 67 each having the tag 68 shown in FIG. It is what has been.
タグライタ76のコントローラ77は、送受信部91及びアンテナ92を介して、無線タグ68と交信し、無線タグ68に、画像データとその画像データに関係する実体物とを関係付けるためのリンク情報を書き込む。このリンク情報として画像データのファイル名を用いるとタグのリンク情報に基づいて画像データベースを検索して直ちに画像データファイルを読み出すことができる。 The controller 77 of the tag writer 76 communicates with the wireless tag 68 via the transmission / reception unit 91 and the antenna 92, and writes link information for associating the image data and the entity related to the image data into the wireless tag 68. . If the file name of the image data is used as the link information, the image data file can be read immediately after searching the image database based on the link information of the tag.
また、リンク情報を所定桁数の番号としてもよい、この場合の画像データファイルとの関連付けについては後述する。
送り部88は、特には図示しないが、カッター装置、ローラ対、モータ、駆動部、シート位置検出センサ等から成るシール排出装置を備えており、上記のようにリンク情報を書き込まれた無線タグ68を有するシール67を、連続シール87から切り離して、その切り離したシール67を図13に示したシール排出口66から、図14に示すように外部に排出する。
The link information may be a number of a predetermined number of digits, and the association with the image data file in this case will be described later.
Although not shown in particular, the feeding unit 88 includes a seal discharging device including a cutter device, a roller pair, a motor, a driving unit, a sheet position detection sensor, and the like, and the wireless tag 68 in which link information is written as described above. Is separated from the continuous seal 87, and the separated seal 67 is discharged from the seal discharge port 66 shown in FIG. 13 to the outside as shown in FIG.
C−CPU72は、上記無線タグ68に書き込まれたリンク情報を、画像処理部78を介してメモリカード81に格納される上記の画像データの所定のデータ書込み領域に書き込む。これにより、撮影した写真(画像データ、以下同様)62とチケット61との関連付けが完了する。すなわち、無線タグ68を貼着されたシール67及び無線タグ68に書き込まれたリンク情報を介して、実体物としてのチケット61と、写真62とがリンクされる。 The C-CPU 72 writes the link information written in the wireless tag 68 in a predetermined data writing area of the image data stored in the memory card 81 via the image processing unit 78. Thereby, the association between the photographed image (image data, the same applies hereinafter) 62 and the ticket 61 is completed. That is, the ticket 61 as an entity and the photograph 62 are linked through the seal 67 to which the wireless tag 68 is attached and the link information written in the wireless tag 68.
このように、実施例4のカメラ63によれば、無線タグ付きシールにより、チケット、入場券の半券、拝観券、あるいはカタログ類等の実体物に貼着可能な状態で、その実体物の入手に関わる風景、人物、拝観物等を撮影した写真の画像データとを関連付けるリンク情報を出力するので、写真撮影者は、カメラからの出力(タグ付きシール)を実体物に貼着することにより、後日そのリンク情報を読み取るだけで、実体物から画像データを検索する等が容易に出来るようになる。また、無線タグの情報は非接触で容易に検出できるので極めて便利であり、使い勝手がよい。 As described above, according to the camera 63 of the fourth embodiment, the wireless tag attached sticker can be attached to an entity such as a ticket, admission ticket stub, admission ticket, or catalog. Since the link information that associates the image data of a photograph taken of a landscape, person, or observation object related to acquisition is output, the photographer can attach the output from the camera (tagged sticker) to the entity. The image data can be easily retrieved from the entity by simply reading the link information at a later date. In addition, since the information of the wireless tag can be easily detected without contact, it is extremely convenient and convenient.
図15は、メモリカード81に記録される画像データファイルのデータ構成を示す図である。同図に示す例では、ルートディレクトリDCIMに作成されているフォルダ001TAMABに、3種類のファイルが格納されている。 FIG. 15 is a diagram showing the data structure of an image data file recorded on the memory card 81. In the example shown in the figure, three types of files are stored in a folder 001TAMAB created in the root directory DCIM.
ファイル領域の先頭には画像データファイルが格納される。同図の例では、画像データファイルP7010001.JPG、P7010002.JPG、P7010003.JPG、・・・が格納されている。 An image data file is stored at the top of the file area. In the example shown in the figure, the image data file P701001. JPG, P701002. JPG, P7010003. JPG,... Are stored.
ファイル領域の中間には、拡張子がWAVで示されるアフレコの音声データが格納される。同図の例では、音声データファイルP7010001.WAV、P7010005.WAB、・・・が格納されている。音声データファイルP7010001.WAVは画像データファイルP7010001.JPGに対応し、音声データファイルP7010005.WAVは画像データファイルP7010005.JPGに対応している。 In the middle of the file area, post-record audio data whose extension is indicated by WAV is stored. In the example shown in the figure, the audio data file P701001. WAV, P7010005. WAB,... Are stored. Audio data file P701001. WAV stores the image data file P701001. The audio data file P7010005. WAV stores the image data file P7010005. It corresponds to JPG.
また、ファイル領域の後方には、画像に関わるコメントや覚え書きとしてのテキストデータファイルが格納される。同図の例ではテキストデータファイルP7010001.TXT、・・・が格納されている。テキストデータファイルP7010001.TXTは画像データファイルP7010001.JPGに対応している。 Further, behind the file area, a text data file as a comment or memorandum relating to an image is stored. In the example shown in the figure, the text data file P701001. TXT,... Are stored. Text data file P701001. TXT is an image data file P701001. It corresponds to JPG.
すなわち、音声データファイル、音声データファイル、テキストデータファイルは、拡張子を除いたファイル名が同一のもの同士がそれぞれ対応している。
また、上記の画像データファイルには、メーカーノートと呼ばれる付帯データ領域93が設けられている。この付帯データ領域93は、カメラメーカーが任意に利用できる領域であり、本例のカメラ63においては、同図に示すように、リンクフラグ、リンク情報、撮影日時、撮影場所、撮影者、ジャンルの各データ領域が設けられている。
That is, audio data files, audio data files, and text data files correspond to each other with the same file name excluding the extension.
The image data file has an accompanying data area 93 called a maker note. This supplementary data area 93 is an area that can be used arbitrarily by the camera manufacturer. In the camera 63 of this example, as shown in the figure, the link flag, link information, shooting date and time, shooting location, photographer, and genre are displayed. Each data area is provided.
ここで、リンク情報データ領域には、本例では「1」、「2」、「3」、・・・のように連番で構成される番号データが格納される。この番号データは、例えば図13及び図14に示したシール67の無線タグ68に書き込まれたリンク情報である。 Here, in the link information data area, number data composed of serial numbers such as “1”, “2”, “3”,. This number data is, for example, link information written in the wireless tag 68 of the seal 67 shown in FIGS.
これによって、例えばリンク情報「2」を書き込まれた無線タグ68の付いたシール67を貼着されたチケット61と、付帯データ領域93のリンク情報データ領域にリンク情報「2」を格納されている画像データファイルP7010002.JPGが関連付けがなされるようになっている。 Thereby, for example, the link information “2” is stored in the ticket 61 to which the seal 67 with the wireless tag 68 written with the link information “2” is attached and the link information data area of the incidental data area 93. Image data file P701002. JPG is associated.
また、リンク情報データ領域に「0」が格納されている例えば画像データファイルP7010003.JPGは、この写真と関連付けられる実体物が無いことを示している。
また、付帯データ領域93のリンクフラグデータ領域には、リンク情報データ領域にリンク情報が格納されている全ての画像データファイルに対して「1」が格納される。これにより実体物に関連のある画像データであるか否かの確認が容易にできるようになる。
Further, for example, image data file P7010003. In which “0” is stored in the link information data area. JPG indicates that there is no entity associated with this photo.
In the link flag data area of the incidental data area 93, “1” is stored for all image data files in which link information is stored in the link information data area. As a result, it is possible to easily check whether the image data is related to the entity.
尚、実体物を代表的にチケットに置き換えて説明しているが、これに限ることなく、例えば前述したように、使い終わった後の割り箸の名入りの箸袋やサービスマッチの小箱などの、スクラップブックやA4判程度の適宜のシートに貼って(サービスマッチ等は平らに展開してから貼る)保管できる記念物になるものであれば何でもよい。 In addition, although the entity has been described by replacing it with a ticket, the present invention is not limited to this. For example, as described above, a chopstick bag with the name of a disposable chopstick after use, a small box of service match, etc. Anything can be used as long as it becomes a memorial that can be stored on a scrapbook or an appropriate sheet of about A4 size (a service match or the like is applied after being flattened).
また、リンク情報を1桁の番号として説明したが、2桁以上の番号でも良いことは言うまでも無い。
このようにしてリンク情報によって画像データファイルとの関連付けが行われたチケット61を、図1に示した透明ビュワー1を透して眺めると、透明ビュワー1の送受信部18がアンテナ25を介して、チケット61の無線タグ68のリンク情報を読み出し、このリンク情報に基づいて、チケット61に関連する画像データファイルをメモリカード7(カメラ63から取り出されて透明ビュワー1に装着されたメモリカード81)から自動的に読み出し、その読み出した画像データファイルの画像を、図6又は図7に示した表示態様で、透明ビュワー1の画像表示部2に表示する。
Although the link information has been described as a one-digit number, it goes without saying that it may be a two-digit number or more.
When the ticket 61 associated with the image data file by the link information is viewed through the transparent viewer 1 shown in FIG. 1, the transmission / reception unit 18 of the transparent viewer 1 passes through the antenna 25. The link information of the wireless tag 68 of the ticket 61 is read, and based on this link information, the image data file related to the ticket 61 is read from the memory card 7 (the memory card 81 taken out from the camera 63 and attached to the transparent viewer 1). Automatically read out and the image of the read image data file is displayed on the image display unit 2 of the transparent viewer 1 in the display mode shown in FIG.
1、1´ 透明ビュワー
2 画像表示部
2−1 手前側の面
2−2 背面側の面
3 把持部
4 右手
5 スピーカ
6 操作ボタン
7 メモリカード
8 開口
9 メモリ装着部
10 チケット
10−1、10−2 実体物
11 シート
12(12a、12b、12c、12d) 画像
13 無線タグ
14 B−CPU
15 バス
16 音声処理部
17 画像処理部
18 タグリーダ(送受信部)
19 コントローラ
21 本体操作部
22 位置検出部
23 タッチパネル
24 音声出力部
25(25−1〜25−9) ループアンテナ
26、27 升目領域
28 非表示位置
29a、29b、29c、29d 画像
31 境界線
32 画像
33−1〜33−4 表示態様(透明ビュワーの表示状態)
34 検出部
35 投光窓
36 受光窓
37 赤外LED(liquid crystal display)
38 受光レンズ
39 ラインセンサ
41 投光光
42−1、42−2 反射光
43 眼鏡型ビュワー
44 人
44−1 鼻
44−2 耳
44−3 左眼
45 LCD(liquid crystal display:液晶表示装置)
46 レンズ群
47 自由曲面プリズム
48 アンテナ送受信部
49 背景光線
51 虚像
52 G−CPU
53 バス
54 画像処理部
55 メモリカード
56 コントローラ
57 本体操作部
58 送受信部
59 アンテナ
61 チケット
61a 余白部
62 写真(画像データ)
63 カメラ
64 表示画面
65 シャッタボタン
66 シール排出口
67 シール
67−1 シール本体
67−2 台紙(剥離紙)
68 無線タグ
69 カメラ本体
71 リンク情報出力部
72 CPU
73 バス
74 撮像部
75 音声処理部
76 タグライタ
77 コントローラ
78 画像処理部
79 画像表示部
81 メモリカード
82 本体操作部
83 音声出力部
84 スピーカ接続端子
85 撮像素子
86 レンズ
87 連続シール
88 送り部
91 送受信部
92 アンテナ
93 付帯データ領域
DESCRIPTION OF SYMBOLS 1, 1 'Transparent viewer 2 Image display part 2-1 Front side surface 2-2 Rear side surface 3 Grip part 4 Right hand 5 Speaker 6 Operation button 7 Memory card 8 Opening 9 Memory mounting part 10 Ticket 10-1, 10 -2 entity 11 sheet 12 (12a, 12b, 12c, 12d) image 13 wireless tag 14 B-CPU
15 Bus 16 Audio processing unit 17 Image processing unit 18 Tag reader (transmission / reception unit)
DESCRIPTION OF SYMBOLS 19 Controller 21 Main body operation part 22 Position detection part 23 Touch panel 24 Audio | voice output part 25 (25-1 to 25-9) Loop antenna 26, 27 Grid area 28 Non-display position 29a, 29b, 29c, 29d Image 31 Border line 32 Image 33-1 to 33-4 display mode (display state of transparent viewer)
34 Detection Unit 35 Light Projection Window 36 Light Receiving Window 37 Infrared LED (liquid crystal display)
38 Light-receiving lens 39 Line sensor 41 Projection light 42-1 and 42-2 Reflected light 43 Glasses-type viewer 44 Person 44-1 Nose 44-2 Ear 44-3 Left eye 45 LCD (liquid crystal display)
46 Lens group 47 Free-form surface prism 48 Antenna transmission / reception unit 49 Background light 51 Virtual image 52 G-CPU
53 Bus 54 Image processing unit 55 Memory card 56 Controller 57 Main unit operation unit 58 Transmission / reception unit 59 Antenna 61 Ticket 61a Blank portion 62 Photo (image data)
63 Camera 64 Display screen 65 Shutter button 66 Seal discharge port 67 Seal 67-1 Seal body 67-2 Mount (release paper)
68 Wireless Tag 69 Camera Body 71 Link Information Output Unit 72 CPU
73 Bus 74 Imaging unit 75 Audio processing unit 76 Tag writer 77 Controller 78 Image processing unit 79 Image display unit 81 Memory card 82 Main unit operation unit 83 Audio output unit 84 Speaker connection terminal 85 Imaging element 86 Lens 87 Continuous seal 88 Sending unit 91 Transmission / reception unit 92 Antenna 93 Data area attached
Claims (7)
前記画像表示手段の画面上に複数配置され、前記背面側の実体物から発信された信号を受信する受信部と、
前記受信した信号の分布に基づいて、前記画像表示手段の画面の中で、前記背面側の実体物を透して見る範囲を画像表示をさせない非表示領域として設定する設定手段と、
前記非表示領域以外の領域に画像を表示するよう前記画像表示手段を制御する表示制御手段と、を備える
ことを特徴とする画像再生装置。 An image display means that displays an image on the front side, transmits light from the back side to the front side, and has light transmittance that allows the back side to be visually recognized from the front side;
A plurality of receivers arranged on the screen of the image display means and receiving a signal transmitted from the entity on the back side;
Based on the distribution of the received signal, setting means for setting a range viewed through the entity on the back side as a non-display area that does not display an image in the screen of the image display means;
An image reproduction apparatus comprising: display control means for controlling the image display means to display an image in an area other than the non-display area.
ことを特徴とする請求項1記載の画像再生装置。 The image reproducing apparatus according to claim 1 , wherein the setting means sets the non-display area by an operation instruction in addition to the distribution of the received signal .
前記背面側の実体物から発信された信号を、前記画像表示手段の画面上に複数配置された受信部により受信し、The signal transmitted from the substance on the back side is received by a plurality of receiving units arranged on the screen of the image display means,
前記受信した信号の分布に基づいて、前記画像表示手段の画面の中で、前記背面側の実体物を透して見る範囲を画像表示をさせない非表示領域として設定し、 Based on the distribution of the received signal, in the screen of the image display means, set the range seen through the back side entity as a non-display area that does not display an image,
前記非表示領域以外の領域に画像を表示するよう制御する Control to display an image in an area other than the non-display area
ことを特徴とする表示方法。 A display method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004336842A JP4686176B2 (en) | 2004-11-22 | 2004-11-22 | Image playback device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004336842A JP4686176B2 (en) | 2004-11-22 | 2004-11-22 | Image playback device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011009964A Division JP2011138141A (en) | 2011-01-20 | 2011-01-20 | Image reproducing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006145922A JP2006145922A (en) | 2006-06-08 |
JP4686176B2 true JP4686176B2 (en) | 2011-05-18 |
Family
ID=36625682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004336842A Expired - Fee Related JP4686176B2 (en) | 2004-11-22 | 2004-11-22 | Image playback device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4686176B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011138141A (en) * | 2011-01-20 | 2011-07-14 | Olympus Corp | Image reproducing device |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4951266B2 (en) * | 2006-04-21 | 2012-06-13 | シャープ株式会社 | Display device, related information display method and program |
JP2008046173A (en) * | 2006-08-11 | 2008-02-28 | Pioneer Electronic Corp | Information display device and display system, and information display control method and program |
JP2009122279A (en) * | 2007-11-13 | 2009-06-04 | Ntt Docomo Inc | Portable information processing apparatus and display control method of portable information processing apparatus |
JP4826963B2 (en) * | 2008-03-10 | 2011-11-30 | Necインフロンティア株式会社 | Video display apparatus and method |
JP2011008111A (en) * | 2009-06-26 | 2011-01-13 | Canon Inc | Display and method of controlling the same |
JP5012933B2 (en) * | 2010-02-26 | 2012-08-29 | カシオ計算機株式会社 | Mobile terminal and program |
US9213405B2 (en) * | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
JP5063791B2 (en) * | 2011-03-28 | 2012-10-31 | 株式会社エヌ・ティ・ティ・ドコモ | Portable information processing apparatus and display control method for portable information processing apparatus |
CN102737576B (en) * | 2011-04-12 | 2014-12-10 | 神基科技股份有限公司 | Transparent display device and operating method thereof |
JP5830987B2 (en) * | 2011-07-06 | 2015-12-09 | ソニー株式会社 | Display control apparatus, display control method, and computer program |
US9153195B2 (en) | 2011-08-17 | 2015-10-06 | Microsoft Technology Licensing, Llc | Providing contextual personal information by a mixed reality device |
US10019962B2 (en) | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
WO2013028908A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Touch and social cues as inputs into a computer |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
WO2014128810A1 (en) | 2013-02-22 | 2014-08-28 | ソニー株式会社 | Head-mounted display and image display device |
JP5790821B2 (en) * | 2014-04-07 | 2015-10-07 | カシオ計算機株式会社 | Information reading apparatus and program |
KR102666192B1 (en) * | 2016-07-28 | 2024-05-14 | 삼성디스플레이 주식회사 | Display device |
WO2018105170A1 (en) * | 2016-12-06 | 2018-06-14 | シャープ株式会社 | Transparent display device and transparent display system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000331557A (en) * | 1999-05-21 | 2000-11-30 | Mimaki Denshi Buhin Kk | Light emitting display device with touch panel sensor |
JP2002132446A (en) * | 2000-10-25 | 2002-05-10 | Sony Corp | Information input/output system, information input/ output method and program storage medium |
JP2002229546A (en) * | 2001-02-05 | 2002-08-16 | Sharp Corp | Display device |
JP2003131587A (en) * | 2001-10-29 | 2003-05-09 | Denso Corp | Information display unit |
JP2004048695A (en) * | 2002-05-20 | 2004-02-12 | Seiko Epson Corp | Projection image display system, projector, program, information storage medium, and image projection method |
JP2004077516A (en) * | 2002-08-09 | 2004-03-11 | Sharp Corp | Display device |
JP2004294637A (en) * | 2003-03-26 | 2004-10-21 | Canon Inc | Display device and display control method |
JP2004302124A (en) * | 2003-03-31 | 2004-10-28 | Toshiba Corp | Display device |
-
2004
- 2004-11-22 JP JP2004336842A patent/JP4686176B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000331557A (en) * | 1999-05-21 | 2000-11-30 | Mimaki Denshi Buhin Kk | Light emitting display device with touch panel sensor |
JP2002132446A (en) * | 2000-10-25 | 2002-05-10 | Sony Corp | Information input/output system, information input/ output method and program storage medium |
JP2002229546A (en) * | 2001-02-05 | 2002-08-16 | Sharp Corp | Display device |
JP2003131587A (en) * | 2001-10-29 | 2003-05-09 | Denso Corp | Information display unit |
JP2004048695A (en) * | 2002-05-20 | 2004-02-12 | Seiko Epson Corp | Projection image display system, projector, program, information storage medium, and image projection method |
JP2004077516A (en) * | 2002-08-09 | 2004-03-11 | Sharp Corp | Display device |
JP2004294637A (en) * | 2003-03-26 | 2004-10-21 | Canon Inc | Display device and display control method |
JP2004302124A (en) * | 2003-03-31 | 2004-10-28 | Toshiba Corp | Display device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011138141A (en) * | 2011-01-20 | 2011-07-14 | Olympus Corp | Image reproducing device |
Also Published As
Publication number | Publication date |
---|---|
JP2006145922A (en) | 2006-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4686176B2 (en) | Image playback device | |
US8199117B2 (en) | Archive for physical and digital objects | |
CN103813044B (en) | Guidance information display device | |
KR102223282B1 (en) | Mobile terminal having smart measuring tape and object size measuring method thereof | |
KR102056193B1 (en) | Mobile terminal and method for controlling the same | |
KR102605470B1 (en) | Mobile terminal and method for controlling the same | |
US20190020823A1 (en) | Mobile terminal | |
CN106060227A (en) | Mobile terminal and method for controlling the same | |
JP5677001B2 (en) | Information processing apparatus and information processing system | |
US20210081093A1 (en) | Mobile terminal and control method therefor | |
CN102402379A (en) | Mobile terminal and controlling method thereof | |
CN105404361A (en) | Imaging device and imaging device control method | |
CN102844732A (en) | Touch-panel input device | |
CN106713738A (en) | Mobile terminal and method for controlling the same | |
US10126943B2 (en) | Mobile terminal for activating editing function when item on front surface display area is dragged toward side surface display area | |
CN105718187A (en) | Mobile terminal and method of controlling content thereof | |
CN106534624A (en) | Mobile terminal | |
CN106155494A (en) | Mobile terminal and control method thereof | |
JP2012073746A (en) | Information processor, information processing system and information processing program | |
CN108353129A (en) | Capture apparatus and its control method | |
CN109684277A (en) | A kind of image display method and terminal | |
US10162507B2 (en) | Display control apparatus, display control system, a method of controlling display, and program | |
US20150116508A1 (en) | Information processing apparatus, imaging apparatus, imaging system, method of controlling information processing apparatus, method of controlling imaging apparatus, and program | |
US20140285686A1 (en) | Mobile device and method for controlling the same | |
JP2008160879A (en) | Electronic camera, image display device and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070717 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110208 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4686176 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |