JP2012173542A - Display system, display method, terminal device, and computer program - Google Patents

Display system, display method, terminal device, and computer program Download PDF

Info

Publication number
JP2012173542A
JP2012173542A JP2011035984A JP2011035984A JP2012173542A JP 2012173542 A JP2012173542 A JP 2012173542A JP 2011035984 A JP2011035984 A JP 2011035984A JP 2011035984 A JP2011035984 A JP 2011035984A JP 2012173542 A JP2012173542 A JP 2012173542A
Authority
JP
Japan
Prior art keywords
display
terminal
image
display device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011035984A
Other languages
Japanese (ja)
Inventor
Hideki Mori
秀樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011035984A priority Critical patent/JP2012173542A/en
Publication of JP2012173542A publication Critical patent/JP2012173542A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display system, a display method, a terminal device, and a computer program, which enhance flexible operability and convenience of an extended screen display using plural terminals.SOLUTION: A display system 1 includes: a proximity detection part 106 for detecting that a terminal 200 approaches or contacts to a terminal 100 displaying a first image; and a display instruction part 110 for instructing the image display part 202 of the terminal 200 to display a second image that is applicable to the position of the image display part 202 of the terminal 200 that has detected the approach or contact and is to be connected to the first image displayed on the image display part 102 of the terminal 100.

Description

本発明は、表示システム、表示方法、端末装置、およびコンピュータプログラムに関し、特に、複数の表示装置に表示を行う表示システム、表示方法、端末装置、およびコンピュータプログラムに関する。   The present invention relates to a display system, a display method, a terminal device, and a computer program, and more particularly, to a display system, a display method, a terminal device, and a computer program that perform display on a plurality of display devices.

近年、携帯電話機やスマートフォンなどのように表示部を備えた端末装置にあっては、その高機能化に伴って画面サイズの拡大化が進み、筐体の表面略全域に相当する大きさの表示部を有している。   In recent years, in the case of a terminal device having a display unit such as a mobile phone or a smartphone, the screen size has been increased with the enhancement of its function, and a display corresponding to the entire surface of the housing has been displayed. Has a part.

ところで、このような端末装置を任意の状態で複数台を並列配置することにより、全体としてマルチ画面(大画面)化して使用する場合がある。
このような表示機能を有する携帯端末装置の一例が特許文献1に記載されている。特許文献1に記載された携帯端末装置は、各端末側面に設けられたマグネットを用いて他の端末との接触を検知して、複数の端末の表示部を用いて一連の表示部を形成するものである。
By the way, by arranging a plurality of such terminal devices in parallel in an arbitrary state, there are cases in which a multi-screen (large screen) is used as a whole.
An example of a portable terminal device having such a display function is described in Patent Document 1. The portable terminal device described in Patent Document 1 detects a contact with another terminal using a magnet provided on each terminal side surface, and forms a series of display units using display units of a plurality of terminals. Is.

また、たとえば、2台の携帯電話機を横方向に並べて2つの表示部が左右に隣接する横並び状態とすることで、2ページ分のデータを左右に表示して見開き本のように使用することがある。
また、2台の携帯電話機を縦方向に並べて2つの表示部が上下に隣接する縦並び状態とすると共に、下側の表示部にソフトキーボード(タッチ式キーボード)を表示させて入力画面とし、上側の表示部にキーボードからの入力情報を表示するテキスト画面とすることで、ノートPC(Personal Computer)のように使用する場合がある。
In addition, for example, by arranging two mobile phones in a horizontal direction so that two display units are in a side-by-side state adjacent to the left and right, two pages of data can be displayed on the left and right and used as a spread book. is there.
In addition, two mobile phones are arranged in a vertical direction so that the two display units are vertically aligned adjacent to each other, and a soft keyboard (touch keyboard) is displayed on the lower display unit to form an input screen. By using a text screen that displays input information from the keyboard on the display unit, it may be used like a notebook PC (Personal Computer).

さらに4台の携帯電話機を2行×2列に並べて4つの表示部が左右上下に隣接するマトリックス並びの状態として地図データを4分割表示させることで、折り畳んだ広域地図を展開させた展開地図のように使用する場合がある。   In addition, four mobile phones are arranged in 2 rows x 2 columns, and the map data is displayed in four parts in a matrix arrangement in which the four display units are adjacent to the left, right, top, bottom, top, and bottom. May be used like so.

また、PCで複数のディスプレイ装置を接続したときに、画面を拡大した表示(たとえば、基本の表示画面の右側に接続する画像を追加のディスプレイ装置に表示するようなマルチスクリーン表示)なども使用することがある。   Further, when a plurality of display devices are connected by a PC, an enlarged display (for example, a multi-screen display in which an image connected to the right side of the basic display screen is displayed on an additional display device) is used. Sometimes.

また、特許文献2に記載された画像表示システムは、複数台の端末装置を並列配置してそれぞれ情報伝送媒体を介して互いに接続し、各表示装置の配置を識別番号表示と、その識別番号表示を撮影した画像情報に基づいて各表示装置の配置を特定することで、予め決められた配置で表示装置を設置しなくても、マルチディスプレイを構成できる。   In addition, the image display system described in Patent Document 2 has a plurality of terminal devices arranged in parallel and connected to each other via an information transmission medium, and the arrangement of each display device is indicated by an identification number display and its identification number display. By specifying the arrangement of each display device based on the image information obtained by photographing the multi-display, a multi-display can be configured without installing the display device in a predetermined arrangement.

また、特許文献2には、予め定めた各表示装置の配置位置から各表示装置がずれた場合には、ずれに応じて画像の表示のずれを補正する指令を微調整情報として各表示装置に与えることが記載されている。   Further, in Patent Document 2, when each display device deviates from a predetermined arrangement position of each display device, a command for correcting the image display displacement according to the displacement is given to each display device as fine adjustment information. It is described to give.

特開2010−85853号公報JP 2010-85853 A 特開2009−109671号公報JP 2009-109671 A

上述した特許文献2に記載された技術にあっては、複数台の表示装置を並列配置する際に、予め決められた位置関係となるように各表示装置を配置したり、それらの配置状態を示す位置関係を、ユーザが操作を行うことで入力したりする必要がなくなる。しかしながら、上述した技術では、複数台の表示装置を、それぞれ情報伝送媒体を介して互いに接続し、外部制御装置を用いて各端末を管理して制御する必要があった。そのため、複数の端末を個別に利用しながら、状況に応じて複数台を合わせて用いるなどフレキシブルな使い方はできないという問題点があった。   In the technique described in Patent Document 2 described above, when a plurality of display devices are arranged in parallel, each display device is arranged so as to have a predetermined positional relationship, or the arrangement state thereof is determined. It is not necessary for the user to input the positional relationship shown by performing an operation. However, in the above-described technique, it is necessary to connect a plurality of display devices to each other via an information transmission medium and manage and control each terminal using an external control device. For this reason, there is a problem that flexible usage such as using a plurality of terminals individually and using a plurality of terminals according to the situation is not possible.

また、特許文献1に記載された技術においても、複数の端末装置を隣接させる際に、配置がずれた場合には、そのとき表示していた画像を維持することはできるが、隣接していた位置から端末を離して移動した場所に相当する画像を表示することはできないという問題点があった。   Also, even in the technique described in Patent Document 1, when a plurality of terminal devices are arranged adjacent to each other, if the arrangement is shifted, the image displayed at that time can be maintained, but it is adjacent. There is a problem in that an image corresponding to a location moved away from the terminal cannot be displayed.

さらに、特許文献1または2に記載された技術にあっては、たとえば、PCのマルチスクリーニングの場合と同様に、2台のディスプレイ装置の互いの左右の配置を予め設定して、左右に拡大された画面を単に分割して各装置に表示している。そのため、ディスプレイ装置の相対的な位置を変えても個々の表示部の画像は変わらず固定である。   Further, in the technique described in Patent Document 1 or 2, for example, as in the case of PC multi-screening, the left and right arrangements of the two display devices are set in advance, and are expanded to the left and right. The screen is simply divided and displayed on each device. Therefore, even if the relative position of the display device is changed, the images on the individual display units are not changed and are fixed.

上述したように、予め定められた配置からのずれを補正することは可能ではあるので、たとえば、ディスプレイ装置の配置に高低差がある場合、2つの画面にまたがる画像の段差を補正することはできる。しかしながら、たとえば、現在表示されている画像の、もう少し外側の画像を確認したいような場合に、ディスプレイ装置の距離を離したとしても、表示画像領域が広がる訳ではない。そのため、表示されている画像の状況に応じて、ユーザがさらに広域の画像を見たい場合には、画面をスクロールするなどの操作が必要となり使い勝手が悪かった。   As described above, since it is possible to correct the deviation from the predetermined arrangement, for example, when there is a difference in height in the arrangement of the display device, it is possible to correct the level difference between the images across the two screens. . However, for example, when it is desired to check an image slightly outside the currently displayed image, even if the display device is separated, the display image area does not increase. For this reason, when the user wants to see a wider image according to the state of the displayed image, an operation such as scrolling the screen is required, which is unusable.

本発明の目的は、上述した課題である複数の端末を用いた拡張画面表示の柔軟な操作性および利便性を向上する表示システム、表示方法、端末装置、およびコンピュータプログラムを提供することにある。   An object of the present invention is to provide a display system, a display method, a terminal device, and a computer program that improve the flexible operability and convenience of extended screen display using a plurality of terminals, which are the problems described above.

本発明の表示システムは、
第1画像を表示している第1表示装置に対する第2表示装置の接近または接触を検出する接近検出手段と、
前記第1表示装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記第2表示装置の位置に相当する第2画像を、前記第2表示装置に表示指示する表示指示手段と、を備える。
The display system of the present invention includes:
An approach detecting means for detecting the approach or contact of the second display device to the first display device displaying the first image;
A display for instructing the second display device to display a second image corresponding to the position of the second display device that detects the approach or contact and is connected to the first image displayed on the first display device. Instruction means.

本発明の表示方法は、
複数の表示装置に画像を表示する表示方法であって、
第1画像を表示する表示装置が、
自装置に対する他の表示装置の接近または接触を検出し、
自装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記他の表示装置の位置に相当する第2画像を、前記他の表示装置に表示指示する表示方法である。
The display method of the present invention includes:
A display method for displaying images on a plurality of display devices,
A display device for displaying the first image;
Detecting the proximity or contact of other display devices with your device,
A display method for instructing the other display device to display a second image corresponding to the position of the other display device that has detected the approach or contact and is connected to the first image displayed on the device itself. .

本発明の第1の端末装置は、
表示部と、
前記表示部に第1画像を表示する表示制御手段と、
自装置に対する他の端末装置の接近または接触を検出する接近検出手段と、
前記表示部に表示している前記第1画像に連結する、前記接近または接触を検出した前記他の端末装置の位置に相当する第2画像を、前記他の端末装置の表示部に表示指示する表示指示手段と、を備える。
The first terminal device of the present invention is:
A display unit;
Display control means for displaying the first image on the display unit;
Proximity detection means for detecting the approach or contact of another terminal device to the device;
Instructs the display unit of the other terminal device to display the second image corresponding to the position of the other terminal device that detects the approach or contact, which is connected to the first image displayed on the display unit. Display instruction means.

本発明の第2の端末装置は、
表示部と、
自装置に接近または接触している他の端末装置から、当該他の端末装置の表示部に表示されている第1画像に連結する、自装置の位置に相当する第2画像を自装置の前記表示部に表示する指示を受け付ける受付手段と、
受け付けた前記指示に従い、前記第2画像を自装置の前記表示部に表示する表示制御手段と、を備える。
The second terminal device of the present invention
A display unit;
A second image corresponding to the position of the own device is connected to the first image displayed on the display unit of the other terminal device from another terminal device approaching or contacting the own device. Receiving means for receiving an instruction to be displayed on the display unit;
Display control means for displaying the second image on the display unit of the device according to the received instruction.

本発明の第1のコンピュータプログラムは、
画像を表示する表示装置と、
前記表示装置に対する他の表示装置の接近または接触を検出する接近検出部と、を備えるコンピュータに、
前記接近検出部が、第1画像を表示している表示装置に対する他の表示装置の接近または接触を検出する手順、
前記表示装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記他の表示装置の位置に相当する第2画像を、前記他の表示装置に表示指示する手順を実行させるためのコンピュータプログラムである。
The first computer program of the present invention is:
A display device for displaying an image;
A computer including an approach detection unit that detects an approach or contact of another display device with respect to the display device;
A procedure for the approach detection unit to detect the approach or contact of another display device with respect to the display device displaying the first image;
Execute a procedure for instructing the other display device to display a second image corresponding to the position of the other display device that detects the approach or contact, connected to the first image displayed on the display device. It is a computer program for making it happen.

本発明の第2のコンピュータプログラムは、
表示装置を備えるコンピュータに、
他の表示装置から、当該他の表示装置に表示されている第1画像に連結する、自装置の位置に相当する第2画像を自装置の前記表示装置に表示する指示を受け付ける手順、
受け付けた前記指示に従い、前記第2画像を自装置の前記表示装置に表示する手順を実行させるためのコンピュータプログラムである。
The second computer program of the present invention is:
In a computer equipped with a display device,
A procedure for receiving an instruction to display, on another display device, the second image corresponding to the position of the own device, which is connected to the first image displayed on the other display device, on the display device of the own device;
It is a computer program for executing a procedure for displaying the second image on the display device of its own device in accordance with the received instruction.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。   The various components of the present invention do not necessarily have to be independent of each other. A plurality of components are formed as a single member, and a single component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, or the like.

また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障しない範囲で変更することができる。   Moreover, although the several procedure is described in order in the method and computer program of this invention, the order of the description does not limit the order which performs a several procedure. For this reason, when implementing the method and computer program of this invention, the order of the several procedure can be changed in the range which does not interfere in content.

さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。   Furthermore, the plurality of procedures of the method and the computer program of the present invention are not limited to being executed at different timings. For this reason, another procedure may occur during the execution of a certain procedure, or some or all of the execution timing of a certain procedure and the execution timing of another procedure may overlap.

本発明によれば、複数の端末を用いた拡張画面表示の柔軟な操作性および利便性を向上する表示システム、表示方法、端末装置、およびコンピュータプログラムが提供される。   According to the present invention, there are provided a display system, a display method, a terminal device, and a computer program that improve flexible operability and convenience of extended screen display using a plurality of terminals.

本発明の実施の形態に係る表示システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the display system which concerns on embodiment of this invention. 本発明の実施の形態に係る各端末の構成を示すブロック図である。It is a block diagram which shows the structure of each terminal which concerns on embodiment of this invention. 本発明の実施の形態に係る表示システムの端末の連携画面表示処理を説明するための図である。It is a figure for demonstrating the cooperation screen display process of the terminal of the display system which concerns on embodiment of this invention. 本発明の実施の形態に係る表示システムの概略動作の一例を示すフローチャートである。It is a flowchart which shows an example of schematic operation | movement of the display system which concerns on embodiment of this invention. 本発明の実施の形態に係る表示システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the display system which concerns on embodiment of this invention. 本発明の実施の形態に係る表示システムの動作の詳細な例を示すフローチャートである。It is a flowchart which shows the detailed example of operation | movement of the display system which concerns on embodiment of this invention. 図6のフローチャートの続き示すフローチャートである。It is a flowchart which continues the flowchart of FIG. 本発明の実施の形態に係る表示システムの端末の画面表示の組み合わせを説明するための図である。It is a figure for demonstrating the combination of the screen display of the terminal of the display system which concerns on embodiment of this invention. 本発明の実施の形態に係る表示システムの端末の画面表示例を説明するための図である。It is a figure for demonstrating the example of a screen display of the terminal of the display system which concerns on embodiment of this invention. 本発明の実施の形態に係る表示システムの端末の画面表示例を説明するための図である。It is a figure for demonstrating the example of a screen display of the terminal of the display system which concerns on embodiment of this invention. 本発明の実施の形態に係る表示システムの端末の画面表示の組み合わせを説明するための図である。It is a figure for demonstrating the combination of the screen display of the terminal of the display system which concerns on embodiment of this invention.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same reference numerals are given to the same components, and the description will be omitted as appropriate.

(第1の実施の形態)
図1は、本発明の実施の形態に係る表示システム1の構成を示す機能ブロック図である。
本実施形態の表示システム1は、第1画像を表示している第1表示装置(端末100の画像表示部102)に対する第2表示装置(端末200の画像表示部202)の接近または接触を検出する接近検出部106と、端末100の画像表示部102に表示している第1画像に連結する、接近または接触を検出した端末200の画像表示部202の位置に相当する第2画像を、端末200の画像表示部202に表示指示する表示指示部110と、を備える。
(First embodiment)
FIG. 1 is a functional block diagram showing a configuration of a display system 1 according to an embodiment of the present invention.
The display system 1 of the present embodiment detects the approach or contact of the second display device (the image display unit 202 of the terminal 200) with respect to the first display device (the image display unit 102 of the terminal 100) displaying the first image. The second image corresponding to the position of the image display unit 202 of the terminal 200 that detects the approach or contact, and is connected to the first image displayed on the image display unit 102 of the terminal 100 A display instruction unit 110 for instructing display on the 200 image display units 202.

本実施形態において、第1表示装置および第2表示装置は、各種の携帯端末の表示装置とすることができ、たとえば、携帯電話機、PHS(Personal Handyphone System)、スマートフォン、タブレット型情報端末、PDA(Personal Digital Assistants)、ノートPC(Personal Computer)、携帯型DVDプレーヤ、携帯型ゲーム機、携帯型テレビ受像機などの表示装置を含む。本発明の第1表示装置および第2表示装置は、それぞれ、図1の第1の端末100(以後、「端末A」とも呼ぶ)および第2の端末200(以後、「端末B」とも呼ぶ)の画像表示部102および画像表示部202に対応する。   In the present embodiment, the first display device and the second display device can be display devices of various mobile terminals. For example, a mobile phone, a PHS (Personal Handyphone System), a smartphone, a tablet information terminal, a PDA (PDA) Personal digital assistants), notebook PCs (Personal Computers), portable DVD players, portable game machines, and portable television receivers. The first display device and the second display device of the present invention are the first terminal 100 (hereinafter also referred to as “terminal A”) and the second terminal 200 (hereinafter also referred to as “terminal B”) in FIG. 1, respectively. Corresponds to the image display unit 102 and the image display unit 202 of FIG.

図2は、本発明の実施の形態に係る端末100および端末200の構成を示すブロック図である。
端末100および端末200は、同様な構成を有する携帯端末であるが、必ずしも同じ種類のものでなくてもよい。また、本実施形態では、2台の端末を用いて説明しているが、これに限定されない。2台以上の複数の端末を用いてもよい。
FIG. 2 is a block diagram showing configurations of terminal 100 and terminal 200 according to the embodiment of the present invention.
The terminal 100 and the terminal 200 are portable terminals having the same configuration, but they are not necessarily the same type. Moreover, although this embodiment has been described using two terminals, the present invention is not limited to this. Two or more terminals may be used.

図2に示すように、端末100および端末200は、CPU2と、ROM4と、RAM6と、ネットワーク通信制御部8と、第1アンテナ10と、操作部12と、操作受付部14と、表示部16と、表示制御部18と、加速度センサ20と、端末間通信制御部22と、第2アンテナ24と、をそれぞれ備える。   As illustrated in FIG. 2, the terminal 100 and the terminal 200 include a CPU 2, a ROM 4, a RAM 6, a network communication control unit 8, a first antenna 10, an operation unit 12, an operation reception unit 14, and a display unit 16. A display control unit 18, an acceleration sensor 20, an inter-terminal communication control unit 22, and a second antenna 24.

CPU2は、端末100または端末200の各要素とバス30を介して接続され、各要素とともに端末100または端末200全体を制御する。ROM4は、本発明の制御プログラムが格納される。端末100を動作させるための基本プログラムや各種アプリケーションプログラム、それらのプログラムが動作する際に使用する各種設定データなどを記憶する。RAM6は、プログラムが動作するための作業領域を有する。   The CPU 2 is connected to each element of the terminal 100 or the terminal 200 via the bus 30 and controls the terminal 100 or the entire terminal 200 together with each element. The ROM 4 stores the control program of the present invention. A basic program and various application programs for operating the terminal 100, various setting data used when these programs operate, and the like are stored. The RAM 6 has a work area for operating the program.

ネットワーク通信制御部8は、第1アンテナ10を介して、図示されない基地局を介した移動体通信網、LAN(Local Area Network)、またはインターネット、あるいは、これらを組み合わせたネットワークに接続して通信を行う。   The network communication control unit 8 communicates via the first antenna 10 by connecting to a mobile communication network via a base station (not shown), a LAN (Local Area Network), the Internet, or a network combining these. Do.

たとえば、端末100および端末200は、移動体通信網やインターネットの様々なサイトにネットワーク通信制御部8を使用してアクセスする機能を備える。ユーザは、ネットワーク通信制御部8を用いて接続した様々なサイトの情報を後述する表示部16に表示させたり、アプリケーションプログラムやコンテンツをダウンロードして利用したりできる。   For example, the terminal 100 and the terminal 200 have a function of accessing various sites on the mobile communication network and the Internet using the network communication control unit 8. The user can display information on various sites connected using the network communication control unit 8 on the display unit 16 described later, or download and use application programs and contents.

操作部12は、ユーザが操作するキー、ボタン、スイッチ、ジョグダイヤル、タッチパッド、タッチパネルなどを含む。操作受付部14は、操作部12のユーザ操作を受け付け、CPU2にバス30を介して通知する。   The operation unit 12 includes keys, buttons, switches, a jog dial, a touch pad, a touch panel, and the like operated by the user. The operation reception unit 14 receives a user operation of the operation unit 12 and notifies the CPU 2 via the bus 30.

表示部16は、LED(Light Emitting Diode)表示器や、液晶ディスプレイ、有機EL(ElectroLuminescence)ディスプレイなどを含む。表示制御部18は、CPU2からの指示に従い、表示部16に各種表示制御を行う。
加速度センサ20は、自装置に掛かる重力、振動や動き、および衝撃を検出するものである。加速度センサ20からの出力信号を用いることで、他の端末の接触を検知するだけでなく、自装置の向き、傾き、移動なども検知することができる。
The display unit 16 includes an LED (Light Emitting Diode) display, a liquid crystal display, an organic EL (ElectroLuminescence) display, and the like. The display control unit 18 performs various display controls on the display unit 16 in accordance with instructions from the CPU 2.
The acceleration sensor 20 detects gravity, vibration, movement, and impact applied to its own device. By using the output signal from the acceleration sensor 20, not only the contact of another terminal can be detected, but also the orientation, tilt, movement, etc. of the device itself can be detected.

端末間通信制御部22は、たとえば、赤外線通信、非接触IC通信、またはブルートゥースなどの微弱電波通信機能、無線LAN通信機能などを用いて、第2アンテナ24を介して、自端末に接近または接触している他の端末と通信を行う。   The inter-terminal communication control unit 22 approaches or contacts the own terminal via the second antenna 24 using, for example, a weak radio wave communication function such as infrared communication, non-contact IC communication, Bluetooth, or a wireless LAN communication function. Communicate with other terminals.

端末100または端末200の各構成要素は、CPU2、メモリ(RAM6)、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット(ROM4)、ネットワーク接続用インタフェース(通信制御部8、アンテナ10)を中心にハードウェアとソフトウェアの任意の組合せを用いて実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各図は、ハードウェア単位の構成ではなく、機能単位のブロックを示している。   Each component of the terminal 100 or the terminal 200 includes a CPU 2, a memory (RAM 6), a program that implements the components shown in the figure loaded in the memory, a storage unit (ROM 4) such as a hard disk for storing the program, and a network connection It is realized by using any combination of hardware and software centering on the interface (communication control unit 8 and antenna 10). It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. Each figure described below shows functional unit blocks, not hardware unit configurations.

なお、以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、たとえば、端末100または端末200の構成であるスピーカやマイクなどの音声の入出力機能部、およびバイブレーション機能部などは図示されていない。なお、端末100または端末200の操作部12は、マイクを用いて入力された音声による指示を受け付けるものであってもよい。   In each of the following drawings, the configuration of parts not related to the essence of the present invention is omitted. For example, voice input / output function units such as speakers and microphones, which are the configurations of the terminal 100 or the terminal 200, and vibrations are omitted. The functional unit and the like are not shown. Note that the operation unit 12 of the terminal 100 or the terminal 200 may accept an instruction by voice input using a microphone.

本実施の形態の表示システム1の各端末では、本発明のコンピュータプログラムに記述された処理手順をCPU2が実行することで、各種ユニットが各種機能として実現される。   In each terminal of the display system 1 of the present embodiment, various units are realized as various functions by the CPU 2 executing the processing procedure described in the computer program of the present invention.

本実施形態のコンピュータプログラムは、端末100を実現させるためのコンピュータに、接近検出部106が、第1画像を表示している表示装置(端末100の画像表示部102)に対する他の表示装置(端末200)の接近または接触を検出する手順、端末100の画像表示部102に表示している第1画像に連結する、接近または接触を検出した端末200の画像表示部202の位置に相当する第2画像を、端末200の画像表示部202に表示指示する手順、を実行させるように記述されている。   The computer program according to the present embodiment is a computer for realizing the terminal 100, and another display device (terminal) for the display device (the image display unit 102 of the terminal 100) on which the approach detection unit 106 displays the first image. 200), a second step corresponding to the position of the image display unit 202 of the terminal 200 that detects the approach or contact, and is connected to the first image displayed on the image display unit 102 of the terminal 100. A procedure for instructing the image display unit 202 of the terminal 200 to display the image is described.

本実施形態のコンピュータプログラムは、コンピュータで読み取り可能な記録媒体に記録されてもよい。記録媒体は特に限定されず、様々な形態のものが考えられる。また、プログラムは、記録媒体からコンピュータのメモリにロードされてもよいし、ネットワークを通じてコンピュータにダウンロードされ、メモリにロードされてもよい。   The computer program of this embodiment may be recorded on a computer-readable recording medium. The recording medium is not particularly limited, and various forms can be considered. The program may be loaded from a recording medium into a computer memory, or downloaded to a computer through a network and loaded into the memory.

このように構成された本実施形態の表示システム1の動作について、以下に説明する。
図4は、本発明の表示方法の手順の概要を示している。以下、図1乃至図4を用いて説明する。図4は、左側にメイン端末(端末A)側のフローチャート、右側にサブ端末(端末B)のフローチャートを示す。
The operation of the display system 1 of the present embodiment configured as described above will be described below.
FIG. 4 shows an outline of the procedure of the display method of the present invention. Hereinafter, description will be made with reference to FIGS. FIG. 4 shows a flowchart of the main terminal (terminal A) on the left side, and a flowchart of the sub-terminal (terminal B) on the right side.

本実施形態の表示方法は、複数の表示装置(図1の端末Aおよび端末B)に画像を表示する表示方法であって、第1画像を表示する表示装置(端末Aの画像表示部102)が、自装置(端末A)に対する他の表示装置(端末B)の接近または接触を検出し(図4のステップS103のYES)、自装置(端末Aの画像表示部102)に表示している第1画像に連結する、接近または接触を検出した他の表示装置(端末Bの画像表示部202)の位置に相当する第2画像を、他の表示装置(端末Bの画像表示部202)に表示指示する(図4のステップS105)。   The display method of the present embodiment is a display method for displaying images on a plurality of display devices (terminal A and terminal B in FIG. 1), and a display device for displaying a first image (image display unit 102 of terminal A). However, the approach or contact of the other display device (terminal B) with respect to the own device (terminal A) is detected (YES in step S103 in FIG. 4) and displayed on the own device (image display unit 102 of terminal A). The second image corresponding to the position of the other display device (image display unit 202 of terminal B) that detects the approach or contact is connected to the first image to the other display device (image display unit 202 of terminal B). A display instruction is given (step S105 in FIG. 4).

具体的には、まず、端末Aでは、本発明の連携画面表示処理が可能なアプリケーションプログラムが起動されている状態であるとする。このとき、端末Aの画像表示部102が第1画像を表示しているものとする(図4のステップS101)。このときの各端末の様子は図3(a)に示される。端末Aの画像表示部102には、第1画像120が表示されている。ここでは、たとえば、地図が表示されている。   Specifically, first, it is assumed that the terminal A is in a state where an application program capable of the cooperative screen display processing of the present invention is activated. At this time, it is assumed that the image display unit 102 of the terminal A displays the first image (step S101 in FIG. 4). The state of each terminal at this time is shown in FIG. A first image 120 is displayed on the image display unit 102 of the terminal A. Here, for example, a map is displayed.

そして、第1画像120(図3)を表示している状態において、端末Aの接近検出部106(図1)が、自装置(端末A)に対する他の表示装置の接近または接触を監視する(図4のステップS103)。このとき、端末Bは、動作モードが連携モードに設定され、画像表示部202には、端末Aの表示画像とは関連のない画像220(図3(a))、たとえば、待ち受け画像などが表示されているものとする(図4のステップS201)。   Then, in a state where the first image 120 (FIG. 3) is displayed, the approach detection unit 106 (FIG. 1) of the terminal A monitors the approach or contact of another display device with respect to the own device (terminal A) ( Step S103 in FIG. At this time, the operation mode of the terminal B is set to the cooperation mode, and the image display unit 202 displays an image 220 (FIG. 3A) unrelated to the display image of the terminal A, for example, a standby image. (Step S201 in FIG. 4).

そして、端末Aの接近検出部106(図1)が、自装置(端末A)に対する他の表示装置、ここでは、端末Bの接近または接触を検出したとき(図4のステップS103のYES)、図4のステップS105に進む。図3(b)は、端末Aに端末Bを接触させたときの様子を示している。   Then, when the approach detection unit 106 (FIG. 1) of the terminal A detects the approach or contact of another display device, that is, the terminal B, to the own device (terminal A) (YES in step S103 in FIG. 4). Proceed to step S105 in FIG. FIG. 3B shows a state when the terminal B is brought into contact with the terminal A.

そして、端末Aの表示指示部110(図1)が、自装置(端末Aの画像表示部102)に表示している第1画像に連結する、接近または接触を検出した他の表示装置(端末Bの画像表示部202)の位置に相当する第2画像を、他の表示装置(端末Bの画像表示部202)に表示指示する(図4のステップS105)。   Then, the display instruction unit 110 (FIG. 1) of the terminal A is connected to the first image displayed on the own device (the image display unit 102 of the terminal A), and the other display device (terminal) that detects the approach or contact A second image corresponding to the position of the B image display unit 202) is instructed to be displayed on another display device (the image display unit 202 of the terminal B) (step S105 in FIG. 4).

そして、端末Bの画像表示部202(図1)が、端末Aからの第2画像の表示指示を受け付けると(図4のステップS203のYES)、端末Aからの指示に従い、第2画像を表示する(図4のステップS205)。図3(c)は、端末Bに、端末Aの画像表示部102に表示されている第1画像120に連結する、端末Bの位置に相当する第2画像222を表示している様子を示す。ここでは、端末Aに表示されている地図から続く地図が端末Bに表示されている。このようにして、2つの端末を用いて、ユーザは拡大された画像で広い範囲の地図を見ることができることとなる。
以降、端末Aと端末Bは連携して動作する。
Then, when the image display unit 202 (FIG. 1) of the terminal B receives a second image display instruction from the terminal A (YES in step S203 of FIG. 4), the second image is displayed according to the instruction from the terminal A. (Step S205 in FIG. 4). FIG. 3C shows a state in which the second image 222 corresponding to the position of the terminal B connected to the first image 120 displayed on the image display unit 102 of the terminal A is displayed on the terminal B. . Here, a map continuing from the map displayed on terminal A is displayed on terminal B. In this way, using the two terminals, the user can see a wide range of maps with the enlarged images.
Thereafter, terminal A and terminal B operate in cooperation.

なお、図3の例では、端末Aと端末Bは、図8(a)のように、端末Aの縦向きの画面130と端末Bの縦向きの画面230を横方向左右に並べた配置の例を用いて説明したが、本発明の表示方法において、この配置に限定されるものではない。端末Aと端末Bの左右の位置関係は入れ替わってもよい。また、たとえば、図8(b)のように、端末Aの横向きの画面132と端末Bの横向きの画面232を縦方向上下に並べてもよい。ここでも、端末Aと端末Bの上下の位置関係は入れ替わってもよい。   In the example of FIG. 3, the terminal A and the terminal B are arranged such that the vertical screen 130 of the terminal A and the vertical screen 230 of the terminal B are arranged side by side in the horizontal direction as shown in FIG. Although described using an example, the display method of the present invention is not limited to this arrangement. The positional relationship between the left and right terminals A and B may be switched. Further, for example, as shown in FIG. 8B, the horizontal screen 132 of the terminal A and the horizontal screen 232 of the terminal B may be arranged vertically in the vertical direction. Here, the upper and lower positional relationship between the terminal A and the terminal B may be interchanged.

また、図8(c)のように、端末Aの縦向きの画面130と端末Bの縦向きの画面234を縦方向上下に並べてもよい。ここでも、端末Aと端末Bの上下の位置関係は入れ替わってもよい。さらに、図8(d)のように、端末Aの横向きの画面132と端末Bの横向きの画面236を横方向左右に並べてもよい。ここでも、端末Aと端末Bの左右の位置関係は入れ替わってもよい。
また、たとえば、端末Aは横向きで端末Bは縦向きなどのように、端末Aと端末Bの画面の向きは異なってもよい。
Further, as shown in FIG. 8C, the vertical screen 130 of the terminal A and the vertical screen 234 of the terminal B may be arranged vertically. Here, the upper and lower positional relationship between the terminal A and the terminal B may be interchanged. Further, as shown in FIG. 8D, the horizontal screen 132 of the terminal A and the horizontal screen 236 of the terminal B may be arranged side by side in the horizontal direction. Here, the positional relationship between the left and right terminals A and B may be interchanged.
Further, for example, the screen orientations of the terminal A and the terminal B may be different such that the terminal A is horizontally oriented and the terminal B is vertically oriented.

以上、説明したように、本発明によれば、ユーザにあっては複数台の端末を並列配置する際に、予め決められた位置関係となるように各端末を配置したり、それらの位置関係をユーザ操作を行うことで入力したりするなどの煩雑な準備が不要となる。また、特別な接続手段を設けたりせずに、各端末の配置状態を容易に特定することができるので、利便性に富んだ表示システムが実現可能なものとなる。   As described above, according to the present invention, when a plurality of terminals are arranged in parallel for the user, the terminals are arranged so as to have a predetermined positional relationship, or the positional relationship between them. This eliminates the need for complicated preparations such as inputting user information by performing user operations. Further, since the arrangement state of each terminal can be easily specified without providing any special connection means, a display system with high convenience can be realized.

(第2の実施の形態)
図5は、本発明の実施の形態に係る表示システム51の構成を示す機能ブロック図である。
本実施形態の表示システム51では、第1表示装置と第2表示装置の相対位置に基づく第2画像の決定方法、表示装置間の画像情報の伝達方法などの具体例について説明する。
(Second Embodiment)
FIG. 5 is a functional block diagram showing the configuration of the display system 51 according to the embodiment of the present invention.
In the display system 51 of the present embodiment, specific examples such as a method for determining a second image based on the relative positions of the first display device and the second display device, and a method for transmitting image information between the display devices will be described.

図5に示すように、表示システム51において、端末150(端末A)は、図1の表示システム1の端末100と同様な画像表示部102と、接近検出部106と、表示指示部110と、を備えるとともに、さらに、表示制御部104と、位置検出部108と、通信インタフェース部(図中、「I/F」と示す)112と、を有する。また、端末250(端末B)は、図1の表示システム1の端末200と同様な画像表示部202を備えるとともに、さらに、表示制御部204と、接近検出部206と、位置検出部208と、指示受付部210と、通信インタフェース部(図中、「I/F」と示す)212と、を有する。   As shown in FIG. 5, in the display system 51, a terminal 150 (terminal A) includes an image display unit 102, an approach detection unit 106, a display instruction unit 110, which are the same as the terminal 100 of the display system 1 in FIG. And a display control unit 104, a position detection unit 108, and a communication interface unit (shown as “I / F” in the drawing) 112. The terminal 250 (terminal B) includes an image display unit 202 similar to the terminal 200 of the display system 1 of FIG. 1, and further includes a display control unit 204, an approach detection unit 206, a position detection unit 208, It includes an instruction receiving unit 210 and a communication interface unit (shown as “I / F” in the figure) 212.

なお、本実施形態の端末150および端末250は、上記実施形態の図2に示した端末100および端末200と同様な構成を有するものとする。   In addition, the terminal 150 and the terminal 250 of this embodiment shall have the structure similar to the terminal 100 and the terminal 200 shown in FIG. 2 of the said embodiment.

端末150の通信インタフェース部112および端末250の通信インタフェース部212は、上述した図2の端末間通信制御部22および第2アンテナ24に相当する。本実施形態では、通信インタフェース部112および通信インタフェース部212は、たとえば、赤外線通信機能を用いて他の端末と接続し、通信を行う。   The communication interface unit 112 of the terminal 150 and the communication interface unit 212 of the terminal 250 correspond to the inter-terminal communication control unit 22 and the second antenna 24 of FIG. In the present embodiment, the communication interface unit 112 and the communication interface unit 212 are connected to another terminal using, for example, an infrared communication function to perform communication.

端末150の画像表示部102および端末250の画像表示部202は、上述した図2の表示部16に相当する。本実施形態では、画像表示部102および画像表示部202は、それぞれ端末150および端末250の筐体の少なくとも一面に延在する。各表示部16は、各端末の筐体の少なくとも一面のほぼ全域に延在するのが好ましいが、これに限定されない。また、本実施形態では、表示部16の画面は矩形であるが、特にこれに限定されるものではない。様々な形状の画面が考えられる。   The image display unit 102 of the terminal 150 and the image display unit 202 of the terminal 250 correspond to the display unit 16 of FIG. In the present embodiment, the image display unit 102 and the image display unit 202 extend to at least one surface of the casing of the terminal 150 and the terminal 250, respectively. Each display unit 16 preferably extends over almost the entire area of at least one surface of the casing of each terminal, but is not limited thereto. In the present embodiment, the screen of the display unit 16 is rectangular, but is not particularly limited thereto. Various screen shapes are possible.

端末150の表示制御部104および端末250の表示制御部204は、上述した図2の表示制御部18に相当する。表示制御部104および表示制御部204は、それぞれ画像表示部102および画像表示部202の画面に画像を表示する制御を行う。   The display control unit 104 of the terminal 150 and the display control unit 204 of the terminal 250 correspond to the display control unit 18 of FIG. The display control unit 104 and the display control unit 204 perform control to display images on the screens of the image display unit 102 and the image display unit 202, respectively.

本実施形態の端末150では、CPU2(図2)が、本発明の連携画面表示処理が可能なアプリケーションプログラムを実行し、画像表示部102に第1画像が表示される。アプリケーションプログラムの起動方法は、特に限定されず、たとえば、ユーザがメニュー画面で操作指示してもよいし、所定時刻に自動的に起動されるように指定されてもよい。   In the terminal 150 of the present embodiment, the CPU 2 (FIG. 2) executes an application program capable of the cooperative screen display processing of the present invention, and the first image is displayed on the image display unit 102. The application program activation method is not particularly limited. For example, the user may instruct operation on the menu screen, or may be specified to be automatically activated at a predetermined time.

また、アプリケーションプログラムは、特に限定されない。様々なアプリケーションプログラムに、本発明の表示システム51の連携画面表示処理の機能を実現する後述するコンピュータプログラムをたとえば、機能モジュールとして追加することで実現することができる。   The application program is not particularly limited. For example, a computer program to be described later that realizes the function of the linkage screen display processing of the display system 51 of the present invention can be added to various application programs as a function module.

本実施の形態の表示システム51の各端末では、本発明のコンピュータプログラムに記述された処理手順をCPU2が実行することで、各種ユニットが各種機能として実現される。
本実施形態の端末150を実現させるためのコンピュータプログラムは、上記実施形態の端末100のコンピュータプログラムと同様であるので、説明は省略する。
In each terminal of the display system 51 of the present embodiment, various units are realized as various functions by the CPU 2 executing the processing procedure described in the computer program of the present invention.
Since the computer program for realizing the terminal 150 of the present embodiment is the same as the computer program of the terminal 100 of the above embodiment, description thereof is omitted.

さらに、本実施形態のコンピュータプログラムは、端末250を実現させるためのコンピュータに、他の表示装置(端末150)から、当該端末150の画像表示部102に表示されている第1画像に連結する、自装置(端末250の画像表示部202)の位置に相当する第2画像を自端末250の表示装置(画像表示部202)に表示する指示を受け付ける手順、受け付けた指示に従い、第2画像を自端末250の画像表示部202に表示する手順、を実行させるように記述されている。   Furthermore, the computer program according to the present embodiment connects a computer for realizing the terminal 250 to the first image displayed on the image display unit 102 of the terminal 150 from another display device (terminal 150). A procedure for receiving an instruction to display the second image corresponding to the position of the own device (image display unit 202 of terminal 250) on the display device (image display unit 202) of own terminal 250, and the second image according to the received instruction. The procedure for displaying on the image display unit 202 of the terminal 250 is described.

本実施形態のコンピュータプログラムは、コンピュータで読み取り可能な記録媒体に記録されてもよい。記録媒体は特に限定されず、様々な形態のものが考えられる。また、プログラムは、記録媒体からコンピュータのメモリにロードされてもよいし、ネットワークを通じてコンピュータにダウンロードされ、メモリにロードされてもよい。   The computer program of this embodiment may be recorded on a computer-readable recording medium. The recording medium is not particularly limited, and various forms can be considered. The program may be loaded from a recording medium into a computer memory, or downloaded to a computer through a network and loaded into the memory.

端末150の接近検出部106および端末250の接近検出部206は、それぞれ図2の加速度センサ20からの出力信号を用いて、他の端末(端末150は端末250、および端末150は端末150)の接近または接触を検出する。また、接近検出部106および接近検出部206は、加速度センサ20の他に、近接センサ、Bluetooth(登録商標)や赤外線通信を用いて、他の端末の接近または接触を検出することもできる。本実施形態では、端末を互いに軽くぶつけるようなイメージで接触させて、端末間の連携画面表示処理を開始する。   The proximity detection unit 106 of the terminal 150 and the proximity detection unit 206 of the terminal 250 each use an output signal from the acceleration sensor 20 of FIG. 2, and the other terminals (the terminal 150 is the terminal 250 and the terminal 150 is the terminal 150). Detect approach or touch. In addition to the acceleration sensor 20, the approach detection unit 106 and the approach detection unit 206 can also detect the approach or contact of another terminal using a proximity sensor, Bluetooth (registered trademark), or infrared communication. In this embodiment, the terminals are brought into contact with each other so as to lightly collide with each other, and the cooperation screen display process between the terminals is started.

ここで、端末150および端末250は、端末間の連携画面表示処理を行う連携モードに設定する機能を有する。この連携モードは、特定のアプリケーションプログラム専用のものではなく、連携モードが可能なアプリケーションプログラム共通のものであるとする。図2の操作受付部14が、所定のキー操作や、表示部16に表示させた設定画面の操作を受け付けることで、操作に従いモード設定を行ってもよい。   Here, the terminal 150 and the terminal 250 have a function of setting to a cooperation mode for performing a cooperation screen display process between terminals. It is assumed that this cooperation mode is not dedicated to a specific application program but is common to application programs capable of the cooperation mode. The operation accepting unit 14 in FIG. 2 may perform mode setting according to an operation by accepting a predetermined key operation or an operation on a setting screen displayed on the display unit 16.

接近検出部106および接近検出部206における他の端末の接触または接近の検出方法の具体例について説明する。ここでは、図2の加速度センサ20からの出力信号を用いて、他の端末の接触を検出する方法について説明する。接近検出部106および接近検出部206は、割り込みもしくはポーリングのタイミングで加速度の計測処理を定期的に行い、加速度を検出する。そして、接近検出部106または接近検出部206は、検出した加速度が所定の閾値以上かどうかを判定することで、他の端末との接触があったことを検出する。   A specific example of a contact or approach detection method of another terminal in the approach detection unit 106 and the approach detection unit 206 will be described. Here, a method for detecting contact of another terminal using an output signal from the acceleration sensor 20 of FIG. 2 will be described. The approach detection unit 106 and the approach detection unit 206 periodically perform acceleration measurement processing at the timing of interruption or polling to detect acceleration. And the approach detection part 106 or the approach detection part 206 detects that there was contact with another terminal by determining whether the detected acceleration is more than a predetermined threshold value.

そして、接近検出部106および接近検出部206は、検出した加速度が閾値以上であると判定された場合、他の端末との接触があるような大きな加速度があったとして、加速度の方向および発生時刻をRAM6(図2)に記録する。なお、各端末は、図示されない時計をさらに備えているものとする。発生時刻は、時計から取得することができる。   Then, when it is determined that the detected acceleration is equal to or greater than the threshold value, the approach detection unit 106 and the approach detection unit 206 assume that there is a large acceleration such that there is contact with another terminal, and the direction and generation time of the acceleration. Is recorded in the RAM 6 (FIG. 2). Each terminal further includes a clock (not shown). The occurrence time can be acquired from a clock.

そして、他の端末との接触を検出した接近検出部106および接近検出部206の少なくとも一方が、通信インタフェース部112または通信インタフェース部212を介して通信ネゴシエーションを行い、他の端末の探索を行う。接近検出部106または接近検出部206は、他の端末を発見した場合、それぞれRAM6に記録してあった加速度の発生時刻を他の端末に送信または他の端末から受信する。   Then, at least one of the approach detection unit 106 and the approach detection unit 206 that has detected contact with another terminal performs communication negotiation via the communication interface unit 112 or the communication interface unit 212 and searches for another terminal. When the proximity detection unit 106 or the proximity detection unit 206 finds another terminal, the acceleration generation time recorded in the RAM 6 is transmitted to or received from another terminal.

そして、接近検出部106または接近検出部206は、自装置に記録されていた加速度の発生時刻と他の端末から受信した加速度の発生時刻を比較し、一致するか否かを判定する。そして、接近検出部106または接近検出部206は、加速度の発生時刻が一致した場合に、他の端末が接触していると判定し、位置検出部108または位置検出部208に通知する。   Then, the approach detection unit 106 or the approach detection unit 206 compares the acceleration generation time recorded in the own device with the acceleration generation time received from another terminal, and determines whether or not they match. Then, the approach detection unit 106 or the approach detection unit 206 determines that another terminal is in contact when the acceleration generation times coincide with each other, and notifies the position detection unit 108 or the position detection unit 208 of the contact.

端末150の位置検出部108および端末250の位置検出部208は、それぞれ加速度センサ20からの出力信号を用いて、他の端末と接近または接触したときの接近または接触方向を加速度方向から検出することで、他の端末と自端末との相対位置を検出する。   The position detection unit 108 of the terminal 150 and the position detection unit 208 of the terminal 250 each detect an approach or a contact direction when approaching or contacting another terminal from the acceleration direction using an output signal from the acceleration sensor 20. Then, the relative position between the other terminal and the own terminal is detected.

位置検出部108および位置検出部208は、加速度センサ20の他に、複数の近接センサを用いて接近方向を検出したり、接近または接触した他の端末から、GPSや加速度センサを用いて取得した位置情報を受信したりすることなどで実現できる。ここで、2つの端末(端末150と端末250)の表示部16(図2)の画面表示面はひとつながりの画像の一部を形成するように互いに同一平面上に配置されているものとする。よって、相対位置は、平面方向の位置、たとえば、二次元座標(X、Y)で表現してもよい。   In addition to the acceleration sensor 20, the position detection unit 108 and the position detection unit 208 detect the approach direction using a plurality of proximity sensors, or acquire them from other terminals that have approached or contacted using GPS or acceleration sensors. This can be realized by receiving location information. Here, it is assumed that the screen display surfaces of the display unit 16 (FIG. 2) of the two terminals (terminal 150 and terminal 250) are arranged on the same plane so as to form part of a continuous image. . Therefore, the relative position may be expressed by a position in the plane direction, for example, a two-dimensional coordinate (X, Y).

なお、端末150と端末250の表示部16(図2)の画面表示面が同一平面上に配置されていない場合でも、前後のずれ(三次元方向の情報)は無視して、二次元方向のみの情報に基づいて、相対位置を求めてもよい。   In addition, even when the screen display surfaces of the display unit 16 (FIG. 2) of the terminal 150 and the terminal 250 are not arranged on the same plane, the front-rear shift (information in the three-dimensional direction) is ignored and only the two-dimensional direction is ignored. The relative position may be obtained based on the information.

端末150の表示指示部110は、端末150の画像表示部102に表示している第1画像に連結する、接近または接触を検出した端末250の画像表示部202の位置に相当する第2画像を、端末250に表示指示する。表示指示は、第2画像そのものを生成して、画像データを端末250に送信してもよいし、あるいは、端末250が第2画像を表示するのに必要な画像情報を端末250に送信してもよい。表示指示部110は、たとえば、図2の端末間通信制御部22を用いて、端末250に画像データまたは画像情報を送信する。   The display instruction unit 110 of the terminal 150 is connected to the first image displayed on the image display unit 102 of the terminal 150, and displays a second image corresponding to the position of the image display unit 202 of the terminal 250 that detects the approach or contact. The display instruction is given to the terminal 250. The display instruction may be to generate the second image itself and transmit the image data to the terminal 250, or to transmit image information necessary for the terminal 250 to display the second image to the terminal 250. Also good. The display instruction unit 110 transmits image data or image information to the terminal 250 using, for example, the inter-terminal communication control unit 22 of FIG.

たとえば、表示指示部110は、位置検出部108が検出した他の端末250の接触方向に基づいて、現在、画像表示部102に表示されている第1画像の前記接触方向の「隣接画像(第2画像)」を生成する。そして、生成した隣接画像を、通信インタフェース部112を介して端末250に送信する。   For example, based on the contact direction of the other terminal 250 detected by the position detection unit 108, the display instruction unit 110 displays the “adjacent image (first image) in the contact direction of the first image currently displayed on the image display unit 102. 2 images) ”. Then, the generated adjacent image is transmitted to the terminal 250 via the communication interface unit 112.

端末250の指示受付部210は、自装置(端末250)に接近または接触している他の端末装置(端末150)から、当該他の端末装置(端末150)の画像表示部102に表示されている第1画像に連結する、自装置(端末250)の位置に相当する第2画像を自装置(端末250)の表示部(画像表示部202)に表示する指示を受け付ける。
端末250の表示制御部204は、受け付けた指示に従い、第2画像を自装置(端末250)の表示部(画像表示部202)に表示する。
The instruction receiving unit 210 of the terminal 250 is displayed on the image display unit 102 of the other terminal device (terminal 150) from another terminal device (terminal 150) approaching or in contact with the own device (terminal 250). An instruction to display the second image corresponding to the position of the own device (terminal 250) connected to the first image on the display unit (image display unit 202) of the own device (terminal 250) is received.
The display control unit 204 of the terminal 250 displays the second image on the display unit (image display unit 202) of the own device (terminal 250) according to the received instruction.

なお、本実施形態では、端末150をメイン端末、端末250をサブ端末として、端末150が端末250に対して画像の表示指示を行う主導権を持っている構成としたが、これに限定されない。端末150は、さらに端末250の指示受付部210と同じ指示受付部を有し、端末250は、さらに端末150の表示指示部110と同じ表示指示部を有してもよい。そして、端末150と端末250のいずれも、状況に応じて、連携画面表示処理の主導権をいずれかが持って制御を行うことができてよい。   In this embodiment, the terminal 150 is the main terminal, the terminal 250 is the sub-terminal, and the terminal 150 has the initiative to instruct the terminal 250 to display an image. However, the present invention is not limited to this. The terminal 150 may further include the same instruction receiving unit as the instruction receiving unit 210 of the terminal 250, and the terminal 250 may further include the same display instruction unit as the display instruction unit 110 of the terminal 150. Then, both the terminal 150 and the terminal 250 may be able to perform control with one of the initiative of the cooperation screen display process depending on the situation.

このように構成された本実施形態の表示システム51の動作について、以下に説明する。
図6および図7は、本実施形態の表示システム51の具体的な動作の例を示している。以下、図5乃至図7を用いて説明する。
図6および図7は、それぞれ左側にメイン端末(端末A)側のフローチャート、右側にサブ端末(端末B)のフローチャートを示す。
The operation of the display system 51 of the present embodiment configured as described above will be described below.
6 and 7 show examples of specific operations of the display system 51 of the present embodiment. This will be described below with reference to FIGS.
6 and 7 show a flowchart of the main terminal (terminal A) side on the left side and a flowchart of the sub-terminal (terminal B) on the right side, respectively.

ここで、メイン端末Aは、最初に単独で本表示システム51の連携画面表示処理が可能なアプリケーションプログラムを動作させている端末で、サブ端末Bは、後からメイン端末Aと連携させる端末である。   Here, the main terminal A is a terminal that is initially operating an application program that can independently perform the cooperative screen display processing of the display system 51, and the sub-terminal B is a terminal that is linked with the main terminal A later. .

まず、メイン端末Aは、サブ端末Bと画面を連携可能なアプリケーションプログラムを実行している(図6のステップS111)。このとき、メイン端末Aの画像表示部102には、アプリケーションプログラムをCPU2が実行した結果、第1画像が表示されいる。   First, the main terminal A is executing an application program that can link the screen with the sub-terminal B (step S111 in FIG. 6). At this time, the first image is displayed on the image display unit 102 of the main terminal A as a result of the CPU 2 executing the application program.

ここで、サブ端末Bを端末Aに連携させる場合、ユーザが、サブ端末Bを連携モードにする操作指示を行う。端末Bでは、操作受付部14(図2)がユーザの指示を受け付けて、CPU2(図2)が動作モードを連携モードに設定する(図6のステップS211)。   Here, when the sub terminal B is linked to the terminal A, the user gives an operation instruction to set the sub terminal B to the linked mode. In the terminal B, the operation reception unit 14 (FIG. 2) receives a user instruction, and the CPU 2 (FIG. 2) sets the operation mode to the cooperation mode (step S211 in FIG. 6).

また、ここで、連携モードは、特定のアプリケーション専用のものではなく、連携モードが可能なアプリケーション共通のものであるとする。この動作モードの設定操作は、たとえば、端末Bで、動作モードの設定を受け付けるための操作画面を表示部16(図2)に表示させて、操作受付部14がユーザの操作指示を受け付けることなどで実現することができる。   Here, it is assumed that the cooperation mode is not dedicated to a specific application, but is common to applications capable of the cooperation mode. For example, the operation mode setting operation is performed by causing the terminal B to display an operation screen for accepting the operation mode setting on the display unit 16 (FIG. 2) and allowing the operation accepting unit 14 to accept a user operation instruction. Can be realized.

そして、ユーザが、サブ端末Bをメイン端末Aに接触させる(図6のステップS213)。たとえば、ユーザは、端末Aと端末Bを軽くぶつけるような動作を行ってもよい。図6のステップS213の処理は、ユーザの動作であり、端末Bの処理ではないので、破線で示してある。
そのとき、メイン端末Aの接近検出部106(図5)が、割り込みもしくはポーリングのタイミングで加速度の計測処理を行い、加速度を検出する(図6のステップS113)。
Then, the user brings the sub terminal B into contact with the main terminal A (step S213 in FIG. 6). For example, the user may perform an operation of lightly hitting the terminal A and the terminal B. The process of step S213 in FIG. 6 is a user operation and not a process of the terminal B, and thus is indicated by a broken line.
At that time, the approach detection unit 106 (FIG. 5) of the main terminal A performs acceleration measurement processing at the timing of interruption or polling, and detects the acceleration (step S113 in FIG. 6).

そして、メイン端末Aの接近検出部106が、検出した加速度が所定の閾値以上かどうかを判定する(図6のステップS115)。ここで、加速度が閾値未満であれば(図6のステップS115の<)、サブ端末Bの接触があるような大きな加速度はないとして、図6のステップS111に戻る。   And the approach detection part 106 of the main terminal A determines whether the detected acceleration is more than a predetermined threshold value (step S115 of FIG. 6). Here, if the acceleration is less than the threshold value (<in step S115 in FIG. 6), the process returns to step S111 in FIG.

一方、加速度が閾値以上であれば(図6のステップS115の≧)、サブ端末Bの接触があるような大きな加速度があったとして、端末Aの接近検出部106が、加速度の方向および発生時刻をRAM6(図2)に記録する(図6のステップS117)。
一方、サブ端末B側でも接触を起因とした加速度が発生するので、接近検出部206(図5)が、加速度検出を行い、加速度を検出する(図6のステップS215)。
On the other hand, if the acceleration is equal to or greater than the threshold (≧ in step S115 in FIG. 6), the proximity detection unit 106 of the terminal A determines the direction of acceleration and the generation time, assuming that there is a large acceleration such that the sub terminal B is in contact Is recorded in the RAM 6 (FIG. 2) (step S117 in FIG. 6).
On the other hand, since the acceleration caused by the contact is also generated on the sub-terminal B side, the approach detection unit 206 (FIG. 5) detects the acceleration and detects the acceleration (step S215 in FIG. 6).

サブ端末Bにおいても、接近検出部206が、検出した加速度が所定の閾値以上かどうかを判定する(図6のステップS217)。ここで加速度が閾値未満であれば(図6のステップS217の<)、メイン端末Aと接触したような大きな加速度はないとして、図6のステップS215に戻る。   Also in the sub terminal B, the approach detection unit 206 determines whether or not the detected acceleration is equal to or greater than a predetermined threshold (step S217 in FIG. 6). Here, if the acceleration is less than the threshold value (<in step S217 in FIG. 6), the process returns to step S215 in FIG. 6 on the assumption that there is no large acceleration in contact with the main terminal A.

一方、加速度が閾値以上であれば(図6のステップS217の≧)、メイン端末Aと接触したような大きな加速度があったとして、端末Bの接近検出部206が、加速度の方向および発生時刻をRAM6(図2)に記録する(図6のステップS219)。   On the other hand, if the acceleration is equal to or greater than the threshold (≧ of step S217 in FIG. 6), the proximity detection unit 206 of the terminal B determines the direction and generation time of the acceleration, assuming that there is a large acceleration that has contacted the main terminal A. Recording is performed in the RAM 6 (FIG. 2) (step S219 in FIG. 6).

そして、図6のステップS117およびステップS219の後、メイン端末Aおよびサブ端末Bは、それぞれ通信ネゴシエーションを行い、お互いに他端末の探索および接続を行う(図6のステップS119およびステップS221)。これらの通信処理は、通信インタフェース部112および通信インタフェース部212が行う。   Then, after step S117 and step S219 in FIG. 6, the main terminal A and the sub-terminal B perform communication negotiations to search and connect to other terminals (steps S119 and S221 in FIG. 6). These communication processes are performed by the communication interface unit 112 and the communication interface unit 212.

このとき、サブ端末Bが、メイン端末Aを発見できなければ(図6のステップS223のNO)、図6のステップS215に戻る。一方、サブ端末Bがメイン端末Aを発見したら(図6のステップS223のYES)、端末Bの通信インタフェース部212が、メイン端末Aへ加速度発生時刻302を送信する(図6のステップS225)。   At this time, if the sub-terminal B cannot find the main terminal A (NO in step S223 in FIG. 6), the process returns to step S215 in FIG. On the other hand, when the sub terminal B finds the main terminal A (YES in step S223 in FIG. 6), the communication interface unit 212 of the terminal B transmits the acceleration occurrence time 302 to the main terminal A (step S225 in FIG. 6).

一方、メイン端末Aが、サブ端末Bを発見できなければ(図6のステップS121のNO)、図6のステップS111に戻る。   On the other hand, if the main terminal A cannot find the sub-terminal B (NO in step S121 in FIG. 6), the process returns to step S111 in FIG.

一方、メイン端末Aがサブ端末Bを発見したら(図6のステップS121のYES)、端末Aの通信インタフェース部112が、サブ端末B側の加速度発生時刻の受信処理を行い、サブ端末B側からの加速度発生時刻302を受信する(図6のステップS123)。   On the other hand, when the main terminal A finds the sub-terminal B (YES in step S121 in FIG. 6), the communication interface unit 112 of the terminal A performs processing for receiving the acceleration occurrence time on the sub-terminal B side, and from the sub-terminal B side. Is received (step S123 in FIG. 6).

なお、図6のステップS121およびステップS223において、いずれか一方が他の端末を発見できず、他方が他の端末を発見した場合にも処理が滞ることなく進むように、たとえば、所定のリトライ処理やタイムアウト処理など適宜行うものとする。   In step S121 and step S223 in FIG. 6, for example, a predetermined retry process is performed so that the process proceeds without delay even when either one cannot find another terminal and the other finds another terminal. And time-out processing.

メイン端末Aの接近検出部106が、メイン端末AのRAM6に記録された加速度発生時刻と、サブ端末Bから受信した加速度発生時刻302が一致するかを比較する(図6のステップS125)。加速度発生時刻が不一致であれば(図6のステップS125のNO)、端末Aの通信インタフェース部112が、サブ端末Bへ加速度発生時刻が「不一致」であることを示す発生時刻比較情報304を送信する(図6のステップS127)。そして、端末Bとの通信を終了し(図6のステップS129)、図6のステップS111に戻る。   The approach detection unit 106 of the main terminal A compares whether the acceleration generation time recorded in the RAM 6 of the main terminal A matches the acceleration generation time 302 received from the sub terminal B (step S125 in FIG. 6). If the acceleration occurrence times do not match (NO in step S125 of FIG. 6), the communication interface unit 112 of the terminal A transmits the occurrence time comparison information 304 indicating that the acceleration occurrence time is “mismatch” to the sub-terminal B. (Step S127 in FIG. 6). Then, the communication with the terminal B is terminated (step S129 in FIG. 6), and the process returns to step S111 in FIG.

一方、加速度発生時刻が一致であれば(図6のステップS125のYES)、端末Aの通信インタフェース部112がサブ端末Bへ加速度発生時刻が「一致」したことを示す発生時刻比較情報304を送信する(図6のステップS131)。   On the other hand, if the acceleration generation times match (YES in step S125 of FIG. 6), the communication interface unit 112 of the terminal A transmits the generation time comparison information 304 indicating that the acceleration generation times “match” to the sub-terminal B. (Step S131 in FIG. 6).

サブ端末Bの通信インタフェース部212が、発生時刻比較情報304を受信する(図6のステップS227)。
端末Aから受信した発生時刻比較情報304が、「不一致」であれば(図6のステップS229のNO)、端末Bの通信インタフェース部212が、通信を終了し(図6のステップS231)、図6のステップS215に戻る。
The communication interface unit 212 of the sub-terminal B receives the occurrence time comparison information 304 (step S227 in FIG. 6).
If the occurrence time comparison information 304 received from the terminal A is “mismatch” (NO in step S229 in FIG. 6), the communication interface unit 212 of the terminal B ends communication (step S231 in FIG. 6). Return to step S215 of step 6.

一方、端末Aから受信した発生時刻比較情報304が、「一致」であれば(図6のステップS229のYES)、図7のステップS233に進む。   On the other hand, if the occurrence time comparison information 304 received from the terminal A is “match” (YES in step S229 in FIG. 6), the process proceeds to step S233 in FIG.

ここまでで、両端末が接触したことを認識し、通信が確立している。
ここからは、サブ端末Bの画面に表示する画像の生成を行う。
メイン端末Aの位置検出部108が、加速度方向から、サブ端末Bが接触した方向を特定する(図7のステップS133)。
Up to this point, communication has been established by recognizing that both terminals have contacted each other.
From here, the image displayed on the screen of the sub-terminal B is generated.
The position detection unit 108 of the main terminal A specifies the direction in which the sub terminal B is in contact from the acceleration direction (step S133 in FIG. 7).

そして、メイン端末Aの表示画像(第1画像)の接触方向の「隣接画像」を生成する(図7のステップS135)。実際には、端末Aの表示指示部110が、メイン端末Aに表示されている第1画像の、サブ端末Bが接触した方向の隣接画像を生成する。そして、端末Aの表示指示部110が、通信インタフェース部112を介して、端末Bに隣接画像306を送信する(図7のステップS137)。   Then, an “adjacent image” in the contact direction of the display image (first image) of the main terminal A is generated (step S135 in FIG. 7). Actually, the display instruction unit 110 of the terminal A generates an adjacent image in the direction in which the sub-terminal B is in contact with the first image displayed on the main terminal A. Then, the display instruction unit 110 of the terminal A transmits the adjacent image 306 to the terminal B via the communication interface unit 112 (step S137 in FIG. 7).

上述した図6のステップS229で発生時刻比較情報304が「一致」した場合、サブ端末Bの指示受付部210が、通信インタフェース部212を介してメイン端末Aから送信された隣接画像306を受信する(図7のステップS233)。そして、サブ端末Bの表示制御部204が、画像表示部202の画面に隣接画像306を表示する(図7のステップS235)。
以降、メイン端末Aとサブ端末Bは連携して動作する。
When the occurrence time comparison information 304 “matches” in step S229 in FIG. 6 described above, the instruction receiving unit 210 of the sub terminal B receives the adjacent image 306 transmitted from the main terminal A via the communication interface unit 212. (Step S233 in FIG. 7). Then, the display control unit 204 of the sub terminal B displays the adjacent image 306 on the screen of the image display unit 202 (step S235 in FIG. 7).
Thereafter, the main terminal A and the sub terminal B operate in cooperation.

以上説明したように、本実施形態の表示システム51によれば、上記実施形態と同様な効果を奏するとともに、状況に応じて複数の端末を、ユーザの意図に基づき自由に操作して柔軟に連携画面表示処理を行うことができ、使い勝手が向上する。   As described above, according to the display system 51 of the present embodiment, the same effects as those of the above-described embodiment can be obtained, and a plurality of terminals can be freely operated based on the user's intention and flexibly linked according to the situation. Screen display processing can be performed, improving usability.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
たとえば、上記実施形態の表示システム51では、サブ端末Bは、メイン端末Aとの接近または接触を検出した後、第2画像を表示する構成としているが、これに限定されるものではない。
As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.
For example, in the display system 51 of the above embodiment, the sub terminal B is configured to display the second image after detecting the approach or contact with the main terminal A, but is not limited thereto.

上記実施形態では、端末Bでは、第2画像を表示させるために、端末Aに第1画像を表示させているアプリケーションプログラムを起動して第2画像を表示させているとする。そして、他の端末との接近または接触を検出した後、サブ端末Bが、連携画面表示処理が可能なアプリケーションプログラムを起動して第2画像を表示させている。   In the above embodiment, in order to display the second image, the terminal B is assumed to start the application program that displays the first image on the terminal A and display the second image. Then, after detecting the approach or contact with another terminal, the sub-terminal B activates an application program that can perform the linked screen display process and displays the second image.

しかし、他の実施形態では、サブ端末Bが、予め連携画面表示処理が可能なアプリケーションプログラムを起動して、たとえば、第1画像を表示させていてもよい。そして、端末Aからの表示指示に従い、第2画像に表示を切り替え、または移行(移動)させる構成としてもよい。   However, in other embodiments, the sub-terminal B may activate an application program that can perform the cooperation screen display process in advance and display the first image, for example. And according to the display instruction from the terminal A, it is good also as a structure which switches a display to a 2nd image, or transfers (moves).

あるいは、他の実施形態では、端末同士が接触する前に接近したことを検出した後、端末にそれぞれ所定の画像を表示しておき、端末同士が接触したことをトリガとして、メイン端末に第1画像、およびサブ端末に第2画像をそれぞれ表示させる構成としてもよい。このように、接近と接触の検出を組み合わせて画像表示のタイミングを変更することもできる。   Alternatively, in another embodiment, after detecting that the terminals have approached each other before contacting each other, a predetermined image is displayed on each terminal, and when the terminals contact each other as a trigger, the first is displayed on the main terminal. The image and the second image may be displayed on the sub-terminal. Thus, the timing of image display can be changed by combining the approach and the detection of contact.

また、上記実施形態では、図9(a)に示すように、メイン端末Aとサブ端末Bは、互いにメイン端末Aの画像表示部102(図5)の画面140とサブ端末Bの画像表示部202(図5)の画面240は、装置の向きと表示方向とを合わせているが、これに限定されない。ここで、端末Aの画面140は画面上端142と画面下端144を有し、端末Bの画面240は画面上端242と画面下端244を有する。   Further, in the above embodiment, as shown in FIG. 9A, the main terminal A and the sub terminal B are mutually connected to the screen 140 of the image display unit 102 (FIG. 5) of the main terminal A and the image display unit of the sub terminal B. The screen 240 of 202 (FIG. 5) matches the orientation of the apparatus and the display direction, but is not limited to this. Here, the screen 140 of the terminal A has a screen upper end 142 and a screen lower end 144, and the terminal B screen 240 has a screen upper end 242 and a screen lower end 244.

図9(b)に、メイン端末Aの画像表示部102の画面140の画面上端142と、サブ端末Bの画像表示部202の画面240の画面上端242と、を互いに向き合わせて接近または接触させた場合の例を示す。このように、メイン端末Aの表示指示部110が、サブ端末Bの装置の向きと表示方向が反対になるように、第2画像の向きを第1画像と逆転させて表示させる指示を行うこともできる。   In FIG. 9B, the upper end 142 of the screen 140 of the image display unit 102 of the main terminal A and the upper end 242 of the screen 240 of the image display unit 202 of the sub-terminal B face each other and approach or contact each other. An example is shown. In this way, the display instruction unit 110 of the main terminal A issues an instruction to display the second image in the reverse direction with respect to the first image so that the display direction is opposite to the device direction of the sub terminal B. You can also.

このような画像の向きの変更は、たとえば、ゲーム機などの端末を、複数人で使用するような場合に利用できる。1人で2つの端末を使用する場合や、複数人が横に並んで端末を使用するような場合は、図9(a)のように、各端末の画面の向きと表示方向を合わせる。   Such a change in image orientation can be used, for example, when a terminal such as a game machine is used by a plurality of people. When one person uses two terminals, or when a plurality of persons use the terminals side by side, the screen orientation and the display direction of each terminal are matched as shown in FIG.

一方、たとえば、2人が向かいあって、端末を向かい合わせに付け合わせて使用するような場合は、図9(b)のように、サブ端末Bに表示させる第2画像をメイン端末Aに表示させる第1画像の向きと逆転させた第2画像を表示する。
この場合、端末Aから端末Bに予め逆転させた第2画像を送信してもよいし、あるいは、第1画像と同じ向きの第2画像を送信するとともに、逆転する指示を端末Aから端末Bに送信してもよい。または、端末Bが端末Aの画面との相対的な向きの関係を検出して、端末Aから受信した画像を自動的に回転させてもよい。
On the other hand, for example, when two people face each other and use the terminal face-to-face, the second image to be displayed on the sub-terminal B is displayed on the main terminal A as shown in FIG. A second image reversed from the direction of the first image is displayed.
In this case, the second image that has been reversed in advance may be transmitted from the terminal A to the terminal B, or the second image in the same direction as the first image may be transmitted, and an instruction to reverse is transmitted from the terminal A to the terminal B. May be sent to. Alternatively, the terminal B may detect the relative orientation relationship with the screen of the terminal A and automatically rotate the image received from the terminal A.

すなわち、他の実施形態の表示システムは、第1表示装置(図1または図5の端末Aの画像表示部102)および第2表示装置(図1または図5の端末Bの画像表示部202)の相対的な向きを検出する向き検出部(不図示)をさらに備えることができる。表示指示部110(図1または図5)は、端末Aと端末Bの表示画面の相対的な向きに基づいて、端末Aの画像表示部102に表示している第1画像に連結する、接近または接触を検出した端末Bの画像表示部202の位置に相当する第2画像の表示方向を決定して、端末Bの画像表示部202に表示指示することができる。   That is, the display system of another embodiment includes a first display device (the image display unit 102 of the terminal A in FIG. 1 or FIG. 5) and a second display device (the image display unit 202 of the terminal B in FIG. 1 or FIG. 5). It is possible to further include an orientation detection unit (not shown) for detecting the relative orientation of the. The display instruction unit 110 (FIG. 1 or FIG. 5) is connected to the first image displayed on the image display unit 102 of the terminal A based on the relative orientation of the display screens of the terminal A and the terminal B. Alternatively, it is possible to determine the display direction of the second image corresponding to the position of the image display unit 202 of the terminal B that has detected contact, and instruct the display to the image display unit 202 of the terminal B.

端末Aと端末Bの装置の向きの検出方法は、様々な方法が考えられる。たとえば、自装置の位置と装置の向き(たとえば、各端末の表示画面の同じ方向軸のなす角度)を加速度センサ20(図2)またはGPSなどを用いて検出して、それらの情報を交換して相手の装置と自装置の相対的な向きを判別することもできる。相対的な向きに基づいて、第1画像と第2画像の表示方向を決定することができる。これらの処理は、メイン端末Aの表示指示部110(図1または図5)が行ってもよいし、サブ端末Bの画像表示部202(図1または図5)が行ってもよいし、双方で調整してもよい。   There are various methods for detecting the orientations of the terminals A and B. For example, the position of the own device and the orientation of the device (for example, the angle formed by the same direction axis of the display screen of each terminal) are detected using the acceleration sensor 20 (FIG. 2) or GPS, and the information is exchanged. It is also possible to determine the relative orientation of the partner device and the device itself. The display direction of the first image and the second image can be determined based on the relative orientation. These processes may be performed by the display instruction unit 110 (FIG. 1 or 5) of the main terminal A, the image display unit 202 (FIG. 1 or 5) of the sub-terminal B, or both. You may adjust with.

また、上記実施形態では、メイン端末Aからサブ端末Bに、表示指示部110(図1または図5)が第2画像を送信する構成としたが、これ限定されない。
たとえば、表示指示部110が、メイン端末Aからサブ端末Bに対し、第2画像自体を送るのではなく、サブ端末Bの画像表示部202に第2画像を表示させるための画像情報を通知してもよい。そして、サブ端末Bの画像表示部202が、通知された情報に基づいて、第2画像を表示してもよい。
Moreover, in the said embodiment, although it was set as the structure which the display instruction | indication part 110 (FIG. 1 or FIG. 5) transmits a 2nd image from the main terminal A to the subterminal B, it is not limited to this.
For example, the display instruction unit 110 does not send the second image itself from the main terminal A to the sub terminal B, but notifies the image information for displaying the second image on the image display unit 202 of the sub terminal B. May be. Then, the image display unit 202 of the sub terminal B may display the second image based on the notified information.

すなわち、端末Aは、第2画像を端末Bに表示させるための画像情報を生成または取得する情報生成部(不図示)をさらに備える。そして、表示指示部110(図1または図5)が、情報生成部が生成または取得した画像情報を端末Bに通知することで、端末Bの画像表示部202に第2画像の表示指示を行うことができる。ここで、画像情報とは、たとえば、URL(Uniform Resource Locator)、その表示領域や位置の指示情報などでもよい。   That is, terminal A further includes an information generation unit (not shown) that generates or acquires image information for causing terminal B to display the second image. Then, the display instruction unit 110 (FIG. 1 or 5) notifies the terminal B of the image information generated or acquired by the information generation unit, thereby instructing the image display unit 202 of the terminal B to display the second image. be able to. Here, the image information may be, for example, URL (Uniform Resource Locator), display area or position instruction information, and the like.

たとえば、地図表示の場合、メイン端末Aが地図の画像をサブ端末Bに送ってもよいが、表示する地図情報提供サイトのURLと、緯度経度情報や表示倍率などをサブの装置に送り、それらの情報に基づいて、サブ端末がサイトにアクセスし、地図の画像を取得して表示してもよい。   For example, in the case of a map display, the main terminal A may send a map image to the sub-terminal B, but it sends the URL of the map information providing site to be displayed, latitude / longitude information, display magnification, etc. to the sub-device, Based on the information, the sub terminal may access the site and acquire and display a map image.

さらに、本発明の表示システムにおいて、各端末に表示される画像は、固定の場合に限らない。他の実施形態において、たとえば、図3(c)のように地図を表示しながら、2つの端末を一緒に移動すると、それに合わせて両方の端末の表示が変更するように第1画像および第2画像を生成し、表示させてもよい。上述したように、端末同士が接触または接近したことを検出したことをトリガとして連携画面表示処理を開始し、その後、終了指示を受け付けるまで、開始位置を元に、両端末を移動させながら、連携画面表示処理を行ってもよい。   Furthermore, in the display system of the present invention, the image displayed on each terminal is not limited to a fixed case. In another embodiment, for example, when the two terminals are moved together while displaying a map as shown in FIG. 3C, the first image and the second image are displayed so that the display of both terminals changes accordingly. An image may be generated and displayed. As described above, the cooperation screen display process is started by detecting that the terminals have contacted or approached each other, and then the two terminals are moved while moving based on the start position until an end instruction is received. Screen display processing may be performed.

上記の端末の相対的な向きの検出と同様な方法で、初期の2つの端末の位置を検出した後、移動位置を検出しながら、移動位置に基づいて表示画像位置を変更するように表示制御することができる。   Display control to change the display image position based on the moving position while detecting the moving position after detecting the position of the initial two terminals in the same way as the detection of the relative orientation of the terminal described above. can do.

また、一方の端末において、スクロールなどの操作を行った場合に、両方の端末の表示を合わせて動作させることもできる。   In addition, when an operation such as scrolling is performed on one terminal, the display on both terminals can be operated together.

また、一度、連携画面表示処理を開始した後、端末の位置関係の変更に伴って、表示を変更することできる。たとえば、端末Aは、端末Bの移動を検出して、移動位置に応じて、端末Bに表示指示する第2画像を変更する。   In addition, once the cooperation screen display process is started, the display can be changed in accordance with the change in the positional relationship of the terminals. For example, the terminal A detects the movement of the terminal B, and changes the second image to be displayed on the terminal B according to the movement position.

この構成によれば、地図表示を行うアプリケーションプログラムなどで、メイン端末の右側にサブ端末を配置して、右側の地図を確認した後、さらに、サブ端末を移動してメイン端末の左側に配置して、左側の地図を確認することができる。   According to this configuration, in an application program for displaying a map, the sub terminal is arranged on the right side of the main terminal, and after checking the map on the right side, the sub terminal is further moved and arranged on the left side of the main terminal. You can check the map on the left.

さらに、図10(a)に示すように、端末Aと端末Bが、連携画面表示処理を開始した後、図10(b)に示すように、端末Bを下方向に移動させることで、より下の方の地図を確認することができる。または、図10(a)に示すように、端末Aと端末Bが、連携画面表示処理を開始した後、たとえば、端末Bを端末Aから離して右側に移動させることで、より右側の画像を端末Bに表示させることもできる。この場合、端末Aと端末B間の通信が維持できる範囲で端末Bと端末Aを離すことができる。   Further, as shown in FIG. 10A, after the terminal A and the terminal B start the cooperation screen display process, as shown in FIG. You can check the map at the bottom. Alternatively, as shown in FIG. 10A, after the terminal A and the terminal B start the cooperation screen display process, for example, the terminal B is moved away from the terminal A and moved to the right side, so that the image on the right side can be displayed. It can also be displayed on terminal B. In this case, the terminal B and the terminal A can be separated as long as communication between the terminal A and the terminal B can be maintained.

上記実施形態では、図10(a)に示すように、同じ形状の表示部を備えた端末を例に説明したが、これに限定されない。たとえば、異なる形状の表示部を備えた端末間で、連携画面表示処理を行うこともできる。
ここで、表示する画像の合わせ方は、画面の上下左右いずれか一端を合わせる、また、図10(c)に示すように、中央をあわせるなど、画像表示を行うアプリケーションプログラムに適した方法を用いればよい。
In the said embodiment, as shown to Fig.10 (a), although the terminal provided with the display part of the same shape was demonstrated to the example, it is not limited to this. For example, the cooperation screen display process can be performed between terminals having display units having different shapes.
Here, a method suitable for an application program for displaying an image, such as aligning one of the top, bottom, left, or right of the screen, or aligning the center as shown in FIG. That's fine.

接近または接触させた端末間で画像表示部102(図1、図5)および画像表示部202(図1、図5)の情報を交換し合い、互いの装置と画面の配置を判定してもよい。または、ユーザに各端末の合わせ方を指示するメッセージや、位置合わせマークなどを画面に表示してユーザに通知してもよい。   Even if the information of the image display unit 102 (FIGS. 1 and 5) and the image display unit 202 (FIGS. 1 and 5) is exchanged between the terminals that are approaching or in contact with each other, the arrangement of the devices and the screens is determined. Good. Alternatively, a message for instructing the user how to match each terminal, an alignment mark, or the like may be displayed on the screen to notify the user.

また、一端、端末Aと端末Bが接近または接触を検出した後、端末Aと端末Bの距離が離れてしまい、互いの通信が維持できない状況になった場合に、ユーザに報知する報知部(不図示)を備えてもよい。報知部は、ユーザに端末間が離れ過ぎてしまって連携できなくなることを通知したり、端末同士を近づけるよう指示したりするメッセージなどを音声、表示、またはバイブレーションで出力する。   In addition, after the terminal A and the terminal B detect the approach or contact, when the distance between the terminal A and the terminal B becomes far away and mutual communication cannot be maintained, a notification unit (notifying a user) (Not shown) may be provided. The notification unit outputs a message, such as a message for notifying the user that the terminals are too far apart to be able to cooperate with each other and instructing the terminals to approach each other by voice, display, or vibration.

また、図11に示すように、本発明の表示システムは、2台の端末の画像連携に限定されない。3台以上の端末でもよい。
たとえば、端末A(メイン)と端末B(サブ)で表示しているときに(図11(a))、端末Cを追加する場合、図11(b)に示すように、端末C−端末A−端末Bのような配置であれば、端末Aがメインで端末Cがサブとなる。
Moreover, as shown in FIG. 11, the display system of the present invention is not limited to image cooperation of two terminals. Three or more terminals may be used.
For example, when the terminal C is added to the terminal A (main) and the terminal B (sub) (FIG. 11A), when the terminal C is added, as shown in FIG. -In the arrangement like terminal B, terminal A is the main and terminal C is the sub.

また、図11(c)に示すように、端末A−端末B−端末Cのような配置の場合は、端末Bがメインで端末Cがサブとなる。
このように、3台以上を使用する場合は、メイン端末とサブ端末の関係が様々に考えられる。本発明の表示システムは、上述したように、メインにもサブになれる端末とすることもできる。
Also, as shown in FIG. 11C, in the case of an arrangement such as terminal A-terminal B-terminal C, terminal B is the main and terminal C is the sub.
As described above, when three or more devices are used, various relationships between the main terminal and the sub-terminal are conceivable. As described above, the display system of the present invention can be a terminal that can be sub-main and sub-type.

図11(d)には、4つの端末A〜端末Dを用いた場合の例を示す。このように、本発明の表示システムは、複数の端末を組み合わせることもできる。   FIG. 11D shows an example in which four terminals A to D are used. Thus, the display system of the present invention can also combine a plurality of terminals.

また、他の態様として、たとえば、第1の端末に第2の端末をZ軸方向に重ね、距離を離すにつれ、第1の端末の第1画像を虫メガネのように拡大して第2画像に表示させるように表示させることができる。この場合、相対位置は、三次元座標で表現できる。このとき、相対位置は、各端末のGPSのデータなどに基づいて検出することができる。   Moreover, as another aspect, for example, the second image is enlarged as a magnifying glass as the second terminal is overlapped with the first terminal in the Z-axis direction and the distance is increased. Can be displayed. In this case, the relative position can be expressed by three-dimensional coordinates. At this time, the relative position can be detected based on the GPS data of each terminal.

また、他の実施形態において、各端末は、たとえば、ワンセグ機能部(不図示)を有してもよい。そして、ワンセグ機能部を用いて受信したテレビ映像を、複数の端末装置に連携画面表示処理させてもよい。この場合、複数の端末を用いて形成される画面の大きさに応じて、画面を拡大させて映像を表示させることができる。   In other embodiments, each terminal may have, for example, a one-segment function unit (not shown). Then, a television image received using the one-segment function unit may be displayed on a plurality of terminal devices in cooperation screen display. In this case, an image can be displayed by enlarging the screen according to the size of the screen formed using a plurality of terminals.

以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   While the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

なお、本発明において利用者に関する情報(本発明では端末の位置情報など)を取得、利用する場合は、これを適法に行うものとする。   In the present invention, when information relating to a user (in the present invention, terminal location information, etc.) is acquired and used, this is legally performed.

(付記1) 第1画像を表示している第1表示装置に対する第2表示装置の接近または接触を検出する接近検出手段と、
前記第1表示装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記第2表示装置の位置に相当する第2画像を、前記第2表示装置に表示指示する表示指示手段と、を備える表示システム。
(付記2) (付記1)に記載の表示システムにおいて、
さらに、前記接近検出手段が、前記第2表示装置の前記接近または接触を検出したとき、前記第2表示装置の探索を開始し、探索の結果、前記第2表示装置が見つかったとき、前記第2表示装置と通信確立処理を行う通信手段を備える表示システム。
(付記3) (付記1)または(付記2)に記載の表示システムにおいて、
前記接近検出手段は、前記第2表示装置に対する前記第1表示装置の接近または接触を検出し、
前記表示システムは、さらに、前記第1表示装置および前記第2表示装置の前記接近または接触を検出したときの時刻をそれぞれ取得する手段と、
取得した前記第1表示装置の時刻と前記第2表示装置の時刻が一致したとき、前記第1表示装置と前記第2表示装置が接近または接触したと判定する判定手段と、を備える表示システム。
(付記4) 表示部と、
前記表示部に第1画像を表示する表示制御手段と、
自装置に対する他の端末装置の接近または接触を検出する接近検出手段と、
前記表示部に表示している前記第1画像に連結する、前記接近または接触を検出した前記他の端末装置の位置に相当する第2画像を、前記他の端末装置の表示部に表示指示する表示指示手段と、を備える端末装置。
(付記5) (付記4)に記載の端末装置において、
前記接近検出手段は、
自装置の上下左右のいずれかの方向の加速度を検知する加速度検知部を含み、
前記加速度検知部が検知した前記他の端末装置と接触したときの加速度の大きさが所定の値以上になったとき、前記他の端末装置が接触したことを検出する端末装置。
(付記6) (付記5)に記載の端末装置において、
前記接近検出手段が、前記他の端末装置の接近または接触を検出したとき、前記加速度検知部が検知した前記加速度に基づいて、前記他の端末装置の接触方向を特定する特定手段をさらに備え、
前記表示指示手段は、前記特定手段が特定した前記接触方向に前記第1画像に隣接する第2画像を前記他の端末装置に表示指示する端末装置。
(付記7) (付記4)乃至(付記6)いずれかに記載の端末装置において、
前記接近検出手段が前記他の端末装置が接触したことを検出したとき、前記端末装置と前記他の端末装置の間の通信を開始して、確立する通信手段と、
前記他の端末装置から、自端末装置と接触したことを検出した時刻を前記通信手段を用いて受信する受信手段と、
受信した時刻と、前記接近検出手段が前記他の端末装置が接触したことを検出した時刻が一致するか否かを判定する時刻判定手段と、
前記時刻が一致する場合、前記表示指示手段が前記他の端末装置に前記表示指示を行う端末装置。
(Appendix 1) Approach detection means for detecting the approach or contact of the second display device with respect to the first display device displaying the first image;
A display for instructing the second display device to display a second image corresponding to the position of the second display device that detects the approach or contact and is connected to the first image displayed on the first display device. And a display unit.
(Appendix 2) In the display system described in (Appendix 1),
Further, when the approach detection means detects the approach or contact of the second display device, the search of the second display device is started, and when the second display device is found as a result of the search, 2. A display system comprising communication means for performing communication establishment processing with a display device.
(Appendix 3) In the display system described in (Appendix 1) or (Appendix 2),
The approach detection means detects the approach or contact of the first display device with respect to the second display device,
The display system further includes means for acquiring times when the approach or contact of the first display device and the second display device is detected, respectively.
A display system comprising: determination means for determining that the first display device and the second display device have approached or contacted when the acquired time of the first display device coincides with the time of the second display device.
(Supplementary Note 4) Display unit,
Display control means for displaying the first image on the display unit;
Proximity detection means for detecting the approach or contact of another terminal device to the device;
Instructs the display unit of the other terminal device to display the second image corresponding to the position of the other terminal device that detects the approach or contact, which is connected to the first image displayed on the display unit. And a display instruction means.
(Appendix 5) In the terminal device described in (Appendix 4),
The approach detection means includes
Including an acceleration detection unit that detects acceleration in any of the upper, lower, left, and right directions of the own device,
A terminal device that detects contact of the other terminal device when the magnitude of acceleration when contacting the other terminal device detected by the acceleration detection unit exceeds a predetermined value.
(Appendix 6) In the terminal device described in (Appendix 5),
When the approach detection unit detects the approach or contact of the other terminal device, the approach detection unit further includes a specifying unit that specifies a contact direction of the other terminal device based on the acceleration detected by the acceleration detection unit,
The display instruction unit is a terminal device that instructs the other terminal device to display a second image adjacent to the first image in the contact direction specified by the specifying unit.
(Appendix 7) In the terminal device according to any one of (Appendix 4) to (Appendix 6),
A communication means for starting and establishing communication between the terminal device and the other terminal device when the approach detection means detects that the other terminal device has contacted;
Receiving means for receiving, using the communication means, a time at which it is detected that the terminal device has been in contact with the other terminal device;
A time determination unit that determines whether or not the received time and the time when the approach detection unit detects that the other terminal device is in contact with each other; and
A terminal device in which the display instruction means instructs the other terminal device to perform the display when the times coincide.

1 表示システム
8 ネットワーク通信制御部
10 第1アンテナ
12 操作部
14 操作受付部
16 表示部
18 表示制御部
20 加速度センサ
22 端末間通信制御部
24 第2アンテナ
30 バス
100 端末
102 画像表示部
106 接近検出部
110 表示指示部
200 端末
202 画像表示部
51 表示システム
150 端末
104 表示制御部
108 位置検出部
112 通信インタフェース部
120 画像
250 端末
204 表示制御部
206 接近検出部
208 位置検出部
210 指示受付部
212 通信インタフェース部
222 画像
302 加速度発生時刻
304 発生時刻比較情報
306 隣接画像
DESCRIPTION OF SYMBOLS 1 Display system 8 Network communication control part 10 1st antenna 12 Operation part 14 Operation reception part 16 Display part 18 Display control part 20 Acceleration sensor 22 Inter-terminal communication control part 24 2nd antenna 30 Bus 100 Terminal 102 Image display part 106 Approach detection Unit 110 display instruction unit 200 terminal 202 image display unit 51 display system 150 terminal 104 display control unit 108 position detection unit 112 communication interface unit 120 image 250 terminal 204 display control unit 206 approach detection unit 208 position detection unit 210 instruction reception unit 212 communication Interface unit 222 Image 302 Acceleration occurrence time 304 Occurrence time comparison information 306 Adjacent image

Claims (10)

第1画像を表示している第1表示装置に対する第2表示装置の接近または接触を検出する接近検出手段と、
前記第1表示装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記第2表示装置の位置に相当する第2画像を、前記第2表示装置に表示指示する表示指示手段と、を備える表示システム。
An approach detecting means for detecting the approach or contact of the second display device to the first display device displaying the first image;
A display for instructing the second display device to display a second image corresponding to the position of the second display device that detects the approach or contact and is connected to the first image displayed on the first display device. And a display unit.
請求項1に記載の表示システムにおいて、
前記第1表示装置に対する前記第2表示装置の相対位置を検出する位置検出手段を備え、
前記表示指示手段は、検出された前記第1表示装置に対する前記第2表示装置の相対位置に基づいて、前記第1表示装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記第2表示装置の位置に相当する前記第2画像を決定し、前記第2表示装置に表示指示する表示システム。
The display system according to claim 1,
A position detecting means for detecting a relative position of the second display device with respect to the first display device;
The display instruction means connects the approach or contact with the first image displayed on the first display device based on the detected relative position of the second display device with respect to the first display device. A display system that determines the second image corresponding to the detected position of the second display device and instructs the second display device to display the second image.
請求項1または2に記載の表示システムにおいて、
前記第1表示装置および前記第2表示装置の相対的な向きを検出する向き検出手段を備え、
前記表示指示手段は、前記第1表示装置と前記第2表示装置の表示画面の相対的な向きに基づいて、前記第1表示装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記第2表示装置の位置に相当する前記第2画像の表示方向を決定し、前記第2表示装置に表示指示する表示システム。
The display system according to claim 1 or 2,
Direction detecting means for detecting a relative direction of the first display device and the second display device;
The display instruction means is connected to the first image displayed on the first display device based on a relative orientation of display screens of the first display device and the second display device. A display system that determines a display direction of the second image corresponding to the position of the second display device that has detected contact, and instructs the second display device to display the second image.
請求項1乃至3いずれかに記載の表示システムにおいて、
前記第2表示装置に表示指示する前記第2画像を生成する画像生成手段を備え、
前記表示指示手段は、生成した前記第2画像を前記表示装置に送信することで、前記第2表示装置に前記第2画像の表示指示を行う表示システム。
The display system according to any one of claims 1 to 3,
Image generating means for generating the second image for instructing display on the second display device;
The display system instructing the second display device to display the second image by transmitting the generated second image to the display device.
請求項1乃至4いずれかに記載の表示システムにおいて、
前記第2画像を前記第2表示装置に表示させるための画像情報を生成する情報生成手段を備え、
前記表示指示手段は、前記第2画像の前記画像情報を前記第2表示装置に通知することで、前記第2表示装置に前記第2画像の表示指示を行う表示システム。
The display system according to any one of claims 1 to 4,
Comprising information generating means for generating image information for displaying the second image on the second display device;
The display system instructing the second display device to display the second image by notifying the second display device of the image information of the second image.
複数の表示装置に画像を表示する表示方法であって、
第1画像を表示する表示装置が、
自装置に対する他の表示装置の接近または接触を検出し、
自装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記他の表示装置の位置に相当する第2画像を、前記他の表示装置に表示指示する表示方法。
A display method for displaying images on a plurality of display devices,
A display device for displaying the first image;
Detecting the proximity or contact of other display devices with your device,
A display method for instructing the other display device to display a second image corresponding to the position of the other display device that detects the approach or contact and is connected to the first image displayed on the device itself.
表示部と、
前記表示部に第1画像を表示する表示制御手段と、
自装置に対する他の端末装置の接近または接触を検出する接近検出手段と、
前記表示部に表示している前記第1画像に連結する、前記接近または接触を検出した前記他の端末装置の位置に相当する第2画像を、前記他の端末装置の表示部に表示指示する表示指示手段と、を備える端末装置。
A display unit;
Display control means for displaying the first image on the display unit;
Proximity detection means for detecting the approach or contact of another terminal device to the device;
Instructs the display unit of the other terminal device to display the second image corresponding to the position of the other terminal device that detects the approach or contact, which is connected to the first image displayed on the display unit. And a display instruction means.
表示部と、
自装置に接近または接触している他の端末装置から、当該他の端末装置の表示部に表示されている第1画像に連結する、自装置の位置に相当する第2画像を自装置の前記表示部に表示する指示を受け付ける受付手段と、
受け付けた前記指示に従い、前記第2画像を自装置の前記表示部に表示する表示制御手段と、を備える端末装置。
A display unit;
A second image corresponding to the position of the own device is connected to the first image displayed on the display unit of the other terminal device from another terminal device approaching or contacting the own device. Receiving means for receiving an instruction to be displayed on the display unit;
A terminal device comprising: display control means for displaying the second image on the display unit of the device according to the received instruction.
画像を表示する表示装置と、
前記表示装置に対する他の表示装置の接近または接触を検出する接近検出部と、を備えるコンピュータに、
前記接近検出部が、第1画像を表示している表示装置に対する他の表示装置の接近または接触を検出する手順、
前記表示装置に表示している前記第1画像に連結する、前記接近または接触を検出した前記他の表示装置の位置に相当する第2画像を、前記他の表示装置に表示指示する手順を実行させるためのコンピュータプログラム。
A display device for displaying an image;
A computer including an approach detection unit that detects an approach or contact of another display device with respect to the display device;
A procedure for the approach detection unit to detect the approach or contact of another display device with respect to the display device displaying the first image;
Execute a procedure for instructing the other display device to display a second image corresponding to the position of the other display device that detects the approach or contact, connected to the first image displayed on the display device. Computer program to let you.
表示装置を備えるコンピュータに、
他の表示装置から、当該他の表示装置に表示されている第1画像に連結する、自装置の位置に相当する第2画像を自装置の前記表示装置に表示する指示を受け付ける手順、
受け付けた前記指示に従い、前記第2画像を自装置の前記表示装置に表示する手順を実行させるためのコンピュータプログラム。
In a computer equipped with a display device,
A procedure for receiving an instruction to display, on another display device, the second image corresponding to the position of the own device, which is connected to the first image displayed on the other display device, on the display device of the own device;
A computer program for executing a procedure for displaying the second image on the display device of the device according to the received instruction.
JP2011035984A 2011-02-22 2011-02-22 Display system, display method, terminal device, and computer program Withdrawn JP2012173542A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011035984A JP2012173542A (en) 2011-02-22 2011-02-22 Display system, display method, terminal device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011035984A JP2012173542A (en) 2011-02-22 2011-02-22 Display system, display method, terminal device, and computer program

Publications (1)

Publication Number Publication Date
JP2012173542A true JP2012173542A (en) 2012-09-10

Family

ID=46976483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011035984A Withdrawn JP2012173542A (en) 2011-02-22 2011-02-22 Display system, display method, terminal device, and computer program

Country Status (1)

Country Link
JP (1) JP2012173542A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013064923A (en) * 2011-09-20 2013-04-11 Toyota Motor Corp Multi-display control device
JP2013069014A (en) * 2011-09-21 2013-04-18 Fuji Xerox Co Ltd Position detector, information processing device and program
JP2014098752A (en) * 2012-11-13 2014-05-29 Canon Inc Display device, image display system, image display method, and computer program
WO2014129374A1 (en) * 2013-02-25 2014-08-28 シャープ株式会社 Input device and display
WO2014181919A1 (en) * 2013-05-09 2014-11-13 Lg Electronics Inc. Portable device and control method thereof
JP2014220588A (en) * 2013-05-02 2014-11-20 株式会社Nttドコモ Electronic apparatus and program
JP2015141629A (en) * 2014-01-29 2015-08-03 コニカミノルタ株式会社 Cooperative display system, display device and program of the same, and cooperative display method
JP2015153016A (en) * 2014-02-12 2015-08-24 Sky株式会社 display system
JP2016157051A (en) * 2015-02-26 2016-09-01 Necプラットフォームズ株式会社 Display controller and display method thereof, display system and computer program
JP2017011505A (en) * 2015-06-22 2017-01-12 カシオ計算機株式会社 Electronic apparatus, coordination method, and program
US11940847B2 (en) 2020-11-06 2024-03-26 Samsung Electronics Co., Ltd. Method for controlling flexible display, and electronic device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013064923A (en) * 2011-09-20 2013-04-11 Toyota Motor Corp Multi-display control device
JP2013069014A (en) * 2011-09-21 2013-04-18 Fuji Xerox Co Ltd Position detector, information processing device and program
JP2014098752A (en) * 2012-11-13 2014-05-29 Canon Inc Display device, image display system, image display method, and computer program
CN105074633A (en) * 2013-02-25 2015-11-18 夏普株式会社 Input device and display
WO2014129374A1 (en) * 2013-02-25 2014-08-28 シャープ株式会社 Input device and display
US9678613B2 (en) 2013-02-25 2017-06-13 Sharp Kabushiki Kaisha Input device and display
JP2014220588A (en) * 2013-05-02 2014-11-20 株式会社Nttドコモ Electronic apparatus and program
WO2014181919A1 (en) * 2013-05-09 2014-11-13 Lg Electronics Inc. Portable device and control method thereof
JP2015141629A (en) * 2014-01-29 2015-08-03 コニカミノルタ株式会社 Cooperative display system, display device and program of the same, and cooperative display method
JP2015153016A (en) * 2014-02-12 2015-08-24 Sky株式会社 display system
JP2016157051A (en) * 2015-02-26 2016-09-01 Necプラットフォームズ株式会社 Display controller and display method thereof, display system and computer program
JP2017011505A (en) * 2015-06-22 2017-01-12 カシオ計算機株式会社 Electronic apparatus, coordination method, and program
US11940847B2 (en) 2020-11-06 2024-03-26 Samsung Electronics Co., Ltd. Method for controlling flexible display, and electronic device

Similar Documents

Publication Publication Date Title
JP2012173542A (en) Display system, display method, terminal device, and computer program
US10613742B2 (en) Method of providing user interaction with a wearable device and wearable device thereof
EP2921947B1 (en) Device and method for controlling a display panel
US10055064B2 (en) Controlling multiple devices with a wearable input device
EP2975497B1 (en) Terminal device, terminal device control method, and program
EP2708983B9 (en) Method for auto-switching user interface of handheld terminal device and handheld terminal device thereof
JP5931298B2 (en) Virtual keyboard display method, apparatus, terminal, program, and recording medium
KR102254884B1 (en) Electronic device
EP2824551A1 (en) Method, device, and system for controlling computer terminal
EP3144784B1 (en) Mobile terminal and control method for the mobile terminal
JP5620331B2 (en) Portable electronic device, control method, and control program
JP2008299619A (en) Mobile device, data transfer method, and data transfer system
JP2012203671A (en) Electronic apparatus, information generation method and program
JP2011176591A (en) Radio communication system using mobile terminal
EP3009912B1 (en) Terminal device and method for controlling operations
JP6214065B2 (en) Electronics
JP2019175090A (en) Electronic apparatus, control unit, control program, and method of operating an electronic apparatus
US20120244803A1 (en) Communication system, communication device, and communication method
KR102157143B1 (en) Mobile terminal and control method thereof
CN102799373A (en) Electronic device, method for generating input areas, and terminal device
WO2015070718A1 (en) Communication number notification method and communication device
US11112831B1 (en) System and method for touch interaction on a multi-display device
WO2017084100A1 (en) Terminal operation method and terminal
JP2013161320A (en) Equipment position determination device and equipment position determination method
KR102371341B1 (en) Control method and terminal

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513