JP6794200B2 - Information providing equipment and programs - Google Patents
Information providing equipment and programs Download PDFInfo
- Publication number
- JP6794200B2 JP6794200B2 JP2016180601A JP2016180601A JP6794200B2 JP 6794200 B2 JP6794200 B2 JP 6794200B2 JP 2016180601 A JP2016180601 A JP 2016180601A JP 2016180601 A JP2016180601 A JP 2016180601A JP 6794200 B2 JP6794200 B2 JP 6794200B2
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- button
- screen
- server
- act
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000006854 communication Effects 0.000 description 78
- 238000004891 communication Methods 0.000 description 78
- 238000000034 method Methods 0.000 description 63
- 230000008569 process Effects 0.000 description 61
- 230000004044 response Effects 0.000 description 46
- 238000012545 processing Methods 0.000 description 42
- 230000008859 change Effects 0.000 description 26
- 230000005540 biological transmission Effects 0.000 description 9
- 101100000858 Caenorhabditis elegans act-3 gene Proteins 0.000 description 8
- HEFNNWSXXWATRW-UHFFFAOYSA-N Ibuprofen Chemical compound CC(C)CC1=CC=C(C(C)C(O)=O)C=C1 HEFNNWSXXWATRW-UHFFFAOYSA-N 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 102100031102 C-C motif chemokine 4 Human genes 0.000 description 5
- 101100054773 Caenorhabditis elegans act-2 gene Proteins 0.000 description 5
- 238000012508 change request Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 101100161935 Caenorhabditis elegans act-4 gene Proteins 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 101100217138 Mus musculus Actr10 gene Proteins 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 2
- 235000014510 cooky Nutrition 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明の実施形態は、情報提供装置及びプログラムに関する。 Embodiments of the present invention relate to information providing devices and programs.
広告、観光案内、エンターテイメント又はその他の各種情報などのコンテンツを表示するデジタルサイネージなどの表示装置において、複数の端末と連動することが可能なものがある。このようなデジタルサイネージと連動した端末は、当該端末の操作者による操作に基づいて、デジタルサイネージの画面上に表示されたカーソルなどのオブジェクトを移動させることができる。しかしながら、当該オブジェクトが、デジタルサイネージの画面に表示された文字列、画像又は動画などの上に重なると、当該文字列、画像又は動画などが見づらくなるという問題がある。 Some display devices such as digital signage that display contents such as advertisements, tourist information, entertainment, and various other information can be linked with a plurality of terminals. A terminal linked with such digital signage can move an object such as a cursor displayed on the screen of the digital signage based on an operation by the operator of the terminal. However, if the object overlaps the character string, image, moving image, etc. displayed on the screen of the digital signage, there is a problem that the character string, image, moving image, etc. becomes difficult to see.
本発明の実施形態が解決しようとする課題は、表示装置の画面に表示された内容が見づらくならない情報提供装置及びプログラムを提供することである。 An object to be solved by the embodiment of the present invention is to provide an information providing device and a program in which the contents displayed on the screen of the display device are not difficult to see.
実施形態の情報提供装置は、画面表示手段、オブジェクト表示手段、移動手段、移動制御手段及び選択制御手段を含む。画面表示手段は、表示装置にコンテンツを含む情報提供画面を表示させる。オブジェクト表示手段は、端末が接続されたことに応じて、端末と連動したオブジェクトを情報提供画面上に表示させる。移動手段は、端末からの指示に基づいて、オブジェクトの表示位置を移動させる。移動制御手段は、オブジェクトが情報提供画面内の禁止領域として設定されているボタンに入らないように移動手段を制御する。選択制御手段は、ボタンを囲うように予め定められた選択領域に、オブジェクトが入っているとき、ボタンを選択状態にする。 The information providing device of the embodiment includes screen display means, object display means, movement means , movement control means, and selection control means . The screen display means causes the display device to display an information providing screen including the content. The object display means displays an object linked to the terminal on the information providing screen according to the connection of the terminal. The moving means moves the display position of the object based on the instruction from the terminal. Movement control means controls the moving means so that turning a button object is set as a prohibited area in the information providing screen. The selection control means puts the button in the selected state when the object is in the selection area predetermined to surround the button.
以下、実施形態に係る情報提供システムについて図面を用いて説明する。
図1は、実施形態に係る情報提供システム1に含まれる装置のそれぞれの要部回路構成を示すブロック図である。情報提供システム1は、サーバー10、表示装置20及び情報端末30を含む。サーバー10及び情報端末30は、ネットワークNWに接続されている。ネットワークNWは、典型的にはインターネットを含む通信網である。あるいは、ネットワークNWは、LAN(local area network)又はその他の通信回線を含む通信網であっても良い。情報提供システム1では、一例として、ネットワークNWを介した通信には、通信プロトコルとしてHTTP(Hypertext Transfer Protocol)が用いられる。したがって、動作説明で説明するリクエストはHTTPリクエストであり、レスポンスはHTTPレスポンスである。なお、情報端末30は、図1では1台のみ示すが、1台に限定するものではなく、典型的には複数台の情報端末30が存在する。
Hereinafter, the information providing system according to the embodiment will be described with reference to the drawings.
FIG. 1 is a block diagram showing a circuit configuration of each main part of the device included in the information providing system 1 according to the embodiment. The information providing system 1 includes a server 10, a display device 20, and an information terminal 30. The server 10 and the information terminal 30 are connected to the network NW. The network NW is typically a communication network that includes the Internet. Alternatively, the network NW may be a communication network including a LAN (local area network) or other communication lines. In the information providing system 1, as an example, HTTP (Hypertext Transfer Protocol) is used as a communication protocol for communication via the network NW. Therefore, the request described in the operation description is an HTTP request, and the response is an HTTP response. Although only one information terminal 30 is shown in FIG. 1, the number of information terminals 30 is not limited to one, and typically there are a plurality of information terminals 30.
情報提供システム1は、サーバー10の制御により表示装置20にコンテンツを含む情報提供画面を表示させる。そして表示装置20に情報提供画面が表示されている状態で、サーバー10は、情報端末30と表示装置20とを連動させることができる。情報端末30と表示装置20とが連動しているとき、表示装置20の画面には、当該情報端末30と連動したオブジェクトが表示される。そして、情報端末30の操作者は、表示装置20と連動した情報端末30を操作することで、表示装置20の画面に表示された当該オブジェクトを操作することができる。また、情報端末30の操作者は、当該オブジェクトの外見に用いるアイコン画像を変更することができる。さらに、情報端末30の操作者は、当該オブジェクトを移動させることによって、表示装置20の画面に表示されたボタンを選択状態にすることができる。そして、情報端末30の操作者は、選択状態にあるボタンに対応したコンテンツを、サーバー10から情報端末30にダウンロードすることができる。 The information providing system 1 causes the display device 20 to display an information providing screen including contents under the control of the server 10. Then, while the information providing screen is displayed on the display device 20, the server 10 can link the information terminal 30 and the display device 20. When the information terminal 30 and the display device 20 are linked, an object linked with the information terminal 30 is displayed on the screen of the display device 20. Then, the operator of the information terminal 30 can operate the object displayed on the screen of the display device 20 by operating the information terminal 30 linked with the display device 20. In addition, the operator of the information terminal 30 can change the icon image used for the appearance of the object. Further, the operator of the information terminal 30 can select the button displayed on the screen of the display device 20 by moving the object. Then, the operator of the information terminal 30 can download the content corresponding to the button in the selected state from the server 10 to the information terminal 30.
サーバー10は、例えば、ウェブサーバーである。サーバー10は、ウェブページを公開する。ウェブページは、HTML又はXMLなどのデータ、及び画像、映像又は音声などのデータにより構成される。サーバー10は、情報提供装置の一例である。
サーバー10は、CPU(central processing unit)11、メインメモリ12、補助記憶デバイス13、出力インターフェース14、通信インターフェース15及びバス16を含む。
The server 10 is, for example, a web server. Server 10 publishes a web page. A web page is composed of data such as HTML or XML, and data such as images, videos, or sounds. The server 10 is an example of an information providing device.
The server 10 includes a CPU (central processing unit) 11, a main memory 12, an auxiliary storage device 13, an output interface 14, a communication interface 15, and a bus 16.
CPU11は、サーバー10の動作に必要な処理及び制御を行うコンピューターの中枢部分に相当する。CPU11は、メインメモリ12に記憶されたオペレーティングシステム及びアプリケーションソフトウェアなどのプログラムに基づいて、サーバー10の各種の機能を実現するべく各部を制御する。 The CPU 11 corresponds to a central part of a computer that performs processing and control necessary for the operation of the server 10. The CPU 11 controls each part in order to realize various functions of the server 10 based on a program such as an operating system and application software stored in the main memory 12.
メインメモリ12は、上記コンピューターの主記憶部分に相当する。メインメモリ12は、オペレーティングシステム及びアプリケーションソフトウェアなどのプログラムを記憶する。また、メインメモリ12は、CPU11が各種の処理を行う上で参照するデータを記憶する。さらに、メインメモリ12は、CPU11が各種の処理を行う上で一時的に使用するデータを記憶しておく、いわゆるワークエリアとして利用される。 The main memory 12 corresponds to the main memory portion of the computer. The main memory 12 stores programs such as an operating system and application software. Further, the main memory 12 stores data to be referred to when the CPU 11 performs various processes. Further, the main memory 12 is used as a so-called work area for storing data temporarily used by the CPU 11 for performing various processes.
補助記憶デバイス13は、上記コンピューターの補助記憶部分に相当する。補助記憶デバイス13は、例えばEEPROM(electric erasable programmable read-only memory)、HDD(hard disc drive)又はSSD(solid state drive)などである。補助記憶デバイス13は、CPU11が各種の処理を行う上で使用するデータ又はCPU11での処理によって生成されたデータなどを保存する。補助記憶デバイス13は、上記のオペレーティングシステム又はアプリケーションなどのプログラムを記憶する場合もある。 The auxiliary storage device 13 corresponds to the auxiliary storage portion of the computer. The auxiliary storage device 13 is, for example, an EEPROM (electric erasable programmable read-only memory), an HDD (hard disk drive), an SSD (solid state drive), or the like. The auxiliary storage device 13 stores data used by the CPU 11 to perform various processes, data generated by the process of the CPU 11, and the like. The auxiliary storage device 13 may store a program such as the above operating system or application.
また、補助記憶デバイス13は、利用者情報DB(database)131も記憶する。利用者情報DB131は、サーバー10が提供するサービスの利用者それぞれについての情報を、当該利用者を識別するユニークな利用者ID(identifier)と関連付けて記憶する。さらに、利用者情報DB131は、利用者IDのそれぞれに対してアイコン画像を関連付けて記憶している場合がある。 The auxiliary storage device 13 also stores the user information DB (database) 131. The user information DB 131 stores information about each user of the service provided by the server 10 in association with a unique user ID (identifier) that identifies the user. Further, the user information DB 131 may store an icon image associated with each user ID.
メインメモリ12又は補助記憶デバイス13に記憶されるプログラムは、後述する制御処理に関して記述した制御プログラムを含む。一例としてサーバー10は、制御プログラムがメインメモリ12又は補助記憶デバイス13に記憶された状態で、サーバー10の運営者などへと譲渡される。しかしながら、サーバー10は、制御プログラムがメインメモリ12又は補助記憶デバイス13に記憶されない状態で当該運営者に譲渡されても良い。そして、当該運営者へと譲渡された制御プログラムが、当該運営者又はサービスマンなどによる操作の下にメインメモリ12又は補助記憶デバイス13へと書き込まれても良い。このときの制御プログラムの譲渡は、磁気ディスク、光磁気ディスク、光ディスク、半導体メモリなどのようなリムーバブルな記録媒体に記録して、あるいはネットワークを介したダウンロードにより実現できる。 The program stored in the main memory 12 or the auxiliary storage device 13 includes a control program described for the control process described later. As an example, the server 10 is transferred to the operator of the server 10 or the like in a state where the control program is stored in the main memory 12 or the auxiliary storage device 13. However, the server 10 may be transferred to the operator in a state where the control program is not stored in the main memory 12 or the auxiliary storage device 13. Then, the control program transferred to the operator may be written to the main memory 12 or the auxiliary storage device 13 under the operation of the operator, the serviceman, or the like. The transfer of the control program at this time can be realized by recording on a removable recording medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory, or by downloading via a network.
出力インターフェース14は、映像などのデータを出力するためのインターフェースである。出力インターフェース14は、映像データに加えて音声データを出力することができても良い。 The output interface 14 is an interface for outputting data such as video. The output interface 14 may be able to output audio data in addition to video data.
通信インターフェース15は、サーバー10がネットワークを介して通信するためのインターフェースである。 The communication interface 15 is an interface for the server 10 to communicate via the network.
バス16は、アドレスバス及びデータバスなどを含み、サーバー10の各部で授受される信号を伝送する。 The bus 16 includes an address bus, a data bus, and the like, and transmits signals sent and received by each part of the server 10.
表示装置20は、例えば、デジタルサイネージである。表示装置20は、サーバー10の出力インターフェース14と接続される。表示装置20と出力インターフェース14とは、有線の通信路により接続されていても良いし、無線の通信路により接続されていても良い。あるいは、表示装置20と出力インターフェース14とは、有線と無線とが混在した通信路により接続されていても良い。表示装置20は、出力インターフェース14から出力された映像データが入力される。表示装置20は、入力された映像データに基づいて画面を表示する。なお、表示装置20は、ネットワークNWに接続されていても良い。この場合には、映像データなどが、出力インターフェース14に代えて通信インターフェース15から出力され、ネットワークNWを介して表示装置20に入力されても良い。 The display device 20 is, for example, digital signage. The display device 20 is connected to the output interface 14 of the server 10. The display device 20 and the output interface 14 may be connected by a wired communication path or may be connected by a wireless communication path. Alternatively, the display device 20 and the output interface 14 may be connected by a communication path in which both wired and wireless are mixed. The video data output from the output interface 14 is input to the display device 20. The display device 20 displays the screen based on the input video data. The display device 20 may be connected to the network NW. In this case, video data or the like may be output from the communication interface 15 instead of the output interface 14 and input to the display device 20 via the network NW.
情報端末30は、サーバー10が提供するサービスを利用する利用者などが操作する。
情報端末30は、例えば、携帯電話、スマートフォン、タブレットPC(personal computer)、ノートPCなどの携帯型コンピューターである。
情報端末30は、CPU31、メインメモリ32、補助記憶デバイス33、タッチパネル34、通信インターフェース35、カメラ36及びバス37を含む。
The information terminal 30 is operated by a user or the like who uses the service provided by the server 10.
The information terminal 30 is, for example, a portable computer such as a mobile phone, a smartphone, a tablet PC (personal computer), or a notebook PC.
The information terminal 30 includes a CPU 31, a main memory 32, an auxiliary storage device 33, a touch panel 34, a communication interface 35, a camera 36, and a bus 37.
CPU31は、情報端末30の動作に必要な処理及び制御を行うコンピューターの中枢部分に相当する。CPU31は、メインメモリ32に記憶されたオペレーティングシステム及びアプリケーションソフトウェアなどのプログラムに基づいて、情報端末30の各種の機能を実現するべく各部を制御する。 The CPU 31 corresponds to a central part of a computer that performs processing and control necessary for the operation of the information terminal 30. The CPU 31 controls each part in order to realize various functions of the information terminal 30 based on a program such as an operating system and application software stored in the main memory 32.
メインメモリ32は、上記コンピューターの主記憶部分に相当する。メインメモリ32は、オペレーティングシステム及びアプリケーションソフトウェアなどのプログラムを記憶する。また、メインメモリ32は、CPU31が各種の処理を行う上で参照するデータを記憶する。さらに、メインメモリ32は、CPU31が各種の処理を行う上で一時的に使用するデータを記憶しておく、いわゆるワークエリアとして利用される。 The main memory 32 corresponds to the main memory portion of the computer. The main memory 32 stores programs such as an operating system and application software. Further, the main memory 32 stores data referred to when the CPU 31 performs various processes. Further, the main memory 32 is used as a so-called work area for storing data temporarily used by the CPU 31 for performing various processes.
補助記憶デバイス33は、上記コンピューターの補助記憶部分に相当する。補助記憶デバイス33は、例えばEEPROM、HDD又はSSDなどである。補助記憶デバイス33は、CPU31が各種の処理を行う上で使用するデータ又はCPU31での処理によって生成されたデータなどを保存する。補助記憶デバイス33は、上記のオペレーティングシステム又はアプリケーションなどのプログラムを記憶する場合もある。
また、補助記憶デバイス33は、いくつかのアイコン画像も記憶する。
The auxiliary storage device 33 corresponds to the auxiliary storage portion of the computer. The auxiliary storage device 33 is, for example, EEPROM, HDD, SSD, or the like. The auxiliary storage device 33 stores data used by the CPU 31 to perform various processes, data generated by the process of the CPU 31, and the like. The auxiliary storage device 33 may store a program such as the above operating system or application.
The auxiliary storage device 33 also stores some icon images.
メインメモリ32又は補助記憶デバイス33に記憶されるプログラムは、ウェブブラウザーを含む。一例として情報端末30は、ウェブブラウザーがメインメモリ32又は補助記憶デバイス33に記憶された状態で、利用者へと譲渡される。しかしながら、情報端末30は、ウェブブラウザーがメインメモリ32又は補助記憶デバイス33に記憶されない状態で利用者に譲渡されても良い。そして、別途に利用者へと譲渡されたウェブブラウザーが、利用者などによる操作の下にメインメモリ32又は補助記憶デバイス33へと書き込まれても良い。このときのウェブブラウザーの譲渡は、磁気ディスク、光磁気ディスク、光ディスク、半導体メモリなどのようなリムーバブルな記録媒体に記録して、あるいはネットワークを介したダウンロードにより実現できる。
メインメモリ32又は補助記憶デバイス33に記憶されたウェブブラウザーは、サーバー10によって公開されるウェブページなどをタッチパネル34に表示させる。
The program stored in the main memory 32 or the auxiliary storage device 33 includes a web browser. As an example, the information terminal 30 is transferred to the user with the web browser stored in the main memory 32 or the auxiliary storage device 33. However, the information terminal 30 may be transferred to the user in a state where the web browser is not stored in the main memory 32 or the auxiliary storage device 33. Then, the web browser separately transferred to the user may be written to the main memory 32 or the auxiliary storage device 33 under the operation of the user or the like. The transfer of the web browser at this time can be realized by recording on a removable recording medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory, or by downloading via a network.
The web browser stored in the main memory 32 or the auxiliary storage device 33 causes the touch panel 34 to display a web page or the like published by the server 10.
タッチパネル34は、情報端末30の操作者に各種情報を通知するための画面を表示する表示デバイスとして機能する。また、タッチパネル34は、当該操作者によるタッチ操作を受け付ける入力デバイスとして機能する。 The touch panel 34 functions as a display device that displays a screen for notifying the operator of the information terminal 30 of various information. Further, the touch panel 34 functions as an input device that accepts a touch operation by the operator.
通信インターフェース35は、情報端末30がネットワークを介して通信するためのインターフェースである。
カメラ36は、静止画又は動画などの画像を撮影する。
バス37は、アドレスバス及びデータバスなどを含み、情報端末30の各部で授受される信号を伝送する。
The communication interface 35 is an interface for the information terminal 30 to communicate via the network.
The camera 36 captures an image such as a still image or a moving image.
The bus 37 includes an address bus, a data bus, and the like, and transmits signals sent and received by each part of the information terminal 30.
以下、実施形態に係る情報提供システム1の動作を図2〜図10に基づいて説明する。なお、以下の動作説明における処理の内容は一例であって、同様な結果を得ることが可能な様々な処理を適宜に利用できる。 Hereinafter, the operation of the information providing system 1 according to the embodiment will be described with reference to FIGS. 2 to 10. The content of the process in the following operation description is an example, and various processes capable of obtaining similar results can be appropriately used.
サーバー10が動作中、表示装置20には、サーバー10の働きによって広告、観光案内、エンターテイメント又はその他の各種情報などのコンテンツを含む画面が表示される。
図2は、表示装置20に表示される表示画面SC1の一例を示す図である。サーバー10が動作している間、CPU11は、表示画面SC1に対応した映像データを出力するように出力インターフェース14に対して指示する。この指示を受けて出力インターフェース14は、当該映像データを出力する。出力された当該映像データは、表示装置20に入力される。表示装置20は、入力された当該映像データに基づいて表示画面SC1を表示する。表示画面SC1は、コンテンツを含む情報提供画面の一例である。したがって、この処理を行うことで、CPU11を中枢とするコンピューターは、表示装置に情報提供画面を表示させる画面表示手段として動作する。
表示画面SC1は、ボタンB11〜ボタンB15、コードC並びに領域A11及びA12を含む。ボタンB11〜ボタンB15のそれぞれは、各種コンテンツにアクセスするためのボタンである。ボタンB11〜ボタンB15を操作することで、当該コンテンツに関するウェブページなどにアクセスしたり、当該コンテンツの詳細などを表示したりすることができる。ボタンB11〜ボタンB15のそれぞれには、当該ボタンがどのようなコンテンツにアクセスできるのかを示す文字列、画像又は動画などが表示される。コードCは、一例として、二次元バーコードである。コードCは、サーバー10が公開するウェブページにアクセスするためのURLを含む。情報端末30がこのURLにアクセスするとき、当該情報端末30は、接続リクエストをサーバー10に送信する。領域A11には、合言葉として文字列が表示される。領域A12には画像又は動画などで表されたコンテンツが表示される。
表示画面SC1には、さらに、領域A13〜領域A17が設定されている。領域A13〜領域A17は、実際には表示されない。図2においては、領域A13〜領域A17は、想像線で示されている。また、領域A13〜領域A17のそれぞれには、ユニークな領域番号が関連付けられている。ただし、領域番号は0以外の番号とする。領域A13〜領域A17は、選択領域の一例である。
また、ボタンB11〜ボタンB15、コードC及び領域A11について、それぞれが表示されている範囲は、禁止領域として設定されている。また、表示画面SC1の外側も禁止領域として設定されている。
While the server 10 is operating, the display device 20 displays a screen including contents such as advertisements, tourist information, entertainment, and various other information by the action of the server 10.
FIG. 2 is a diagram showing an example of the display screen SC1 displayed on the display device 20. While the server 10 is operating, the CPU 11 instructs the output interface 14 to output the video data corresponding to the display screen SC1. In response to this instruction, the output interface 14 outputs the video data. The output video data is input to the display device 20. The display device 20 displays the display screen SC1 based on the input video data. The display screen SC1 is an example of an information providing screen including contents. Therefore, by performing this process, the computer centered on the CPU 11 operates as a screen display means for displaying the information providing screen on the display device.
The display screen SC1 includes buttons B11 to buttons B15, a code C, and areas A11 and A12. Each of the buttons B11 to B15 is a button for accessing various contents. By operating the buttons B11 to B15, it is possible to access a web page or the like related to the content or display the details of the content or the like. Each of the buttons B11 to B15 displays a character string, an image, a moving image, or the like indicating what kind of content the button can access. The code C is, for example, a two-dimensional bar code. The code C includes a URL for accessing a web page published by the server 10. When the information terminal 30 accesses this URL, the information terminal 30 sends a connection request to the server 10. A character string is displayed as a secret word in the area A11. Content represented by an image, a moving image, or the like is displayed in the area A12.
Areas A13 to A17 are further set on the display screen SC1. Areas A13 to A17 are not actually displayed. In FIG. 2, regions A13 to A17 are shown by imaginary lines. Further, a unique area number is associated with each of the areas A13 to A17. However, the area number is a number other than 0. Areas A13 to A17 are examples of selected areas.
Further, for the buttons B11 to B15, the code C, and the area A11, the range in which each is displayed is set as a prohibited area. Further, the outside of the display screen SC1 is also set as a prohibited area.
次に、情報端末30とサーバー10とを接続させる処理について説明する。情報端末30と表示装置20とを連動させるために、情報端末30とサーバー10とを接続させる必要がある。
情報端末30の操作者は、情報端末30に設けられたカメラ36を用いてコードCを読取らせるなどして、情報端末30をコードCに含まれたURLで示されるウェブページにアクセスさせる。CPU31は、接続リクエストを当該URLで表される宛先、すなわちサーバー10に送信するように通信インターフェース35に対して指示する。この指示を受けて通信インターフェース35は、当該接続リクエストをサーバー10に送信する。送信された当該接続リクエストは、サーバー10の通信インターフェース15によって受信される。
Next, the process of connecting the information terminal 30 and the server 10 will be described. In order to link the information terminal 30 and the display device 20, it is necessary to connect the information terminal 30 and the server 10.
The operator of the information terminal 30 causes the information terminal 30 to access the web page indicated by the URL included in the code C by reading the code C using the camera 36 provided in the information terminal 30. The CPU 31 instructs the communication interface 35 to send the connection request to the destination represented by the URL, that is, the server 10. In response to this instruction, the communication interface 35 transmits the connection request to the server 10. The transmitted connection request is received by the communication interface 15 of the server 10.
図3は、サーバー10のCPU11による制御処理のフローチャートである。CPU11は、メインメモリ12又は補助記憶デバイス13に記憶された制御プログラムに基づいてこの制御処理を実行する。
図3のAct1においてサーバー10のCPU11は、接続リクエストが通信インターフェース15によって受信されたか否かを確認する。CPU11は、接続リクエストが受信されないならば、Act1においてNoと判定してAct2へと進む。
FIG. 3 is a flowchart of the control process by the CPU 11 of the server 10. The CPU 11 executes this control process based on the control program stored in the main memory 12 or the auxiliary storage device 13.
In Act 1 of FIG. 3, the CPU 11 of the server 10 confirms whether or not the connection request has been received by the communication interface 15. If the connection request is not received, the CPU 11 determines No in Act1 and proceeds to Act2.
Act2においてCPU11は、操作リクエストが通信インターフェース15によって受信されたか否かを確認する。なお、操作リクエストについての説明は後述する。CPU11は、操作リクエストが受信されないならば、Act2においてNoと判定してAct3へと進む。 In Act2, the CPU 11 confirms whether or not the operation request has been received by the communication interface 15. The operation request will be described later. If the operation request is not received, the CPU 11 determines No in Act2 and proceeds to Act3.
Act3においてCPU11は、設定リクエストが通信インターフェース15によって受信されたか否かを確認する。なお、設定リクエストについての説明は後述する。CPU11は、設定リクエストが受信されないならば、Act3においてNoと判定してAct1へと戻る。かくして、CPU11は、接続リクエスト、操作リクエスト又は設定リクエストが受信されるまでAct1〜Act3を繰り返す。CPU11は、Act1〜Act3の待受状態にあるときに接続リクエストが受信されたならば、Act1においてYesと判定してAct4へと進む。 In Act3, the CPU 11 confirms whether or not the setting request has been received by the communication interface 15. The setting request will be described later. If the setting request is not received, the CPU 11 determines No in Act3 and returns to Act1. Thus, the CPU 11 repeats Act1 to Act3 until a connection request, an operation request, or a setting request is received. If the connection request is received while in the standby state of Act1 to Act3, the CPU 11 determines Yes in Act1 and proceeds to Act4.
Act4においてCPU11は、Act1において受信を確認した接続リクエストの送信元である情報端末30(以下「送信元端末」という。)が、サーバー10が提供するサービスにログイン状態であるか否かを確認する。CPU11は、送信元端末がログイン状態であるか否かを、例えばCookieを用いて確認する。CPU11は、送信元端末がログイン状態であるならば、Cookieを利用することで、送信元端末がどの利用者IDでログインしているかを特定することができる。CPU11は、送信元端末がログイン状態でないならば、Act4においてNoと判定してAct5へと進む。 In Act4, the CPU 11 confirms whether or not the information terminal 30 (hereinafter referred to as “source terminal”), which is the source of the connection request confirmed to be received in Act1, is logged in to the service provided by the server 10. .. The CPU 11 confirms whether or not the source terminal is in the logged-in state by using, for example, Cookie. If the source terminal is logged in, the CPU 11 can specify which user ID the source terminal is logged in to by using Cookie. If the source terminal is not in the logged-in state, the CPU 11 determines No in Act 4 and proceeds to Act 5.
Act5においてCPU11は、送信元端末を、サーバー10が提供するサービスにログインさせるための処理を行う。送信元端末をログインさせるための処理は、周知の方法を用いることができるので、説明を省略する。なお、送信元端末の操作者がユーザー登録をしていない場合には、CPU11は、ログインさせるための処理を行う前に、送信元端末の操作者にユーザー登録をさせるための処理を行う。この場合、CPU11は、ユーザー登録に係る情報を、利用者情報DB131に記憶する。CPU11は、Act5の処理の後、Act6へと進む。また、CPU11は、送信元端末がログイン状態であるならば、Act4においてYesと判定してAct6へと進む。 In Act 5, the CPU 11 performs a process for logging in the source terminal to the service provided by the server 10. Since a well-known method can be used for the process for logging in to the source terminal, the description thereof will be omitted. If the operator of the source terminal has not registered as a user, the CPU 11 performs a process for causing the operator of the source terminal to register as a user before performing the process for logging in. In this case, the CPU 11 stores the information related to the user registration in the user information DB 131. The CPU 11 proceeds to Act6 after the processing of Act5. Further, if the source terminal is in the logged-in state, the CPU 11 determines Yes in Act 4 and proceeds to Act 6.
Act6においてCPU11は、マイページ画面を送信元端末のタッチパネル34に表示させるためのマイページレスポンスを生成する。マイページレスポンスは、マイページ画面を表示するためのマイページ画面データを含む。そして、CPU11は、生成したマイページレスポンスを送信元端末に送信するように通信インターフェース15に対して指示する。この指示を受けて通信インターフェース15は、当該マイページレスポンスを送信元端末に送信する。送信された当該マイページレスポンスは、送信元端末の通信インターフェース35によって受信される。CPU11は、Act6の処理の後、Act1へと戻る。 In Act6, the CPU 11 generates a My Page response for displaying the My Page screen on the touch panel 34 of the transmission source terminal. The My Page Response includes My Page screen data for displaying the My Page screen. Then, the CPU 11 instructs the communication interface 15 to transmit the generated My Page response to the source terminal. In response to this instruction, the communication interface 15 transmits the My Page response to the source terminal. The transmitted My Page response is received by the communication interface 35 of the source terminal. The CPU 11 returns to Act1 after the processing of Act6.
一方、接続リクエストを送信した送信元端末のCPU31は、レスポンスが通信インターフェース35によって受信されるのを待ち受けている。CPU31は、マイページレスポンスが受信されたならば、マイページレスポンスに含まれるマイページ画面データに基づき、マイページ画面に対応した画像を生成する。そして、CPU31は、この画像を表示するようにタッチパネル34に対して指示する。この指示を受けてタッチパネル34は、マイページ画面を表示する。 On the other hand, the CPU 31 of the transmission source terminal that has transmitted the connection request is waiting for the response to be received by the communication interface 35. When the My Page response is received, the CPU 31 generates an image corresponding to the My Page screen based on the My Page screen data included in the My Page response. Then, the CPU 31 instructs the touch panel 34 to display this image. In response to this instruction, the touch panel 34 displays the My Page screen.
図4は、タッチパネル34に表示されるマイページ画面SC2の一例を示す図である。マイページ画面SC2は、文字列CH、入力欄F、ボタンB21〜ボタンB25を含む。文字列CHは、入力欄Fに合言葉を入力するように送信元端末の操作者に促すことを示す文字列である。入力欄Fは、送信元端末の操作者により文字列が入力される欄である。ボタンB21は、送信元端末で表示装置20と連動した操作をしたい場合に、送信元端末の操作者がタッチする。ボタンB22は、オブジェクトの外見(アイコン画像)を変更したい場合に送信元端末の操作者がタッチする。ボタンB23〜ボタンB25は、その他の機能を有するボタンである。なお、ボタンB23〜ボタンB25についての詳細な説明については省略する。 FIG. 4 is a diagram showing an example of the My Page screen SC2 displayed on the touch panel 34. The My Page screen SC2 includes a character string CH, an input field F, and buttons B21 to B25. The character string CH is a character string indicating that the operator of the source terminal is urged to input the password in the input field F. The input field F is a field in which a character string is input by the operator of the source terminal. The button B21 is touched by the operator of the source terminal when he / she wants to perform an operation linked with the display device 20 on the source terminal. Button B22 is touched by the operator of the source terminal when he / she wants to change the appearance (icon image) of the object. Buttons B23 to B25 are buttons having other functions. The detailed description of the buttons B23 to B25 will be omitted.
送信元端末の操作者は、表示装置20と連動した操作を送信元端末で行いたい場合、表示装置20を見て、表示画面SC1の領域A11に表示された合言葉を確認する。そして、送信元端末の操作者は、確認した合言葉を入力欄Fに入力し、ボタンB21をタッチする。
送信元端末のCPU31は、ボタンB21がタッチされると、操作リクエストを生成する。なお、CPU31は、操作リクエストは、入力欄Fに入力された文字列を含むものとして操作リクエストを生成する。そして、CPU31は、当該操作リクエストをサーバー10に対して送信するように通信インターフェース35に対して指示する。この指示を受けて通信インターフェース35は、当該操作リクエストをサーバー10に送信する。送信された当該操作リクエストは、サーバー10の通信インターフェース15によって受信される。
When the operator of the source terminal wants to perform an operation linked with the display device 20 on the source terminal, he / she looks at the display device 20 and confirms the password displayed in the area A11 of the display screen SC1. Then, the operator of the transmission source terminal inputs the confirmed secret word in the input field F and touches the button B21.
The CPU 31 of the source terminal generates an operation request when the button B21 is touched. The CPU 31 generates the operation request assuming that the operation request includes the character string input in the input field F. Then, the CPU 31 instructs the communication interface 35 to transmit the operation request to the server 10. In response to this instruction, the communication interface 35 transmits the operation request to the server 10. The transmitted operation request is received by the communication interface 15 of the server 10.
サーバー10のCPU11は、図3のAct1〜Act3の待受状態にあるときに操作リクエストが受信されたならば、Act2においてYesと判定してAct7へと進む。
Act7においてCPU11は、合言葉が正しいか否かを確認する。すなわち、CPU11は、Act2で受信を確認した操作リクエストに含まれる文字列と表示画面SC1の領域A1に表示された文字列とが同じであるか否かを確認する。このようにすることで、表示装置20に表示された表示画面SC1を見ることができる人が操作する情報端末30だけがサーバー10と接続できるようになる。CPU11は、合言葉が正しくないならば、Act7においてNoと判定してAct8へと進む。
If the operation request is received while the CPU 11 of the server 10 is in the standby state of Act1 to Act3 of FIG. 3, it determines Yes in Act2 and proceeds to Act7.
In Act7, the CPU 11 confirms whether or not the slogan is correct. That is, the CPU 11 confirms whether or not the character string included in the operation request confirmed to be received by Act2 and the character string displayed in the area A1 of the display screen SC1 are the same. By doing so, only the information terminal 30 operated by a person who can see the display screen SC1 displayed on the display device 20 can connect to the server 10. If the word is incorrect, the CPU 11 determines No in Act7 and proceeds to Act8.
Act8においてCPU11は、合言葉が間違っている旨を示すエラー画面を送信元端末のタッチパネル34に表示させるためのエラーレスポンスを送信元端末に送信するように通信インターフェース15に対して指示する。エラーレスポンスは、エラー画面を表示するためのエラー画面データを含む。この指示を受けて通信インターフェース15は、当該エラーレスポンスを送信元端末に送信する。送信された当該エラーレスポンスは、送信元端末の通信インターフェース35によって受信される。CPU11は、Act8の処理の後、Act1へと戻る。 In Act 8, the CPU 11 instructs the communication interface 15 to transmit an error response for displaying an error screen indicating that the word is wrong on the touch panel 34 of the source terminal to the source terminal. The error response includes error screen data for displaying the error screen. In response to this instruction, the communication interface 15 transmits the error response to the source terminal. The transmitted error response is received by the communication interface 35 of the source terminal. The CPU 11 returns to Act1 after the processing of Act8.
一方、操作リクエストを送信した送信元端末のCPU31は、レスポンスが通信インターフェース35によって受信されるのを待ち受けている。CPU31は、エラーレスポンスが受信されたならば、エラーレスポンスに含まれるエラー画面データに基づき、エラー画面に対応した画像を生成する。そして、CPU31は、この画像を表示するようにタッチパネル34に対して指示する。この指示を受けてタッチパネル34は、エラー画面を表示する。
エラー画面は、一例として、図4に示すマイページ画面SC2に、合言葉が間違っている旨を示す文字列を追加したものである。
On the other hand, the CPU 31 of the transmission source terminal that has transmitted the operation request is waiting for the response to be received by the communication interface 35. When the error response is received, the CPU 31 generates an image corresponding to the error screen based on the error screen data included in the error response. Then, the CPU 31 instructs the touch panel 34 to display this image. In response to this instruction, the touch panel 34 displays an error screen.
As an example, the error screen is the My Page screen SC2 shown in FIG. 4 with a character string indicating that the word is incorrect.
一方、CPU11は、合言葉が正しいならば、図3のAct7においてYesと判定してAct9へと進む。
Act9においてCPU11は、サーバー10と送信元端末とを双方向通信可能なように接続する。双方向通信には、一例として、Websocketなどが用いられる。
On the other hand, if the word is correct, the CPU 11 determines Yes in Act7 of FIG. 3 and proceeds to Act9.
In Act9, the CPU 11 connects the server 10 and the source terminal so that bidirectional communication is possible. As an example, Websocket or the like is used for two-way communication.
Act10においてCPU11は、送信元端末に対する連動処理を開始する。
CPU11は、Act10の処理の後、Act1へと戻る。
In Act 10, the CPU 11 starts interlocking processing with respect to the source terminal.
The CPU 11 returns to Act1 after the processing of Act10.
次に、情報提供システム1の、情報端末30と表示装置20とが連動した動作について説明する。
サーバー10のCPU11は、サーバー10と双方向通信可能に接続された情報端末30それぞれに対して図5に示す連動処理を開始する。ただし、以下の説明では、1台の情報端末30に対する処理を説明する。
図5は、サーバー10のCPU11による制御処理のフローチャートである。CPU11は、メインメモリ12又は補助記憶デバイス13に記憶された制御プログラムに基づいてこの制御処理を実行する。CPU11は、図5に示す制御処理を、図3に示す制御処理とは別スレッドで実行するなどして、図3に示す制御処理と並行して処理する。また、サーバー10と双方向通信可能に接続されている情報端末30が複数ある場合には、CPU11は、当該情報端末30それぞれに対する図5に示す制御処理それぞれを別スレッドで実行するなどしてそれぞれ並行して処理する。CPU31は、図5に示す制御処理を開始するとき、初期値0の変数aをメモリ上に確保する。変数aは、情報端末30に対応するオブジェクトがどの選択領域内にあるかを、当該選択領域に関連付けられた領域番号を格納することによって示す。
Next, the operation in which the information terminal 30 and the display device 20 of the information providing system 1 are linked will be described.
The CPU 11 of the server 10 starts the interlocking process shown in FIG. 5 for each of the information terminals 30 connected to the server 10 so as to be able to communicate in both directions. However, in the following description, processing for one information terminal 30 will be described.
FIG. 5 is a flowchart of the control process by the CPU 11 of the server 10. The CPU 11 executes this control process based on the control program stored in the main memory 12 or the auxiliary storage device 13. The CPU 11 processes the control process shown in FIG. 5 in parallel with the control process shown in FIG. 3 by executing the control process shown in FIG. 5 in a thread different from the control process shown in FIG. Further, when there are a plurality of information terminals 30 connected to the server 10 so as to be capable of bidirectional communication, the CPU 11 executes each of the control processes shown in FIG. 5 for each of the information terminals 30 in a separate thread. Process in parallel. When the CPU 31 starts the control process shown in FIG. 5, the CPU 31 secures a variable a having an initial value of 0 in the memory. The variable a indicates in which selection area the object corresponding to the information terminal 30 is located by storing the area number associated with the selection area.
図5のAct21においてCPU11は、情報端末30と連動したオブジェクトを表示画面SC1に1つ追加する。なお、CPU11は、情報端末30の利用者IDにアイコン画像が関連付けられている場合、追加するオブジェクトの外見を当該アイコン画像とする。CPU11は、情報端末30の利用者IDにアイコン画像が関連付けられていない場合、オブジェクトの外見をデフォルトのアイコン画像とする。デフォルトのアイコン画像は、予め補助記憶デバイス13などに記憶される。なお、デフォルトのアイコン画像は、複数種類あってもよい。この場合、CPU11は、オブジェクトの外見に用いるアイコン画像の種類をオブジェクトごとに変えることで、同じ外見のオブジェクトが表示画面SC1内に表示されないようにする。あるいは、CPU11は、オブジェクトの色をそれぞれ変えることで、同じ外見のオブジェクトが表示画面SC1内に表示されないようにしても良い。
すなわち、CPU11は、オブジェクトが1つ追加された表示画面SC1に対応した映像データを出力するように出力インターフェース14に対して指示する。この指示を受けて出力インターフェース14は、当該映像データを出力する。出力された当該映像データは、表示装置20に入力される。表示装置20は、入力された当該映像データに基づいて、オブジェクトが1つ追加された表示画面SC1を表示する。図6は、オブジェクトが追加された表示画面SC1の一例を示す図である。図6では、オブジェクトOB11〜オブジェクトOB13の3つのオブジェクトが、表示画面SC1上に表示されている様子を示している。表示画面SC1上には、サーバー10と双方向通信可能に接続されている情報端末30の数だけオブジェクトが表示される。オブジェクトのそれぞれは、サーバー10と双方向通信可能に接続されている情報端末30のそれぞれと1対1に対応している。オブジェクトの位置は、一例として、表示画面の左上を原点、すなわち座標(x,y)=(0,0)として、座標(x,y)=(kx,ky)と表すものとする。なお、画面の右にいくほどx座標が増加し、画面の下にいくほどy座標が増加するものとする。Act21の処理を行うことで、CPU11を中枢とするコンピューターは、端末が接続されたことに応じて、端末と連動したオブジェクトを情報提供画面に表示させるオブジェクト表示手段として動作する。
In Act 21 of FIG. 5, the CPU 11 adds one object linked to the information terminal 30 to the display screen SC1. When the icon image is associated with the user ID of the information terminal 30, the CPU 11 sets the appearance of the object to be added as the icon image. When the icon image is not associated with the user ID of the information terminal 30, the CPU 11 uses the appearance of the object as the default icon image. The default icon image is stored in the auxiliary storage device 13 or the like in advance. There may be a plurality of types of default icon images. In this case, the CPU 11 changes the type of the icon image used for the appearance of the object for each object so that the object having the same appearance is not displayed on the display screen SC1. Alternatively, the CPU 11 may change the colors of the objects so that the objects having the same appearance are not displayed on the display screen SC1.
That is, the CPU 11 instructs the output interface 14 to output the video data corresponding to the display screen SC1 to which one object is added. In response to this instruction, the output interface 14 outputs the video data. The output video data is input to the display device 20. The display device 20 displays the display screen SC1 to which one object is added based on the input video data. FIG. 6 is a diagram showing an example of the display screen SC1 to which an object is added. FIG. 6 shows how the three objects, objects OB11 to object OB13, are displayed on the display screen SC1. On the display screen SC1, as many objects as the number of information terminals 30 connected to the server 10 so as to be able to communicate in both directions are displayed. Each of the objects has a one-to-one correspondence with each of the information terminals 30 that are bidirectionally connected to the server 10. Position of the object, as an example, the origin at the upper left of the display screen, i.e. coordinates (x, y) = a (0, 0), coordinates (x, y) = (k x, k y) is assumed to represent a. It is assumed that the x-coordinate increases toward the right side of the screen and the y-coordinate increases toward the bottom of the screen. By performing the processing of Act21, the computer centered on the CPU 11 operates as an object display means for displaying an object linked with the terminal on the information providing screen in response to the connection of the terminal.
図5のAct22においてCPU11は、操作画面を情報端末30のタッチパネル34に表示させるための操作画面コマンドを生成する。操作画面コマンドは、操作画面を表示するための操作画面データを含む。そして、CPU11は、生成した操作画面コマンドを情報端末30に送信するように通信インターフェース15に対して指示する。この指示を受けて通信インターフェース15は、当該操作画面コマンドを情報端末30に送信する。送信された当該操作画面コマンドは、情報端末30の通信インターフェース35によって受信される。 In Act 22 of FIG. 5, the CPU 11 generates an operation screen command for displaying the operation screen on the touch panel 34 of the information terminal 30. The operation screen command includes operation screen data for displaying the operation screen. Then, the CPU 11 instructs the communication interface 15 to transmit the generated operation screen command to the information terminal 30. In response to this instruction, the communication interface 15 transmits the operation screen command to the information terminal 30. The transmitted operation screen command is received by the communication interface 35 of the information terminal 30.
一方、操作画面コマンドを受信した情報端末30のCPU31は、図7に示す制御処理を開始する。
図7は、情報端末30のCPU31による制御処理のフローチャートである。CPU31は、メインメモリ32又は補助記憶デバイス33に記憶されたウェブブラウザー、及び受信した操作画面コマンドに基づいてこの制御処理を実行する。
図7のAct41において情報端末30のCPU31は、操作画面コマンドに含まれる操作画面データに基づき操作画面に対応した画像を生成する。そして、CPU31は、この画像を表示するようにタッチパネル34に指示する。この指示を受けて、タッチパネル34は当該操作画面を表示する。
On the other hand, the CPU 31 of the information terminal 30 that has received the operation screen command starts the control process shown in FIG. 7.
FIG. 7 is a flowchart of control processing by the CPU 31 of the information terminal 30. The CPU 31 executes this control process based on the web browser stored in the main memory 32 or the auxiliary storage device 33 and the received operation screen command.
In Act 41 of FIG. 7, the CPU 31 of the information terminal 30 generates an image corresponding to the operation screen based on the operation screen data included in the operation screen command. Then, the CPU 31 instructs the touch panel 34 to display this image. In response to this instruction, the touch panel 34 displays the operation screen.
図8は、情報端末30のタッチパネル34に表示される操作画面SC3の一例を示す図である。操作画面SC3は、右ボタンB31、左ボタンB32、下ボタンB33、上ボタンB34、DLボタンB35、変更ボタンB36、終了ボタンB37及び領域A31を含む。右ボタンB31、左ボタンB32、下ボタンB33及び上ボタンB34は十字キーである。右ボタンB31は、表示装置に表示されたオブジェクトを右に移動させたい場合に情報端末30の操作者が操作する。左ボタンB32は、表示装置に表示されたオブジェクトを左に移動させたい場合に情報端末30の操作者が操作する。下ボタンB33は、表示装置に表示されたオブジェクトを下に移動させたい場合に情報端末30の操作者が操作する。上ボタンB34は、表示装置に表示されたオブジェクトを上に移動させたい場合に情報端末30の操作者が操作する。DLボタンB35は、表示画面SC1上で現在選択されているボタンに対応するコンテンツをダウンロードしたい場合に情報端末30の操作者が操作する。変更ボタンB36は、表示装置に表示されたオブジェクトの外見を変更させたい場合に情報端末30の操作者が操作する。また、変更ボタンB36の外見は、表示装置20に表示された、情報端末30と対応するオブジェクトと同一である。あるいは、変更ボタンB36の外見は、当該オブジェクトを拡大又は縮小したものでも良い。これにより、情報端末30の操作者にとって、自分が操作する、表示装置20に表示されたオブジェクトがどのような外見であるかが分かりやすくなる。終了ボタンB37は、情報端末30での表示装置20と連動した操作を終了させたい場合に情報端末30の操作者が操作する。領域A31には、表示画面SC1上で現在選択されているボタンを特定する情報が表示される。 FIG. 8 is a diagram showing an example of the operation screen SC3 displayed on the touch panel 34 of the information terminal 30. The operation screen SC3 includes a right button B31, a left button B32, a down button B33, an up button B34, a DL button B35, a change button B36, an end button B37, and an area A31. The right button B31, the left button B32, the down button B33, and the up button B34 are cross keys. The right button B31 is operated by the operator of the information terminal 30 when he / she wants to move the object displayed on the display device to the right. The left button B32 is operated by the operator of the information terminal 30 when he / she wants to move the object displayed on the display device to the left. The lower button B33 is operated by the operator of the information terminal 30 when he / she wants to move the object displayed on the display device downward. The upper button B34 is operated by the operator of the information terminal 30 when he / she wants to move the object displayed on the display device upward. The DL button B35 is operated by the operator of the information terminal 30 when he / she wants to download the content corresponding to the button currently selected on the display screen SC1. The change button B36 is operated by the operator of the information terminal 30 when he / she wants to change the appearance of the object displayed on the display device. Further, the appearance of the change button B36 is the same as the object displayed on the display device 20 and corresponding to the information terminal 30. Alternatively, the appearance of the change button B36 may be an enlargement or reduction of the object. This makes it easier for the operator of the information terminal 30 to understand what the object displayed on the display device 20 that he / she operates looks like. The end button B37 is operated by the operator of the information terminal 30 when he / she wants to end the operation linked with the display device 20 on the information terminal 30. In the area A31, information for identifying the button currently selected on the display screen SC1 is displayed.
図7のAct42においてCPU31は、選択コマンドが通信インターフェース35によって受信されたか否かを確認する。なお、選択コマンドについての説明は後述する。CPU31は、選択コマンドが受信されていないならば、Act42においてNoと判定してAct43へと進む。 In Act 42 of FIG. 7, the CPU 31 confirms whether or not the selection command has been received by the communication interface 35. The selection command will be described later. If the selection command has not been received, the CPU 31 determines No in Act 42 and proceeds to Act 43.
Act43においてCPU31は、右ボタンB31がタッチされているか否かを確認する。CPU31は、右ボタンB31がタッチされていないならば、Act43においてNoと判定してAct44へと進む。 In Act43, the CPU 31 confirms whether or not the right button B31 is touched. If the right button B31 is not touched, the CPU 31 determines No in Act43 and proceeds to Act44.
Act44においてCPU31は、左ボタンB32がタッチされているか否かを確認する。CPU31は、左ボタンB32がタッチされていないならば、Act44においてNoと判定してAct45へと進む。 In Act44, the CPU 31 confirms whether or not the left button B32 is touched. If the left button B32 is not touched, the CPU 31 determines No in Act44 and proceeds to Act45.
Act45においてCPU31は、下ボタンB33がタッチされているか否かを確認する。CPU31は、下ボタンB33がタッチされていないならば、Act45においてNoと判定してAct46へと進む。 In Act45, the CPU 31 confirms whether or not the lower button B33 is touched. If the lower button B33 is not touched, the CPU 31 determines No in Act 45 and proceeds to Act 46.
Act46においてCPU31は、上ボタンB34がタッチされているか否かを確認する。CPU31は、上ボタンB34がタッチされていないならば、Act46においてNoと判定してAct47へと進む。 In Act46, the CPU 31 confirms whether or not the upper button B34 is touched. If the upper button B34 is not touched, the CPU 31 determines No in Act46 and proceeds to Act47.
Act47においてCPU31は、図8に示すDLボタンB35がタッチされたか否かを確認する。CPU31は、DLボタンB35がタッチされないならば、Act47においてNoと判定してAct48へと進む。 In Act47, the CPU 31 confirms whether or not the DL button B35 shown in FIG. 8 is touched. If the DL button B35 is not touched, the CPU 31 determines No in Act47 and proceeds to Act48.
Act48においてCPU31は、変更ボタンB36がタッチされたか否かを確認する。CPU31は、変更ボタンB36がタッチされないならば、Act48においてNoと判定してAct49へと進む。 In Act48, the CPU 31 confirms whether or not the change button B36 has been touched. If the change button B36 is not touched, the CPU 31 determines No in Act48 and proceeds to Act49.
Act49においてCPU31は、終了ボタンB37がタッチされたか否かを確認する。CPU31は、終了ボタンB37がタッチされないならば、Act49においてNoと判定してAct42へと戻る。かくして、CPU31は、選択コマンドが受信されるかボタンB31〜ボタンB37のいずれかがタッチされるまでAct42〜Act49を繰り返す。CPU31は、Act42〜Act49の待受状態にあるときに右ボタンB31がタッチされているならば、Act43においてYesと判定してAct50へと進む。 In Act49, the CPU 31 confirms whether or not the end button B37 has been touched. If the end button B37 is not touched, the CPU 31 determines No in Act 49 and returns to Act 42. Thus, the CPU 31 repeats Act42 to Act49 until a selection command is received or any of buttons B31 to B37 is touched. If the right button B31 is touched while in the standby state of Act42 to Act49, the CPU 31 determines Yes in Act43 and proceeds to Act50.
Act50においてCPU31は、オブジェクトを右に移動するように指示するための右コマンドをサーバー10に送信するように通信インターフェース35に指示する。この指示を受けて通信インターフェース35は、当該右コマンドをサーバー10に送信する。送信された当該右コマンドは、通信インターフェース35によって受信される。 In Act 50, the CPU 31 instructs the communication interface 35 to send a right command to the server 10 to instruct the object to move to the right. In response to this instruction, the communication interface 35 transmits the right command to the server 10. The transmitted right command is received by the communication interface 35.
また、CPU31は、Act42〜Act49の待受状態にあるときに左ボタンB32がタッチされているならば、Act44においてYesと判定してAct51へと進む。
Act51においてCPU31は、オブジェクトを左に移動するように指示するための左コマンドをサーバー10に送信するように通信インターフェース35に指示する。この指示を受けて通信インターフェース35は、当該左コマンドをサーバー10に送信する。送信された当該左コマンドは、通信インターフェース35によって受信される。
Further, if the left button B32 is touched while in the standby state of Act42 to Act49, the CPU 31 determines Yes in Act44 and proceeds to Act51.
In Act 51, the CPU 31 instructs the communication interface 35 to send a left command to the server 10 to instruct the object to move to the left. In response to this instruction, the communication interface 35 transmits the left command to the server 10. The transmitted left command is received by the communication interface 35.
また、CPU31は、Act42〜Act49の待受状態にあるときに下ボタンB33がタッチされているならば、Act45においてYesと判定してAct52へと進む。
Act52においてCPU31は、オブジェクトを下に移動するように指示するための下コマンドをサーバー10に送信するように通信インターフェース35に指示する。この指示を受けて通信インターフェース35は、当該下コマンドをサーバー10に送信する。送信された当該下コマンドは、通信インターフェース35によって受信される。
Further, if the lower button B33 is touched while in the standby state of Act42 to Act49, the CPU 31 determines Yes in Act45 and proceeds to Act52.
In Act 52, the CPU 31 instructs the communication interface 35 to send a lower command to the server 10 to instruct the object to move down. In response to this instruction, the communication interface 35 transmits the lower command to the server 10. The transmitted lower command is received by the communication interface 35.
また、CPU31は、Act42〜Act49の待受状態にあるときに上ボタンB34がタッチされているならば、Act46においてYesと判定してAct51へと進む。
Act51においてCPU31は、オブジェクトを上に移動するように指示するための上コマンドをサーバー10に送信するように通信インターフェース35に指示する。この指示を受けて通信インターフェース35は、当該上コマンドをサーバー10に送信する。送信された当該上コマンドは、通信インターフェース35によって受信される。
Further, if the upper button B34 is touched while in the standby state of Act42 to Act49, the CPU 31 determines Yes in Act46 and proceeds to Act51.
In Act 51, the CPU 31 instructs the communication interface 35 to send an upper command to the server 10 to instruct the object to move up. In response to this instruction, the communication interface 35 transmits the above command to the server 10. The transmitted above command is received by the communication interface 35.
一方、図5のAct23においてサーバー10のCPU11は、右コマンド又は左コマンドが通信インターフェース15によって受信されたか否かを確認する。CPU11は、左コマンド又は右コマンドが受信されないならば、Act23においてNoと判定してAct24へと進む。 On the other hand, in Act 23 of FIG. 5, the CPU 11 of the server 10 confirms whether or not the right command or the left command is received by the communication interface 15. If the left command or the right command is not received, the CPU 11 determines No in Act 23 and proceeds to Act 24.
Act24においてCPU11は、下コマンド又は上コマンドが通信インターフェース15によって受信されたか否かを確認する。CPU11は、下コマンド又は上コマンドが受信されないならば、Act24においてNoと判定してAct25へと進む。 In Act 24, the CPU 11 confirms whether or not the lower command or the upper command has been received by the communication interface 15. If the lower command or the upper command is not received, the CPU 11 determines No in Act 24 and proceeds to Act 25.
Act25においてCPU11は、DLコマンドが通信インターフェース15によって受信されたか否かを確認する。なお、DLコマンドについての説明は後述する。CPU11は、DLコマンドが通信インターフェース15によって受信されないならば、Act25においてNoと判定してAct26へと進む。 In Act 25, the CPU 11 confirms whether or not the DL command has been received by the communication interface 15. The DL command will be described later. If the DL command is not received by the communication interface 15, the CPU 11 determines No in Act 25 and proceeds to Act 26.
Act26においてCPU11は、変更コマンドが通信インターフェース15によって受信されか否かを確認する。なお、変更コマンドについての説明は後述する。CPU11は、変更コマンドが通信インターフェース15によって受信されないならば、Act26においてNoと判定してAct27へと進む。 In Act 26, the CPU 11 confirms whether or not the change command is received by the communication interface 15. The change command will be described later. If the change command is not received by the communication interface 15, the CPU 11 determines No in Act 26 and proceeds to Act 27.
Act27においてCPU11は、終了コマンドが通信インターフェース15によって受信されか否かを確認する。なお、終了コマンドについての説明は後述する。CPU11は、終了コマンドが通信インターフェース15によって受信されないならば、Act27においてNoと判定してAct23へと戻る。かくして、CPU11は、右コマンド、左コマンド、下コマンド、上コマンド、DLコマンド、変更コマンド又は終了コマンドが受信されるまでAct23〜Act27を繰り返す。CPU11は、Act23〜Act27の待受状態にあるときに右コマンド又は左コマンドが受信されたならば、Act23においてYesと判定してAct28へと進む。 In Act 27, the CPU 11 confirms whether or not the end command is received by the communication interface 15. The end command will be described later. If the end command is not received by the communication interface 15, the CPU 11 determines No in Act 27 and returns to Act 23. Thus, the CPU 11 repeats Act23 to Act27 until a right command, a left command, a lower command, an upper command, a DL command, a change command, or an end command is received. If a right command or a left command is received while in the standby state of Act23 to Act27, the CPU 11 determines Yes in Act23 and proceeds to Act28.
Act28においてCPU11は、図9に示す左右移動処理を行う。ただし、CPU11は、Act23で受信を確認したコマンドが右コマンドであるならば、n=1として左右移動処理を行う。また、CPU11は、Act23で受信を確認したコマンドが左コマンドであるならば、n=−1として左右移動処理を行う。
図9は、サーバー10のCPU11による制御処理のフローチャートである。CPU11は、メインメモリ12又は補助記憶デバイス13に記憶された制御プログラムに基づいてこの制御処理を実行する。
In Act 28, the CPU 11 performs the left-right movement process shown in FIG. However, if the command confirmed to be received by Act23 is the right command, the CPU 11 performs left-right movement processing with n = 1. Further, if the command whose reception is confirmed by Act23 is the left command, the CPU 11 performs the left-right movement process with n = -1.
FIG. 9 is a flowchart of the control process by the CPU 11 of the server 10. The CPU 11 executes this control process based on the control program stored in the main memory 12 or the auxiliary storage device 13.
図9のAct81においてCPU11は、座標(kx+n,ky)で表される位置が、禁止領域として設定されている範囲内であるか否かを確認する。CPU11は、座標(kx+n,ky)が禁止領域内の座標であるならば、Act81においてYesと判定して左右移動処理を終了する。対して、CPU11は、座標(kx+n,ky)が禁止領域内の座標でないならば、Act81においてNoと判定してAct82へと進む。 In Act81 in FIG 9 CPU 11 the coordinates (k x + n, k y ) position represented by, confirms whether it is within a range that is set as prohibition area. CPU11, if the coordinates (k x + n, k y ) is the coordinates of forbidden areas, ends the horizontal movement processing is determined Yes in Act81. In contrast, CPU 11, if the coordinates (k x + n, k y ) is not the coordinates of forbidden areas, the process proceeds to Act82 determines No in Act81.
Act82においてCPU11は、kxの値をkx+nにする。さらに、CPU11は、右コマンド又は左コマンドの送信元である情報端末30と連動したオブジェクトの表示位置を右にn移動させる。すなわち、CPU11は、当該オブジェクトの表示位置を右にn移動した表示画面SC1に対応した映像データを出力するように出力インターフェース14に対して指示する。この指示を受けて出力インターフェース14は、当該映像データを出力する。出力された当該映像データは、表示装置20に入力される。表示装置20は、入力された当該映像データに基づいて、当該オブジェクトの表示位置を右にn移動させた表示画面SC1を表示する。したがって、Act82の処理を行うことで、CPU11を中枢とするコンピューターは、オブジェクトの表示位置を移動させる移動手段として動作する。また、Act82の処理は、Act81の処理でYesと判定された場合に行われる。すなわち、CPU11は、オブジェクトの移動先が予め定められた禁止領域内となるような場合には、Act82の処理を行わない。したがって、Act81の処理を行うことで、CPU11を中枢とするコンピューターは、オブジェクトが情報提供画面内の予め定められた禁止領域に入らないように移動手段を制御する移動制御手段として動作する。 In Act82 CPU 11 sets the value of k x the k x + n. Further, the CPU 11 moves the display position of the object linked with the information terminal 30 which is the source of the right command or the left command by n to the right. That is, the CPU 11 instructs the output interface 14 to output the video data corresponding to the display screen SC1 in which the display position of the object is moved to the right by n. In response to this instruction, the output interface 14 outputs the video data. The output video data is input to the display device 20. The display device 20 displays the display screen SC1 in which the display position of the object is moved to the right by n based on the input video data. Therefore, by performing the processing of Act 82, the computer centered on the CPU 11 operates as a moving means for moving the display position of the object. Further, the processing of Act82 is performed when it is determined to be Yes in the processing of Act81. That is, the CPU 11 does not perform the Act 82 process when the movement destination of the object is within the predetermined prohibited area. Therefore, by performing the processing of Act81, the computer centered on the CPU 11 operates as a movement control means for controlling the movement means so that the object does not enter the predetermined prohibited area in the information providing screen.
Act83においてCPU11は、(kx,ky)が領域A13〜領域A17のいずれかの領域内であるならば、当該領域に関連付けられた領域番号を取得する。CPU11は、(kx,ky)が領域A13〜領域A17のいずれの領域内でもないならば、領域番号として0を取得する。 In Act83 CPU 11 is, (k x, k y) if it is in the region of one region A13~ region A17, and acquires the area number associated with that region. CPU11 is, (k x, k y) if there is no even within any region of the region A13~ region A17, and acquires the 0 as an area number.
Act84においてCPU11は、Act83で取得した領域番号が、変数aの値と異なるか否かを確認する。CPU11は、変数aの値と同じならば、Act84においてNoと判定して左右移動処理を終了する。対して、CPU11は、変数aの値と異なるならば、Act84においてYesと判定してAct85へと進む。 In Act84, the CPU 11 confirms whether or not the area number acquired in Act83 is different from the value of the variable a. If the value of the variable a is the same, the CPU 11 determines No in Act84 and ends the left / right movement process. On the other hand, if the value of the variable a is different from the value of the variable a, the CPU 11 determines Yes in Act84 and proceeds to Act85.
Act85においてCPU11は、変数aの値をAct83で取得した領域番号にする。この処理により、当該領域番号に関連付けられた領域内のボタンが選択状態となる。したがって、CPU11を中枢とするコンピューターは、Act85の処理を行うことで、情報提供画面上に表示されたボタンを囲うように予め定められた選択領域にオブジェクトが入っているとき、ボタンを選択状態にする選択制御手段として動作する。 In Act85, the CPU 11 sets the value of the variable a as the area number acquired in Act83. By this process, the button in the area associated with the area number is selected. Therefore, the computer centered on the CPU 11 performs the processing of Act85 to put the button in the selected state when the object is in the selection area predetermined so as to surround the button displayed on the information providing screen. Operates as a selection control means.
Act86においてCPU11は、領域番号が変数aの値である領域内に表示されたボタン、すなわち選択状態のボタンを強調表示させる。すなわち、CPU11は、当該ボタンを強調表示させた表示画面SC1に対応した映像データを出力するように出力インターフェース14に対して指示する。この指示を受けて出力インターフェース14は、当該映像データを出力する。出力された当該映像データは、表示装置20に入力される。表示装置20は、入力された当該映像データに基づいて、当該ボタンを強調表示させた表示画面SC1を表示する。なお、ボタンの強調表示は、例えば、当該ボタンを点滅させる、ボタンの色を変える、又はボタンの枠などを太くするなどである。したがって、Act86の処理を行うことで、CPU11を中枢とするコンピューターは、選択状態になっているボタンを強調表示させる強調手段として動作する。 In Act86, the CPU 11 highlights the button displayed in the area where the area number is the value of the variable a, that is, the button in the selected state. That is, the CPU 11 instructs the output interface 14 to output the video data corresponding to the display screen SC1 in which the button is highlighted. In response to this instruction, the output interface 14 outputs the video data. The output video data is input to the display device 20. The display device 20 displays the display screen SC1 in which the button is highlighted based on the input video data. The highlighting of the button is, for example, blinking the button, changing the color of the button, or thickening the frame of the button. Therefore, by performing the processing of Act86, the computer centered on the CPU 11 operates as a highlighting means for highlighting the button in the selected state.
Act87においてCPU11は、オブジェクトの外見に変更を加える。すなわち、CPU11は、オブジェクトに吹き出しを表示する。当該吹き出しは、内側に、ボタンを選択中であることを示す文字列などを含む。図6に示す吹き出しOB121は、オブジェクトOB12に表示した吹き出しを示す一例である。さらに、CPU11は、必要に応じてオブジェクトを回転する。例えば、CPU11は、オブジェクトの外見が矢印型のように特定の方向を指している場合、矢印の向きが選択中のボタンの方向を向くように回転させる。図6に示すオブジェクトOB12は、オブジェクトOB11と同様の外見のオブジェクトを、矢印の向きが選択中のボタンの方向を向くように回転させたものの一例である。 In Act 87, the CPU 11 modifies the appearance of the object. That is, the CPU 11 displays a balloon on the object. The balloon contains, inside, a character string indicating that a button is being selected. The balloon OB121 shown in FIG. 6 is an example showing the balloon displayed on the object OB12. Further, the CPU 11 rotates the object as needed. For example, when the appearance of the object points to a specific direction like an arrow, the CPU 11 rotates the object so that the direction of the arrow points to the direction of the selected button. The object OB12 shown in FIG. 6 is an example of an object having the same appearance as the object OB11 and rotated so that the direction of the arrow points to the direction of the selected button.
Act88においてCPU11は、選択状態のボタンに対応したコンテンツの概要を含む選択コマンドを生成する。ただし、CPU11は、Act83で記憶した領域番号が0であるならば、コンテンツの概要を含まないように選択コマンドを生成する。そして、CPU11は、生成した選択コマンドを情報端末30に送信するように通信インターフェース15に対して指示する。この指示を受けて通信インターフェース15は、当該選択コマンドを情報端末30に送信する。送信された当該選択コマンドは、情報端末30の通信インターフェース35によって受信される。CPU11は、Act88の処理の後、左右移動処理を終了する。CPU11は、左右移動処理を終了した後、Act23へと戻る。 In Act88, the CPU 11 generates a selection command including an outline of the content corresponding to the button in the selected state. However, if the area number stored in Act83 is 0, the CPU 11 generates a selection command so as not to include the outline of the content. Then, the CPU 11 instructs the communication interface 15 to transmit the generated selection command to the information terminal 30. In response to this instruction, the communication interface 15 transmits the selection command to the information terminal 30. The transmitted selection command is received by the communication interface 35 of the information terminal 30. After the processing of Act88, the CPU 11 ends the left-right movement processing. After finishing the left-right movement process, the CPU 11 returns to Act23.
一方、図7のAct42〜Act49の待受状態において情報端末30のCPU31は、選択コマンドが受信されたならば、Act42においてYesと判定してAct54へと進む。
Act54においてCPU31は、Act42で受信を確認した選択コマンドに含まれるコンテンツの概要を操作画面SC3の領域A31内に表示させる。なお、CPU31は、選択コマンドにコンテンツの概要が含まれないならば、操作画面SC3の領域A31内に何も表示されない状態にする。すなわち、CPU31は、領域A31内の表示を上記のようにした操作画面SC3に対応した画像を生成する。そして、CPU31は、この画像を表示するようにタッチパネル34に指示する。この指示を受けて、タッチパネル34は当該操作画面SC3を表示する。CPU31は、Act54の処理の後、Act42へと戻る。選択コマンドに含まれるコンテンツの概要は、選択状態のボタンに対応したコンテンツの概要である。つまり、領域A31内に表示される内容は、選択状態になっているボタンを特定する情報である。したがって、Act54の処理によって、情報端末30の操作者などに対して、選択状態になっているボタンを特定する情報が報知される。なお、当該コンテンツの概要を含む、選択コマンドは、Act88で送信されたものである。したがって、Act88の処理を行うことで、CPU11を中枢とするコンピューターは、選択状態になっているボタンを特定する情報を前記端末に報知させる報知手段として動作する。
On the other hand, in the standby state of Act 42 to Act 49 of FIG. 7, if the selection command is received, the CPU 31 of the information terminal 30 determines Yes in Act 42 and proceeds to Act 54.
In Act 54, the CPU 31 displays an outline of the content included in the selection command confirmed to be received in Act 42 in the area A31 of the operation screen SC3. If the selection command does not include the outline of the content, the CPU 31 sets the operation screen SC3 so that nothing is displayed in the area A31. That is, the CPU 31 generates an image corresponding to the operation screen SC3 in which the display in the area A31 is as described above. Then, the CPU 31 instructs the touch panel 34 to display this image. In response to this instruction, the touch panel 34 displays the operation screen SC3. The CPU 31 returns to the Act 42 after the processing of the Act 54. The content summary included in the selection command is a content summary corresponding to the button in the selected state. That is, the content displayed in the area A31 is information for identifying the button in the selected state. Therefore, the processing of Act 54 notifies the operator of the information terminal 30 and the like of information identifying the button in the selected state. The selection command including the outline of the content is transmitted by Act88. Therefore, by performing the processing of Act88, the computer centered on the CPU 11 operates as a notification means for notifying the terminal of information identifying the button in the selected state.
一方、サーバー10のCPU11は、図5のAct23〜Act27の待受状態にあるときに下コマンド又は上コマンドが受信されたならば、Act24においてYesと判定してAct29へと進む。
Act29においてCPU11は、図10に示す上下移動処理を行う。ただし、CPU11は、Act24で受信を確認したコマンドが下コマンドであるならば、m=1として上下移動処理を行う。また、CPU11は、Act24で受信を確認したコマンドが上コマンドであるならば、m=−1として上下移動処理を行う。
図10は、サーバー10のCPU11による制御処理のフローチャートである。CPU11は、メインメモリ12又は補助記憶デバイス13に記憶された制御プログラムに基づいてこの制御処理を実行する。
On the other hand, if the lower command or the upper command is received while the CPU 11 of the server 10 is in the standby state of Act 23 to Act 27 of FIG. 5, it determines Yes in Act 24 and proceeds to Act 29.
In Act 29, the CPU 11 performs the vertical movement process shown in FIG. However, if the command whose reception is confirmed by Act24 is the lower command, the CPU 11 performs the vertical movement process with m = 1. Further, if the command confirmed to be received by Act 24 is the upper command, the CPU 11 performs the vertical movement process with m = -1.
FIG. 10 is a flowchart of the control process by the CPU 11 of the server 10. The CPU 11 executes this control process based on the control program stored in the main memory 12 or the auxiliary storage device 13.
図10のAct91においてCPU11は、座標(kx,ky+m)で表される位置が、禁止領域として設定されている範囲内であるか否かを確認する。CPU11は、座標(kx,ky+m)が禁止領域内の座標であるならば、Act91においてYesと判定して上下移動処理を終了する。対して、CPU11は、座標(kx,ky+m)が禁止領域内の座標でないならば、Act91においてNoと判定してAct92へと進む。 In Act91 in FIG 10 CPU 11 the coordinates (k x, k y + m ) position represented by, confirms whether it is within a range that is set as prohibition area. CPU11, if the coordinates (k x, k y + m ) is the coordinates of forbidden areas, and terminates the vertical movement process and returns Yes in Act91. In contrast, CPU 11 may coordinate (k x, k y + m ) if is not the coordinates of forbidden areas, the process proceeds to Act92 determines No in Act91.
Act92においてCPU11は、kyの値をky+mにする。さらに、CPU11は、下コマンド又は上コマンドの送信元である情報端末30と連動したオブジェクトの表示位置を下にm移動させる。すなわち、CPU11は、オブジェクトの表示位置を下にm移動した表示画面SC1に対応した映像データを出力するように出力インターフェース14に対して指示する。この指示を受けて出力インターフェース14は、当該映像データを出力する。出力された当該映像データは、表示装置20に入力される。表示装置20は、入力された当該映像データに基づいて、オブジェクトの表示位置を下にm移動させた表示画面SC1を表示する。したがって、Act92の処理を行うことで、CPU11を中枢とするコンピューターは、オブジェクトの表示位置を移動させる移動手段として動作する。また、Act92の処理は、Act91の処理でYesと判定された場合に行われる。すなわち、CPU11は、オブジェクトの移動先が予め定められた禁止領域内となるような場合には、Act92の処理を行わない。したがって、Act91の処理を行うことで、CPU11を中枢とするコンピューターは、オブジェクトが情報提供画面内の予め定められた禁止領域に入らないように移動手段を制御する移動制御手段として動作する。
CPU11は、Act93〜Act97の処理として、図9に示す左右移動処理のAct83〜Act88と同様の処理を行う。ただし、CPU11は、Act94においてNoと判定した場合、上下移動処理を終了する。また、CPU11は、Act98の処理の後、上下移動処理を終了する。CPU11は、上下移動処理を終了した後、Act23へと戻る。
CPU11 In Act92, the value of k y in k y + m. Further, the CPU 11 moves the display position of the object linked with the information terminal 30, which is the source of the lower command or the upper command, downward by m. That is, the CPU 11 instructs the output interface 14 to output the video data corresponding to the display screen SC1 in which the display position of the object is moved downward by m. In response to this instruction, the output interface 14 outputs the video data. The output video data is input to the display device 20. The display device 20 displays the display screen SC1 in which the display position of the object is moved downward by m based on the input video data. Therefore, by performing the processing of Act92, the computer centered on the CPU 11 operates as a moving means for moving the display position of the object. Further, the processing of Act92 is performed when it is determined to be Yes in the processing of Act91. That is, the CPU 11 does not perform the Act92 process when the movement destination of the object is within the predetermined prohibited area. Therefore, by performing the processing of Act91, the computer centered on the CPU 11 operates as a movement control means for controlling the movement means so that the object does not enter the predetermined prohibited area in the information providing screen.
As the processing of Act93 to Act97, the CPU 11 performs the same processing as that of Act83 to Act88 of the left-right movement processing shown in FIG. However, if the CPU 11 determines No in Act94, the CPU 11 ends the vertical movement process. Further, the CPU 11 ends the vertical movement process after the process of Act98. After finishing the vertical movement process, the CPU 11 returns to Act23.
また、情報端末30のCPU31は、図7のAct42〜Act49の待受状態にあるときにDLボタンB35がタッチされたならば、Act47においてYesと判定してAct55へと進む。
Act55においてCPU31は、選択状態にあるボタンに対応したコンテンツをダウンロードするためのDLコマンドをサーバー10に送信するように通信インターフェース35に指示する。この指示を受けて通信インターフェース35は、当該DLコマンドをサーバー10に送信する。送信された当該DLコマンドは、サーバー10の通信インターフェース15によって受信される。
Further, if the DL button B35 is touched while the CPU 31 of the information terminal 30 is in the standby state of Act 42 to Act 49 in FIG. 7, it determines Yes in Act 47 and proceeds to Act 55.
In Act 55, the CPU 31 instructs the communication interface 35 to send a DL command for downloading the content corresponding to the button in the selected state to the server 10. In response to this instruction, the communication interface 35 transmits the DL command to the server 10. The transmitted DL command is received by the communication interface 15 of the server 10.
一方、サーバー10のCPU11は、図5のAct23〜Act27の待受状態にあるときにコンテンツコマンドが受信されたならば、Act25においてYesと判定してAct30へと進む。
Act30においてサーバー10のCPU11は、選択状態のボタンに対応するコンテンツを含むコンテンツコマンドを生成する。ただし、CPU11は、変数aの値が0であるならば、コンテンツを含まずにコンテンツコマンドを生成する。そして、CPU11は、生成したコンテンツコマンドを情報端末30に送信するように通信インターフェース15に対して指示する。この指示を受けて通信インターフェース15は、当該コンテンツコマンドを情報端末30に送信する。送信された当該コンテンツコマンドは、情報端末30の通信インターフェース35によって受信される。
On the other hand, if the content command is received while the CPU 11 of the server 10 is in the standby state of Act 23 to Act 27 of FIG. 5, the CPU 11 determines Yes in Act 25 and proceeds to Act 30.
In Act 30, the CPU 11 of the server 10 generates a content command including the content corresponding to the button in the selected state. However, if the value of the variable a is 0, the CPU 11 generates a content command without including the content. Then, the CPU 11 instructs the communication interface 15 to transmit the generated content command to the information terminal 30. In response to this instruction, the communication interface 15 transmits the content command to the information terminal 30. The transmitted content command is received by the communication interface 35 of the information terminal 30.
一方、図7のAct56において情報端末30のCPU31は、コンテンツコマンドが通信インターフェース35によって受信されるのを待ち受けている。CPU31は、コンテンツコマンドが受信されたならば、Act56においてYesと判定してAct57へと進む。 On the other hand, in Act 56 of FIG. 7, the CPU 31 of the information terminal 30 is waiting for the content command to be received by the communication interface 35. When the content command is received, the CPU 31 determines Yes in Act56 and proceeds to Act57.
Act57においてCPU31は、コンテンツコマンドに含まれるコンテンツに応じた処理を行う。例えば、CPU31は、特定のURLにアクセスするための処理を行う、又は当該コンテンツを保存する処理を行うなどである。CPU31が保存するコンテンツは、例えば、クーポンなどである。なお、CPU31は、コンテンツコマンドにコンテンツが含まれないならば、Act57の処理を終了する。CPU31は、Act57の処理の後、Act42へと戻る。 In Act57, the CPU 31 performs processing according to the content included in the content command. For example, the CPU 31 performs a process for accessing a specific URL, a process for storing the content, and the like. The content stored by the CPU 31 is, for example, a coupon or the like. If the content command does not include the content, the CPU 31 ends the process of Act57. The CPU 31 returns to the Act 42 after the processing of the Act 57.
また、CPU31は、Act42〜Act49の待受状態にあるときに図8に示す変更ボタンB36がタッチされたならば、Act48においてYesと判定してAct58へと進む。
Act58においてCPU31は、補助記憶デバイス33に記憶されたアイコン画像の一覧を図8に示す操作画面SC3上に表示させる。すなわち、CPU31は、操作画面SC3上にアイコン画像の一覧が表示された画面に対応した画像を生成する。そして、CPU31は、生成した画像を表示するようにタッチパネル34に対して指示する。この指示を受けてタッチパネル34は、当該画面を表示する。
Further, if the change button B36 shown in FIG. 8 is touched while in the standby state of Act42 to Act49, the CPU 31 determines Yes in Act48 and proceeds to Act58.
In Act 58, the CPU 31 displays a list of icon images stored in the auxiliary storage device 33 on the operation screen SC3 shown in FIG. That is, the CPU 31 generates an image corresponding to the screen in which the list of icon images is displayed on the operation screen SC3. Then, the CPU 31 instructs the touch panel 34 to display the generated image. In response to this instruction, the touch panel 34 displays the screen.
情報端末30の操作者は、操作画面SC3上に表示されたアイコン画像の中から、オブジェクトの外見として使用したいアイコン画像をタッチする。
図7のAct59においてCPU31は、アイコン画像の一覧内のアイコン画像のいずれかがタッチされるのを待ち受けている。CPU31は、アイコン画像がタッチされたならば、Act59においてYesと判定してAct60へと進む。
The operator of the information terminal 30 touches the icon image to be used as the appearance of the object from the icon images displayed on the operation screen SC3.
In Act 59 of FIG. 7, the CPU 31 is waiting for any of the icon images in the list of icon images to be touched. If the icon image is touched, the CPU 31 determines Yes in Act 59 and proceeds to Act 60.
Act60においてCPU31は、情報端末30の操作者にタッチされたアイコン画像を含む変更コマンドを生成する。そして、CPU31は、生成した変更コマンドをサーバー10に送信するように通信インターフェース35に対して指示する。この指示を受けて通信インターフェース35は、当該変更コマンドをサーバー10に送信する。送信された当該変更コマンドは、サーバー10の通信インターフェース15によって受信される。 In Act 60, the CPU 31 generates a change command including an icon image touched by the operator of the information terminal 30. Then, the CPU 31 instructs the communication interface 35 to transmit the generated change command to the server 10. In response to this instruction, the communication interface 35 transmits the change command to the server 10. The transmitted change command is received by the communication interface 15 of the server 10.
一方、サーバー10のCPU11は、図5のAct23〜Act27の待受状態にあるときに変更コマンドが受信されたならば、Act26においてYesと判定してAct31へと進む。
Act31においてCPU11は、変更コマンドの送信元である情報端末30の利用者IDに関連付けてアイコン画像を利用者情報DB131に記憶する。さらに、CPU11は、変更コマンドの送信元である情報端末30と連動したオブジェクトの外見を、Act26で受信を確認した変更コマンドに含まれるアイコン画像に変更させる。すなわち、CPU11は、当該オブジェクトの外見を当該アイコン画像に変更した表示画面SC1に対応した映像データを出力するように出力インターフェース14に対して指示する。この指示を受けて出力インターフェース14は、当該映像データを出力する。出力された当該映像データは、表示装置20に入力される。表示装置20は、入力された当該映像データに基づいて、当該オブジェクトの外見を当該アイコン画像に変更した表示画面SC1を表示する。したがって、Act11の処理を行うことで、CPU11を中枢とするコンピューターは、端末への操作に基づいて、オブジェクトの外見を変更させる変更手段として動作する。
On the other hand, if the change command is received while the CPU 11 of the server 10 is in the standby state of Act 23 to Act 27 of FIG. 5, it determines Yes in Act 26 and proceeds to Act 31.
In Act 31, the CPU 11 stores the icon image in the user information DB 131 in association with the user ID of the information terminal 30 that is the source of the change command. Further, the CPU 11 changes the appearance of the object linked with the information terminal 30 which is the transmission source of the change command to the icon image included in the change command whose reception is confirmed by Act26. That is, the CPU 11 instructs the output interface 14 to output the video data corresponding to the display screen SC1 in which the appearance of the object is changed to the icon image. In response to this instruction, the output interface 14 outputs the video data. The output video data is input to the display device 20. The display device 20 displays the display screen SC1 in which the appearance of the object is changed to the icon image based on the input video data. Therefore, by performing the processing of Act 11, the computer centered on the CPU 11 operates as a changing means for changing the appearance of the object based on the operation on the terminal.
また、情報端末30のCPU31は、図7のAct42〜Act49の待受状態にあるときに終了ボタンB37がタッチされたならば、Act49においてYesと判定してAct61へと進む。
Act61においてCPU31は、表示装置20と連動した操作を終了するための終了コマンドをサーバー10に送信するように通信インターフェース35に指示する。この指示を受けて通信インターフェース35は、当該終了コマンドをサーバー10に送信する。送信された当該終了コマンドは、サーバー10の通信インターフェース15によって受信される。
Further, if the end button B37 is touched while the CPU 31 of the information terminal 30 is in the standby state of Act 42 to Act 49 in FIG. 7, it determines Yes in Act 49 and proceeds to Act 61.
In Act 61, the CPU 31 instructs the communication interface 35 to send an end command for terminating the operation linked with the display device 20 to the server 10. In response to this instruction, the communication interface 35 transmits the termination command to the server 10. The transmitted end command is received by the communication interface 15 of the server 10.
一方、サーバー10のCPU11は、図5のAct23〜Act27の待受状態にあるときに終了コマンドが受信されたならば、Act27においてYesと判定してAct32へと進む。
Act32においてCPU11は、サーバー10と情報端末30との間の双方向通信可能な接続を切断する。
On the other hand, if the CPU 11 of the server 10 receives the end command while in the standby state of Act 23 to Act 27 of FIG. 5, it determines Yes in Act 27 and proceeds to Act 32.
In Act 32, the CPU 11 disconnects the bidirectionally communicable connection between the server 10 and the information terminal 30.
Act33においてCPU11は、終了コマンドの送信元である情報端末30と連動したオブジェクトを消去する。すなわち、CPU11は、当該オブジェクトが消去された表示画面SC1に対応した映像データを出力するように出力インターフェース14に対して指示する。この指示を受けて出力インターフェース14は、当該映像データを出力する。出力された当該映像データは、表示装置20に入力される。表示装置20は、入力された当該映像データに基づいて、当該オブジェクトが消去された表示画面SC1を表示する。CPU11は、Act33の処理の後、終了コマンドの送信元である情報端末30に対する連動処理を終了する。 In Act 33, the CPU 11 erases the object linked with the information terminal 30 that is the source of the end command. That is, the CPU 11 instructs the output interface 14 to output the video data corresponding to the display screen SC1 in which the object is erased. In response to this instruction, the output interface 14 outputs the video data. The output video data is input to the display device 20. The display device 20 displays the display screen SC1 in which the object is erased based on the input video data. After the processing of Act 33, the CPU 11 ends the interlocking processing with respect to the information terminal 30 which is the transmission source of the end command.
以上の説明の中において、表示装置20と連動した操作を行っているときにオブジェクトの外見を変更させる処理について説明した。以下では、表示装置20と連動した操作を行っていないときにオブジェクトの外見を変更させる処理を説明する。
送信元端末の操作者は、オブジェクトの外見を変更させたい場合、図4に示すマイページ画面SC2のボタンB22をタッチする。
送信元端末のCPU31は、ボタンB22がタッチされると、図7のAct58と同様にして、補助記憶デバイス33に記憶されたアイコン画像の一覧を図8に示すマイページ画面SC2上に表示させる。そして、送信元端末の操作者は、マイページ画面SC2上に表示されたアイコン画像の中から、オブジェクトの外見として使用したいアイコン画像をタッチする。
CPU31は、アイコン画像の一覧内のアイコン画像のいずれかがタッチされると、タッチされたアイコン画像を含む変更リクエストを生成する。そして、CPU31は、当該変更リクエストをサーバー10に対して送信するように通信インターフェース35に対して指示する。この指示を受けて通信インターフェース35は、当該変更リクエストをサーバー10に送信する。送信された当該変更リクエストは、サーバー10の通信インターフェース15によって受信される。
In the above description, the process of changing the appearance of the object while performing the operation linked with the display device 20 has been described. Hereinafter, a process of changing the appearance of the object when the operation linked with the display device 20 is not performed will be described.
When the operator of the source terminal wants to change the appearance of the object, he / she touches the button B22 of the My Page screen SC2 shown in FIG.
When the button B22 is touched, the CPU 31 of the transmission source terminal displays a list of icon images stored in the auxiliary storage device 33 on the My Page screen SC2 shown in FIG. 8 in the same manner as in Act 58 of FIG. Then, the operator of the transmission source terminal touches the icon image to be used as the appearance of the object from the icon images displayed on the My Page screen SC2.
When any of the icon images in the list of icon images is touched, the CPU 31 generates a change request including the touched icon image. Then, the CPU 31 instructs the communication interface 35 to transmit the change request to the server 10. In response to this instruction, the communication interface 35 transmits the change request to the server 10. The transmitted change request is received by the communication interface 15 of the server 10.
一方、サーバー10のCPU11は、図3のAct1〜Act3の待受状態にあるときに変更リクエストが受信されたならば、Act3においてYesと判定してAct11へと進む。 On the other hand, if the change request is received while the CPU 11 of the server 10 is in the standby state of Act1 to Act3 of FIG. 3, it determines Yes in Act3 and proceeds to Act11.
Act11においてCPU11は、送信元端末の利用者IDに関連付けてアイコン画像を利用者情報DB131に記憶する。これにより、サーバー10が提供するサービスに当該利用者IDでログインしている情報端末30によって表示装置20と連動した操作を行うとき、表示装置20に表示されるオブジェクトの外見は当該アイコン画像になる。したがって、Act11の処理を行うことで、CPU11を中枢とするコンピューターは、端末への操作に基づいて、オブジェクトの外見を変更する変更手段として動作する。CPU11は、Act11の処理の後、Act1へと戻る。 In Act 11, the CPU 11 stores the icon image in the user information DB 131 in association with the user ID of the transmission source terminal. As a result, when the information terminal 30 logged in to the service provided by the server 10 with the user ID performs an operation linked with the display device 20, the appearance of the object displayed on the display device 20 becomes the icon image. .. Therefore, by performing the processing of Act 11, the computer centered on the CPU 11 operates as a changing means for changing the appearance of the object based on the operation on the terminal. The CPU 11 returns to Act1 after the processing of Act11.
実施形態の情報提供システム1によれば、サーバー10は、表示装置20に表示される表示画面SC1に予め禁止領域を設定している。そして、サーバー10は、当該表示画面SC1上に、情報端末30に対して行われる操作に基づいて表示画面SC1上を移動するオブジェクトを表示させる。ただしサーバー10は、オブジェクトが禁止領域内に入らないようにオブジェクトの移動を制御している。したがって、禁止領域内に表示された文字列、画像又は動画などにオブジェクトが重なって見づらくなることがない。 According to the information providing system 1 of the embodiment, the server 10 sets a prohibited area in advance on the display screen SC1 displayed on the display device 20. Then, the server 10 causes the display screen SC1 to display an object that moves on the display screen SC1 based on the operation performed on the information terminal 30. However, the server 10 controls the movement of the object so that the object does not enter the prohibited area. Therefore, the object does not overlap with the character string, image, moving image, etc. displayed in the prohibited area and is not difficult to see.
また、実施形態の情報提供システム1によれば、サーバー10は、オブジェクトが領域A13〜A17のいずれかの領域内にあるとき、当該領域内のボタンを選択状態にする。したがって、ボタンが禁止領域として設定されている場合であっても、情報端末30の操作者は、オブジェクトを当該領域内に入れることで当該ボタンを選択状態にさせることができる。 Further, according to the information providing system 1 of the embodiment, when the object is in any of the areas A13 to A17, the server 10 selects the button in the area. Therefore, even when the button is set as the prohibited area, the operator of the information terminal 30 can put the button in the selected area by putting the object in the area.
また、実施形態の情報提供システム1によれば、サーバー10は、選択状態になっているボタンを強調表示させる。したがって、情報端末30の操作者は、どのボタンが選択状態になっているのかが分かりやすい。 Further, according to the information providing system 1 of the embodiment, the server 10 highlights the button in the selected state. Therefore, the operator of the information terminal 30 can easily understand which button is in the selected state.
また、実施形態の情報提供システム1によれば、サーバー10は、オブジェクトによって選択状態になっているボタンがどのボタンであるかを特定する情報を、当該オブジェクトと連動した情報端末30に報知させる。したがって、情報端末30の操作者は、当該情報端末30と連動したオブジェクトによってどのボタンが選択状態になっているかが分かりやすい。 Further, according to the information providing system 1 of the embodiment, the server 10 causes the information terminal 30 linked with the object to notify the information specifying which button the button selected by the object is. Therefore, the operator of the information terminal 30 can easily understand which button is in the selected state by the object linked with the information terminal 30.
また、実施形態の情報提供システム1によれば、情報端末30の操作者は、情報端末30を操作することでオブジェクトの外見を変更させることができる。このとき、サーバー10は、情報端末30に対して行われた操作に基づいて、オブジェクトの外見を変更させる。オブジェクトの外見が変更されることで、表示装置20には異なる外見の複数のオブジェクトが表示される場合がある。この場合、情報端末30の操作者にとって、自分が操作するオブジェクトが複数のオブジェクトのうちのどのオブジェクトであるかを判別しやすい。 Further, according to the information providing system 1 of the embodiment, the operator of the information terminal 30 can change the appearance of the object by operating the information terminal 30. At this time, the server 10 changes the appearance of the object based on the operation performed on the information terminal 30. By changing the appearance of the objects, the display device 20 may display a plurality of objects having different appearances. In this case, it is easy for the operator of the information terminal 30 to determine which of the plurality of objects the object he / she operates is.
上記の実施形態は以下のような変形も可能である。
上記の実施形態では、オブジェクトは上下左右の4方向に移動可能である。しかしながら、オブジェクトは、上下左右以外の方向に移動可能でも良い。この場合には、CPU31は、タッチパネル34に、4方向以上の方向を指示することができるボタンを表示させる。操作されたボタンが、右を0度として反時計回りに角度θの方向に移動させるボタンであった場合、CPU31は、角度θを含むコマンドを生成する。そして、CPU31は、生成したコマンドをサーバー10に送信するように通信インターフェース35に対して指示する。この指示を受けて通信インターフェース35は、当該コマンドをサーバー10に送信する。送信された当該コマンドは、サーバー10の通信インターフェース15によって受信される。当該コマンドを受信したサーバー10のCPU11は、角度θ方向にオブジェクトを移動させるため、一例として、n=cosθ、m=−sinθとして図9のAct81及びAct82並びに図10のAct91及びAct92の処理を行う。その後、CPU11は、図9のAct83〜Act88の処理を行う。
The above embodiment can be modified as follows.
In the above embodiment, the object can move in four directions of up, down, left, and right. However, the object may be movable in a direction other than up, down, left, and right. In this case, the CPU 31 causes the touch panel 34 to display buttons capable of instructing four or more directions. When the operated button is a button that moves the button counterclockwise in the direction of the angle θ with the right side as 0 degree, the CPU 31 generates a command including the angle θ. Then, the CPU 31 instructs the communication interface 35 to transmit the generated command to the server 10. In response to this instruction, the communication interface 35 transmits the command to the server 10. The transmitted command is received by the communication interface 15 of the server 10. In order to move the object in the angle θ direction, the CPU 11 of the server 10 that has received the command performs the processes of Act81 and Act82 of FIG. 9 and Act91 and Act92 of FIG. 10 as n = cosθ and m = −sinθ as an example. .. After that, the CPU 11 performs the processes of Act83 to Act88 of FIG.
上記の実施形態では、情報端末30は、オブジェクトの外見を変更する場合に補助記憶デバイス33に記憶されたアイコン画像の一覧を表示させた。そして、情報端末30は、当該一覧の中から情報端末30の操作者によって選択されたアイコン画像をサーバー10に送信した。しかしながら、情報端末30は、アイコン画像の選択時に、情報端末30の操作者による操作に基づいてカメラ36を起動する。そして、情報端末30は、カメラ36により撮影した画像をサーバー10に送信しても良い。これによって、当該画像を受信したサーバー10は、オブジェクトの外見をカメラ36により撮影された画像とすることができる。またこのとき、カメラ36で情報端末30の操作者などの人の顔を撮影すれば、オブジェクトの外見を当該操作者などの人の顔とすることができる。 In the above embodiment, the information terminal 30 displays a list of icon images stored in the auxiliary storage device 33 when the appearance of the object is changed. Then, the information terminal 30 transmits the icon image selected by the operator of the information terminal 30 from the list to the server 10. However, when the icon image is selected, the information terminal 30 activates the camera 36 based on the operation by the operator of the information terminal 30. Then, the information terminal 30 may transmit the image taken by the camera 36 to the server 10. As a result, the server 10 that has received the image can change the appearance of the object to the image taken by the camera 36. At this time, if the camera 36 captures the face of a person such as an operator of the information terminal 30, the appearance of the object can be made into the face of the person such as the operator.
上記の実施形態では、図7のAct54においてCPU31は、Act42で受信を確認した選択コマンドに含まれるコンテンツの概要を操作画面SC3の領域A31内に表示させた。しかしながら、CPU31は、その他の方法で当該コンテンツの概要を報知しても良い。例えば、CPU31は、当該コンテンツの概要を、図示しないスピーカーに音として出力させる。 In the above embodiment, in Act 54 of FIG. 7, the CPU 31 displays the outline of the content included in the selection command confirmed to be received by Act 42 in the area A31 of the operation screen SC3. However, the CPU 31 may notify the outline of the content by other methods. For example, the CPU 31 causes a speaker (not shown) to output an outline of the content as sound.
情報端末30は、ウェブブラウザーに代えて、情報提供システム1専用のアプリケーションなどの、ウェブブラウザー以外のアプリケーションを用いても良い。 The information terminal 30 may use an application other than the web browser, such as an application dedicated to the information providing system 1, instead of the web browser.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]表示装置にコンテンツを含む情報提供画面を表示させる画面表示手段と、端末が接続されたことに応じて、前記端末と連動したオブジェクトを前記情報提供画面上に表示させるオブジェクト表示手段と、前記端末からの指示に基づいて、前記オブジェクトの表示位置を移動させる移動手段と、前記オブジェクトが前記情報提供画面内の予め定められた禁止領域に入らないように前記移動手段を制御する移動制御手段と、を備える情報提供装置。
[2]前記情報提供画面上に表示されたボタンを囲うように予め定められた選択領域に、前記オブジェクトが入っているとき、前記ボタンを選択状態にする選択制御手段をさらに備える、[1]に記載の情報提供装置。
[3]選択状態になっているボタンを強調表示させる強調手段をさらに備える、[2]に記載の情報提供装置。
[4]選択状態になっているボタンを特定する情報を前記端末に報知させる報知手段をさらに備える、[2]に記載の情報提供装置。
[5]前記端末への操作に基づいて、前記オブジェクトの外見を変更させる変更手段をさらに備える、[1]乃至[4]のいずれか1項に記載の情報提供装置。
[6]情報提供装置が備えるコンピューターを、表示装置にコンテンツを含む情報提供画面を表示させる画面表示手段と、端末が接続されたことに応じて、前記端末と連動したオブジェクトを前記情報提供画面上に表示させるオブジェクト表示手段と、前記端末からの指示に基づいて、前記オブジェクトの表示位置を移動させる移動手段と、前記オブジェクトが前記情報提供画面内の予め定められた禁止領域に入らないように前記移動手段を制御する移動制御手段と、して機能させるためのプログラム。
Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
Hereinafter, the inventions described in the claims of the original application of the present application will be added.
[1] A screen display means for displaying an information providing screen including contents on a display device, an object display means for displaying an object linked to the terminal on the information providing screen according to the connection of the terminal, and an object display means. A moving means for moving the display position of the object based on an instruction from the terminal, and a moving control means for controlling the moving means so that the object does not enter a predetermined prohibited area in the information providing screen. An information providing device equipped with.
[2] Further provided with a selection control means for selecting the button when the object is in the selection area predetermined so as to surround the button displayed on the information providing screen [1]. Information providing device described in.
[3] The information providing device according to [2], further comprising a highlighting means for highlighting the selected button.
[4] The information providing device according to [2], further comprising a notification means for notifying the terminal of information identifying a button in the selected state.
[5] The information providing device according to any one of [1] to [4], further comprising a changing means for changing the appearance of the object based on an operation on the terminal.
[6] A computer provided with an information providing device is displayed on a screen display means for displaying an information providing screen including contents on the display device, and an object linked with the terminal is displayed on the information providing screen according to the connection of the terminal. The object display means for displaying the object, the moving means for moving the display position of the object based on the instruction from the terminal, and the object so as not to enter the predetermined prohibited area in the information providing screen. A program for functioning as a movement control means for controlling a movement means.
1…情報提供システム、10…サーバー、11,31…CPU、12,32…メインメモリ、13,33…補助記憶デバイス、14…出力インターフェース、15,35…通信インターフェース、16,37…バス、20…表示装置、30…情報端末、34…タッチパネル、36…カメラ。 1 ... Information provision system, 10 ... Server, 11, 31 ... CPU, 12, 32 ... Main memory, 13, 33 ... Auxiliary storage device, 14 ... Output interface, 15, 35 ... Communication interface, 16, 37 ... Bus, 20 ... Display device, 30 ... Information terminal, 34 ... Touch panel, 36 ... Camera.
Claims (5)
端末が接続されたことに応じて、前記端末と連動したオブジェクトを前記情報提供画面上に表示させるオブジェクト表示手段と、
前記端末からの指示に基づいて、前記オブジェクトの表示位置を移動させる移動手段と、
前記オブジェクトが前記情報提供画面内の禁止領域として設定されているボタンに入らないように前記移動手段を制御する移動制御手段と、
前記ボタンを囲うように予め定められた選択領域に、前記オブジェクトが入っているとき、前記ボタンを選択状態にする選択制御手段と、
を備える情報提供装置。 A screen display means for displaying an information providing screen including contents on a display device,
An object display means for displaying an object linked to the terminal on the information providing screen according to the connection of the terminal.
A moving means for moving the display position of the object based on an instruction from the terminal, and
And movement control means for the object to control the moving means so that turning a button that is set as a prohibited area of the information providing screen,
A selection control means that puts the button in the selected state when the object is in the selection area predetermined so as to surround the button.
An information providing device including.
表示装置にコンテンツを含む情報提供画面を表示させる画面表示手段と、
端末が接続されたことに応じて、前記端末と連動したオブジェクトを前記情報提供画面上に表示させるオブジェクト表示手段と、
前記端末からの指示に基づいて、前記オブジェクトの表示位置を移動させる移動手段と、
前記オブジェクトが前記情報提供画面内の禁止領域として設定されているボタンに入らないように前記移動手段を制御する移動制御手段と、前記ボタンを囲うように予め定められた選択領域に、前記オブジェクトが入っているとき、前記ボタンを選択状態にする選択制御手段と、して機能させるためのプログラム。 The computer that the information providing device has
A screen display means for displaying an information providing screen including contents on a display device,
An object display means for displaying an object linked to the terminal on the information providing screen according to the connection of the terminal.
A moving means for moving the display position of the object based on an instruction from the terminal, and
And movement control means for the object to control the moving means so that turning a button that is set as a prohibited area of the information providing screen, a predetermined selection area so as to surround said button, said object A program for functioning as a selection control means for putting the button in the selected state when is entered .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016180601A JP6794200B2 (en) | 2016-09-15 | 2016-09-15 | Information providing equipment and programs |
CN201710833212.1A CN107831975B (en) | 2016-09-15 | 2017-09-15 | Information providing device, control method and terminal equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016180601A JP6794200B2 (en) | 2016-09-15 | 2016-09-15 | Information providing equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018045506A JP2018045506A (en) | 2018-03-22 |
JP6794200B2 true JP6794200B2 (en) | 2020-12-02 |
Family
ID=61643856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016180601A Expired - Fee Related JP6794200B2 (en) | 2016-09-15 | 2016-09-15 | Information providing equipment and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6794200B2 (en) |
CN (1) | CN107831975B (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5707015B2 (en) * | 2007-09-27 | 2015-04-22 | 株式会社日立メディコ | Information display device |
EP2341694B1 (en) * | 2008-10-27 | 2017-01-25 | Lenovo Innovations Limited (Hong Kong) | Information processing device |
CN104423847B (en) * | 2013-09-11 | 2020-08-25 | 联想(北京)有限公司 | Information processing method, electronic equipment and external equipment |
CN103616996B (en) * | 2013-11-28 | 2017-06-06 | Tcl集团股份有限公司 | It is a kind of to show the mouse display methods and system for covering content |
JP2015162149A (en) * | 2014-02-28 | 2015-09-07 | 東芝テック株式会社 | Information providing apparatus and information providing program |
-
2016
- 2016-09-15 JP JP2016180601A patent/JP6794200B2/en not_active Expired - Fee Related
-
2017
- 2017-09-15 CN CN201710833212.1A patent/CN107831975B/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2018045506A (en) | 2018-03-22 |
CN107831975B (en) | 2021-06-08 |
CN107831975A (en) | 2018-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6241766B2 (en) | Mobile terminal and device linkage method | |
CN103051693B (en) | Apparatus control method and mobile communication terminal | |
KR20150032066A (en) | Method for screen mirroring, and source device thereof | |
US20140340344A1 (en) | Display processor and display processing method | |
CN103049190A (en) | Mobile communication terminal and method controlling device operation | |
JP6668972B2 (en) | Information processing device and program | |
US20210213357A1 (en) | Processing Device, Program, And Method | |
US20160006971A1 (en) | Display apparatus and controlling method thereof | |
WO2017038469A1 (en) | Posting information provision device and terminal device | |
KR102048750B1 (en) | Method and system for providing secure message | |
JP2016157156A (en) | Information processing apparatus, information processing system, information processing method, and program | |
EP2605527B1 (en) | A method and system for mapping visual display screens to touch screens | |
JP7328675B2 (en) | System, information processing device and program | |
US20140104183A1 (en) | Method and device for controlling at least one apparatus by at least one other apparatus, system implementing such a device | |
US20140317549A1 (en) | Method for Controlling Touchscreen by Using Virtual Trackball | |
JP2018525744A (en) | Method for mutual sharing of applications and data between touch screen computers and computer program for implementing this method | |
JP6794200B2 (en) | Information providing equipment and programs | |
JP6062984B2 (en) | Information processing apparatus and information display method | |
JP6498823B1 (en) | Information processing method, information processing apparatus, and program | |
JP2017220131A (en) | Information processing system, information processing device, and control method and program thereof | |
CN113797527B (en) | Game processing method, device, equipment, medium and program product | |
JP2022025652A (en) | Communication terminal, communication system, communication method, and program | |
JP6586717B1 (en) | Content providing system and program | |
JP7085311B2 (en) | Information processing equipment, information processing system, information processing method, information processing program | |
JP6454438B1 (en) | Information processing method, information processing apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6794200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |