WO2015079865A1 - Input device, communication information identification method, processing device, display device, program, and recording medium - Google Patents

Input device, communication information identification method, processing device, display device, program, and recording medium Download PDF

Info

Publication number
WO2015079865A1
WO2015079865A1 PCT/JP2014/078935 JP2014078935W WO2015079865A1 WO 2015079865 A1 WO2015079865 A1 WO 2015079865A1 JP 2014078935 W JP2014078935 W JP 2014078935W WO 2015079865 A1 WO2015079865 A1 WO 2015079865A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
communication
input
user
display
Prior art date
Application number
PCT/JP2014/078935
Other languages
French (fr)
Japanese (ja)
Inventor
敦稔 〆野
毅 金子
久雄 熊井
嬋斌 倪
伊藤 典男
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to JP2015550622A priority Critical patent/JPWO2015079865A1/en
Publication of WO2015079865A1 publication Critical patent/WO2015079865A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4222Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

In order to provide an input device with which users can browse content and communicate with other users simultaneously, a tablet terminal (1) is equipped with a display instruction determination unit (134), which identifies communication information associated with an identification result from a state identification unit (132) that identifies the state of the tablet terminal or the state of the area around the tablet terminal.

Description

入力装置、コミュニケーション情報の特定方法、処理装置、表示装置、プログラム、および記録媒体INPUT DEVICE, COMMUNICATION INFORMATION SPECIFICATION METHOD, PROCESSING DEVICE, DISPLAY DEVICE, PROGRAM, AND RECORDING MEDIUM
 本発明は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を実行するための入力操作を受け付ける入力装置、コミュニケーション情報の特定方法、コミュニケーション画像を送信する処理装置、コミュニケーション画像をコンテンツとともに表示する表示装置、入力装置を動作させるためのプログラム、およびそのプログラムを記録する記録媒体に関する。 The present invention provides an input for receiving an input operation for executing processing on a communication image for communication with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network. The present invention relates to a device, a method for identifying communication information, a processing device for transmitting communication images, a display device for displaying communication images together with contents, a program for operating an input device, and a recording medium for recording the program.
 近年、映像などのコンテンツを閲覧しながら、遠隔地の友人や家族などとのコミュニケーションを図るための技術(以下、共同閲覧システム)に対するニーズがある。また従来、上記共同閲覧システムを実現するための方法として、コンテンツを閲覧しながらテキストチャットを同時に行う方法がある。他にも、コンテンツを閲覧しながらボイスチャットやビデオチャットを行う方法がある。 In recent years, there is a need for technology (hereinafter referred to as a joint viewing system) for communication with remote friends and family while browsing content such as video. Conventionally, as a method for realizing the collaborative browsing system, there is a method of simultaneously performing text chat while browsing content. There are other methods for voice chat and video chat while browsing content.
 例えば、下記特許文献1には、視聴者がテレビを視聴しながら他の視聴者とのチャットグループのリアルタイム通信に参加することができるテレビチャットシステムが開示されている。上記リアルタイム通信は、テキストメッセージ、音声通信、または映像通信で実現されている。 For example, Patent Document 1 below discloses a TV chat system in which a viewer can participate in real-time communication of a chat group with another viewer while watching the TV. The real-time communication is realized by text message, voice communication, or video communication.
日本国公開特許公報「特開2013-50960号公報(2013年3月14日公開)」Japanese Patent Publication “JP 2013-50960 A (published March 14, 2013)” 日本国公開特許公報「特開2013-149262号公報(2013年8月1日公開)」Japanese Patent Publication “JP 2013-149262 A (published on August 1, 2013)”
 しかしながら、上述のような従来技術は以下のような問題がある。 However, the conventional techniques as described above have the following problems.
 まず、テキストの入力によって他のユーザとコミュニケーションを図る場合、入力が煩雑となるため、コンテンツの閲覧がおろそかになることが多い。特に、コンテンツが映像の場合は、映像を見逃してしまうと他のユーザとのコミュニケーションを図ることが難しくなる。 First, when trying to communicate with other users by inputting text, the input becomes complicated, so browsing of content is often neglected. In particular, if the content is a video, it is difficult to communicate with other users if the video is missed.
 また、音声または映像によって他のユーザとコミュニケーションを図る場合、複数のユーザの音声が重なることで他のユーザの音声が聞き取りづらくなり、コミュニケーションを図ることが難しくなる。また、複数のユーザの発言のタイミングが重なってしまうと、以降、各ユーザが発言しづらくなってしまう可能性がある。さらに、コンテンツが映像の場合は、ユーザが発する音声に加え、コンテンツの音声も同時に聞こえるため、コミュニケーションを図ることはより困難となる。また、ユーザが3名以上の場合は、コミュニケーションを図ることはさらに困難となる。 Also, when communicating with other users by voice or video, the voices of a plurality of users overlap, making it difficult to hear the voices of other users, making it difficult to communicate. In addition, if the timings of speaking by a plurality of users overlap, it may be difficult for each user to speak later. Furthermore, when the content is a video, in addition to the audio uttered by the user, the audio of the content can be heard at the same time, so that communication is more difficult. Further, when there are three or more users, it becomes more difficult to communicate.
 以上より、従来技術では、ユーザがコンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができないという問題がある。 As described above, the conventional technology has a problem that the user cannot enjoy browsing the content and communicating with other users at the same time.
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザがコンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができる入力装置を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an input device that allows a user to simultaneously enjoy browsing content and communicating with other users.
 上記の課題を解決するために、本発明の一態様に係る入力装置は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置であって、自装置または自装置の周囲の状態を特定する状態特定部と、上記状態特定部による特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定部と、を備える。 In order to solve the above-described problem, an input device according to an aspect of the present invention is intended to communicate with other users in a collaborative browsing system that allows a plurality of users to browse and communicate content via a communication network. An input device that includes a transmission unit that transmits communication information indicating processing for a communication image for the state identification unit that identifies the own device or a state around the own device, and is associated with the identification result by the state identification unit A communication information specifying unit for specifying the communication information.
 また、上記の課題を解決するために、本発明の一態様に係る入力装置を用いたコミュニケーション情報の特定方法は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置を用いたコミュニケーション情報の特定方法であって、自装置または自装置の周囲の状態を特定する状態特定ステップと、上記状態特定ステップにおける特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定ステップと、を含む。 In order to solve the above problem, a communication information specifying method using an input device according to an aspect of the present invention is a collaborative browsing that enables browsing and communication of content by a plurality of users via a communication network. In the system, a method for identifying communication information using an input device including a transmission unit that transmits communication information indicating processing for a communication image for communication with another user, the state of the device or the surroundings of the device And a communication information specifying step for specifying the communication information associated with the specifying result in the state specifying step.
 本発明の一態様によれば、コンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができる入力装置を提供することができるという効果を奏する。 According to one aspect of the present invention, there is an effect that it is possible to provide an input device that can simultaneously enjoy browsing of content and communication with other users.
本発明の一実施形態に係るタブレット端末の要部構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the principal part structure of the tablet terminal which concerns on one Embodiment of this invention. 図1に示すタブレット端末の状態取得部の一例を示すブロック図である。It is a block diagram which shows an example of the state acquisition part of the tablet terminal shown in FIG. 図1に示すタブレット端末を用いた共同閲覧システム(コミュニケーションシステム)の構成の一例を示す概略図である。It is the schematic which shows an example of a structure of the collaborative browsing system (communication system) using the tablet terminal shown in FIG. (a)および(b)は、図1に示すタブレット端末のタッチパネルに表示される画像の一例を示す模式図である。(A) And (b) is a schematic diagram which shows an example of the image displayed on the touch panel of the tablet terminal shown in FIG. 図3に示す共同閲覧システムにおけるテレビに表示される画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image displayed on the television in the collaborative browsing system shown in FIG. (a)は、ユーザが図3に示す共同閲覧システムを使用している様子を示す図であり、(b)は(a)に示すテレビに表示される画像の一例を示す模式図である。(A) is a figure which shows a mode that the user is using the collaborative browsing system shown in FIG. 3, (b) is a schematic diagram which shows an example of the image displayed on the television shown in (a). (a)は、ユーザが図3に示す共同閲覧システムを使用している様子を示す図であり、(b)は(a)に示すテレビに表示される画像の一例を示す模式図である。(A) is a figure which shows a mode that the user is using the collaborative browsing system shown in FIG. 3, (b) is a schematic diagram which shows an example of the image displayed on the television shown in (a). (a)および(b)は、図3に示す共同閲覧システムにおけるテレビに表示される画像の別の例を示す模式図である。(A) And (b) is a schematic diagram which shows another example of the image displayed on the television in the collaborative browsing system shown in FIG. 図1に示すタブレット端末で実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process performed with the tablet terminal shown in FIG. (a)および(b)は、図1に示すタブレット端末のタッチパネルに表示される画像の別の例を示す模式図である。(A) And (b) is a schematic diagram which shows another example of the image displayed on the touch panel of the tablet terminal shown in FIG. 図3に示す共同閲覧システムにおけるテレビに表示される画像のさらに別の例を示す模式図である。It is a schematic diagram which shows another example of the image displayed on the television in the collaborative browsing system shown in FIG. 本発明の他の実施形態に係るタブレット端末の要部構成を示す機能ブロック図である。It is a functional block diagram which shows the principal part structure of the tablet terminal which concerns on other embodiment of this invention. 本発明のさらに他の実施形態に係る共同閲覧システムの構成の別の例を示す概略図である。It is the schematic which shows another example of a structure of the collaborative browsing system which concerns on further another embodiment of this invention.
 以下、本発明の実施の形態について、詳細に説明する。以下で説明する実施形態では、本発明の入力装置をタブレット端末に適用した例を説明する。なお、適用例はタブレット端末に限定されず、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を実行するための入力操作を受け付ける入力装置であれば、本発明を適用可能である。例えば、スマートフォン、携帯電話などに適用することが可能である。また、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、並びに、長さ、大きさおよび幅などの寸法は、実際の形状や寸法を反映したものではなく、図面の明瞭化と簡略化のために適宜変更している。 Hereinafter, embodiments of the present invention will be described in detail. In the embodiments described below, an example in which the input device of the present invention is applied to a tablet terminal will be described. The application example is not limited to the tablet terminal, and the present invention can be applied to any input device that accepts an input operation for executing processing on a communication image for communication with other users. For example, it can be applied to a smartphone, a mobile phone, and the like. For convenience of explanation, members having the same functions as those shown in each embodiment are given the same reference numerals, and the explanation thereof is omitted as appropriate. Furthermore, the shape of the configuration described in each drawing and the dimensions such as length, size, and width do not reflect the actual shape or dimensions, but are changed as appropriate for clarity and simplification of the drawings. ing.
 〔実施形態1〕
 本発明の一実施形態において、図1から図9に基づいて説明すれば以下のとおりである。
Embodiment 1
In one embodiment of the present invention, it will be described below with reference to FIGS.
 (タブレット端末の機能概要)
 まず、図1および図5を参照して、本発明に係るタブレット端末1の機能概要について説明する。図1は、タブレット端末1の要部構成の一例を示すブロック図である。また、図5は、テレビ2に表示される画面の一例を示す模式図である。
(Functional overview of tablet devices)
First, with reference to FIG. 1 and FIG. 5, the functional outline of the tablet terminal 1 according to the present invention will be described. FIG. 1 is a block diagram illustrating an example of a main configuration of the tablet terminal 1. FIG. 5 is a schematic diagram illustrating an example of a screen displayed on the television 2.
 本発明に係るタブレット端末1は、図1に示すように、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する通信部15を備えるタブレット端末であって、自装置または自装置の周囲の状態を特定する状態取得部12と、上記状態取得部12による特定結果に対応付けられた上記コミュニケーション情報を特定する表示指示決定部134と、を備える。 As shown in FIG. 1, the tablet terminal 1 according to the present invention is a communication image for communicating with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network. And a communication terminal 15 that transmits communication information indicating processing for the state acquisition unit 12 that specifies the own device or a surrounding state of the own device, and is associated with a specification result by the state acquisition unit 12. And a display instruction determination unit 134 for specifying the communication information.
 すなわち、本発明に係るタブレット端末1が、自装置もしくは自装置の周囲の状態に対応付けられたコミュニケーション情報を送信することで、図5に示すテレビ2の表示部21に表示されたコミュニケーション画像に対する処理が実行される。 That is, the tablet terminal 1 according to the present invention transmits the communication information associated with the own device or the surrounding state of the own device, so that the communication image displayed on the display unit 21 of the television 2 illustrated in FIG. Processing is executed.
 例えば、タブレット端末1を把持している状態を特定し、当該状態を示すような表示内容に、コミュニケーション画像を変化させることができる。具体的には、図5に示すコミュニケーション領域72に表示されるアバター73の表示を変化させる。図5の例では、アバター73bおよびアバター73cが、タブレット端末1を把持している状態を示す表示(両手を上げた表示)となっている。なお、「アバター73」は、図5に示すアバター73aからアバター73cを総称した呼称であり、他の図面を参照する場合においても、この呼称を用いる場合がある。なお、テレビ2に表示されるコミュニケーション画像は、ユーザを一義的に識別できるものであれば、アバター73に限定されない。例えば、ユーザ名のみを表示してもよいし、アイコン、カラーボールなどの画像を表示してもよい。また、アバター73の顔の部分に、タブレット端末1のカメラ124(図2)を用いて撮影した写真を貼り付けるものであってもよい。 For example, the state in which the tablet terminal 1 is gripped can be specified, and the communication image can be changed to display content indicating the state. Specifically, the display of the avatar 73 displayed in the communication area 72 shown in FIG. 5 is changed. In the example of FIG. 5, the avatar 73 b and the avatar 73 c are displayed (display with both hands raised) indicating that the tablet terminal 1 is being held. “Avatar 73” is a generic name of avatar 73a to avatar 73c shown in FIG. 5, and this designation may be used when referring to other drawings. Note that the communication image displayed on the television 2 is not limited to the avatar 73 as long as the user can be uniquely identified. For example, only the user name may be displayed, or an image such as an icon or a color ball may be displayed. Further, a photograph taken using the camera 124 (FIG. 2) of the tablet terminal 1 may be pasted on the face portion of the avatar 73.
 これにより、共同閲覧システムを使用しているユーザは、意識的な入力操作を行わなくても、他のユーザに対して自分の状況(例えば、タブレット端末1を把持している状況)を伝えることができる。 Thereby, the user using the collaborative browsing system can tell his / her situation (for example, the situation of holding the tablet terminal 1) to other users without performing a conscious input operation. Can do.
 また例えば、タッチパネル11に対して簡易な入力操作を行うことで、コミュニケーション画像を変化させたり、コンテンツ71やコミュニケーション領域72にポインタ74を表示させたりすることができる。コミュニケーション画像を変化させる具体例としては、タッチパネル11に対して簡易な入力操作を行うことで、図5に示すアバター73bにおいて発言75を表示させたり、アバター73cにおいてリモコンを表示させて、コンテンツを変更しようとしていることを知らせたりすることができる。 Also, for example, by performing a simple input operation on the touch panel 11, the communication image can be changed, or the pointer 74 can be displayed on the content 71 or the communication area 72. As a specific example of changing the communication image, a simple input operation is performed on the touch panel 11 so that the utterance 75 is displayed on the avatar 73b shown in FIG. 5 or the remote control is displayed on the avatar 73c to change the content. You can let them know you ’re trying.
 以上により、共同閲覧システムを使用しているユーザは、タブレット端末1に対して煩雑な入力操作を行わなくても他のユーザとコミュニケーションを図ることができる。また、煩雑な入力操作を必要としないので、コンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができる。 As described above, the user using the collaborative browsing system can communicate with other users without performing a complicated input operation on the tablet terminal 1. Moreover, since no complicated input operation is required, it is possible to simultaneously enjoy browsing of content and communication with other users.
 なお、上記コミュニケーション領域72は、複数のユーザによるチャットを行う領域に限定されるものではない。すなわち、上記コミュニケーション領域72は、複数のユーザによるコミュニケーションが可能な領域であればよく、例えば、コンテンツ71として音楽番組を表示した状態で、コミュニケーション領域72においてコンテンツ71に合わせて音楽を演奏するゲームを、通信ネットワークを介した複数のユーザで実施してもよい。 Note that the communication area 72 is not limited to an area where a chat by a plurality of users is performed. That is, the communication area 72 may be an area where communication by a plurality of users is possible. For example, in a state where a music program is displayed as the content 71, a game that plays music in accordance with the content 71 in the communication area 72 is played. It may be implemented by a plurality of users via a communication network.
 (共同閲覧システムの構成)
 次に、図3を参照して、本実施形態における共同閲覧システム100の構成について説明する。図3は、本実施形態における共同閲覧システム100の構成を示す図である。
(Configuration of collaborative browsing system)
Next, the configuration of the collaborative browsing system 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration of the collaborative browsing system 100 according to the present embodiment.
 図3に示すように、本実施形態における共同閲覧システム100は、少なくとも、タブレット端末1a、タブレット端末1b、テレビ2a、およびルータ4aからなるサブシステム101a、タブレット端末1c、テレビ2b、ルータ4bからなるサブシステム101b、並びにサーバ3(処理装置)を含んでいる。なお、以降、タブレット端末1a、タブレット端末1b、タブレット端末1cを総称して、「タブレット端末1」と呼称する場合がある。また同様に、テレビ2aおよびテレビ2bを「テレビ2」と、ルータ4aおよびルータ4bを「ルータ4」と、サブシステム101aおよびサブシステム101bを「サブシステム101」と呼称する場合がある。 As shown in FIG. 3, the collaborative browsing system 100 according to this embodiment includes at least a subsystem 101a including a tablet terminal 1a, a tablet terminal 1b, a television 2a, and a router 4a, a tablet terminal 1c, a television 2b, and a router 4b. The subsystem 101b and the server 3 (processing device) are included. Hereinafter, the tablet terminal 1a, the tablet terminal 1b, and the tablet terminal 1c may be collectively referred to as “tablet terminal 1”. Similarly, the television 2a and the television 2b may be referred to as “TV 2”, the router 4a and the router 4b as “router 4”, and the subsystem 101a and the subsystem 101b as “subsystem 101”.
 タブレット端末1およびテレビ2は、ルータ4によりインターネットなどの広域通信網を介して外部との通信が可能である。これにより、サブシステム101とサーバ3とが、互いに通信可能に接続される。 The tablet terminal 1 and the television 2 can communicate with the outside through a wide-area communication network such as the Internet by the router 4. Thereby, the subsystem 101 and the server 3 are connected so as to communicate with each other.
 タブレット端末1は、共同閲覧システム100における入力装置であり、テレビ2は、共同閲覧システム100における表示装置である。また、サーバ3は、各サブシステム101のタブレット端末1から送信される、テレビ2に表示されるコンテンツ、または、他のユーザとコミュニケーションを図るためのコミュニケーション画像(表示画像)に対する処理を指示する情報(指示情報)を受信し、表示画像に対する処理を実行する。そして、当該処理を実行した表示画像をテレビ2に送信し、表示させる。なお、上記指示情報は、タブレット端末1からに加え、テレビ2から送信されてもよい。 The tablet terminal 1 is an input device in the collaborative browsing system 100, and the television 2 is a display device in the collaborative browsing system 100. In addition, the server 3 transmits information from the tablet terminal 1 of each subsystem 101 to instruct processing on content displayed on the television 2 or a communication image (display image) for communication with other users. (Instruction information) is received and processing for the display image is executed. And the display image which performed the said process is transmitted to the television 2, and is displayed. The instruction information may be transmitted from the television 2 in addition to the tablet terminal 1.
 すなわち、上記指示情報は、タブレット端末1からルータ4を介してサーバ3に送信される。そして、指示情報に基づいて表示画像に対する処理を実行する。その後、サーバ3は処理を実行した表示画像を各サブシステム101に送信する。その結果、テレビ2に処理が実行された表示画像が表示される。例えば、サーバ3が指示情報に基づいて表示画像を生成し、テレビ2に生成した表示画像を送信する。これにより、テレビ2に表示されているアバター73のポーズが変わったり、アバター73の発言が表示されたりする。よって、共同閲覧システム100のユーザは共通のコンテンツを閲覧しながら、コミュニケーションを図ることができる。また例えば、サーバ3は指示情報をテレビ2に送信し、テレビ2が指示情報に基づいて表示画像を生成、表示してもよい。この場合、表示画像を生成するために必要な素材データはサーバ3が有し、テレビ2は、必要に応じてサーバ3から当該素材データを取得する。 That is, the instruction information is transmitted from the tablet terminal 1 to the server 3 via the router 4. And the process with respect to a display image is performed based on instruction information. Thereafter, the server 3 transmits the processed display image to each subsystem 101. As a result, a display image that has been processed is displayed on the television 2. For example, the server 3 generates a display image based on the instruction information, and transmits the generated display image to the television 2. Thereby, the pose of the avatar 73 currently displayed on the television 2 changes, or the speech of the avatar 73 is displayed. Thus, the user of the collaborative browsing system 100 can communicate while browsing the common content. Further, for example, the server 3 may transmit the instruction information to the television 2, and the television 2 may generate and display a display image based on the instruction information. In this case, the server 3 has material data necessary for generating the display image, and the television 2 acquires the material data from the server 3 as necessary.
 なお、図3に示すサブシステム101の構成は一例であり、サブシステム101を構成するタブレット端末1およびテレビの数が変更されてもよいし、タブレット端末1以外の入力装置やテレビ2以外の表示装置であってもよい。また、タブレット端末1が入力装置および表示装置を兼ねてもよく、その場合、サブシステム101がテレビ2を含まなくてもよい。 The configuration of the subsystem 101 illustrated in FIG. 3 is an example, and the number of tablet terminals 1 and televisions that configure the subsystem 101 may be changed, or an input device other than the tablet terminal 1 or a display other than the television 2 may be displayed. It may be a device. The tablet terminal 1 may also serve as an input device and a display device. In this case, the subsystem 101 may not include the television 2.
 また、図3では、タブレット端末1とテレビ2とが同じルータ4を介して通信する構成としているが、この例に限定されるものではない。例えば、タブレット端末1は携帯電話回線を経由してインターネットにアクセスする構成であってもよいし、テレビ2のみがインターネットを介して外部と通信可能な構成であり、タブレット端末1は、テレビ2を介して外部(例えばサーバ3)と通信可能な構成であってもよい。すなわち、この場合のタブレット端末1は、テレビ2のみと通信する構成である。 In FIG. 3, the tablet terminal 1 and the television 2 communicate with each other via the same router 4, but the present invention is not limited to this example. For example, the tablet terminal 1 may be configured to access the Internet via a mobile phone line, or only the television 2 may be configured to be able to communicate with the outside via the Internet. It may be configured to be able to communicate with the outside (for example, the server 3). That is, the tablet terminal 1 in this case is configured to communicate only with the television 2.
 (タブレット端末の構成)
 次に、図1および図2を参照して、タブレット端末1の要部構成について説明する。図1は、上述したように、タブレット端末1の要部構成の一例を示すブロック図であり、図2は、状態取得部12の詳細を示すブロック図である。
(Configuration of tablet device)
Next, with reference to FIG. 1 and FIG. 2, the principal part structure of the tablet terminal 1 is demonstrated. FIG. 1 is a block diagram illustrating an example of a main part configuration of the tablet terminal 1 as described above, and FIG. 2 is a block diagram illustrating details of the state acquisition unit 12.
 図1に示すように、タブレット端末1は少なくとも、タッチパネル11、状態取得部12、制御部13、記憶部14、および通信部15(送信部)を備えている。 As shown in FIG. 1, the tablet terminal 1 includes at least a touch panel 11, a state acquisition unit 12, a control unit 13, a storage unit 14, and a communication unit 15 (transmission unit).
 タッチパネル11は、入力部111および表示部112から構成されている。 The touch panel 11 includes an input unit 111 and a display unit 112.
 入力部111は、ユーザによる入力操作を受け付ける入力デバイスである。なお、入力部111は、物理キーを含んでいてもよい。入力部111は、指示体(指またはペンなど)の接触(接近も含む)を受け付ける入力面と、指示体が入力面に接触したことを検知するとともに、入力面における指示体が接触した位置(座標)を検知するタッチセンサとで構成されている。タッチセンサは、指示体と入力面との接触/非接触を検知できればどのようなセンサで実現されていてもかまわない。例えば、圧力センサ、静電容量センサ、光センサなどで実現される。また、入力部111は検知した座標を後述する入力特定部131に出力する。 The input unit 111 is an input device that accepts an input operation by a user. Note that the input unit 111 may include a physical key. The input unit 111 detects an input surface that accepts contact (including approach) of an indicator (such as a finger or a pen), and a position where the indicator contacts the input surface while detecting that the indicator has contacted the input surface ( And a touch sensor that detects coordinates). The touch sensor may be realized by any sensor as long as it can detect contact / non-contact between the indicator and the input surface. For example, it is realized by a pressure sensor, a capacitance sensor, an optical sensor, or the like. Further, the input unit 111 outputs the detected coordinates to the input specifying unit 131 described later.
 表示部112は、タブレット端末1が処理する情報を画像として表示領域に表示する表示デバイスである。具体的には、表示部112は、後述するタブレット表示制御部133によって処理された情報が表示される。タブレット表示制御部133によって処理された情報の一例としては、表示部112は入力操作を受け付けるための1つ以上のユーザインターフェースを表示する。表示部112は、例えば、LCD(液晶ディスプレイ)などの表示デバイスで構成される。 The display unit 112 is a display device that displays information processed by the tablet terminal 1 as an image in a display area. Specifically, the display unit 112 displays information processed by the tablet display control unit 133 described later. As an example of information processed by the tablet display control unit 133, the display unit 112 displays one or more user interfaces for receiving an input operation. The display unit 112 is configured by a display device such as an LCD (liquid crystal display).
 状態取得部12は、自装置または自装置の周囲の状態を特定するための特定情報を取得するものである。図2に示すように、状態取得部12は一例として、加速度センサ121(加速度取得部)、照度センサ122(照度取得部)、位置情報取得部123、カメラ124(撮影部)、マイク125(音声取得部)、地磁気センサ126(方向/傾き取得部)を含んでいる。 The state acquisition unit 12 acquires specific information for specifying the own device or the surrounding state of the own device. As illustrated in FIG. 2, the state acquisition unit 12 includes, for example, an acceleration sensor 121 (acceleration acquisition unit), an illuminance sensor 122 (illuminance acquisition unit), a position information acquisition unit 123, a camera 124 (imaging unit), and a microphone 125 (audio). Acquisition unit) and geomagnetic sensor 126 (direction / tilt acquisition unit).
 加速度センサ121は、タブレット端末1に生じる加速度を取得するセンサである。加速度センサ121としては、タブレット端末に一般的に搭載されている、既存の加速度センサを用いることができる。 The acceleration sensor 121 is a sensor that acquires acceleration generated in the tablet terminal 1. As the acceleration sensor 121, an existing acceleration sensor generally mounted on a tablet terminal can be used.
 照度センサ122は、タブレット端末1の周囲の照度を取得するセンサである。照度センサ122としては、タブレット端末に一般的に搭載されている、既存の照度センサを用いることができる。 The illuminance sensor 122 is a sensor that acquires the illuminance around the tablet terminal 1. As the illuminance sensor 122, an existing illuminance sensor generally mounted on a tablet terminal can be used.
 位置情報取得部123は、タブレット端末1の位置情報を取得するものである。位置情報取得部123としては、タブレット端末に一般的に搭載されているGPSなどを用いてもよいし、その他の部材であってもよい。例えば、タブレット端末1およびテレビ2が無線通信(Wi-Fi(登録商標)など)によってインターネットなどの広域通信網を利用できる構成である場合、位置情報取得部123は、タブレット端末1およびテレビ2のルータ4に対する位置関係を取得するものであってもよい。なお、無線通信を利用したタブレット端末1およびテレビ2のルータ4に対する位置関係の取得は、既存の技術を用いることができる。 The location information acquisition unit 123 acquires location information of the tablet terminal 1. As the position information acquisition unit 123, a GPS or the like generally mounted on a tablet terminal may be used, or other members may be used. For example, when the tablet terminal 1 and the television 2 are configured to be able to use a wide-area communication network such as the Internet by wireless communication (Wi-Fi (registered trademark), etc.), the position information acquisition unit 123 is connected to the tablet terminal 1 and the television 2. The positional relationship with respect to the router 4 may be acquired. In addition, the existing technology can be used to acquire the positional relationship of the tablet terminal 1 and the television 2 with respect to the router 4 using wireless communication.
 カメラ124は、タブレット端末の周囲を撮影する撮影デバイスである。カメラ124としては、タブレット端末に一般的に搭載されている、既存のカメラを用いることができる。なお、カメラ124は、静止画像を撮影するものであってもよいし、動画を撮影するものであってもよい。また、静止画像および動画の両方を撮影可能であってもよい。 The camera 124 is a photographing device that photographs the surroundings of the tablet terminal. As the camera 124, an existing camera generally mounted on a tablet terminal can be used. Note that the camera 124 may capture a still image, or may capture a moving image. Further, both still images and moving images may be taken.
 マイク125は、タブレット端末1の周囲の音声を取得するものである。マイク125としては、タブレット端末に一般的に搭載されている、既存のマイクを用いることができる。 The microphone 125 is for acquiring the sound around the tablet terminal 1. As the microphone 125, an existing microphone generally mounted on a tablet terminal can be used.
 地磁気センサ126は、タブレット端末1の向きおよび傾きを取得するセンサである。地磁気センサ126としては、タブレット端末に一般的に搭載されている、既存の地磁気センサを用いることができる。 The geomagnetic sensor 126 is a sensor that acquires the orientation and inclination of the tablet terminal 1. As the geomagnetic sensor 126, an existing geomagnetic sensor generally mounted on a tablet terminal can be used.
 なお、状態取得部12は、図2に示す部材を全て含まなくてもよい。また、図2に示す部材以外の部材を含んでいてもよい。つまり、状態取得部12は、自装置または自装置の周囲の状態を特定するための特定情報を取得できる部材であれば、どのような部材を含んでもよい。 The state acquisition unit 12 may not include all the members illustrated in FIG. Moreover, members other than the members shown in FIG. 2 may be included. That is, the state acquisition unit 12 may include any member as long as it is a member that can acquire specific information for specifying the own device or a state around the own device.
 また、上記状態取得部12は、上述のような特定情報を取得できる部材が取得した特定情報を後述する制御部13内の状態特定部132に出力する。 Further, the state acquisition unit 12 outputs the specific information acquired by the member capable of acquiring the specific information as described above to the state specification unit 132 in the control unit 13 described later.
 制御部13は、タブレット端末1が備える各部を統括制御するものである。制御部13は、少なくとも、入力特定部131、状態特定部132、タブレット表示制御部133(表示内容決定部)、および表示指示決定部134(コミュニケーション情報特定部)と、を含んでいる。 The control unit 13 performs overall control of each unit included in the tablet terminal 1. The control unit 13 includes at least an input specifying unit 131, a state specifying unit 132, a tablet display control unit 133 (display content determining unit), and a display instruction determining unit 134 (communication information specifying unit).
 入力特定部131は、入力部111が受け付けた入力操作を特定するものである。具体的には、入力特定部131は、上記入力操作における座標、指示体が接触していた時間、および接触した指示体の移動方向などに基づいて当該入力操作を特定する。そして、特定した入力操作に応じて、タブレット表示制御部133または表示指示決定部134が実行する処理を指示する。 The input specifying unit 131 specifies an input operation accepted by the input unit 111. Specifically, the input specifying unit 131 specifies the input operation based on the coordinates in the input operation, the time that the indicator has been in contact, the moving direction of the indicator that has been in contact, and the like. And according to the specified input operation, the tablet display control part 133 or the display instruction | indication determination part 134 is instruct | indicated.
 状態特定部132は、タブレット端末1またはタブレット端末1の周囲の状態を特定するものである。具体的には、状態特定部132は、状態取得部12が取得したタブレット端末1またはタブレット端末1の周囲の状態を特定するための特定情報を供給されると、供給された特定情報に応じたタブレット端末1またはタブレット端末1の周囲の状態を特定する。そして、表示指示決定部134に対して、特定結果に応じて実行する処理を指示する。 The state specifying unit 132 specifies the tablet terminal 1 or the surrounding state of the tablet terminal 1. Specifically, when the state specifying unit 132 is supplied with specific information for specifying the tablet terminal 1 or the surrounding state of the tablet terminal 1 acquired by the state acquiring unit 12, the state specifying unit 132 responds to the supplied specific information. The state around tablet terminal 1 or tablet terminal 1 is specified. Then, it instructs the display instruction determination unit 134 to execute processing according to the specific result.
 例えば、状態特定部132は、地磁気センサ126からタブレット端末1の向きおよび傾きを供給されると、当該向きおよび傾きが、ユーザがタブレット端末1を把持している場合に得られると推定される向きおよび傾きの範囲内であるか否かを特定する。なお、ユーザがタブレット端末1を把持しているか否かは、加速度センサ121から供給されるタブレット端末1に生じた加速度から特定してもよい。この場合、状態特定部132は、当該加速度が、ユーザがタブレット端末1を把持している場合に生じる加速度と推定される範囲内の加速度であるか否かを特定する。 For example, when the orientation and inclination of the tablet terminal 1 are supplied from the geomagnetic sensor 126, the state specifying unit 132 is estimated to be obtained when the user is holding the tablet terminal 1 And whether it is within the range of inclination. Note that whether or not the user is holding the tablet terminal 1 may be specified from the acceleration generated in the tablet terminal 1 supplied from the acceleration sensor 121. In this case, the state specifying unit 132 specifies whether or not the acceleration is an acceleration within a range estimated as an acceleration that occurs when the user is holding the tablet terminal 1.
 また、例えば、状態特定部132は、照度センサ122から、タブレット端末1の周囲の照度を供給されると、当該照度が、所定の値を超えるか否かを特定する。 For example, when the illuminance around the tablet terminal 1 is supplied from the illuminance sensor 122, the state specifying unit 132 specifies whether the illuminance exceeds a predetermined value.
 また、例えば、状態特定部132は、位置情報取得部123から、タブレット端末1の位置情報を供給されると、当該位置情報に基づいて、タブレット端末1とテレビ2との位置関係を特定する。 For example, when the position information of the tablet terminal 1 is supplied from the position information acquisition unit 123, the state specifying unit 132 specifies the positional relationship between the tablet terminal 1 and the television 2 based on the position information.
 なお、状態特定部132が特定するタブレット端末1またはタブレット端末1の周囲の状態は、上記の例に限定されない。例えば、カメラ124が撮影した画像(映像)にタブレット端末1のユーザが写っているか否かを特定してもよいし、マイク125によって取得された音声に基づいて、タブレット端末1の周囲の環境を特定してもよい。 Note that the state of the tablet terminal 1 or the surroundings of the tablet terminal 1 specified by the state specifying unit 132 is not limited to the above example. For example, whether or not the user of the tablet terminal 1 is captured in an image (video) captured by the camera 124 may be specified, and the environment around the tablet terminal 1 may be determined based on the sound acquired by the microphone 125. You may specify.
 これにより、ユーザはタブレット端末1に対して、意識的な入力操作を行わなくても、他のユーザに対して自分の状況を伝えることができる。 Thereby, the user can convey his / her situation to other users without performing a conscious input operation on the tablet terminal 1.
 また、状態特定部132は、ユーザが行った意識的な動作を特定してもよい。例えば、状態特定部132は、地磁気センサ126から、タブレット端末1の向きおよび傾きを供給されると、供給された向きおよび傾きの値を図示しない一時記憶部に一時的に保存する。そして、次に得られる値との差分を取ることで、端末の回転速度を得ることができる。これにより、ユーザがタブレット端末1を振ったか否かを特定することができる。なお、ユーザがタブレット端末1を振ったか否かは、加速度センサ121から供給された、タブレット端末1に生じた加速度によって特定してもよい。 Further, the state specifying unit 132 may specify a conscious operation performed by the user. For example, when the orientation and inclination of the tablet terminal 1 are supplied from the geomagnetic sensor 126, the state specifying unit 132 temporarily stores the supplied orientation and inclination values in a temporary storage unit (not shown). And the rotational speed of a terminal can be obtained by taking the difference with the value obtained next. Thereby, it can be specified whether the user shakes the tablet terminal 1 or not. Note that whether or not the user has shaken the tablet terminal 1 may be specified by the acceleration generated in the tablet terminal 1 supplied from the acceleration sensor 121.
 また、例えば、状態特定部132は、地磁気センサ126から、タブレット端末1の向きおよび傾きを供給されると、当該向きおよび傾きから、タブレット端末1のタッチパネル11を有する面が、地面に最も近い面となるようにテーブルや床などに置かれているか否かを特定してもよい。 Further, for example, when the state specifying unit 132 is supplied with the orientation and inclination of the tablet terminal 1 from the geomagnetic sensor 126, the surface having the touch panel 11 of the tablet terminal 1 is closest to the ground from the orientation and inclination. It may be specified whether or not it is placed on a table or floor.
 また、例えば、状態特定部132は、位置情報取得部123から、タブレット端末1の位置情報を供給されると、当該位置情報に基づいて、タブレット端末1とテレビ2とが所定距離以上離れたか否かを特定してもよい。 Further, for example, when the position specifying unit 132 is supplied with the position information of the tablet terminal 1 from the position information acquiring unit 123, whether or not the tablet terminal 1 and the television 2 are separated by a predetermined distance or more based on the position information. May be specified.
 タブレット表示制御部133は、表示部112に表示する画像を決定するものである。具体的には、タブレット表示制御部133は、入力特定部131からの指示に応じて、記憶部14の後述する表示画像格納部141からユーザインターフェースなどの画像データを読み出す。そして、読み出した画像データから表示部112に表示するタブレット表示画像を生成し、表示部112に表示させる。 The tablet display control unit 133 determines an image to be displayed on the display unit 112. Specifically, the tablet display control unit 133 reads image data such as a user interface from a display image storage unit 141 (to be described later) of the storage unit 14 in accordance with an instruction from the input specifying unit 131. Then, a tablet display image to be displayed on the display unit 112 is generated from the read image data and displayed on the display unit 112.
 表示指示決定部134は、入力特定部131または状態特定部132による特定結果に対応付けられた、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を特定するものである。具体的には、表示指示決定部134は、入力特定部131または状態特定部132からの特定結果に対応する上記コミュニケーション情報を、記憶部14の後述する表示指示格納部142から読み出す。そして、読み出したコミュニケーション情報を、通信部15を介して外部(サーバ3)に送信する。 The display instruction determining unit 134 specifies communication information indicating processing for a communication image for communicating with other users, which is associated with the specifying result by the input specifying unit 131 or the state specifying unit 132. Specifically, the display instruction determination unit 134 reads out the communication information corresponding to the specification result from the input specifying unit 131 or the state specifying unit 132 from a display instruction storage unit 142 (to be described later) of the storage unit 14. Then, the read communication information is transmitted to the outside (server 3) via the communication unit 15.
 記憶部14は、タブレット端末にて使用される各種データを記憶する記憶デバイスである。図1に示すように、記憶部14は、表示画像格納部141および表示指示格納部142を含む。 The storage unit 14 is a storage device that stores various data used in the tablet terminal. As shown in FIG. 1, the storage unit 14 includes a display image storage unit 141 and a display instruction storage unit 142.
 表示画像格納部141は、タブレット端末1の表示部112に表示する表示画像のデータを格納している。タブレット表示制御部133は、入力特定部131からの指示に応じて、表示画像格納部141から画像データを読み出し、表示部112に表示する表示画像を生成する。 The display image storage unit 141 stores display image data to be displayed on the display unit 112 of the tablet terminal 1. In response to an instruction from the input specifying unit 131, the tablet display control unit 133 reads out image data from the display image storage unit 141 and generates a display image to be displayed on the display unit 112.
 表示指示格納部142は、入力特定部131が特定した入力操作および状態特定部132が特定したタブレット端末1およびタブレット端末1の周囲の状態を示す情報(特定結果)と、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報とを対応付けて記憶している。表示指示決定部134は、入力特定部131または状態特定部132から特定結果に基づく指示を供給されると、表示指示格納部142から、当該特定結果に対応付けられた上記コミュニケーション情報を読み出し、通信部15を介して外部(サーバ3)に送信する。 The display instruction storage unit 142 communicates with the input operation specified by the input specifying unit 131 and the tablet terminal 1 specified by the state specifying unit 132 and the surrounding state of the tablet terminal 1 (specific result), and communication with other users. Communication information indicating processing for a communication image for illustration is stored in association with each other. When an instruction based on the identification result is supplied from the input identification unit 131 or the state identification unit 132, the display instruction determination unit 134 reads the communication information associated with the identification result from the display instruction storage unit 142, and performs communication. The data is transmitted to the outside (server 3) via the unit 15.
 通信部15は、タブレット端末1の外部と情報の送受信を行うための通信デバイスである。具体的には、通信部15は、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を、サーバ3に送信する。 The communication unit 15 is a communication device for transmitting / receiving information to / from the outside of the tablet terminal 1. Specifically, the communication unit 15 transmits to the server 3 communication information indicating processing for a communication image for communicating with other users.
 (入力操作によるコミュニケーション情報の特定)
 次に、図4および図5を参照して、タブレット端末1のタッチパネル11による入力操作の詳細について説明する。図4は、タッチパネル11(表示部112)に表示される画像(タブレット表示画像)の一例を示す模式図である。
(Identification of communication information by input operation)
Next, with reference to FIG. 4 and FIG. 5, the detail of input operation by the touch panel 11 of the tablet terminal 1 is demonstrated. FIG. 4 is a schematic diagram illustrating an example of an image (tablet display image) displayed on the touch panel 11 (display unit 112).
 図4の(a)は、ユーザがテレビ2に表示されたコンテンツを閲覧しながら、他のユーザとコミュニケーションを図る場合に表示するコミュニケーションタブ50を示す図である。コミュニケーションタブ50は、メッセージ入力領域51、アバター&ポインタ操作領域52、および定型文入力領域53を含む。なお、図4の(a)は一例であり、コミュニケーションタブ50は図4の(a)の構成に限定されるものではない。 (A) of FIG. 4 is a diagram showing a communication tab 50 displayed when a user tries to communicate with another user while browsing the content displayed on the television 2. The communication tab 50 includes a message input area 51, an avatar & pointer operation area 52, and a fixed phrase input area 53. 4A is an example, and the communication tab 50 is not limited to the configuration of FIG.
 メッセージ入力領域51は、図5に示す発言75を入力するための領域である。メッセージ入力領域51は、テキスト入力領域511および送信ボタン512を含む。これにより、例えば、入力特定部131は、ユーザがアバター73に発言させたい言葉をテキスト入力領域511に入力するための入力操作を特定する。そして、タブレット表示制御部133は入力特定部131からの指示を受けて、ユーザが入力した言葉を表示部112に表示させる。また、入力特定部131は、送信ボタン512をタップする入力操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、テキスト入力領域511に入力された言葉を含む発言75を表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがテキスト入力領域511に文字を入力し、送信ボタン512に対するタップ操作を行うことで、テレビ2に表示されたアバター73が入力された文字を発言する(例えば、図5のアバター73bのように、アバター73の近傍に発言75が表示される)。 The message input area 51 is an area for inputting a message 75 shown in FIG. The message input area 51 includes a text input area 511 and a send button 512. Thereby, for example, the input specifying unit 131 specifies an input operation for inputting a word that the user wants the avatar 73 to speak to the text input area 511. Then, the tablet display control unit 133 receives the instruction from the input specifying unit 131 and causes the display unit 112 to display the words input by the user. In addition, the input specifying unit 131 specifies an input operation for tapping the transmission button 512. In response to the instruction from the input specifying unit 131, the display instruction determining unit 134 specifies communication information for displaying the utterance 75 including the word input in the text input area 511, and the server via the communication unit 15 3 to send. In other words, when the user inputs a character in the text input area 511 and performs a tap operation on the send button 512, the avatar 73 displayed on the television 2 speaks the input character (for example, the avatar in FIG. 5). Like 73b, the utterance 75 is displayed in the vicinity of the avatar 73).
 アバター&ポインタ操作領域52は、図5に示すアバター73およびポインタ74を操作するための領域である。アバター&ポインタ操作領域52は、アバター&ポインタ移動領域521およびアバター動作領域522を含む。これにより、例えば、入力特定部131は、アバター&ポインタ移動領域521におけるユーザのドラッグ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、テレビ2にポインタ74を表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。また、例えば、ポインタ74を表示するためのコミュニケーション情報を特定し、送信した後、入力特定部131がアバター&ポインタ移動領域521におけるユーザのドラッグ操作を特定した場合、表示指示決定部134は入力特定部131からの指示を受けて、テレビ2にポインタ74を当該ドラック操作に合わせて移動させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがアバター&ポインタ移動領域521でドラッグ操作を行うことで、テレビ2にポインタ74が表示される。その状態で、さらにユーザがアバター&ポインタ移動領域521でドラッグ操作を行うことで、テレビ2に表示されたポインタ74が移動する。 The avatar & pointer operation area 52 is an area for operating the avatar 73 and the pointer 74 shown in FIG. The avatar & pointer operation area 52 includes an avatar & pointer movement area 521 and an avatar action area 522. Thereby, for example, the input specifying unit 131 specifies the user's drag operation in the avatar & pointer movement area 521. The display instruction determining unit 134 receives the instruction from the input specifying unit 131, specifies communication information for displaying the pointer 74 on the television 2, and transmits the communication information to the server 3 via the communication unit 15. In addition, for example, after specifying and transmitting communication information for displaying the pointer 74, when the input specifying unit 131 specifies the user's drag operation in the avatar & pointer moving area 521, the display instruction determining unit 134 specifies the input In response to an instruction from the unit 131, communication information for moving the pointer 74 to the television 2 in accordance with the drag operation is specified and transmitted to the server 3 via the communication unit 15. In other words, the pointer 74 is displayed on the television 2 when the user performs a drag operation in the avatar & pointer movement area 521. In this state, when the user further performs a drag operation in the avatar & pointer movement area 521, the pointer 74 displayed on the television 2 moves.
 これにより、ユーザはテレビ2の画面上の任意の位置をポインタ74で指し示すことができる。例えば、コンテンツ71中の内容を他のユーザに質問したい場合に、コンテンツ71中の任意の位置にポインタ74を移動させた状態で、アバター73に「これなに?」と発言させることで、ポインタ74を、他のユーザに発言の意図を理解させるための補助として使用することができる。 Thereby, the user can point an arbitrary position on the screen of the television 2 with the pointer 74. For example, when the user wants to ask other users about the contents in the content 71, the pointer 74 is moved to an arbitrary position in the content 71 and the avatar 73 says “What is this?” 74 can be used as an aid to let other users understand the intention of the speech.
 なお、表示指示決定部134は、タッチパネル11(入力部111)に対して、所定の時間(例えば15秒程度)ポインタ74を操作するための入力操作がされなかった場合、換言すれば、入力特定部131から所定の時間ポインタ74の表示を変更するための指示を受けなかった場合に、ポインタ74をテレビ2の画面から消去するコミュニケーション情報を特定してもよい。 It should be noted that the display instruction determination unit 134 does not perform an input operation for operating the pointer 74 for a predetermined time (for example, about 15 seconds) on the touch panel 11 (input unit 111). Communication information for deleting the pointer 74 from the screen of the television 2 when no instruction for changing the display of the pointer 74 for a predetermined time is received from the unit 131 may be specified.
 また、例えば、ポインタ74を表示するためのコミュニケーション情報を特定し、送信した後、入力特定部131がアバター&ポインタ移動領域521におけるユーザのタップ操作を特定した場合、表示指示決定部134は入力特定部131からの指示を受けて、ポインタ74が示す位置にユーザ自身のアバター73を移動させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、テレビ2にポインタ74が表示された状態で、ユーザがアバター&ポインタ移動領域521でタップ操作を行うことで、ポインタ74が示す位置にユーザ自身のアバター73が移動する。なお、本実施形態では、アバター73が移動できる領域は図5に示すコミュニケーション領域72に限定されている。そのため、ポインタ74がコミュニケーション領域72以外にある状態で、アバター&ポインタ移動領域521でタップ操作が実行されても、アバター73はポインタ74が示す位置には移動しない。具体的には、サーバ3がアバター73を移動させるためのコミュニケーション情報を受信したとき、ポインタ74がコミュニケーション領域72にあるか否かを特定する。そして、ポインタ74がコミュニケーション領域72に無い場合は、受信したコミュニケーション情報が示す処理(アバター73をポインタ74が示す位置に移動させる処理)を実行せず、当該処理を終了する。 In addition, for example, after specifying and transmitting communication information for displaying the pointer 74, when the input specifying unit 131 specifies the user's tap operation in the avatar & pointer moving area 521, the display instruction determining unit 134 specifies the input. In response to an instruction from the unit 131, the communication information for moving the user's own avatar 73 to the position indicated by the pointer 74 is specified and transmitted to the server 3 via the communication unit 15. In other words, when the user performs a tap operation in the avatar & pointer movement area 521 while the pointer 74 is displayed on the television 2, the user's own avatar 73 moves to the position indicated by the pointer 74. In the present embodiment, the area where the avatar 73 can move is limited to the communication area 72 shown in FIG. Therefore, even when the tap operation is executed in the avatar & pointer movement area 521 with the pointer 74 other than the communication area 72, the avatar 73 does not move to the position indicated by the pointer 74. Specifically, when the server 3 receives communication information for moving the avatar 73, it is specified whether or not the pointer 74 is in the communication area 72. If the pointer 74 is not in the communication area 72, the process indicated by the received communication information (the process of moving the avatar 73 to the position indicated by the pointer 74) is not executed, and the process ends.
 なお、アバター&ポインタ移動領域521とコミュニケーション領域72とが対応付けられていてもよい。すなわち、入力特定部131は、アバター&ポインタ移動領域521におけるユーザのタップ操作を特定する。表示指示決定部134は入力特定部131からの指示を受けて、タップ操作された位置と対応付けられたコミュニケーション領域72の位置にアバター73を移動させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信してもよい。これにより、ユーザはアバター&ポインタ移動領域521に対するタップ操作を行うだけで、ポインタ74を表示させなくともアバター73の位置を移動させることができる。 In addition, the avatar & pointer movement area 521 and the communication area 72 may be associated with each other. That is, the input specifying unit 131 specifies the user's tap operation in the avatar & pointer movement area 521. In response to the instruction from the input specifying unit 131, the display instruction determining unit 134 specifies communication information for moving the avatar 73 to the position of the communication area 72 associated with the position where the tap operation has been performed. Via the server 3. Thereby, the user can move the position of the avatar 73 without displaying the pointer 74 only by performing a tap operation on the avatar & pointer movement area 521.
 また、例えば、入力特定部131は、アバター動作領域522の各ボタンに対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、タップ操作されたボタンに応じた動作(例えば「ジャンプする」、「ダンスする」など)をアバター73に実行させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがアバター動作領域522のボタンに対するタップ操作を行うことで、テレビ2に表示されたアバター73がタップ操作されたボタンに応じた動作を実行する。 Also, for example, the input specifying unit 131 specifies a tap operation for each button in the avatar operation area 522. Then, the display instruction determination unit 134 receives the instruction from the input specifying unit 131 and performs communication for causing the avatar 73 to perform an operation (for example, “jump”, “dancing”, etc.) according to the tapped button. Information is specified and transmitted to the server 3 via the communication unit 15. In other words, when the user performs a tap operation on the button in the avatar operation area 522, the avatar 73 displayed on the television 2 performs an operation corresponding to the button on which the tap operation is performed.
 定型文入力領域53は、定型文ボタン領域531を含む。これにより、例えば、入力特定部131は、定型文ボタン領域531の各ボタンに対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、タップ操作されたボタンに応じた発言をアバター73に実行させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザが定型文ボタン領域531のボタンに対するタップ操作を行うことで、テレビ2に表示されたアバター73がタップ操作されたボタンに応じた文字を発言する。 The fixed phrase input area 53 includes a fixed sentence button area 531. Thereby, for example, the input specifying unit 131 specifies a tap operation for each button in the fixed sentence button area 531. Then, the display instruction determination unit 134 receives an instruction from the input specifying unit 131, specifies communication information for causing the avatar 73 to execute a speech according to the tapped button, and the server 3 through the communication unit 15. Send to. In other words, when the user performs a tap operation on the button in the fixed sentence button area 531, the avatar 73 displayed on the television 2 speaks a character corresponding to the tapped button.
 図4の(b)は、ユーザがテレビ2に表示されたコンテンツを変更したい場合に表示するコンテンツ変更タブ60を示す図である。コンテンツ変更タブ60は、コンテンツ変更領域61を含む。なお、図4の(b)は一例であり、コンテンツ変更タブ60は図4の(b)の構成に限定されるものではない。また、図4の(b)では、コンテンツをテレビ番組などの映像として説明しているが、コンテンツは映像に限定されず、例えば、ブラウザや写真などの画像であってもよい。 FIG. 4B is a diagram showing a content change tab 60 displayed when the user wants to change the content displayed on the television 2. The content change tab 60 includes a content change area 61. FIG. 4B is an example, and the content change tab 60 is not limited to the configuration of FIG. In FIG. 4B, the content is described as a video such as a television program. However, the content is not limited to a video and may be an image such as a browser or a photo.
 入力特定部131は、コンテンツ変更タブ60を表示するための入力操作(例えば、図4の「チャンネルを変える」が表示された領域へのタップ操作)を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、ユーザがコンテンツ変更タブ60を表示したことを示すように、アバター73の表示を変更するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがコンテンツ変更タブ60を表示するためのタップ操作を行うことで、テレビ2に表示されたアバター73の表示が変更される(例えば、図5に示すように、アバター73cの近傍にリモコンが表示される)。これにより、ユーザは他のユーザに対して、閲覧しているコンテンツを変更しようとしている状態であることを知らせることができる。なお、コンテンツの変更を示す画像は、図5に示すアバター73の近傍にリモコンが表示される画像に限定されるものではない。すなわち、ユーザがコンテンツを変更しようとしていることが他のユーザに伝わるような画像であればよい。 The input specifying unit 131 specifies an input operation for displaying the content change tab 60 (for example, a tap operation to an area where “change channel” in FIG. 4 is displayed). And the display instruction | indication determination part 134 specifies the communication information for changing the display of the avatar 73 so that it may show that the user displayed the content change tab 60 in response to the instruction | indication from the input specific | specification part 131, and communication It transmits to the server 3 via the unit 15. In other words, when the user performs a tap operation for displaying the content change tab 60, the display of the avatar 73 displayed on the television 2 is changed (for example, in the vicinity of the avatar 73c as shown in FIG. 5). Appears on the remote control). Thereby, the user can inform other users that the content being viewed is being changed. Note that the image indicating the change of the content is not limited to an image in which the remote controller is displayed in the vicinity of the avatar 73 illustrated in FIG. In other words, any image may be used as long as the user is about to change the content.
 コンテンツ変更領域61は、コンテンツボタン領域611を含む。これにより、例えば、入力特定部131は、コンテンツボタン領域611の各ボタンに対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、タップ操作されたボタンに応じたコンテンツをテレビ2に表示させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザはコンテンツボタン領域611のボタンに対するタップ操作を行うことで、自身が閲覧するコンテンツを変更することができる。 The content change area 61 includes a content button area 611. Thereby, for example, the input specifying unit 131 specifies a tap operation for each button in the content button area 611. The display instruction determining unit 134 receives the instruction from the input specifying unit 131, specifies communication information for displaying the content corresponding to the tapped button on the television 2, and the server 3 through the communication unit 15. Send to. In other words, the user can change the content that he / she browses by performing a tap operation on the button in the content button area 611.
 なお、コンテンツ変更領域61は、コンテンツを検索するための検索ワード入力領域(不図示)を含んでいてもよい。これにより、ユーザは、検索ワード入力領域にコンテンツに関する単語などを入力することで、望みのコンテンツを検索することができる。具体的には、入力特定部131は、検索ワード入力領域に対する入力操作(検索ワードの入力)を特定すると、図示しない検索部に対して、当該検索ワードと関連性が高いコンテンツを検索するよう指示する。なお、検索可能なコンテンツは特に限定されず、タブレット端末1内のコンテンツ、サーバ3内のコンテンツ、また、インターネットを介して取得可能なコンテンツ(例えば、動画投稿サイトに投稿された動画など)が挙げられる。検索結果は、タブレット表示制御部133によって表示部112に表示される。例えば、検索結果はユーザが選択可能なように表示部112に表示され、ユーザは当該検索結果に対する入力操作(例えばタップ操作)を行うことで、当該検索結果に対応するコンテンツを選択することができる。 Note that the content change area 61 may include a search word input area (not shown) for searching for content. Thereby, the user can search for the desired content by inputting a word related to the content in the search word input area. Specifically, when the input specifying unit 131 specifies an input operation (input of the search word) to the search word input area, the input specifying unit 131 instructs the search unit (not shown) to search for content highly relevant to the search word. To do. The searchable content is not particularly limited, and includes content in the tablet terminal 1, content in the server 3, and content that can be acquired via the Internet (for example, a video posted on a video posting site). It is done. The search result is displayed on the display unit 112 by the tablet display control unit 133. For example, the search result is displayed on the display unit 112 so as to be selectable by the user, and the user can select content corresponding to the search result by performing an input operation (for example, a tap operation) on the search result. .
 (状態の取得によるコミュニケーション情報の特定)
 次に、図6から図8を参照して、タブレット端末1およびタブレット端末1の周囲の状態を取得することによる入力操作の詳細について説明する。図6は、地磁気センサ126による状態の取得および状態の取得によるアバターの表示変化を示す模式図であり、図7は、照度センサ122による状態の取得およびアバターの表示変化を示す模式図であり、図8は、位置情報取得部123による状態の取得およびアバターの表示変化を示す模式図である。
(Identification of communication information by acquiring status)
Next, with reference to FIGS. 6 to 8, details of the input operation by acquiring the tablet terminal 1 and the surrounding state of the tablet terminal 1 will be described. FIG. 6 is a schematic diagram illustrating the acquisition of the state by the geomagnetic sensor 126 and the display change of the avatar due to the acquisition of the state. FIG. 7 is a schematic diagram illustrating the acquisition of the state by the illuminance sensor 122 and the display change of the avatar. FIG. 8 is a schematic diagram showing a state acquisition by the position information acquisition unit 123 and a display change of the avatar.
 まず、地磁気センサ126による状態取得の結果を用いた入力操作について説明する。図6の(a)に示すように、ユーザAはタブレット端末1aを把持せずに共同閲覧システム100に参加している。一方、ユーザBはタブレット端末1bを把持した状態で共同閲覧システム100に参加している。なお、ユーザAのアバターはアバター73aであり、ユーザBのアバターはアバター73bである。また、アバター73cは、タブレット端末1aおよびタブレット端末1bとは異なるサブシステム(図6(a)には不図示)に含まれるタブレット端末1cのユーザのアバターである。 First, an input operation using the result of state acquisition by the geomagnetic sensor 126 will be described. As shown in FIG. 6A, the user A participates in the collaborative browsing system 100 without holding the tablet terminal 1a. On the other hand, the user B participates in the collaborative browsing system 100 while holding the tablet terminal 1b. Note that user A's avatar is avatar 73a and user B's avatar is avatar 73b. The avatar 73c is an avatar of the user of the tablet terminal 1c included in a subsystem (not shown in FIG. 6A) different from the tablet terminal 1a and the tablet terminal 1b.
 タブレット端末1aおよびタブレット端末1bに備えられている状態特定部132は、地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、タブレット端末1aおよびタブレット端末1bが把持されているか否かを特定する。図6の場合、タブレット端末1aの状態特定部132は、タブレット端末1aが把持されていないことを特定する。そして、表示指示決定部134は、タブレット端末1aが把持されていない状態を示すように、アバター73aを表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。そして、サーバ3は、受信したコミュニケーション情報に基づいて、テレビ2に表示させる画像を生成し、テレビ2に送信する。その結果、当該画像がテレビ2に表示される。具体的には、図6の(b)に示すように、アバター73aが両手を下げている画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、アバター73aのユーザがタブレット端末1を把持していないことを知ることができる。 The state specifying unit 132 included in the tablet terminal 1a and the tablet terminal 1b specifies whether or not the tablet terminal 1a and the tablet terminal 1b are gripped from the orientation and inclination of the tablet terminal 1 acquired by the geomagnetic sensor 126. . In the case of FIG. 6, the state specifying unit 132 of the tablet terminal 1a specifies that the tablet terminal 1a is not gripped. Then, the display instruction determination unit 134 specifies communication information for displaying the avatar 73 a so as to indicate a state where the tablet terminal 1 a is not held, and transmits the communication information to the server 3 via the communication unit 15. Then, the server 3 generates an image to be displayed on the television 2 based on the received communication information, and transmits the image to the television 2. As a result, the image is displayed on the television 2. Specifically, as shown in FIG. 6B, an image in which both hands of the avatar 73a are lowered is displayed on the television 2. Thereby, the user participating in the collaborative browsing system 100 can know that the user of the avatar 73a does not hold the tablet terminal 1.
 一方、タブレット端末1bの状態特定部132は、タブレット端末1bが把持されていることを特定する。そして、表示指示決定部134は、タブレット端末1bが把持されている状態を示すように、アバター73bを表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。以降のサーバ3およびテレビ2の処理は上述したタブレット端末1aにおける処理と同様である。以上の結果、図6の(b)に示すように、アバター73bが両手を上げている画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、アバター73bのユーザがタブレット端末1を把持していることを知ることができる。 On the other hand, the state specifying unit 132 of the tablet terminal 1b specifies that the tablet terminal 1b is held. Then, the display instruction determination unit 134 specifies communication information for displaying the avatar 73b so as to indicate a state where the tablet terminal 1b is held, and transmits the communication information to the server 3 via the communication unit 15. The subsequent processing of the server 3 and the television 2 is the same as the processing in the tablet terminal 1a described above. As a result, as shown in FIG. 6B, an image in which both hands of the avatar 73b are raised is displayed on the television 2. Thereby, the user participating in the collaborative browsing system 100 can know that the user of the avatar 73b is holding the tablet terminal 1.
 以上より、共同閲覧システム100に参加しているユーザは、ユーザBとはコミュニケーションを取ることが可能であると知ることができる。すなわち、ユーザBは、タブレット端末1を用いた意識的な入力操作を行わなくても、他のユーザに自信がコミュニケーション可能であることを知らせることができる。 From the above, the user participating in the collaborative browsing system 100 can know that it is possible to communicate with the user B. That is, the user B can notify other users that his / her confidence can be communicated without performing a conscious input operation using the tablet terminal 1.
 なお、タブレット端末1を把持しているか否かを示すアバター73の表示は、図6の(b)の例に限定されない。すなわち、アバター73の表示は、タブレット端末1が把持されているか否かを区別できるような表示であればよい。例えば、タブレット端末1が把持されている場合、アバター73がダンスするような表示にしてもよい。 Note that the display of the avatar 73 indicating whether or not the tablet terminal 1 is being held is not limited to the example of FIG. That is, the display of the avatar 73 should just be a display which can distinguish whether the tablet terminal 1 is hold | gripped. For example, when the tablet terminal 1 is gripped, the display may be such that the avatar 73 dances.
 また、状態特定部132は、加速度センサ121が取得した加速度からタブレット端末1が把持されているか否かを特定してもよい。 Further, the state specifying unit 132 may specify whether or not the tablet terminal 1 is gripped from the acceleration acquired by the acceleration sensor 121.
 次に、照度センサ122による状態取得の結果を用いた入力操作について説明する。図7の(a)に示すように、ユーザCは、タブレット端末1を把持せずに共同閲覧システム100に参加している。さらに、ユーザCは自身の部屋を暗くした状態で共同閲覧システム100に参加している。なお、ユーザCのアバターはアバター73cである。 Next, an input operation using the result of state acquisition by the illuminance sensor 122 will be described. As shown in (a) of FIG. 7, the user C participates in the collaborative browsing system 100 without holding the tablet terminal 1. Furthermore, the user C participates in the collaborative browsing system 100 with his / her room darkened. The avatar of user C is avatar 73c.
 タブレット端末1cに備えられている状態特定部132は、照度センサ122が取得した照度から、タブレット端末1cの周囲の照度が所定の値を超えるか否かを特定する。図7の場合、タブレット端末1cの状態特定部132は、タブレット端末1cの周囲の照度が所定の値を超えないことを特定する。そして、表示指示決定部134は、タブレット端末1cの周囲が暗い状態であることを示すように、アバター73cを表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。以降のサーバ3およびテレビ2の処理は上述したタブレット端末1aにおける処理と同様である。以上の結果、図7の(b)に示すように、アバター73cが眠っているような画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、アバター73cのユーザの周囲が暗いことを知ることができる。 The state specifying unit 132 provided in the tablet terminal 1c specifies whether or not the illuminance around the tablet terminal 1c exceeds a predetermined value from the illuminance acquired by the illuminance sensor 122. In the case of FIG. 7, the state specifying unit 132 of the tablet terminal 1c specifies that the illuminance around the tablet terminal 1c does not exceed a predetermined value. Then, the display instruction determination unit 134 specifies communication information for displaying the avatar 73c and transmits the communication information to the server 3 via the communication unit 15 so as to indicate that the periphery of the tablet terminal 1c is in a dark state. The subsequent processing of the server 3 and the television 2 is the same as the processing in the tablet terminal 1a described above. As a result, an image as if the avatar 73c is sleeping is displayed on the television 2 as shown in FIG. Thereby, the user participating in the collaborative browsing system 100 can know that the surroundings of the user of the avatar 73c are dark.
 なお、タブレット端末1の周囲が暗いことを示すアバター73の表示は、図7の(b)の例に限定されない。すなわち、アバター73の表示は、タブレット端末1の周囲が暗いか否かを区別できるような表示であればよい。例えば、アバター73の周囲の所定の領域を暗くするような表示にしてもよい。 In addition, the display of the avatar 73 which shows that the circumference | surroundings of the tablet terminal 1 are dark is not limited to the example of (b) of FIG. That is, the display of the avatar 73 should just be a display which can distinguish whether the circumference | surroundings of the tablet terminal 1 are dark. For example, a predetermined area around the avatar 73 may be darkened.
 次に、位置情報取得部123による状態取得の結果を用いた入力操作について説明する。ユーザAおよびユーザBとテレビ2aとの位置関係、並びにユーザCとテレビ2bとの位置関係はそれぞれ、図6の(a)および図7の(a)に示す状態であるとする。 Next, an input operation using the result of state acquisition by the position information acquisition unit 123 will be described. Assume that the positional relationship between the user A and the user B and the television 2a and the positional relationship between the user C and the television 2b are as shown in FIGS. 6A and 7A, respectively.
 状態特定部132は、位置情報取得部123が取得したタブレット端末1の位置情報に基づいて、タブレット端末1とテレビ2との位置関係を特定する。例えば、タブレット端末1aおよびタブレット端末1bは、テレビ2aとの位置関係を特定する。そして、表示指示決定部134は、タブレット端末1とテレビ2との位置関係を、アバター73とコンテンツ71との位置関係に反映させるように、アバター73を表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。サーバ3は、各タブレット端末1から送信されたコミュニケーション情報に基づいて、コミュニケーション領域72に各アバター73を配置する画像を生成する。すなわち、各タブレット端末1と同じサブシステム101内のテレビ2との位置関係を、各アバター73とコンテンツ71との位置関係に反映させるように、各アバター73をコミュニケーション領域72に配置する。そして、生成した画像をテレビ2に送信する。その結果、図8の(a)に示すような画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、各ユーザがテレビ2に対してどの位置にいるのかを知ることができる。 The state specifying unit 132 specifies the positional relationship between the tablet terminal 1 and the television 2 based on the position information of the tablet terminal 1 acquired by the position information acquiring unit 123. For example, the tablet terminal 1a and the tablet terminal 1b specify the positional relationship with the television 2a. Then, the display instruction determination unit 134 specifies communication information for displaying the avatar 73 so that the positional relationship between the tablet terminal 1 and the television 2 is reflected in the positional relationship between the avatar 73 and the content 71, and communication. It transmits to the server 3 via the unit 15. The server 3 generates an image in which each avatar 73 is placed in the communication area 72 based on the communication information transmitted from each tablet terminal 1. That is, each avatar 73 is arranged in the communication area 72 so that the positional relationship between each tablet terminal 1 and the television 2 in the same subsystem 101 is reflected in the positional relationship between each avatar 73 and the content 71. Then, the generated image is transmitted to the television 2. As a result, an image as shown in FIG. Thereby, the user participating in the collaborative browsing system 100 can know where each user is with respect to the television 2.
 なお、テレビ2に対するタブレット端末1の位置を反映させた表示は、図8の(a)の例に限定されない。例えば、図8の(b)に示すように、サブシステム101ごとにコミュニケーション領域72を分割した分割領域76において、テレビ2に対するタブレット端末1の位置を反映させた表示としてもよい。これにより、共同閲覧システム100に参加しているユーザは、どのユーザがどのサブシステム101に含まれるのかを知ることができる。 In addition, the display reflecting the position of the tablet terminal 1 with respect to the television 2 is not limited to the example of (a) of FIG. For example, as shown in FIG. 8B, the display may reflect the position of the tablet terminal 1 with respect to the television 2 in the divided area 76 obtained by dividing the communication area 72 for each subsystem 101. Thereby, the user participating in the collaborative browsing system 100 can know which user is included in which subsystem 101.
 なお、状態の取得による入力操作は、図6から図8の例に限定されない。すなわち、状態特定部132は、(タブレット端末の構成)にて説明したような状態を特定し、表示指示決定部134は、特定した状態に応じたコミュニケーション情報を、通信部15を介してサーバ3に送信してもよい。 Note that the input operation by acquiring the state is not limited to the examples of FIGS. That is, the state specifying unit 132 specifies the state as described in (Configuration of the tablet terminal), and the display instruction determining unit 134 sends communication information corresponding to the specified state via the communication unit 15 to the server 3. May be sent to.
 例えば、サーバ3は、カメラ124が撮影した画像(映像)にタブレット端末1のユーザが写っていない場合に、当該ユーザのアバター73を退出させてもよい。ここで、「退出」とは、テレビ2に表示される画像から、当該ユーザのアバター73を削除することを示す。なお、以降についても「退出」をこの意味で使用する。 For example, when the user of the tablet terminal 1 is not shown in the image (video) captured by the camera 124, the server 3 may leave the user's avatar 73. Here, “exit” indicates that the user's avatar 73 is deleted from the image displayed on the television 2. In the following, “exit” is used in this sense.
 また、状態特定部132が、マイク125が取得した音声からタブレット端末1の周囲で音楽が鳴っていることを特定した場合、サーバ3は、タブレット端末1のユーザのアバター73の周囲に音符を表示してもよい。また、マイク125が取得した音声からタブレット端末1が屋外にある場合に、サーバ3は、タブレット端末1のユーザのアバター73の周囲を、屋外を示すように変更してもよい。 In addition, when the state specifying unit 132 specifies that music is sounding around the tablet terminal 1 from the sound acquired by the microphone 125, the server 3 displays a note around the avatar 73 of the user of the tablet terminal 1. May be. Further, when the tablet terminal 1 is outdoors from the voice acquired by the microphone 125, the server 3 may change the periphery of the user's avatar 73 of the tablet terminal 1 to indicate the outdoors.
 また、状態特定部132は、マイク125が取得した音声の音量が所定の値より大きいか否かを特定してもよい。そして、取得した音声の音量が所定の値より大きい場合に、サーバ3は、タブレット端末1のユーザのアバター73の表示を、アバター73がジャンプしているように変更してもよい。また、状態特定部132は、予め設定された複数の閾値を、取得した音声の音量が超えるか否かを特定してもよい。サーバ3は、超えた閾値に応じてアバター73のジャンプの高さを段階的に変更させてもよい。 Further, the state specifying unit 132 may specify whether or not the volume of the sound acquired by the microphone 125 is greater than a predetermined value. And when the volume of the acquired audio | voice is larger than a predetermined value, the server 3 may change the display of the user's avatar 73 of the tablet terminal 1 so that the avatar 73 is jumping. Further, the state specifying unit 132 may specify whether or not the volume of the acquired sound exceeds a plurality of preset threshold values. The server 3 may change the height of the jump of the avatar 73 stepwise according to the exceeded threshold.
 また、状態特定部132が、地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、ユーザがタブレット端末1を振っていることを特定した場合に、サーバ3は、タブレット端末1のユーザのアバター73の表示を、アバター73がジャンプしているように変更してもよい。 Further, when the state specifying unit 132 specifies that the user is shaking the tablet terminal 1 from the orientation and inclination of the tablet terminal 1 acquired by the geomagnetic sensor 126, the server 3 determines that the user of the tablet terminal 1 is an avatar. The display of 73 may be changed so that the avatar 73 is jumping.
 また、状態特定部132が、地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、タブレット端末1のタッチパネル11を有する面が、地面に最も近い面となるようにテーブルや床などに置かれていることを特定した場合に、サーバ3は、タブレット端末1のユーザのアバター73を退出させてもよい。 Further, the state specifying unit 132 is placed on a table, a floor, or the like so that the surface having the touch panel 11 of the tablet terminal 1 is closest to the ground based on the orientation and inclination of the tablet terminal 1 acquired by the geomagnetic sensor 126. If it is specified that the user is a user, the server 3 may leave the avatar 73 of the user of the tablet terminal 1.
 また、状態特定部132が、位置情報取得部123が取得したタブレット端末1の位置情報から、タブレット端末1とテレビ2とが所定以上離れたことを特定した場合に、サーバ3は、タブレット端末1のユーザのアバター73を退出させてもよい。 Further, when the state specifying unit 132 specifies that the tablet terminal 1 and the television 2 are separated by a predetermined distance or more from the position information of the tablet terminal 1 acquired by the position information acquiring unit 123, the server 3 determines that the tablet terminal 1 The user's avatar 73 may be withdrawn.
 (タブレット端末の処理フロー)
 次に、図9を参照して、タブレット端末1が実行する処理の流れについて説明する。図9は、タブレット端末1が実行する処理の流れの一例を示すフローチャートである。
(Tablet processing flow)
Next, the flow of processing executed by the tablet terminal 1 will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a flow of processing executed by the tablet terminal 1.
 タッチパネル11(入力部111)が、入力操作を受け付けた場合(S1でYES)、入力特定部131は、当該入力操作を特定する(S2)。そして、入力特定部131は、特定した入力操作が、テレビ2に対する表示処理を行うための入力操作であるか否かを特定する(S3)。特定した入力操作が、テレビ2に対する表示処理を行うための入力操作であると特定した場合(S3でYES)、入力特定部131は、表示指示決定部134が実行する処理を指示する。例えば、入力特定部131が、図4に示す定型文ボタン領域531のいずれかのボタンがタップ操作されたことを特定した場合、当該操作に対応するコミュニケーション情報を特定するように、表示指示決定部134に指示する。 When the touch panel 11 (input unit 111) receives an input operation (YES in S1), the input specifying unit 131 specifies the input operation (S2). And the input specific | specification part 131 specifies whether the specified input operation is an input operation for performing the display process with respect to the television 2 (S3). When the identified input operation is identified as an input operation for performing a display process on the television 2 (YES in S3), the input identifying unit 131 instructs a process to be executed by the display instruction determining unit 134. For example, when the input specifying unit 131 specifies that any one of the buttons in the fixed sentence button area 531 illustrated in FIG. 4 has been tapped, the display instruction determining unit specifies the communication information corresponding to the operation. 134 is instructed.
 表示指示決定部134は入力特定部131からの指示を受けて、コミュニケーション情報を特定する(S4)。具体的には、入力特定部131が特定した入力操作に対応付けられたコミュニケーション情報を表示指示格納部142から読み出す。例えば、タップ操作された定型文ボタン領域531のボタンが示す言葉を、アバター73の近傍に表示するためのコミュニケーション情報を表示指示格納部142から読み出す。そして、表示指示決定部134は、特定したコミュニケーション情報を、通信部15を介してサーバ3に送信する(S5)。 In response to the instruction from the input specifying unit 131, the display instruction determining unit 134 specifies communication information (S4). Specifically, the communication information associated with the input operation specified by the input specifying unit 131 is read from the display instruction storage unit 142. For example, the communication information for displaying the word indicated by the button in the fixed sentence button area 531 that has been tapped is read from the display instruction storage unit 142 in the vicinity of the avatar 73. Then, the display instruction determination unit 134 transmits the specified communication information to the server 3 via the communication unit 15 (S5).
 一方、入力特定部131が、テレビ2に対する表示処理を行うための入力操作ではないと特定した場合(S3でNO)、入力特定部131は、タブレット端末1に対する表示処理を行うための入力操作であると特定する(S6)。そして、入力特定部131は、タブレット表示制御部133が実行する処理を指示する。例えば、入力特定部131が、図4に示すテキスト入力領域511へのテキスト入力操作を特定した場合、当該操作に対応する文字をテキスト入力領域511に表示するように、タブレット表示制御部133に指示する。 On the other hand, when the input specifying unit 131 specifies that the input operation is not an input operation for performing a display process on the television 2 (NO in S3), the input specifying unit 131 is an input operation for performing a display process on the tablet terminal 1. It is specified that there is (S6). And the input specific | specification part 131 instruct | indicates the process which the tablet display control part 133 performs. For example, when the input specifying unit 131 specifies a text input operation to the text input area 511 illustrated in FIG. 4, the tablet display control unit 133 is instructed to display characters corresponding to the operation in the text input area 511. To do.
 タブレット表示制御部133は入力特定部131からの指示を受けて、当該指示に基づく処理を実行し、実行結果を表示する(S7)。具体的には、タブレット表示制御部133は、表示画像格納部141から画像データを読み出し、表示部112に表示するタブレット表示画像を生成する。例えば、テキスト入力領域511にユーザが入力した文字が表示されたタブレット表示画像を生成し、表示部112に表示する。 The tablet display control unit 133 receives the instruction from the input specifying unit 131, executes processing based on the instruction, and displays the execution result (S7). Specifically, the tablet display control unit 133 reads image data from the display image storage unit 141 and generates a tablet display image to be displayed on the display unit 112. For example, a tablet display image in which characters input by the user are displayed in the text input area 511 is generated and displayed on the display unit 112.
 次に、状態取得部12が取得した、自装置または自装置の周囲の状態を特定するための特定情報から、状態特定部132が、自装置の状態または周囲の状態を特定した場合(S8でYES、状態特定ステップ)、特定した状態に対応するコミュニケーション情報を特定するように、表示指示決定部134に指示する。例えば、状態取得部12に含まれる地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、状態特定部132は、当該向きおよび傾きが、ユーザがタブレット端末1を把持している場合に得られると推定される向きおよび傾きの範囲内であるか否かを特定する。そして、ユーザがタブレット端末1を把持している場合に得られると推定される向きおよび傾きの範囲内であると特定した場合、ユーザがタブレット端末1を把持している状態に対応するコミュニケーション情報を特定するように、表示指示決定部134に指示する。 Next, when the state specifying unit 132 specifies the state of the own device or the surrounding state from the specifying information for specifying the own device or the surrounding state of the own device acquired by the state acquiring unit 12 (in S8) YES, state specifying step), instructing the display instruction determining unit 134 to specify communication information corresponding to the specified state. For example, from the orientation and inclination of the tablet terminal 1 acquired by the geomagnetic sensor 126 included in the state acquisition unit 12, the state specifying unit 132 is obtained when the user holds the tablet terminal 1. It is specified whether or not it is within the range of the estimated direction and inclination. And when specifying that it is in the range of the direction and inclination estimated to be obtained when the user is holding the tablet terminal 1, communication information corresponding to the state where the user is holding the tablet terminal 1 is displayed. The display instruction determination unit 134 is instructed to specify.
 表示指示決定部134は状態特定部132からの指示を受けて、コミュニケーション情報を特定する(S9、コミュニケーション情報特定ステップ)。具体的には、状態特定部が特定した状態に対応付けられたコミュニケーション情報を表示指示格納部142から読み出す。例えば、アバター73の表示を、ユーザがタブレット端末1を把持していることを示す表示にするためのコミュニケーション情報を表示指示格納部142から読み出す。そして、表示指示決定部134は、特定したコミュニケーション情報を、通信部15を介してサーバ3に送信する(S10)。 The display instruction determining unit 134 receives the instruction from the state specifying unit 132 and specifies communication information (S9, communication information specifying step). Specifically, communication information associated with the state specified by the state specifying unit is read from the display instruction storage unit 142. For example, communication information for displaying the avatar 73 as a display indicating that the user is holding the tablet terminal 1 is read from the display instruction storage unit 142. Then, the display instruction determination unit 134 transmits the specified communication information to the server 3 via the communication unit 15 (S10).
 なお、ステップS8からステップS10では、所定の時間、自装置の状態または周囲の状態が特定されなかった場合に、自装置の状態または周囲の状態が特定されなかったことと対応するコミュニケーション情報を特定し、サーバ3に送信してもよい。すなわち、状態取得部12は図示しないタイマをさらに備え、当該タイマが所定の時間を測定した時点で自装置の状態または周囲の状態が特定されていない場合、状態取得部12は、その旨を示す特定情報を状態特定部132に供給する。状態特定部132は、自装置の状態または周囲の状態が特定されなかったことと対応するコミュニケーション情報を特定するように表示指示決定部134に指示する。表示指示決定部134は状態特定部132からの指示を受けて、コミュニケーション情報を特定する。例えば、アバター73を半透明表示にするためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。これにより、所定の時間、自装置の状態または周囲の状態が特定されなかった場合は、テレビ2に表示されているアバター73が半透明表示される。 In steps S8 to S10, if the state of the own device or the surrounding state is not specified for a predetermined time, the communication information corresponding to the fact that the state of the own device or the surrounding state is not specified is specified. Then, it may be transmitted to the server 3. That is, the state acquisition unit 12 further includes a timer (not shown), and when the timer measures a predetermined time, when the state of the device itself or the surrounding state is not specified, the state acquisition unit 12 indicates that fact. The specific information is supplied to the state specifying unit 132. The state specifying unit 132 instructs the display instruction determining unit 134 to specify communication information corresponding to the fact that the state of the device itself or the surrounding state is not specified. The display instruction determination unit 134 receives the instruction from the state specifying unit 132 and specifies communication information. For example, communication information for making the avatar 73 translucently displayed is specified and transmitted to the server 3 via the communication unit 15. Thereby, when the state of the own apparatus or the surrounding state is not specified for a predetermined time, the avatar 73 displayed on the television 2 is displayed translucently.
 (実施形態1に係る発明の作用効果)
 以上のように、実施形態1に係るタブレット端末1は、共同閲覧システム100において、テレビ2に表示されるコミュニケーション画像(例えばアバター)に対する処理を実行するために、ユーザによる入力操作だけでなく、自装置または自装置の周囲の状態に基づいて、コミュニケーション情報を特定する。例えば、地磁気センサ126が特定した自装置の向きおよび傾きによって、ユーザが自装置を把持しているか否かを特定し、自装置を把持している場合には、ユーザが自装置を把持していることを示すコミュニケーション情報を特定する。
(Operational effects of the invention according to Embodiment 1)
As described above, in the collaborative browsing system 100, the tablet terminal 1 according to the first embodiment performs not only the input operation by the user but also the self-operation in order to execute the process for the communication image (for example, the avatar) displayed on the television 2. Communication information is specified based on the state of the device or the surroundings of the device itself. For example, it is determined whether or not the user is gripping the user's own device based on the orientation and inclination of the user's own device specified by the geomagnetic sensor 126. Identify communication information that indicates
 これにより、ユーザが意識的な入力操作を行わなくても、自装置または自装置の周囲の状態に基づいて特定されたコミュニケーション情報が外部に送信され、コミュニケーション画像に対する処理が実行される。すなわち、ユーザが意識的な入力操作を行わなくても、他のユーザはコミュニケーション画像を見ることで、当該ユーザの状態を把握することができる。また、ユーザは意識的な入力操作を行わなくてもコミュニケーション画像に対する処理を実行することができるので、入力操作に気を取られてコンテンツの閲覧がおろそかになることがない。以上より、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 Thereby, even if the user does not perform a conscious input operation, the communication information specified based on the own device or the surrounding state of the own device is transmitted to the outside, and the processing on the communication image is executed. That is, even if the user does not perform a conscious input operation, other users can grasp the state of the user by looking at the communication image. In addition, since the user can execute processing on the communication image without performing a conscious input operation, the user is not distracted by the input operation and browsing of content is not neglected. As described above, the user can enjoy browsing the content and communicating with other users at the same time.
 また、ユーザによる入力操作に基づいてコミュニケーションを特定する場合、タッチパネル11(表示部112)に表示されたユーザインターフェースに対する入力操作に応じたコミュニケーション情報を特定することができる。例えば、定型文ボタン領域531に配置されたボタンに対するタップ操作を特定し、タップ操作されたボタンに応じた発言をアバターに実行させるためのコミュニケーション情報を特定する。 Further, when communication is specified based on an input operation by the user, communication information corresponding to the input operation on the user interface displayed on the touch panel 11 (display unit 112) can be specified. For example, the tap operation on the button arranged in the fixed sentence button area 531 is specified, and the communication information for causing the avatar to execute a speech according to the button that has been tapped is specified.
 これにより、ユーザはユーザインターフェースに対して入力操作を行うだけで、コミュニケーション画像に対する処理を実行させることができる。すなわち、簡易な操作によってコミュニケーション画像に対する処理を実行させることができる。よって、入力操作に気を取られてコンテンツの閲覧がおろそかになることがないので、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 This allows the user to execute processing on the communication image simply by performing an input operation on the user interface. That is, the process for the communication image can be executed by a simple operation. Therefore, the user can enjoy browsing the content and communicating with other users at the same time because the user is not distracted by the input operation.
 さらに、他のユーザとのコミュニケーションにおいて音声を使用しないため、他のユーザの発言を聞き取れないといった状態を防ぐことができる。また、ユーザは聴覚をコンテンツから発せられる音声に集中させることができるので、ユーザは、コミュニケーションを図りながらも、コンテンツ(特に映像コンテンツ)の内容を理解しやすくなる。 Furthermore, since voice is not used in communication with other users, it is possible to prevent a situation in which other users' speech cannot be heard. In addition, since the user can concentrate the hearing on the sound emitted from the content, the user can easily understand the content (particularly video content) while communicating.
 また、図5に示すように、本発明に係る共同閲覧システム100では、コンテンツ71の周辺にコミュニケーション画像(アバター73)が表示される。これにより、コンテンツ71およびアバター73の一方にユーザが目線を移動させても、もう一方が視界に入るため、両方の内容を把握しやすい。よって、いずれかの閲覧がおろそかになるという状態を防ぐことができる。 Further, as shown in FIG. 5, in the collaborative browsing system 100 according to the present invention, a communication image (avatar 73) is displayed around the content 71. Thereby, even if a user moves a line of sight to one of the content 71 and the avatar 73, the other enters the field of view, and thus it is easy to grasp both contents. Therefore, it is possible to prevent a state in which any browsing is neglected.
 また、本実施形態では、コミュニケーション画像としてアバター73を使用しているため、映像によるコミュニケーション(例えばビデオチャット)のように、他のユーザに見られたくない情報(自身の顔、部屋の様子など)が表示されることがないというメリットがある。なお、自身の顔の画像は表示してもよいが、部屋の様子を表示したくない場合などは、上述したように、アバター73の顔の部分に、タブレット端末1のカメラ124(図2)を用いて撮影した写真を貼り付けるものであってもよい。 In the present embodiment, since the avatar 73 is used as a communication image, information that the user does not want to be seen by other users, such as video communication (for example, video chat) (your face, the state of the room, etc.) There is an advantage that is not displayed. In addition, although the image of the own face may be displayed, when the state of the room is not desired to be displayed, the camera 124 (FIG. 2) of the tablet terminal 1 is placed on the face portion of the avatar 73 as described above. You may paste the photograph image | photographed using.
 (実施形態1の変形例1)
 次に、実施形態1の一変形例について、図10を参照して説明する。図10は、タッチパネル11(表示部12)に表示される画像(タブレット表示画像)の一例を示す模式図である。
(Modification 1 of Embodiment 1)
Next, a modification of the first embodiment will be described with reference to FIG. FIG. 10 is a schematic diagram illustrating an example of an image (tablet display image) displayed on the touch panel 11 (display unit 12).
 図10の(a)に示すように、定型文入力領域53は、実施形態1にて説明した定型文ボタン領域531に代えて、心情入力領域532を含んでいてもよい。心情入力領域532は、「よい-わるい」などの反対語を両端に書いた直線、および、ユーザのドラッグ操作を受け付けて当該直線状を移動するスライダを1つ以上含んでいる。これにより、入力特定部131は、心情入力領域532のスライダに対するドラッグ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、スライダの位置に対応する定型文をアバター73に発言させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザはスライダに対してドラッグ操作を実行することによって、自身の心情を表す位置にスライダを移動させる。これにより、自身の心情に合った定型文を、テレビ2に表示されたアバター73が発言する。すなわち、ユーザは自身の心情を直接テキスト入力することなく、他のユーザに伝えることができる。なお、直線の両端に書かれる反対語は、ユーザの心情を表すような言葉であればよく、図10の(a)の例に限定されるものではない。 As shown in FIG. 10A, the fixed phrase input area 53 may include a emotion input area 532 instead of the fixed sentence button area 531 described in the first embodiment. The emotion input area 532 includes a straight line in which opposite words such as “good-bad” are written at both ends, and one or more sliders that accept the user's drag operation and move along the straight line. Thereby, the input specifying unit 131 specifies a drag operation on the slider of the emotion input area 532. Then, the display instruction determining unit 134 receives the instruction from the input specifying unit 131, specifies communication information for causing the avatar 73 to speak a fixed phrase corresponding to the position of the slider, and causes the server 3 to communicate via the communication unit 15. Send. In other words, the user moves the slider to a position representing his / her feelings by performing a drag operation on the slider. Thereby, the avatar 73 displayed on the television 2 speaks a fixed phrase that matches his / her feelings. That is, the user can convey his / her feelings to other users without directly inputting text. It should be noted that the antonyms written at both ends of the straight line are not limited to the example shown in FIG.
 また、図10の(b)に示すように、定型文入力領域53は、心情入力領域533を含んでいてもよい。心情入力領域533は、「よい-わるい」、「たのしい-かなしい」などの反対語を縦軸および横軸の両端に配置した二次元領域であってもよい。これにより、例えば、入力特定部131は、心情入力領域533に対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、心情入力領域533のタップされた位置に対応する定型文をアバター73に発言させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザは心情入力領域533のうち、自身の心情に近い位置に対してタップ操作を実行する。これにより、自身の心情に合った定型文を、テレビ2に表示されたアバター73が発言する。 Further, as shown in FIG. 10B, the fixed phrase input area 53 may include a mental input area 533. The emotion input area 533 may be a two-dimensional area in which opposite words such as “good-bad” and “joyful-bad” are arranged at both ends of the vertical axis and the horizontal axis. Thereby, for example, the input specifying unit 131 specifies a tap operation on the emotion input area 533. Then, in response to the instruction from the input specifying unit 131, the display instruction determining unit 134 specifies communication information for causing the avatar 73 to speak a fixed phrase corresponding to the tapped position of the emotion input area 533, and the communication unit 15 To the server 3 via. In other words, the user performs a tap operation on a position close to his / her feeling in the feeling input area 533. Thereby, the avatar 73 displayed on the television 2 speaks a fixed phrase that matches his / her feelings.
 (実施形態1の変形例2)
 次に、実施形態1の別の変形例について、図11を参照して説明する。図11は、テレビ2に表示される画像(表示画像)の一例を示す模式図である。
(Modification 2 of Embodiment 1)
Next, another modification of the first embodiment will be described with reference to FIG. FIG. 11 is a schematic diagram illustrating an example of an image (display image) displayed on the television 2.
 実施形態1の表示画像と異なり、本変形例の表示画像は、コミュニケーション領域72に代えて、コミュニケーション領域を分割した分割領域77を含む。なお、分割領域77とは、分割領域77a、分割領域77b、および分割領域77cを総称した呼称である。 Unlike the display image of the first embodiment, the display image of this modification includes a divided area 77 obtained by dividing the communication area instead of the communication area 72. The divided area 77 is a general term for the divided area 77a, the divided area 77b, and the divided area 77c.
 本変形例では、ユーザがどのようにコンテンツを閲覧しているかに応じて、アバター73の表示位置を変更する。具体的には、サーバ3は、各タブレット端末1から送信される、発言を表示するためのコミュニケーション情報が、特定のユーザに対する発言75を表示するためのコミュニケーション情報か否かを判別する。そして、当該コミュニケーション情報が、特定のユーザに対する発言を表示するためのコミュニケーション情報である場合、表示画像において、コミュニケーション情報を送信したユーザのアバター73の近傍に特定のユーザに対する発言である発言75を配置するとともに、アバター73が分割領域77aにいない場合は、アバター73および発言75を分割領域77aに移動させる。 In this modification, the display position of the avatar 73 is changed according to how the user is browsing the content. Specifically, the server 3 determines whether or not the communication information transmitted from each tablet terminal 1 for displaying a message is communication information for displaying the message 75 for a specific user. And when the said communication information is communication information for displaying the message with respect to a specific user, in the display image, the message 75 which is a message with respect to a specific user is arrange | positioned in the vicinity of the user's avatar 73 which transmitted communication information. When the avatar 73 is not in the divided area 77a, the avatar 73 and the utterance 75 are moved to the divided area 77a.
 一方、コミュニケーション情報が、特定のユーザに対する発言を表示するためのコミュニケーション情報ではない場合、表示画像において、コミュニケーション情報を送信したユーザのアバター73の近傍に発言75を配置するとともに、アバター73が分割領域77bにいない場合は、アバター73および発言75を分割領域77bに移動させる。 On the other hand, when the communication information is not communication information for displaying a message for a specific user, the message 75 is arranged near the avatar 73 of the user who transmitted the communication information in the display image, and the avatar 73 is divided into regions. If it is not in 77b, the avatar 73 and the utterance 75 are moved to the divided area 77b.
 また、タブレット端末1から、発言75を表示するためのコミュニケーション情報を所定時間受信しなかった場合、表示画像において、当該タブレット端末1のユーザのアバター73を分割領域77cに移動させる。 Further, when communication information for displaying the remarks 75 is not received for a predetermined time from the tablet terminal 1, the avatar 73 of the user of the tablet terminal 1 is moved to the divided area 77 c in the display image.
 すなわち、分割領域77は以下のように表現できる。分割領域77aは、他のユーザとコミュニケーションを取っているユーザのアバター73が配置される領域である。また、分割領域77bは、発言している(タブレット端末1を、発言75を表示するために操作している)が、他のユーザとコミュニケーションを取っていないユーザのアバター73が表示される領域である。また、分割領域77cは、タブレット端末1を操作していないユーザのアバターが表示される領域である。 That is, the divided area 77 can be expressed as follows. The divided area 77a is an area in which the avatar 73 of the user who is communicating with other users is arranged. The divided area 77b is an area where the avatar 73 of a user who is speaking (operating the tablet terminal 1 to display the statement 75) but is not communicating with other users is displayed. is there. The divided area 77c is an area in which an avatar of a user who is not operating the tablet terminal 1 is displayed.
 これにより、ユーザは、他のユーザがコミュニケーションを図れるユーザであるか否かを簡単に特定することができる。例えば、ユーザは、分割領域77aにアバター73が配置されているユーザとは、積極的にコミュニケーションを図れる可能性が高いと認識できる。一方、分割領域77cにアバター73が配置されているユーザとは、コミュニケーションを図れる可能性が低いと認識できる。 Thereby, the user can easily specify whether or not other users can communicate with each other. For example, the user can recognize that there is a high possibility of actively communicating with the user in which the avatar 73 is arranged in the divided area 77a. On the other hand, it can be recognized that there is a low possibility of communication with the user in which the avatar 73 is arranged in the divided area 77c.
 この構成は、多数のユーザが同じコンテンツを閲覧している場合、換言すれば、表示画像内に多数のアバター73が表示されている場合に好適である。 This configuration is suitable when a large number of users are viewing the same content, in other words, when a large number of avatars 73 are displayed in the display image.
 (実施形態1の変形例3)
 次に、実施形態1のさらに別の変形例について、図1、図3および図4を参照して説明する。実施形態1では、定型文ボタン領域531に表示される定型文ボタンは、タブレット表示制御部133が表示画像格納部141から読み出したデータに基づいて生成する構成であった。一方、本変形例では、タブレット表示制御部133が通信部15を介して外部から取得したデータに基づいて定型文ボタンの画像を生成する構成である。
(Modification 3 of Embodiment 1)
Next, still another modification of the first embodiment will be described with reference to FIGS. 1, 3, and 4. In the first embodiment, the fixed sentence button displayed in the fixed sentence button area 531 is configured to be generated based on the data read from the display image storage unit 141 by the tablet display control unit 133. On the other hand, in the present modification, the tablet display control unit 133 generates a fixed sentence button image based on data acquired from the outside via the communication unit 15.
 具体的には、サーバ3は、テレビ2に表示しているコンテンツ71の内容を特定する。例えば、コンテンツ71がテレビ番組である場合、番組の種類、出演者などの情報を特定する。そして、サーバ3は、特定した情報に基づいて、定型文ボタンを生成するためのボタン生成情報を生成し、タブレット端末1に送信する。例えば、当該テレビ番組の出演者の名前を定型文ボタンとして生成するためのボタン生成情報や、テレビ番組がクイズ番組の場合、「わかった!」などを定型文ボタンとして生成するためのボタン生成情報を生成し、タブレット端末1に送信する。 Specifically, the server 3 identifies the content 71 displayed on the television 2. For example, when the content 71 is a television program, information such as the type of program and performers is specified. Then, the server 3 generates button generation information for generating a fixed sentence button based on the specified information, and transmits the button generation information to the tablet terminal 1. For example, button generation information for generating the name of the performer of the TV program as a fixed sentence button, or button generation information for generating “I understand!” Or the like as a fixed sentence button when the TV program is a quiz program Is transmitted to the tablet terminal 1.
 タブレット表示制御部133は、表示画像格納部141から読み出したデータに加え、受信したボタン生成情報に基づいてタブレット表示画像を生成する。これにより、ユーザは、コンテンツ71の内容に応じた定型文をアバター73に発言させることができる。よって、ユーザはタブレット端末1に対する簡易な操作で、他のユーザとのコンテンツ71の内容に応じたコミュニケーションを図ることができる。 The tablet display control unit 133 generates a tablet display image based on the received button generation information in addition to the data read from the display image storage unit 141. As a result, the user can cause the avatar 73 to speak a fixed sentence corresponding to the contents 71. Therefore, the user can communicate with the other users according to the contents 71 by a simple operation on the tablet terminal 1.
 なお、上述した各変形例は、後述する各実施形態においても適用可能である。 In addition, each modification mentioned above is applicable also in each embodiment mentioned later.
 〔実施形態2〕
 本発明の別の実施形態について、図12を参照して説明すれば以下のとおりである。図12は、タブレット端末10の要部構成を示すブロック図である。なお、タブレット端末10は、実施形態1にて説明したタブレット端末1と同様に、図3に示すようなサブシステムに含まれる。すなわち、タブレット端末10は、ルータなどを介してサーバ3と互いに通信可能に接続される。
[Embodiment 2]
Another embodiment of the present invention will be described with reference to FIG. FIG. 12 is a block diagram illustrating a main configuration of the tablet terminal 10. Note that the tablet terminal 10 is included in a subsystem as shown in FIG. 3, similarly to the tablet terminal 1 described in the first embodiment. That is, the tablet terminal 10 is connected to the server 3 through a router or the like so as to be able to communicate with each other.
 本実施形態に係るタブレット端末10は、外部からの情報に基づいてバイブレータ16を動作させる。具体的には、サーバ3が、タブレット端末10のユーザのアバター73と別のユーザのアバター73とがコミュニケーション領域72(または分割領域73、分割領域77)の同じ位置に配置されたことを特定すると、その旨を示す情報である衝突情報をタブレット端末10に送信する。上記衝突情報は、通信部15を介して報知動作制御部135に供給される。そして、報知動作制御部135は衝突情報を供給されると、バイブレータ16を動作させる。 The tablet terminal 10 according to the present embodiment operates the vibrator 16 based on information from the outside. Specifically, when the server 3 specifies that the user's avatar 73 of the tablet terminal 10 and another user's avatar 73 are arranged at the same position in the communication area 72 (or divided area 73, divided area 77). The collision information, which is information indicating that, is transmitted to the tablet terminal 10. The collision information is supplied to the notification operation control unit 135 via the communication unit 15. And the alerting | reporting operation | movement control part 135 will operate the vibrator 16, if collision information is supplied.
 また、サーバ3は、同じ位置に配置されたアバター73同士が衝突したことを示す画像を作成し、テレビ2に送信して表示させる。 Further, the server 3 creates an image indicating that the avatars 73 arranged at the same position collide with each other, and transmits them to the television 2 to display them.
 これにより、ユーザは、テレビ2にてアバター73同士が衝突したことを確認すると同時に、タブレット端末10の振動を体感することができる。よって、テレビ2に表示される画像内でのイベントを、リアルに体感することができる。 Thereby, the user can experience the vibration of the tablet terminal 10 at the same time as confirming that the avatars 73 collide with each other on the television 2. Therefore, the event in the image displayed on the television 2 can be realistically experienced.
 〔実施形態3〕
 本発明のさらに別の実施形態について説明すれば以下のとおりである。本実施形態では、状態取得部12に含まれるマイク125が取得した音声によってテキスト入力を行う構成について説明する。
[Embodiment 3]
The following will describe still another embodiment of the present invention. This embodiment demonstrates the structure which performs a text input with the audio | voice which the microphone 125 contained in the state acquisition part 12 acquired.
 図4に示すメッセージ入力領域51は音声入力開始ボタン(不図示)をさらに含む。入力特定部131は、音声入力開始ボタンに対するタップ操作を特定すると、マイク125が取得した音声の情報を、タブレット表示制御部133に出力するように設定する。そして、入力特定部131は、音声によるテキスト入力を終了させるための入力操作(例えば、音声入力開始ボタンをもう一度タップする操作)を特定するまでに入力された音声を、タブレット表示制御部133に出力する。タブレット表示制御部133は、マイク125から入力された音声の情報をテキスト情報に変換し、表示部112に表示させる。 The message input area 51 shown in FIG. 4 further includes a voice input start button (not shown). When the input specifying unit 131 specifies a tap operation on the voice input start button, the input specifying unit 131 sets the voice information acquired by the microphone 125 to be output to the tablet display control unit 133. Then, the input specifying unit 131 outputs, to the tablet display control unit 133, the input voice until the input operation for ending the text input by voice (for example, the operation of tapping the voice input start button again) is specified. To do. The tablet display control unit 133 converts voice information input from the microphone 125 into text information and causes the display unit 112 to display the text information.
 なお、入力特定部131は、音声入力開始ボタンに対するタップ操作を特定した場合、マイク125が取得した音声の情報を、状態特定部132に出力しないように設定してもよい。これにより、音声による入力操作が実行されている間は、実施形態1で説明したような、マイク125が取得した音声によってコミュニケーション情報を特定する処理が実行されない。すなわち、ユーザが音声による入力操作を行いたいのに、別の処理(コミュニケーション画像に対する処理)が実行されるということがない。よって、ユーザが望む処理を適切に実行することができる入力装置を実現できる。 The input specifying unit 131 may be set so that the voice information acquired by the microphone 125 is not output to the state specifying unit 132 when the tap operation on the voice input start button is specified. As a result, while the voice input operation is being executed, the process for specifying the communication information by the voice acquired by the microphone 125 as described in the first embodiment is not executed. That is, when the user wants to perform an input operation by voice, another process (process for the communication image) is not executed. Therefore, it is possible to realize an input device that can appropriately execute the process desired by the user.
 〔実施形態4〕
 本発明のさらに別の実施形態について、図13を参照して説明すれば以下のとおりである。図13は、本実施形態における共同閲覧システム200の構成を示す図である。
[Embodiment 4]
The following will describe still another embodiment of the present invention with reference to FIG. FIG. 13 is a diagram illustrating a configuration of the collaborative browsing system 200 in the present embodiment.
 共同閲覧システム200は、図3に示す共同閲覧システム100に含まれるサブシステム101bに代えて、サブシステム101cを含む。サブシステム101cは、インターネットに接続可能なスマートフォン5を含む。すなわち、スマートフォン5は、入力装置と表示装置とを兼ねるものである。スマートフォン5の要部構成を示すブロック図は、例えば図1に示すブロック図と同様である。ただし、タブレット表示制御部133は、タブレット表示画像に加えて、サーバ3から送信された表示画像も表示部112に表示させる。 The collaborative browsing system 200 includes a subsystem 101c instead of the subsystem 101b included in the collaborative browsing system 100 shown in FIG. The subsystem 101c includes a smartphone 5 that can be connected to the Internet. That is, the smartphone 5 serves as both an input device and a display device. The block diagram showing the main configuration of the smartphone 5 is the same as the block diagram shown in FIG. 1, for example. However, the tablet display control unit 133 causes the display unit 112 to display the display image transmitted from the server 3 in addition to the tablet display image.
 これにより、ユーザは外出している場合でも共同閲覧システム200に参加することができる。なお、本実施形態ではサブシステム101cはスマートフォン5を含むものとして説明したが、ユーザが外出先で共同閲覧システム200に参加することが可能な構成であれば、これに限定されるものではない。例えば、サブシステム101cは、タブレット端末および持ち運び可能なルータを含むものであってもよい。 This allows the user to participate in the collaborative browsing system 200 even when the user is out. In the present embodiment, the sub-system 101c has been described as including the smartphone 5. However, the sub-system 101c is not limited to this as long as the user can participate in the collaborative browsing system 200 on the go. For example, the subsystem 101c may include a tablet terminal and a portable router.
 〔ソフトウェアによる実現例〕
 タブレット端末1およびタブレット端末10の制御ブロック(特に入力特定部131、状態特定部132、タブレット表示制御部133、および表示指示決定部134)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks (particularly the input specifying unit 131, the state specifying unit 132, the tablet display control unit 133, and the display instruction determining unit 134) of the tablet terminal 1 and the tablet terminal 10 are logic circuits formed in an integrated circuit (IC chip) or the like. (Hardware) or software using a CPU (Central Processing Unit).
 後者の場合、タブレット端末1およびタブレット端末10は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the tablet terminal 1 and the tablet terminal 10 include a CPU that executes instructions of a program, which is software that implements each function, and a ROM (Read CPU) in which the program and various data are recorded so as to be readable by the computer (or CPU). Only Memory) or a storage device (these are referred to as “recording media”), RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
 〔まとめ〕
 本発明の態様1に係る入力装置(タブレット端末1)は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システム100において、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部(通信部15)を備える入力装置であって、自装置または自装置の周囲の状態を特定する状態特定部132と、上記状態特定部による特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定部(表示指示決定部134)と、を備える。
[Summary]
The input device (tablet terminal 1) according to aspect 1 of the present invention is a communication for communicating with other users in a collaborative browsing system 100 that enables browsing and communication of content by a plurality of users via a communication network. An input device including a transmission unit (communication unit 15) for transmitting communication information indicating processing for an image, the state specifying unit 132 for specifying the own device or a surrounding state of the own device, and the specification result by the state specifying unit A communication information specifying unit (display instruction determining unit 134) that specifies the communication information associated with the communication information.
 上記の構成によれば、状態特定部による特定結果に対応付けられたコミュニケーション情報を特定することで、自装置または自装置の周囲の状態に応じた、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を特定することができる。 According to said structure, by specifying the communication information matched with the specific result by a state specific | specification part, the communication image for aiming at communication with another user according to the surrounding state of the own apparatus or the own apparatus It is possible to specify communication information indicating a process for.
 これにより、ユーザが意識的な入力操作を行わなくても、自装置または自装置の周囲の状態に応じたコミュニケーション情報が外部に送信され、コミュニケーション画像に対する処理が実行される。すなわち、ユーザが意識的な入力操作を行わなくても、他のユーザはコミュニケーション画像を見ることで、当該ユーザの状態を把握することができる。また、ユーザは意識的な入力操作を行わなくてもコミュニケーション画像に対する処理を実行することができるので、入力操作に気を取られてコンテンツの閲覧がおろそかになることがない。以上より、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 Thus, even if the user does not perform a conscious input operation, communication information corresponding to the own device or the surrounding state of the own device is transmitted to the outside, and processing for the communication image is executed. That is, even if the user does not perform a conscious input operation, other users can grasp the state of the user by looking at the communication image. In addition, since the user can execute processing on the communication image without performing a conscious input operation, the user is not distracted by the input operation and browsing of content is not neglected. As described above, the user can enjoy browsing the content and communicating with other users at the same time.
 本発明の態様2に係る入力装置は、上記態様1において、自装置または自装置の周囲の状態を特定するための特定情報を取得する取得部(状態取得部12)をさらに備え、上記状態特定部は、上記取得部が取得した特定情報に基づいて自装置または自装置の周囲の状態を特定してもよい。 The input device according to aspect 2 of the present invention further includes an acquisition unit (state acquisition unit 12) that acquires specific information for specifying the self device or a surrounding state of the self device in the above aspect 1, and the state specifying The unit may specify the own device or a surrounding state of the own device based on the identification information acquired by the acquisition unit.
 上記構成によれば、入力装置は、自装置または自装置の周囲の状態を特定するための特定情報を取得する取得部を備えているので、自装置または自装置の周囲の状態を特定するための特定情報を、自装置の構成のみで取得することができる。 According to the above configuration, since the input device includes the acquisition unit that acquires the identification information for identifying the device or the surrounding state of the device, the input device identifies the device or the surrounding state of the device. Specific information can be acquired only by the configuration of the device itself.
 本発明の態様3に係る入力装置は、上記態様2において、上記取得部は、自装置に生じる加速度を取得する加速度取得部(加速度センサ121)、自装置の周囲の照度を取得する照度取得部(照度センサ122)、自装置の位置情報を取得する位置情報取得部123、自装置の周囲を撮影する撮影部(カメラ124)、自装置の周囲の音声を取得する音声取得部(マイク125)、および、自装置の向きおよび傾きを取得する方向/傾き取得部のうち、少なくともいずれか1つを含み、上記状態特定部は、上記加速度取得部、上記照度取得部、上記位置情報取得部、上記撮影部、上記音声取得部、上記方向/傾き取得部のうち、少なくともいずれか1つが取得した特定情報に基づいて自装置または自装置の周囲の状態を特定してもよい。 In the input device according to aspect 3 of the present invention, in the above aspect 2, the acquisition unit includes an acceleration acquisition unit (acceleration sensor 121) that acquires acceleration generated in the device, and an illuminance acquisition unit that acquires illuminance around the device. (Illuminance sensor 122), position information acquisition unit 123 for acquiring position information of the own device, an imaging unit (camera 124) for photographing the surroundings of the own device, and an audio acquisition unit (microphone 125) for acquiring sounds around the own device , And a direction / tilt acquisition unit that acquires the orientation and inclination of the device itself, and the state specifying unit includes the acceleration acquisition unit, the illuminance acquisition unit, the position information acquisition unit, Based on the identification information acquired by at least one of the photographing unit, the sound acquisition unit, and the direction / tilt acquisition unit, the device itself or the surrounding state of the device may be specified.
 上記構成によれば、自装置に生じる加速度、自装置の周囲の照度、自装置の位置情報、自装置の周囲を撮影した画像、自装置の周囲の音声、自装置の向きおよび傾きのうち、少なくともいずれか1つに基づいたコミュニケーション情報が特定される。よって、様々な自装置または自装置の周囲の状態に応じたコミュニケーション情報が特定されるので、本発明に係る入力装置を使用しているユーザの様々な状態を、他のユーザは特定することができる。 According to the above configuration, among the acceleration generated in the own device, the illuminance around the own device, the position information of the own device, the image taken around the own device, the sound around the own device, the orientation and the tilt of the own device, Communication information based on at least one of them is specified. Therefore, since communication information according to various own devices or the surrounding conditions of the own device is specified, other users can specify various states of the user using the input device according to the present invention. it can.
 本発明の態様4に係る入力装置は、上記態様3において、上記コミュニケーション情報特定部は、上記状態特定部が、上記方向/傾き取得部によって取得された自装置の向きおよび傾きからユーザが自装置を把持していると特定したとき、ユーザが自装置を把持していることを示す上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 4 of the present invention, in the above aspect 3, the communication information specifying unit is configured such that the state specifying unit is configured so that the user himself / herself from the orientation and inclination of the own device acquired by the direction / tilt acquisition unit. The communication information indicating that the user is holding his / her device may be specified.
 上記構成によれば、自装置の向きおよび傾きからユーザが自装置を把持していると特定されたとき、自装置を把持していることを示すコミュニケーション情報が特定される。これにより、本発明に係る入力装置のユーザが入力装置を把持しながらコンテンツを閲覧していることを、他のユーザは認識することができる。 According to the above configuration, when it is specified that the user is holding the own device from the direction and inclination of the own device, the communication information indicating that the user is holding the device is specified. Thereby, the other user can recognize that the user of the input device according to the present invention is browsing the content while holding the input device.
 すなわち、本発明に係る入力装置のユーザが入力装置への入力操作を実行することが可能であると、他のユーザは認識することができるので、他のユーザは当該ユーザとのコミュニケーションが可能であると認識することができる。 That is, since the other user can recognize that the user of the input device according to the present invention can execute an input operation to the input device, the other user can communicate with the user. It can be recognized that there is.
 本発明の態様5に係る入力装置は、上記態様3において、上記コミュニケーション情報特定部は、上記状態特定部が、上記加速度取得部によって取得された自装置に生じた加速度から、ユーザが自装置を把持していると特定したとき、ユーザが自装置を把持していることを示す上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 5 of the present invention, in the aspect 3, the communication information specifying unit is configured so that the user specifies his / her own device from the acceleration generated in the own device acquired by the acceleration acquiring unit. When it is specified that the user is holding, the communication information indicating that the user is holding the device may be specified.
 上記構成によれば、自装置に生じた加速度からユーザが自装置を把持していると特定されたとき、自装置を把持していることを示すコミュニケーション情報が特定される。これにより、本発明に係る入力装置のユーザが入力装置を把持しながらコンテンツを閲覧していることを、他のユーザは認識することができる。 According to the above configuration, when it is determined from the acceleration generated in the own device that the user is holding the own device, the communication information indicating that the user is holding is specified. Thereby, the other user can recognize that the user of the input device according to the present invention is browsing the content while holding the input device.
 すなわち、本発明に係る入力装置のユーザが入力装置への入力操作を実行することが可能であると、他のユーザは認識することができるので、他のユーザは当該ユーザとのコミュニケーションが可能であると認識することができる。 That is, since the other user can recognize that the user of the input device according to the present invention can execute an input operation to the input device, the other user can communicate with the user. It can be recognized that there is.
 本発明の態様6に係る入力装置は、上記態様3から5のいずれかにおいて、上記コミュニケーション情報特定部は、上記状態特定部が、上記照度取得部によって取得された自装置の周囲の照度が、所定の値を超えていないとき、ユーザの周囲が暗いことを示す上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 6 of the present invention, in any of the above aspects 3 to 5, the communication information specifying unit is configured such that the state specifying unit has an illuminance around the own device acquired by the illuminance acquiring unit. When the predetermined value is not exceeded, the communication information indicating that the surrounding of the user is dark may be specified.
 上記構成によれば、自装置の周囲の照度が所定の値を超えないと特定されたとき、ユーザの周囲が暗いことを示すコミュニケーション情報が特定される。これにより、本願発明に係る入力装置のユーザの周囲が暗いことを他のユーザは認識することができる。よって、他のユーザは当該ユーザとのコミュニケーションが可能か否かを判断することができる。 According to the above configuration, when it is specified that the illuminance around the device does not exceed a predetermined value, the communication information indicating that the user is dark is specified. Thereby, other users can recognize that the circumference of the user of the input device concerning the present invention is dark. Therefore, other users can determine whether or not communication with the user is possible.
 本発明の態様7に係る入力装置は、上記態様3から6のいずれかにおいて、上記コミュニケーション画像は、ユーザを一義的に識別するための画像であり、上記状態特定部は、上記位置情報取得部が取得した自装置の位置情報に基づいて、上記コンテンツおよびコミュニケーション画像を表示する表示装置(テレビ2)と自装置との位置関係を特定し、上記コミュニケーション情報特定部は、上記状態特定部が特定した上記表示装置と自装置との位置関係を、上記表示装置に表示される上記コンテンツと上記コミュニケーション画像との位置関係に反映させるための上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 7 of the present invention, in any one of the above aspects 3 to 6, the communication image is an image for uniquely identifying a user, and the state specifying unit includes the position information acquisition unit. Identifies the positional relationship between the display device (TV 2) that displays the content and the communication image and the device itself based on the location information of the device acquired by the device, and the state identification unit identifies the communication information identification unit. The communication information for reflecting the positional relationship between the display device and the device itself to the positional relationship between the content displayed on the display device and the communication image may be specified.
 上記構成によれば、自装置と表示装置との位置関係が、表示装置に表示されているコミュニケーション画像とコンテンツとの位置関係に反映される。これにより、他のユーザは、本願発明に係る入力装置のユーザが、当該ユーザが使用している表示装置に対してどこにいるかを認識することができる。 According to the above configuration, the positional relationship between the own device and the display device is reflected in the positional relationship between the communication image displayed on the display device and the content. Thereby, another user can recognize where the user of the input device according to the present invention is located with respect to the display device used by the user.
 本発明の態様8に係る入力装置は、上記態様1から7のいずれかにおいて、ユーザによる入力操作を受け付ける入力部111と、上記入力操作を受け付けるための1つ以上のユーザインターフェースを表示する表示部112と、上記入力部が受け付けた入力操作を特定する入力特定部131と、をさらに備え、上記入力特定部は、上記表示部に表示されたユーザインターフェースに対する入力操作を特定し、上記コミュニケーション情報特定部は、上記ユーザインターフェースに対する上記入力特定部によって特定された入力操作に対応付けられた上記コミュニケーション情報を特定してもよい。 An input device according to aspect 8 of the present invention is the display unit according to any one of aspects 1 to 7, wherein the display unit displays an input unit 111 that receives an input operation by a user and one or more user interfaces for receiving the input operation. 112 and an input specifying unit 131 for specifying an input operation accepted by the input unit, wherein the input specifying unit specifies an input operation for the user interface displayed on the display unit, and specifies the communication information The unit may specify the communication information associated with the input operation specified by the input specifying unit for the user interface.
 上記構成によれば、表示部に表示されたユーザインターフェースに対する入力操作が特定されることで、当該入力操作に対応付けられたコミュニケーション情報を特定する。これにより、ユーザはユーザインターフェースに対して入力操作を行うだけで、コミュニケーション画像に対する処理を実行させることができる。すなわち、簡易な操作によってコミュニケーション画像に対する処理を実行させることができる。よって、入力操作に気を取られてコンテンツの閲覧がおろそかになることがないので、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 According to the above configuration, the communication operation associated with the input operation is specified by specifying the input operation for the user interface displayed on the display unit. Thus, the user can execute processing on the communication image only by performing an input operation on the user interface. That is, the process for the communication image can be executed by a simple operation. Therefore, the user can enjoy browsing the content and communicating with other users at the same time because the user is not distracted by the input operation.
 本発明の態様9に係る入力装置は、上記態様8において、上記入力操作は、上記コンテンツを変更するための入力操作であり、上記コミュニケーション情報特定部は、上記入力特定部が特定した上記コンテンツを変更するための入力操作に対応付けられた上記コミュニケーション情報を特定してもよい。 The input device according to aspect 9 of the present invention is the input apparatus according to aspect 8, wherein the input operation is an input operation for changing the content, and the communication information specifying unit specifies the content specified by the input specifying unit. The communication information associated with the input operation for changing may be specified.
 上記構成によれば、コンテンツを変更するための入力操作が特定されたとき、コンテンツを変更するための入力操作に対応付けられたコミュニケーション情報が特定される。これにより、本願発明に係る入力装置のユーザがコンテンツを変更しようとしていることを他のユーザは認識することができる。よって、コンテンツを変更しようとしている状態に適したコミュニケーションを図ることができる。 According to the above configuration, when an input operation for changing content is specified, communication information associated with the input operation for changing content is specified. Thereby, the other user can recognize that the user of the input device according to the present invention intends to change the content. Therefore, it is possible to achieve communication suitable for the state where the content is to be changed.
 本発明の態様10に係る入力装置は、上記態様8において、上記表示部に表示する上記ユーザインターフェースを決定する表示内容決定部(タブレット表示制御部133)をさらに備え、上記表示内容決定部は、上記コンテンツの内容に応じて上記表示部に表示する上記ユーザインターフェースを決定してもよい。 The input device according to aspect 10 of the present invention further includes a display content determination unit (tablet display control unit 133) that determines the user interface to be displayed on the display unit in the above aspect 8, wherein the display content determination unit includes: You may determine the said user interface displayed on the said display part according to the content of the said content.
 上記構成によれば、コンテンツの内容に応じて、表示部に表示されるユーザインターフェースが決定される。すなわち、コンテンツが変更されると、ユーザインターフェースも変化する。これにより、ユーザインターフェースを使用しながらでも、バラエティに富んだコミュニケーションを図ることができる。 According to the above configuration, the user interface displayed on the display unit is determined according to the content. That is, when the content is changed, the user interface is also changed. This makes it possible to achieve a variety of communication while using the user interface.
 本発明の態様11に係る入力装置を用いたコミュニケーション情報の特定方法は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置を用いたコミュニケーション情報の特定方法であって、自装置または自装置の周囲の状態を特定する状態特定ステップ(ステップS8)と、上記状態特定ステップにおける特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定ステップ(ステップS9)と、を含む。 A communication information specifying method using an input device according to an aspect 11 of the present invention is for communicating with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network. A communication information specifying method using an input device including a transmission unit that transmits communication information indicating processing for the communication image of the device, and a state specifying step (step S8) for specifying the own device or a surrounding state of the own device; A communication information specifying step (step S9) for specifying the communication information associated with the specifying result in the state specifying step.
 上記構成による作用効果は、上述した態様1と同じである。 The operational effect of the above configuration is the same as that of the above-described aspect 1.
 本発明の態様12に係る処理装置(サーバ3)は、上記態様1から10のいずれかに記載の入力装置から送信された上記コミュニケーション情報に応じて、コミュニケーション画像に対する処理を実行し、上記コンテンツおよび上記コミュニケーション画像を表示する表示装置(テレビ2)に、処理が実行された上記コミュニケーション画像を送信してもよい。 The processing device (server 3) according to aspect 12 of the present invention executes processing on a communication image according to the communication information transmitted from the input device according to any one of aspects 1 to 10, and You may transmit the said communication image by which the process was performed to the display apparatus (TV 2) which displays the said communication image.
 上記構成によれば、処理装置においてコミュニケーション画像に対する処理が実行されるので、入力装置や表示装置の処理負荷を軽減することができる。 According to the above configuration, since the processing on the communication image is executed in the processing device, the processing load on the input device and the display device can be reduced.
 本発明の態様13に係る表示装置(テレビ2)は、上記態様12に記載の処理装置から送信された上記コミュニケーション画像を、上記コンテンツとともに表示してもよい。 The display device (TV 2) according to aspect 13 of the present invention may display the communication image transmitted from the processing device according to aspect 12 together with the content.
 上記構成によれば、表示装置は、送信されたコミュニケーション画像をコンテンツとともに表示するので、特別な機能を必要としない。よって、一般的なテレビやディスプレイなどを本発明の表示装置として使用することができる。 According to the above configuration, since the display device displays the transmitted communication image together with the content, no special function is required. Therefore, a general television or display can be used as the display device of the present invention.
 本発明の態様14に係る処理装置(サーバ3)は、上記態様1から10のいずれかに記載の入力装置から送信された上記コミュニケーション情報に応じて、上記コミュニケーション画像に対する処理を実行するための指示情報を上記コンテンツおよび上記コミュニケーション画像を表示する表示装置(テレビ2)に送信してもよい。 The processing device (server 3) according to the fourteenth aspect of the present invention provides an instruction for executing processing on the communication image according to the communication information transmitted from the input device according to any one of the first to tenth aspects. Information may be transmitted to the display device (television 2) that displays the content and the communication image.
 上記構成によれば、コミュニケーション情報に応じた指示情報を表示装置に送信するので、コミュニケーション画像に対する処理は実行しない。よって、処理装置の処理負荷を軽減することができる。 According to the above configuration, since the instruction information corresponding to the communication information is transmitted to the display device, the processing for the communication image is not executed. Therefore, the processing load of the processing device can be reduced.
 本発明の態様15に係る表示装置(テレビ2)は、上記態様14に記載の処理装置から送信された上記指示情報に応じて、コミュニケーション画像に対する処理を実行し、処理が実行された上記コミュニケーション画像を上記コンテンツとともに表示してもよい。 The display device (television 2) according to aspect 15 of the present invention performs processing on a communication image in accordance with the instruction information transmitted from the processing device according to aspect 14, and the communication image on which the processing has been executed. May be displayed together with the content.
 上記構成によれば、表示装置においてコミュニケーション画像に対する処理が実行されるので、処理装置からコミュニケーション画像などの大容量の情報が送信されることがない。よって、装置間における情報のやり取りをスムーズにすることができる。 According to the above configuration, since the processing for the communication image is executed in the display device, a large amount of information such as a communication image is not transmitted from the processing device. Therefore, information can be exchanged smoothly between apparatuses.
 本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各部(ソフトウェア要素に限る)として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The input device according to each aspect of the present invention may be realized by a computer. In this case, the input device is operated by the computer by causing the computer to operate as each unit (limited to software elements) included in the input device. An input device control program to be realized and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
 本発明は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を実行するための入力操作を受け付ける入力装置に利用することができる。具体的には、タブレット端末、スマートフォンなどに好適に利用することができる。 The present invention provides an input for receiving an input operation for executing processing on a communication image for communication with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network. Can be used in the device. Specifically, it can be suitably used for tablet terminals, smartphones, and the like.
 1   タブレット端末(入力装置)
 2   テレビ(表示装置)
 12  状態取得部(取得部)
 15  通信部(送信部)
 100 共同閲覧システム
 111 入力部
 112 表示部
 121 加速度センサ(加速度取得部)
 122 照度センサ(照度取得部)
 123 位置情報取得部
 124 カメラ(撮影部)
 125 マイク(音声取得部)
 126 地磁気センサ(方向/傾き取得部)
 131 入力特定部
 132 状態特定部
 133 タブレット表示制御部(表示内容決定部)
 134 表示指示決定部(コミュニケーション情報特定部)
 S8  状態特定ステップ
 S9  コミュニケーション情報特定ステップ
1 Tablet terminal (input device)
2 Television (display device)
12 Status acquisition unit (acquisition unit)
15 Communication unit (transmission unit)
100 collaborative browsing system 111 input unit 112 display unit 121 acceleration sensor (acceleration acquisition unit)
122 Illuminance sensor (illuminance acquisition unit)
123 Position information acquisition unit 124 Camera (shooting unit)
125 microphone (voice acquisition unit)
126 Geomagnetic sensor (direction / tilt acquisition unit)
131 Input specifying unit 132 State specifying unit 133 Tablet display control unit (display content determining unit)
134 Display instruction determining unit (communication information specifying unit)
S8 State identification step S9 Communication information identification step

Claims (16)

  1.  通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置であって、
     自装置または自装置の周囲の状態を特定する状態特定部と、
     上記状態特定部による特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定部と、を備えることを特徴とする入力装置。
    In a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network, an input device including a transmission unit that transmits communication information indicating processing on a communication image for communication with other users There,
    A state identifying unit for identifying the own device or the surrounding state of the own device;
    An input device comprising: a communication information specifying unit that specifies the communication information associated with the specifying result by the state specifying unit.
  2.  自装置または自装置の周囲の状態を特定するための特定情報を取得する取得部をさらに備え、
     上記状態特定部は、上記取得部が取得した特定情報に基づいて自装置または自装置の周囲の状態を特定することを特徴とする請求項1に記載の入力装置。
    It further includes an acquisition unit that acquires specific information for specifying the own device or the surrounding state of the own device,
    The input device according to claim 1, wherein the state specifying unit specifies the own device or a surrounding state of the own device based on the specifying information acquired by the acquiring unit.
  3.  上記取得部は、自装置に生じる加速度を取得する加速度取得部、自装置の周囲の照度を取得する照度取得部、自装置の位置情報を取得する位置情報取得部、自装置の周囲を撮影する撮影部、自装置の周囲の音声を取得する音声取得部、および、自装置の向きおよび傾きを取得する方向/傾き取得部のうち、少なくともいずれか1つを含み、
     上記状態特定部は、上記加速度取得部、上記照度取得部、上記位置情報取得部、上記撮影部、上記音声取得部、上記方向/傾き取得部のうち、少なくともいずれか1つが取得した特定情報に基づいて自装置または自装置の周囲の状態を特定することを特徴とする請求項2に記載の入力装置。
    The acquisition unit is an acceleration acquisition unit that acquires acceleration generated in the own device, an illuminance acquisition unit that acquires illuminance around the own device, a position information acquisition unit that acquires position information of the own device, and photographs the surroundings of the own device. Including at least one of a photographing unit, a sound acquisition unit that acquires sound around the device, and a direction / tilt acquisition unit that acquires the orientation and inclination of the device,
    The state specifying unit includes specific information acquired by at least one of the acceleration acquisition unit, the illuminance acquisition unit, the position information acquisition unit, the imaging unit, the sound acquisition unit, and the direction / tilt acquisition unit. The input device according to claim 2, wherein the input device or a surrounding state of the device is specified based on the input device.
  4.  上記コミュニケーション情報特定部は、上記状態特定部が、上記加速度取得部によって取得された自装置に生じた加速度からユーザが自装置を把持していると特定したとき、ユーザが自装置を把持していることを示す上記コミュニケーション情報を特定することを特徴とする請求項3に記載の入力装置。 The communication information specifying unit, when the state specifying unit specifies that the user is holding the own device from the acceleration generated in the own device acquired by the acceleration acquiring unit, The input device according to claim 3, wherein the communication information indicating that the information is present is specified.
  5.  上記コミュニケーション情報特定部は、上記状態特定部が、上記照度取得部によって取得された自装置の周囲の照度が、所定の値を超えていないと特定したとき、ユーザの周囲が暗いことを示す上記コミュニケーション情報を特定することを特徴とする請求項3または4に記載の入力装置。 The communication information specifying unit indicates that the surrounding of the user is dark when the state specifying unit specifies that the illuminance around the own device acquired by the illuminance acquiring unit does not exceed a predetermined value. 5. The input device according to claim 3, wherein communication information is specified.
  6.  上記コミュニケーション画像は、ユーザを識別するための画像であり、
     上記状態特定部は、上記位置情報取得部が取得した自装置の位置情報に基づいて、上記コンテンツおよびコミュニケーション画像を表示する表示装置と自装置との位置関係を特定し、
     上記コミュニケーション情報特定部は、上記状態特定部が特定した上記表示装置と自装置との位置関係を、上記表示装置に表示される上記コンテンツと上記コミュニケーション画像との位置関係に反映させるための上記コミュニケーション情報を特定することを特徴とする請求項3から5の何れか1項に記載の入力装置。
    The communication image is an image for identifying a user,
    The state specifying unit specifies a positional relationship between the display device that displays the content and the communication image and the own device based on the position information of the own device acquired by the position information acquisition unit,
    The communication information specifying unit is configured to reflect the positional relationship between the display device specified by the state specifying unit and the device itself to the positional relationship between the content displayed on the display device and the communication image. 6. The input device according to claim 3, wherein information is specified.
  7.  ユーザによる入力操作を受け付ける入力部と、上記入力操作を受け付けるための1つ以上のユーザインターフェースを表示する表示部と、上記入力部が受け付けた入力操作を特定する入力特定部と、をさらに備え、
     上記入力特定部は、上記表示部に表示されたユーザインターフェースに対する入力操作を特定し、
     上記コミュニケーション情報特定部は、上記ユーザインターフェースに対する上記入力特定部によって特定された入力操作に対応付けられた上記コミュニケーション情報を特定することを特徴とする請求項1から6のいずれか1項に記載の入力装置。
    An input unit that receives an input operation by a user; a display unit that displays one or more user interfaces for receiving the input operation; and an input specifying unit that specifies an input operation received by the input unit;
    The input specifying unit specifies an input operation for the user interface displayed on the display unit,
    The said communication information specific | specification part specifies the said communication information matched with the input operation specified by the said input specific | specification part with respect to the said user interface, The any one of Claim 1 to 6 characterized by the above-mentioned. Input device.
  8.  上記入力操作は、上記コンテンツを変更するための入力操作であり、
     上記コミュニケーション情報特定部は、上記入力特定部が特定した上記コンテンツを変更するための入力操作に対応付けられた上記コミュニケーション情報を特定することを特徴とする請求項7に記載の入力装置。
    The input operation is an input operation for changing the content,
    The input device according to claim 7, wherein the communication information specifying unit specifies the communication information associated with an input operation for changing the content specified by the input specifying unit.
  9.  上記表示部に表示する上記ユーザインターフェースを決定する表示内容決定部をさらに備え、
     上記表示内容決定部は、上記コンテンツの内容に応じて上記表示部に表示する上記ユーザインターフェースを決定することを特徴とする請求項7に記載の入力装置。
    A display content determination unit for determining the user interface to be displayed on the display unit;
    The input device according to claim 7, wherein the display content determination unit determines the user interface to be displayed on the display unit according to the content.
  10.  通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置を用いたコミュニケーション情報の特定方法であって、
     自装置または自装置の周囲の状態を特定する状態特定ステップと、
     上記状態特定ステップにおける特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定ステップと、を含むことを特徴とする入力装置を用いたコミュニケーション情報の特定方法。
    An input device including a transmission unit that transmits communication information indicating processing for a communication image for communicating with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network A method for identifying communication information used,
    A state identifying step for identifying the own device or a surrounding state of the own device;
    A communication information specifying method using an input device, comprising: a communication information specifying step for specifying the communication information associated with the specifying result in the state specifying step.
  11.  請求項1から9のいずれか1項に記載の入力装置から送信された上記コミュニケーション情報に応じて、コミュニケーション画像に対する処理を実行し、上記コンテンツおよび上記コミュニケーション画像を表示する表示装置に、処理が実行された上記コミュニケーション画像を送信することを特徴とする処理装置。 A process for a communication image is executed according to the communication information transmitted from the input device according to any one of claims 1 to 9, and the process is executed on a display device that displays the content and the communication image. A processing apparatus for transmitting the communication image.
  12.  請求項11に記載の処理装置から送信された上記コミュニケーション画像を、上記コンテンツとともに表示することを特徴とする表示装置。 12. A display device, wherein the communication image transmitted from the processing device according to claim 11 is displayed together with the content.
  13.  請求項1から9のいずれか1項に記載の入力装置から送信された上記コミュニケーション情報に応じて、コミュニケーション画像に対する処理を実行するための指示情報を上記コンテンツおよび上記コミュニケーション画像を表示する表示装置に送信することを特徴とする処理装置。 In response to the communication information transmitted from the input device according to any one of claims 1 to 9, instruction information for executing processing on a communication image is displayed on the display device that displays the content and the communication image. A processing device for transmitting.
  14.  請求項13に記載の処理装置から送信された上記指示情報に応じて、コミュニケーション画像に対する処理を実行し、処理が実行された上記コミュニケーション画像を上記コンテンツとともに表示することを特徴とする表示装置。 14. A display device, wherein processing is performed on a communication image in accordance with the instruction information transmitted from the processing device according to claim 13, and the communication image on which the processing has been performed is displayed together with the content.
  15.  請求項1に記載の入力装置を動作させるためのプログラムであって、コンピュータを上記状態特定部および上記コミュニケーション情報特定部として機能させるプログラム。 A program for operating the input device according to claim 1, which causes a computer to function as the state specifying unit and the communication information specifying unit.
  16.  請求項15に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 15 is recorded.
PCT/JP2014/078935 2013-11-27 2014-10-30 Input device, communication information identification method, processing device, display device, program, and recording medium WO2015079865A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015550622A JPWO2015079865A1 (en) 2013-11-27 2014-10-30 INPUT DEVICE, COMMUNICATION INFORMATION SPECIFICATION METHOD, PROCESSING DEVICE, DISPLAY DEVICE, PROGRAM, AND RECORDING MEDIUM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013245454 2013-11-27
JP2013-245454 2013-11-27

Publications (1)

Publication Number Publication Date
WO2015079865A1 true WO2015079865A1 (en) 2015-06-04

Family

ID=53198813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/078935 WO2015079865A1 (en) 2013-11-27 2014-10-30 Input device, communication information identification method, processing device, display device, program, and recording medium

Country Status (2)

Country Link
JP (1) JPWO2015079865A1 (en)
WO (1) WO2015079865A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159383A1 (en) * 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system
WO2018074263A1 (en) * 2016-10-20 2018-04-26 ソニー株式会社 Information processing device, information processing method, program, and communication system
JP7329209B1 (en) 2022-06-17 2023-08-18 グリー株式会社 Information processing system, information processing method and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082859A (en) * 2000-06-30 2002-03-22 Seiko Epson Corp System and method for distributing information, program for executing the method by computer, and recording medium recorded with the program
JP2002083320A (en) * 2000-09-07 2002-03-22 Sony Corp Virtual conversation aiding system, virtual conversation aid, and storage medium
JP2011523486A (en) * 2008-05-27 2011-08-11 クゥアルコム・インコーポレイテッド Method and system for automatically updating avatar status to indicate user status
JP2013073307A (en) * 2011-09-27 2013-04-22 Dna:Kk Message transmitting/receiving system, message transmitting/receiving method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082859A (en) * 2000-06-30 2002-03-22 Seiko Epson Corp System and method for distributing information, program for executing the method by computer, and recording medium recorded with the program
JP2002083320A (en) * 2000-09-07 2002-03-22 Sony Corp Virtual conversation aiding system, virtual conversation aid, and storage medium
JP2011523486A (en) * 2008-05-27 2011-08-11 クゥアルコム・インコーポレイテッド Method and system for automatically updating avatar status to indicate user status
JP2013073307A (en) * 2011-09-27 2013-04-22 Dna:Kk Message transmitting/receiving system, message transmitting/receiving method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159383A1 (en) * 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system
US11146863B2 (en) 2016-03-16 2021-10-12 Sony Corporation Information processing device, information processing method, and moving image distribution system
WO2018074263A1 (en) * 2016-10-20 2018-04-26 ソニー株式会社 Information processing device, information processing method, program, and communication system
CN109845246A (en) * 2016-10-20 2019-06-04 索尼公司 Information processing unit, information processing method, program and communication system
JPWO2018074263A1 (en) * 2016-10-20 2019-08-08 ソニー株式会社 Information processing apparatus, information processing method, program, and communication system
US10574939B2 (en) 2016-10-20 2020-02-25 Sony Corporation Information processing apparatus, information processing method, and communication system
CN109845246B (en) * 2016-10-20 2021-12-14 索尼公司 Information processing apparatus, information processing method, program, and communication system
JP7067481B2 (en) 2016-10-20 2022-05-16 ソニーグループ株式会社 Information processing equipment, information processing methods, programs, and communication systems
JP7329209B1 (en) 2022-06-17 2023-08-18 グリー株式会社 Information processing system, information processing method and computer program
JP2023184000A (en) * 2022-06-17 2023-12-28 グリー株式会社 Information processing system, information processing method, and computer program

Also Published As

Publication number Publication date
JPWO2015079865A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
CN108769814B (en) Video interaction method, device, terminal and readable storage medium
CN109286852B (en) Competition method and device for live broadcast room
US11632584B2 (en) Video switching during music playback
US9628744B2 (en) Display apparatus and control method thereof
US9134949B2 (en) Head mount display and method for controlling output of the same
KR20180057366A (en) Mobile terminal and method for controlling the same
CN110198484B (en) Message pushing method, device and equipment
WO2017130486A1 (en) Information processing device, information processing method, and program
CN114205324B (en) Message display method, device, terminal, server and storage medium
EP3654335A1 (en) Method and apparatus for displaying pitch information in live broadcast room, and storage medium
US9148586B2 (en) Terminal apparatus for combining images from two different cameras based on detected sound
CN111596818A (en) Message display method and electronic equipment
CN110139116B (en) Live broadcast room switching method and device and storage medium
WO2021043121A1 (en) Image face changing method, apparatus, system, and device, and storage medium
CN110769189B (en) Video conference switching method and device and readable storage medium
CN105677023B (en) Information demonstrating method and device
CN111028566A (en) Live broadcast teaching method, device, terminal and storage medium
WO2015079865A1 (en) Input device, communication information identification method, processing device, display device, program, and recording medium
CN110798327B (en) Message processing method, device and storage medium
CN111628925A (en) Song interaction method and device, terminal and storage medium
CN109451158B (en) Reminding method and device
JP2016189121A (en) Information processing device, information processing method, and program
US11074034B2 (en) Information processing apparatus, information processing method, and program
JP2011129969A (en) Communication device, communication method, and program
WO2018008096A1 (en) Information display device and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14866770

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015550622

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14866770

Country of ref document: EP

Kind code of ref document: A1