JPWO2015079865A1 - INPUT DEVICE, COMMUNICATION INFORMATION SPECIFICATION METHOD, PROCESSING DEVICE, DISPLAY DEVICE, PROGRAM, AND RECORDING MEDIUM - Google Patents
INPUT DEVICE, COMMUNICATION INFORMATION SPECIFICATION METHOD, PROCESSING DEVICE, DISPLAY DEVICE, PROGRAM, AND RECORDING MEDIUM Download PDFInfo
- Publication number
- JPWO2015079865A1 JPWO2015079865A1 JP2015550622A JP2015550622A JPWO2015079865A1 JP WO2015079865 A1 JPWO2015079865 A1 JP WO2015079865A1 JP 2015550622 A JP2015550622 A JP 2015550622A JP 2015550622 A JP2015550622 A JP 2015550622A JP WO2015079865 A1 JPWO2015079865 A1 JP WO2015079865A1
- Authority
- JP
- Japan
- Prior art keywords
- unit
- communication
- input
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
- H04N21/41265—The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/4222—Remote control device emulator integrated into a non-television apparatus, e.g. a PDA, media center or smart toy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42224—Touch pad or touch panel provided on the remote control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
ユーザがコンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができる入力装置を実現する。タブレット端末(1)は、自装置もしくは自装置の周囲の状態を特定する状態特定部(132)による特定結果に対応付けられたコミュニケーション情報を特定する表示指示決定部(134)を備える。An input device is provided that allows a user to enjoy content browsing and communication with other users at the same time. The tablet terminal (1) includes a display instruction determination unit (134) that specifies communication information associated with the identification result by the state identification unit (132) that identifies the device itself or the surrounding state of the device.
Description
本発明は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を実行するための入力操作を受け付ける入力装置、コミュニケーション情報の特定方法、コミュニケーション画像を送信する処理装置、コミュニケーション画像をコンテンツとともに表示する表示装置、入力装置を動作させるためのプログラム、およびそのプログラムを記録する記録媒体に関する。 The present invention provides an input for receiving an input operation for executing processing on a communication image for communication with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network. The present invention relates to a device, a method for identifying communication information, a processing device for transmitting a communication image, a display device for displaying a communication image together with contents, a program for operating an input device, and a recording medium for recording the program.
近年、映像などのコンテンツを閲覧しながら、遠隔地の友人や家族などとのコミュニケーションを図るための技術(以下、共同閲覧システム)に対するニーズがある。また従来、上記共同閲覧システムを実現するための方法として、コンテンツを閲覧しながらテキストチャットを同時に行う方法がある。他にも、コンテンツを閲覧しながらボイスチャットやビデオチャットを行う方法がある。 In recent years, there is a need for a technique (hereinafter referred to as a collaborative browsing system) for communicating with remote friends and family while browsing content such as video. Conventionally, as a method for realizing the collaborative browsing system, there is a method of simultaneously performing text chat while browsing content. There are other methods for voice chat and video chat while browsing content.
例えば、下記特許文献1には、視聴者がテレビを視聴しながら他の視聴者とのチャットグループのリアルタイム通信に参加することができるテレビチャットシステムが開示されている。上記リアルタイム通信は、テキストメッセージ、音声通信、または映像通信で実現されている。
For example,
しかしながら、上述のような従来技術は以下のような問題がある。 However, the conventional techniques as described above have the following problems.
まず、テキストの入力によって他のユーザとコミュニケーションを図る場合、入力が煩雑となるため、コンテンツの閲覧がおろそかになることが多い。特に、コンテンツが映像の場合は、映像を見逃してしまうと他のユーザとのコミュニケーションを図ることが難しくなる。 First, when trying to communicate with other users by inputting text, the input becomes complicated, and thus browsing of content is often neglected. In particular, if the content is a video, it is difficult to communicate with other users if the video is missed.
また、音声または映像によって他のユーザとコミュニケーションを図る場合、複数のユーザの音声が重なることで他のユーザの音声が聞き取りづらくなり、コミュニケーションを図ることが難しくなる。また、複数のユーザの発言のタイミングが重なってしまうと、以降、各ユーザが発言しづらくなってしまう可能性がある。さらに、コンテンツが映像の場合は、ユーザが発する音声に加え、コンテンツの音声も同時に聞こえるため、コミュニケーションを図ることはより困難となる。また、ユーザが3名以上の場合は、コミュニケーションを図ることはさらに困難となる。 In addition, when communicating with other users by voice or video, the voices of a plurality of users overlap, making it difficult to hear the voices of the other users, making communication difficult. In addition, if the timings of speaking by a plurality of users overlap, it may be difficult for each user to speak later. Furthermore, when the content is a video, in addition to the audio uttered by the user, the audio of the content can be heard at the same time, so that communication is more difficult. Further, when there are three or more users, it becomes more difficult to communicate.
以上より、従来技術では、ユーザがコンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができないという問題がある。 As described above, the conventional technique has a problem that the user cannot enjoy browsing the content and communicating with other users at the same time.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザがコンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができる入力装置を提供することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an input device that allows a user to simultaneously enjoy browsing content and communicating with other users.
上記の課題を解決するために、本発明の一態様に係る入力装置は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置であって、自装置または自装置の周囲の状態を特定する状態特定部と、上記状態特定部による特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定部と、を備える。 In order to solve the above-described problem, an input device according to an aspect of the present invention is intended to communicate with other users in a collaborative browsing system that allows a plurality of users to browse and communicate content via a communication network. An input device that includes a transmission unit that transmits communication information indicating processing for a communication image for the state identification unit that identifies the own device or a state around the own device, and is associated with the identification result by the state identification unit A communication information specifying unit for specifying the communication information.
また、上記の課題を解決するために、本発明の一態様に係る入力装置を用いたコミュニケーション情報の特定方法は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置を用いたコミュニケーション情報の特定方法であって、自装置または自装置の周囲の状態を特定する状態特定ステップと、上記状態特定ステップにおける特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定ステップと、を含む。 In order to solve the above problem, a communication information specifying method using an input device according to an aspect of the present invention is a collaborative browsing that enables browsing and communication of content by a plurality of users via a communication network. In the system, a method for identifying communication information using an input device including a transmission unit that transmits communication information indicating processing for a communication image for communication with another user, the state of the device or the surroundings of the device And a communication information specifying step for specifying the communication information associated with the specifying result in the state specifying step.
本発明の一態様によれば、コンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができる入力装置を提供することができるという効果を奏する。 According to one aspect of the present invention, there is an effect that it is possible to provide an input device that can simultaneously enjoy browsing of content and communication with other users.
以下、本発明の実施の形態について、詳細に説明する。以下で説明する実施形態では、本発明の入力装置をタブレット端末に適用した例を説明する。なお、適用例はタブレット端末に限定されず、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を実行するための入力操作を受け付ける入力装置であれば、本発明を適用可能である。例えば、スマートフォン、携帯電話などに適用することが可能である。また、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、並びに、長さ、大きさおよび幅などの寸法は、実際の形状や寸法を反映したものではなく、図面の明瞭化と簡略化のために適宜変更している。 Hereinafter, embodiments of the present invention will be described in detail. In the embodiments described below, an example in which the input device of the present invention is applied to a tablet terminal will be described. The application example is not limited to the tablet terminal, and the present invention can be applied to any input device that accepts an input operation for executing processing on a communication image for communication with other users. For example, it can be applied to a smartphone, a mobile phone, and the like. For convenience of explanation, members having the same functions as those shown in each embodiment are given the same reference numerals, and the explanation thereof is omitted as appropriate. Furthermore, the shape of the configuration described in each drawing and the dimensions such as length, size, and width do not reflect the actual shape or dimensions, but are changed as appropriate for clarity and simplification of the drawings. ing.
〔実施形態1〕
本発明の一実施形態において、図1から図9に基づいて説明すれば以下のとおりである。
In one embodiment of the present invention, it will be described below with reference to FIGS.
(タブレット端末の機能概要)
まず、図1および図5を参照して、本発明に係るタブレット端末1の機能概要について説明する。図1は、タブレット端末1の要部構成の一例を示すブロック図である。また、図5は、テレビ2に表示される画面の一例を示す模式図である。(Functional overview of tablet devices)
First, with reference to FIG. 1 and FIG. 5, the functional outline of the
本発明に係るタブレット端末1は、図1に示すように、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する通信部15を備えるタブレット端末であって、自装置または自装置の周囲の状態を特定する状態取得部12と、上記状態取得部12による特定結果に対応付けられた上記コミュニケーション情報を特定する表示指示決定部134と、を備える。
As shown in FIG. 1, the
すなわち、本発明に係るタブレット端末1が、自装置もしくは自装置の周囲の状態に対応付けられたコミュニケーション情報を送信することで、図5に示すテレビ2の表示部21に表示されたコミュニケーション画像に対する処理が実行される。
That is, the
例えば、タブレット端末1を把持している状態を特定し、当該状態を示すような表示内容に、コミュニケーション画像を変化させることができる。具体的には、図5に示すコミュニケーション領域72に表示されるアバター73の表示を変化させる。図5の例では、アバター73bおよびアバター73cが、タブレット端末1を把持している状態を示す表示(両手を上げた表示)となっている。なお、「アバター73」は、図5に示すアバター73aからアバター73cを総称した呼称であり、他の図面を参照する場合においても、この呼称を用いる場合がある。なお、テレビ2に表示されるコミュニケーション画像は、ユーザを一義的に識別できるものであれば、アバター73に限定されない。例えば、ユーザ名のみを表示してもよいし、アイコン、カラーボールなどの画像を表示してもよい。また、アバター73の顔の部分に、タブレット端末1のカメラ124(図2)を用いて撮影した写真を貼り付けるものであってもよい。
For example, the state in which the
これにより、共同閲覧システムを使用しているユーザは、意識的な入力操作を行わなくても、他のユーザに対して自分の状況(例えば、タブレット端末1を把持している状況)を伝えることができる。 Thereby, the user using the collaborative browsing system can tell his / her situation (for example, the situation of holding the tablet terminal 1) to other users without performing a conscious input operation. Can do.
また例えば、タッチパネル11に対して簡易な入力操作を行うことで、コミュニケーション画像を変化させたり、コンテンツ71やコミュニケーション領域72にポインタ74を表示させたりすることができる。コミュニケーション画像を変化させる具体例としては、タッチパネル11に対して簡易な入力操作を行うことで、図5に示すアバター73bにおいて発言75を表示させたり、アバター73cにおいてリモコンを表示させて、コンテンツを変更しようとしていることを知らせたりすることができる。
Further, for example, by performing a simple input operation on the
以上により、共同閲覧システムを使用しているユーザは、タブレット端末1に対して煩雑な入力操作を行わなくても他のユーザとコミュニケーションを図ることができる。また、煩雑な入力操作を必要としないので、コンテンツの閲覧および他のユーザとのコミュニケーションを同時に楽しむことができる。
As described above, the user using the collaborative browsing system can communicate with other users without performing a complicated input operation on the
なお、上記コミュニケーション領域72は、複数のユーザによるチャットを行う領域に限定されるものではない。すなわち、上記コミュニケーション領域72は、複数のユーザによるコミュニケーションが可能な領域であればよく、例えば、コンテンツ71として音楽番組を表示した状態で、コミュニケーション領域72においてコンテンツ71に合わせて音楽を演奏するゲームを、通信ネットワークを介した複数のユーザで実施してもよい。
The
(共同閲覧システムの構成)
次に、図3を参照して、本実施形態における共同閲覧システム100の構成について説明する。図3は、本実施形態における共同閲覧システム100の構成を示す図である。(Configuration of collaborative browsing system)
Next, the configuration of the collaborative browsing system 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration of the collaborative browsing system 100 according to the present embodiment.
図3に示すように、本実施形態における共同閲覧システム100は、少なくとも、タブレット端末1a、タブレット端末1b、テレビ2a、およびルータ4aからなるサブシステム101a、タブレット端末1c、テレビ2b、ルータ4bからなるサブシステム101b、並びにサーバ3(処理装置)を含んでいる。なお、以降、タブレット端末1a、タブレット端末1b、タブレット端末1cを総称して、「タブレット端末1」と呼称する場合がある。また同様に、テレビ2aおよびテレビ2bを「テレビ2」と、ルータ4aおよびルータ4bを「ルータ4」と、サブシステム101aおよびサブシステム101bを「サブシステム101」と呼称する場合がある。
As shown in FIG. 3, the collaborative browsing system 100 according to this embodiment includes at least a subsystem 101a including a
タブレット端末1およびテレビ2は、ルータ4によりインターネットなどの広域通信網を介して外部との通信が可能である。これにより、サブシステム101とサーバ3とが、互いに通信可能に接続される。
The
タブレット端末1は、共同閲覧システム100における入力装置であり、テレビ2は、共同閲覧システム100における表示装置である。また、サーバ3は、各サブシステム101のタブレット端末1から送信される、テレビ2に表示されるコンテンツ、または、他のユーザとコミュニケーションを図るためのコミュニケーション画像(表示画像)に対する処理を指示する情報(指示情報)を受信し、表示画像に対する処理を実行する。そして、当該処理を実行した表示画像をテレビ2に送信し、表示させる。なお、上記指示情報は、タブレット端末1からに加え、テレビ2から送信されてもよい。
The
すなわち、上記指示情報は、タブレット端末1からルータ4を介してサーバ3に送信される。そして、指示情報に基づいて表示画像に対する処理を実行する。その後、サーバ3は処理を実行した表示画像を各サブシステム101に送信する。その結果、テレビ2に処理が実行された表示画像が表示される。例えば、サーバ3が指示情報に基づいて表示画像を生成し、テレビ2に生成した表示画像を送信する。これにより、テレビ2に表示されているアバター73のポーズが変わったり、アバター73の発言が表示されたりする。よって、共同閲覧システム100のユーザは共通のコンテンツを閲覧しながら、コミュニケーションを図ることができる。また例えば、サーバ3は指示情報をテレビ2に送信し、テレビ2が指示情報に基づいて表示画像を生成、表示してもよい。この場合、表示画像を生成するために必要な素材データはサーバ3が有し、テレビ2は、必要に応じてサーバ3から当該素材データを取得する。
That is, the instruction information is transmitted from the
なお、図3に示すサブシステム101の構成は一例であり、サブシステム101を構成するタブレット端末1およびテレビの数が変更されてもよいし、タブレット端末1以外の入力装置やテレビ2以外の表示装置であってもよい。また、タブレット端末1が入力装置および表示装置を兼ねてもよく、その場合、サブシステム101がテレビ2を含まなくてもよい。
The configuration of the subsystem 101 illustrated in FIG. 3 is an example, and the number of
また、図3では、タブレット端末1とテレビ2とが同じルータ4を介して通信する構成としているが、この例に限定されるものではない。例えば、タブレット端末1は携帯電話回線を経由してインターネットにアクセスする構成であってもよいし、テレビ2のみがインターネットを介して外部と通信可能な構成であり、タブレット端末1は、テレビ2を介して外部(例えばサーバ3)と通信可能な構成であってもよい。すなわち、この場合のタブレット端末1は、テレビ2のみと通信する構成である。
In FIG. 3, the
(タブレット端末の構成)
次に、図1および図2を参照して、タブレット端末1の要部構成について説明する。図1は、上述したように、タブレット端末1の要部構成の一例を示すブロック図であり、図2は、状態取得部12の詳細を示すブロック図である。(Configuration of tablet device)
Next, with reference to FIG. 1 and FIG. 2, the principal part structure of the
図1に示すように、タブレット端末1は少なくとも、タッチパネル11、状態取得部12、制御部13、記憶部14、および通信部15(送信部)を備えている。
As shown in FIG. 1, the
タッチパネル11は、入力部111および表示部112から構成されている。
The
入力部111は、ユーザによる入力操作を受け付ける入力デバイスである。なお、入力部111は、物理キーを含んでいてもよい。入力部111は、指示体(指またはペンなど)の接触(接近も含む)を受け付ける入力面と、指示体が入力面に接触したことを検知するとともに、入力面における指示体が接触した位置(座標)を検知するタッチセンサとで構成されている。タッチセンサは、指示体と入力面との接触/非接触を検知できればどのようなセンサで実現されていてもかまわない。例えば、圧力センサ、静電容量センサ、光センサなどで実現される。また、入力部111は検知した座標を後述する入力特定部131に出力する。
The
表示部112は、タブレット端末1が処理する情報を画像として表示領域に表示する表示デバイスである。具体的には、表示部112は、後述するタブレット表示制御部133によって処理された情報が表示される。タブレット表示制御部133によって処理された情報の一例としては、表示部112は入力操作を受け付けるための1つ以上のユーザインターフェースを表示する。表示部112は、例えば、LCD(液晶ディスプレイ)などの表示デバイスで構成される。
The
状態取得部12は、自装置または自装置の周囲の状態を特定するための特定情報を取得するものである。図2に示すように、状態取得部12は一例として、加速度センサ121(加速度取得部)、照度センサ122(照度取得部)、位置情報取得部123、カメラ124(撮影部)、マイク125(音声取得部)、地磁気センサ126(方向/傾き取得部)を含んでいる。
The
加速度センサ121は、タブレット端末1に生じる加速度を取得するセンサである。加速度センサ121としては、タブレット端末に一般的に搭載されている、既存の加速度センサを用いることができる。
The
照度センサ122は、タブレット端末1の周囲の照度を取得するセンサである。照度センサ122としては、タブレット端末に一般的に搭載されている、既存の照度センサを用いることができる。
The
位置情報取得部123は、タブレット端末1の位置情報を取得するものである。位置情報取得部123としては、タブレット端末に一般的に搭載されているGPSなどを用いてもよいし、その他の部材であってもよい。例えば、タブレット端末1およびテレビ2が無線通信(Wi−Fi(登録商標)など)によってインターネットなどの広域通信網を利用できる構成である場合、位置情報取得部123は、タブレット端末1およびテレビ2のルータ4に対する位置関係を取得するものであってもよい。なお、無線通信を利用したタブレット端末1およびテレビ2のルータ4に対する位置関係の取得は、既存の技術を用いることができる。
The position
カメラ124は、タブレット端末の周囲を撮影する撮影デバイスである。カメラ124としては、タブレット端末に一般的に搭載されている、既存のカメラを用いることができる。なお、カメラ124は、静止画像を撮影するものであってもよいし、動画を撮影するものであってもよい。また、静止画像および動画の両方を撮影可能であってもよい。
The
マイク125は、タブレット端末1の周囲の音声を取得するものである。マイク125としては、タブレット端末に一般的に搭載されている、既存のマイクを用いることができる。
The
地磁気センサ126は、タブレット端末1の向きおよび傾きを取得するセンサである。地磁気センサ126としては、タブレット端末に一般的に搭載されている、既存の地磁気センサを用いることができる。
The
なお、状態取得部12は、図2に示す部材を全て含まなくてもよい。また、図2に示す部材以外の部材を含んでいてもよい。つまり、状態取得部12は、自装置または自装置の周囲の状態を特定するための特定情報を取得できる部材であれば、どのような部材を含んでもよい。
In addition, the
また、上記状態取得部12は、上述のような特定情報を取得できる部材が取得した特定情報を後述する制御部13内の状態特定部132に出力する。
Moreover, the said
制御部13は、タブレット端末1が備える各部を統括制御するものである。制御部13は、少なくとも、入力特定部131、状態特定部132、タブレット表示制御部133(表示内容決定部)、および表示指示決定部134(コミュニケーション情報特定部)と、を含んでいる。
The
入力特定部131は、入力部111が受け付けた入力操作を特定するものである。具体的には、入力特定部131は、上記入力操作における座標、指示体が接触していた時間、および接触した指示体の移動方向などに基づいて当該入力操作を特定する。そして、特定した入力操作に応じて、タブレット表示制御部133または表示指示決定部134が実行する処理を指示する。
The
状態特定部132は、タブレット端末1またはタブレット端末1の周囲の状態を特定するものである。具体的には、状態特定部132は、状態取得部12が取得したタブレット端末1またはタブレット端末1の周囲の状態を特定するための特定情報を供給されると、供給された特定情報に応じたタブレット端末1またはタブレット端末1の周囲の状態を特定する。そして、表示指示決定部134に対して、特定結果に応じて実行する処理を指示する。
The
例えば、状態特定部132は、地磁気センサ126からタブレット端末1の向きおよび傾きを供給されると、当該向きおよび傾きが、ユーザがタブレット端末1を把持している場合に得られると推定される向きおよび傾きの範囲内であるか否かを特定する。なお、ユーザがタブレット端末1を把持しているか否かは、加速度センサ121から供給されるタブレット端末1に生じた加速度から特定してもよい。この場合、状態特定部132は、当該加速度が、ユーザがタブレット端末1を把持している場合に生じる加速度と推定される範囲内の加速度であるか否かを特定する。
For example, when the orientation and inclination of the
また、例えば、状態特定部132は、照度センサ122から、タブレット端末1の周囲の照度を供給されると、当該照度が、所定の値を超えるか否かを特定する。
For example, when the illuminance around the
また、例えば、状態特定部132は、位置情報取得部123から、タブレット端末1の位置情報を供給されると、当該位置情報に基づいて、タブレット端末1とテレビ2との位置関係を特定する。
For example, when the position information of the
なお、状態特定部132が特定するタブレット端末1またはタブレット端末1の周囲の状態は、上記の例に限定されない。例えば、カメラ124が撮影した画像(映像)にタブレット端末1のユーザが写っているか否かを特定してもよいし、マイク125によって取得された音声に基づいて、タブレット端末1の周囲の環境を特定してもよい。
In addition, the surrounding state of the
これにより、ユーザはタブレット端末1に対して、意識的な入力操作を行わなくても、他のユーザに対して自分の状況を伝えることができる。
Thereby, even if a user does not perform conscious input operation with respect to the
また、状態特定部132は、ユーザが行った意識的な動作を特定してもよい。例えば、状態特定部132は、地磁気センサ126から、タブレット端末1の向きおよび傾きを供給されると、供給された向きおよび傾きの値を図示しない一時記憶部に一時的に保存する。そして、次に得られる値との差分を取ることで、端末の回転速度を得ることができる。これにより、ユーザがタブレット端末1を振ったか否かを特定することができる。なお、ユーザがタブレット端末1を振ったか否かは、加速度センサ121から供給された、タブレット端末1に生じた加速度によって特定してもよい。
Further, the
また、例えば、状態特定部132は、地磁気センサ126から、タブレット端末1の向きおよび傾きを供給されると、当該向きおよび傾きから、タブレット端末1のタッチパネル11を有する面が、地面に最も近い面となるようにテーブルや床などに置かれているか否かを特定してもよい。
Further, for example, when the
また、例えば、状態特定部132は、位置情報取得部123から、タブレット端末1の位置情報を供給されると、当該位置情報に基づいて、タブレット端末1とテレビ2とが所定距離以上離れたか否かを特定してもよい。
Further, for example, when the
タブレット表示制御部133は、表示部112に表示する画像を決定するものである。具体的には、タブレット表示制御部133は、入力特定部131からの指示に応じて、記憶部14の後述する表示画像格納部141からユーザインターフェースなどの画像データを読み出す。そして、読み出した画像データから表示部112に表示するタブレット表示画像を生成し、表示部112に表示させる。
The tablet
表示指示決定部134は、入力特定部131または状態特定部132による特定結果に対応付けられた、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を特定するものである。具体的には、表示指示決定部134は、入力特定部131または状態特定部132からの特定結果に対応する上記コミュニケーション情報を、記憶部14の後述する表示指示格納部142から読み出す。そして、読み出したコミュニケーション情報を、通信部15を介して外部(サーバ3)に送信する。
The display
記憶部14は、タブレット端末にて使用される各種データを記憶する記憶デバイスである。図1に示すように、記憶部14は、表示画像格納部141および表示指示格納部142を含む。
The
表示画像格納部141は、タブレット端末1の表示部112に表示する表示画像のデータを格納している。タブレット表示制御部133は、入力特定部131からの指示に応じて、表示画像格納部141から画像データを読み出し、表示部112に表示する表示画像を生成する。
The display
表示指示格納部142は、入力特定部131が特定した入力操作および状態特定部132が特定したタブレット端末1およびタブレット端末1の周囲の状態を示す情報(特定結果)と、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報とを対応付けて記憶している。表示指示決定部134は、入力特定部131または状態特定部132から特定結果に基づく指示を供給されると、表示指示格納部142から、当該特定結果に対応付けられた上記コミュニケーション情報を読み出し、通信部15を介して外部(サーバ3)に送信する。
The display
通信部15は、タブレット端末1の外部と情報の送受信を行うための通信デバイスである。具体的には、通信部15は、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を、サーバ3に送信する。
The
(入力操作によるコミュニケーション情報の特定)
次に、図4および図5を参照して、タブレット端末1のタッチパネル11による入力操作の詳細について説明する。図4は、タッチパネル11(表示部112)に表示される画像(タブレット表示画像)の一例を示す模式図である。(Identification of communication information by input operation)
Next, with reference to FIG. 4 and FIG. 5, the detail of input operation by the
図4の(a)は、ユーザがテレビ2に表示されたコンテンツを閲覧しながら、他のユーザとコミュニケーションを図る場合に表示するコミュニケーションタブ50を示す図である。コミュニケーションタブ50は、メッセージ入力領域51、アバター&ポインタ操作領域52、および定型文入力領域53を含む。なお、図4の(a)は一例であり、コミュニケーションタブ50は図4の(a)の構成に限定されるものではない。
FIG. 4A is a diagram showing a
メッセージ入力領域51は、図5に示す発言75を入力するための領域である。メッセージ入力領域51は、テキスト入力領域511および送信ボタン512を含む。これにより、例えば、入力特定部131は、ユーザがアバター73に発言させたい言葉をテキスト入力領域511に入力するための入力操作を特定する。そして、タブレット表示制御部133は入力特定部131からの指示を受けて、ユーザが入力した言葉を表示部112に表示させる。また、入力特定部131は、送信ボタン512をタップする入力操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、テキスト入力領域511に入力された言葉を含む発言75を表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがテキスト入力領域511に文字を入力し、送信ボタン512に対するタップ操作を行うことで、テレビ2に表示されたアバター73が入力された文字を発言する(例えば、図5のアバター73bのように、アバター73の近傍に発言75が表示される)。
The
アバター&ポインタ操作領域52は、図5に示すアバター73およびポインタ74を操作するための領域である。アバター&ポインタ操作領域52は、アバター&ポインタ移動領域521およびアバター動作領域522を含む。これにより、例えば、入力特定部131は、アバター&ポインタ移動領域521におけるユーザのドラッグ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、テレビ2にポインタ74を表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。また、例えば、ポインタ74を表示するためのコミュニケーション情報を特定し、送信した後、入力特定部131がアバター&ポインタ移動領域521におけるユーザのドラッグ操作を特定した場合、表示指示決定部134は入力特定部131からの指示を受けて、テレビ2にポインタ74を当該ドラック操作に合わせて移動させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがアバター&ポインタ移動領域521でドラッグ操作を行うことで、テレビ2にポインタ74が表示される。その状態で、さらにユーザがアバター&ポインタ移動領域521でドラッグ操作を行うことで、テレビ2に表示されたポインタ74が移動する。
The avatar &
これにより、ユーザはテレビ2の画面上の任意の位置をポインタ74で指し示すことができる。例えば、コンテンツ71中の内容を他のユーザに質問したい場合に、コンテンツ71中の任意の位置にポインタ74を移動させた状態で、アバター73に「これなに?」と発言させることで、ポインタ74を、他のユーザに発言の意図を理解させるための補助として使用することができる。
Thereby, the user can point an arbitrary position on the screen of the
なお、表示指示決定部134は、タッチパネル11(入力部111)に対して、所定の時間(例えば15秒程度)ポインタ74を操作するための入力操作がされなかった場合、換言すれば、入力特定部131から所定の時間ポインタ74の表示を変更するための指示を受けなかった場合に、ポインタ74をテレビ2の画面から消去するコミュニケーション情報を特定してもよい。
It should be noted that the display
また、例えば、ポインタ74を表示するためのコミュニケーション情報を特定し、送信した後、入力特定部131がアバター&ポインタ移動領域521におけるユーザのタップ操作を特定した場合、表示指示決定部134は入力特定部131からの指示を受けて、ポインタ74が示す位置にユーザ自身のアバター73を移動させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、テレビ2にポインタ74が表示された状態で、ユーザがアバター&ポインタ移動領域521でタップ操作を行うことで、ポインタ74が示す位置にユーザ自身のアバター73が移動する。なお、本実施形態では、アバター73が移動できる領域は図5に示すコミュニケーション領域72に限定されている。そのため、ポインタ74がコミュニケーション領域72以外にある状態で、アバター&ポインタ移動領域521でタップ操作が実行されても、アバター73はポインタ74が示す位置には移動しない。具体的には、サーバ3がアバター73を移動させるためのコミュニケーション情報を受信したとき、ポインタ74がコミュニケーション領域72にあるか否かを特定する。そして、ポインタ74がコミュニケーション領域72に無い場合は、受信したコミュニケーション情報が示す処理(アバター73をポインタ74が示す位置に移動させる処理)を実行せず、当該処理を終了する。
In addition, for example, after specifying and transmitting communication information for displaying the
なお、アバター&ポインタ移動領域521とコミュニケーション領域72とが対応付けられていてもよい。すなわち、入力特定部131は、アバター&ポインタ移動領域521におけるユーザのタップ操作を特定する。表示指示決定部134は入力特定部131からの指示を受けて、タップ操作された位置と対応付けられたコミュニケーション領域72の位置にアバター73を移動させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信してもよい。これにより、ユーザはアバター&ポインタ移動領域521に対するタップ操作を行うだけで、ポインタ74を表示させなくともアバター73の位置を移動させることができる。
The avatar &
また、例えば、入力特定部131は、アバター動作領域522の各ボタンに対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、タップ操作されたボタンに応じた動作(例えば「ジャンプする」、「ダンスする」など)をアバター73に実行させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがアバター動作領域522のボタンに対するタップ操作を行うことで、テレビ2に表示されたアバター73がタップ操作されたボタンに応じた動作を実行する。
Further, for example, the
定型文入力領域53は、定型文ボタン領域531を含む。これにより、例えば、入力特定部131は、定型文ボタン領域531の各ボタンに対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、タップ操作されたボタンに応じた発言をアバター73に実行させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザが定型文ボタン領域531のボタンに対するタップ操作を行うことで、テレビ2に表示されたアバター73がタップ操作されたボタンに応じた文字を発言する。
The fixed
図4の(b)は、ユーザがテレビ2に表示されたコンテンツを変更したい場合に表示するコンテンツ変更タブ60を示す図である。コンテンツ変更タブ60は、コンテンツ変更領域61を含む。なお、図4の(b)は一例であり、コンテンツ変更タブ60は図4の(b)の構成に限定されるものではない。また、図4の(b)では、コンテンツをテレビ番組などの映像として説明しているが、コンテンツは映像に限定されず、例えば、ブラウザや写真などの画像であってもよい。
FIG. 4B is a diagram showing a
入力特定部131は、コンテンツ変更タブ60を表示するための入力操作(例えば、図4の「チャンネルを変える」が表示された領域へのタップ操作)を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、ユーザがコンテンツ変更タブ60を表示したことを示すように、アバター73の表示を変更するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザがコンテンツ変更タブ60を表示するためのタップ操作を行うことで、テレビ2に表示されたアバター73の表示が変更される(例えば、図5に示すように、アバター73cの近傍にリモコンが表示される)。これにより、ユーザは他のユーザに対して、閲覧しているコンテンツを変更しようとしている状態であることを知らせることができる。なお、コンテンツの変更を示す画像は、図5に示すアバター73の近傍にリモコンが表示される画像に限定されるものではない。すなわち、ユーザがコンテンツを変更しようとしていることが他のユーザに伝わるような画像であればよい。
The
コンテンツ変更領域61は、コンテンツボタン領域611を含む。これにより、例えば、入力特定部131は、コンテンツボタン領域611の各ボタンに対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、タップ操作されたボタンに応じたコンテンツをテレビ2に表示させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザはコンテンツボタン領域611のボタンに対するタップ操作を行うことで、自身が閲覧するコンテンツを変更することができる。
The
なお、コンテンツ変更領域61は、コンテンツを検索するための検索ワード入力領域(不図示)を含んでいてもよい。これにより、ユーザは、検索ワード入力領域にコンテンツに関する単語などを入力することで、望みのコンテンツを検索することができる。具体的には、入力特定部131は、検索ワード入力領域に対する入力操作(検索ワードの入力)を特定すると、図示しない検索部に対して、当該検索ワードと関連性が高いコンテンツを検索するよう指示する。なお、検索可能なコンテンツは特に限定されず、タブレット端末1内のコンテンツ、サーバ3内のコンテンツ、また、インターネットを介して取得可能なコンテンツ(例えば、動画投稿サイトに投稿された動画など)が挙げられる。検索結果は、タブレット表示制御部133によって表示部112に表示される。例えば、検索結果はユーザが選択可能なように表示部112に表示され、ユーザは当該検索結果に対する入力操作(例えばタップ操作)を行うことで、当該検索結果に対応するコンテンツを選択することができる。
The
(状態の取得によるコミュニケーション情報の特定)
次に、図6から図8を参照して、タブレット端末1およびタブレット端末1の周囲の状態を取得することによる入力操作の詳細について説明する。図6は、地磁気センサ126による状態の取得および状態の取得によるアバターの表示変化を示す模式図であり、図7は、照度センサ122による状態の取得およびアバターの表示変化を示す模式図であり、図8は、位置情報取得部123による状態の取得およびアバターの表示変化を示す模式図である。(Identification of communication information by acquiring status)
Next, with reference to FIGS. 6 to 8, details of the input operation by acquiring the
まず、地磁気センサ126による状態取得の結果を用いた入力操作について説明する。図6の(a)に示すように、ユーザAはタブレット端末1aを把持せずに共同閲覧システム100に参加している。一方、ユーザBはタブレット端末1bを把持した状態で共同閲覧システム100に参加している。なお、ユーザAのアバターはアバター73aであり、ユーザBのアバターはアバター73bである。また、アバター73cは、タブレット端末1aおよびタブレット端末1bとは異なるサブシステム(図6(a)には不図示)に含まれるタブレット端末1cのユーザのアバターである。
First, an input operation using the result of state acquisition by the
タブレット端末1aおよびタブレット端末1bに備えられている状態特定部132は、地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、タブレット端末1aおよびタブレット端末1bが把持されているか否かを特定する。図6の場合、タブレット端末1aの状態特定部132は、タブレット端末1aが把持されていないことを特定する。そして、表示指示決定部134は、タブレット端末1aが把持されていない状態を示すように、アバター73aを表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。そして、サーバ3は、受信したコミュニケーション情報に基づいて、テレビ2に表示させる画像を生成し、テレビ2に送信する。その結果、当該画像がテレビ2に表示される。具体的には、図6の(b)に示すように、アバター73aが両手を下げている画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、アバター73aのユーザがタブレット端末1を把持していないことを知ることができる。
The
一方、タブレット端末1bの状態特定部132は、タブレット端末1bが把持されていることを特定する。そして、表示指示決定部134は、タブレット端末1bが把持されている状態を示すように、アバター73bを表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。以降のサーバ3およびテレビ2の処理は上述したタブレット端末1aにおける処理と同様である。以上の結果、図6の(b)に示すように、アバター73bが両手を上げている画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、アバター73bのユーザがタブレット端末1を把持していることを知ることができる。
On the other hand, the
以上より、共同閲覧システム100に参加しているユーザは、ユーザBとはコミュニケーションを取ることが可能であると知ることができる。すなわち、ユーザBは、タブレット端末1を用いた意識的な入力操作を行わなくても、他のユーザに自信がコミュニケーション可能であることを知らせることができる。
From the above, the user participating in the collaborative browsing system 100 can know that it is possible to communicate with the user B. That is, the user B can notify other users that his / her confidence can be communicated without performing a conscious input operation using the
なお、タブレット端末1を把持しているか否かを示すアバター73の表示は、図6の(b)の例に限定されない。すなわち、アバター73の表示は、タブレット端末1が把持されているか否かを区別できるような表示であればよい。例えば、タブレット端末1が把持されている場合、アバター73がダンスするような表示にしてもよい。
In addition, the display of the
また、状態特定部132は、加速度センサ121が取得した加速度からタブレット端末1が把持されているか否かを特定してもよい。
Further, the
次に、照度センサ122による状態取得の結果を用いた入力操作について説明する。図7の(a)に示すように、ユーザCは、タブレット端末1を把持せずに共同閲覧システム100に参加している。さらに、ユーザCは自身の部屋を暗くした状態で共同閲覧システム100に参加している。なお、ユーザCのアバターはアバター73cである。
Next, an input operation using the result of state acquisition by the
タブレット端末1cに備えられている状態特定部132は、照度センサ122が取得した照度から、タブレット端末1cの周囲の照度が所定の値を超えるか否かを特定する。図7の場合、タブレット端末1cの状態特定部132は、タブレット端末1cの周囲の照度が所定の値を超えないことを特定する。そして、表示指示決定部134は、タブレット端末1cの周囲が暗い状態であることを示すように、アバター73cを表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。以降のサーバ3およびテレビ2の処理は上述したタブレット端末1aにおける処理と同様である。以上の結果、図7の(b)に示すように、アバター73cが眠っているような画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、アバター73cのユーザの周囲が暗いことを知ることができる。
The
なお、タブレット端末1の周囲が暗いことを示すアバター73の表示は、図7の(b)の例に限定されない。すなわち、アバター73の表示は、タブレット端末1の周囲が暗いか否かを区別できるような表示であればよい。例えば、アバター73の周囲の所定の領域を暗くするような表示にしてもよい。
In addition, the display of the
次に、位置情報取得部123による状態取得の結果を用いた入力操作について説明する。ユーザAおよびユーザBとテレビ2aとの位置関係、並びにユーザCとテレビ2bとの位置関係はそれぞれ、図6の(a)および図7の(a)に示す状態であるとする。
Next, an input operation using the result of state acquisition by the position
状態特定部132は、位置情報取得部123が取得したタブレット端末1の位置情報に基づいて、タブレット端末1とテレビ2との位置関係を特定する。例えば、タブレット端末1aおよびタブレット端末1bは、テレビ2aとの位置関係を特定する。そして、表示指示決定部134は、タブレット端末1とテレビ2との位置関係を、アバター73とコンテンツ71との位置関係に反映させるように、アバター73を表示するためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。サーバ3は、各タブレット端末1から送信されたコミュニケーション情報に基づいて、コミュニケーション領域72に各アバター73を配置する画像を生成する。すなわち、各タブレット端末1と同じサブシステム101内のテレビ2との位置関係を、各アバター73とコンテンツ71との位置関係に反映させるように、各アバター73をコミュニケーション領域72に配置する。そして、生成した画像をテレビ2に送信する。その結果、図8の(a)に示すような画像がテレビ2に表示される。これにより、共同閲覧システム100に参加しているユーザは、各ユーザがテレビ2に対してどの位置にいるのかを知ることができる。
The
なお、テレビ2に対するタブレット端末1の位置を反映させた表示は、図8の(a)の例に限定されない。例えば、図8の(b)に示すように、サブシステム101ごとにコミュニケーション領域72を分割した分割領域76において、テレビ2に対するタブレット端末1の位置を反映させた表示としてもよい。これにより、共同閲覧システム100に参加しているユーザは、どのユーザがどのサブシステム101に含まれるのかを知ることができる。
In addition, the display reflecting the position of the
なお、状態の取得による入力操作は、図6から図8の例に限定されない。すなわち、状態特定部132は、(タブレット端末の構成)にて説明したような状態を特定し、表示指示決定部134は、特定した状態に応じたコミュニケーション情報を、通信部15を介してサーバ3に送信してもよい。
Note that the input operation by acquiring the state is not limited to the examples of FIGS. That is, the
例えば、サーバ3は、カメラ124が撮影した画像(映像)にタブレット端末1のユーザが写っていない場合に、当該ユーザのアバター73を退出させてもよい。ここで、「退出」とは、テレビ2に表示される画像から、当該ユーザのアバター73を削除することを示す。なお、以降についても「退出」をこの意味で使用する。
For example, when the user of the
また、状態特定部132が、マイク125が取得した音声からタブレット端末1の周囲で音楽が鳴っていることを特定した場合、サーバ3は、タブレット端末1のユーザのアバター73の周囲に音符を表示してもよい。また、マイク125が取得した音声からタブレット端末1が屋外にある場合に、サーバ3は、タブレット端末1のユーザのアバター73の周囲を、屋外を示すように変更してもよい。
In addition, when the
また、状態特定部132は、マイク125が取得した音声の音量が所定の値より大きいか否かを特定してもよい。そして、取得した音声の音量が所定の値より大きい場合に、サーバ3は、タブレット端末1のユーザのアバター73の表示を、アバター73がジャンプしているように変更してもよい。また、状態特定部132は、予め設定された複数の閾値を、取得した音声の音量が超えるか否かを特定してもよい。サーバ3は、超えた閾値に応じてアバター73のジャンプの高さを段階的に変更させてもよい。
Further, the
また、状態特定部132が、地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、ユーザがタブレット端末1を振っていることを特定した場合に、サーバ3は、タブレット端末1のユーザのアバター73の表示を、アバター73がジャンプしているように変更してもよい。
Further, when the
また、状態特定部132が、地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、タブレット端末1のタッチパネル11を有する面が、地面に最も近い面となるようにテーブルや床などに置かれていることを特定した場合に、サーバ3は、タブレット端末1のユーザのアバター73を退出させてもよい。
Further, the
また、状態特定部132が、位置情報取得部123が取得したタブレット端末1の位置情報から、タブレット端末1とテレビ2とが所定以上離れたことを特定した場合に、サーバ3は、タブレット端末1のユーザのアバター73を退出させてもよい。
Further, when the
(タブレット端末の処理フロー)
次に、図9を参照して、タブレット端末1が実行する処理の流れについて説明する。図9は、タブレット端末1が実行する処理の流れの一例を示すフローチャートである。(Tablet processing flow)
Next, the flow of processing executed by the
タッチパネル11(入力部111)が、入力操作を受け付けた場合(S1でYES)、入力特定部131は、当該入力操作を特定する(S2)。そして、入力特定部131は、特定した入力操作が、テレビ2に対する表示処理を行うための入力操作であるか否かを特定する(S3)。特定した入力操作が、テレビ2に対する表示処理を行うための入力操作であると特定した場合(S3でYES)、入力特定部131は、表示指示決定部134が実行する処理を指示する。例えば、入力特定部131が、図4に示す定型文ボタン領域531のいずれかのボタンがタップ操作されたことを特定した場合、当該操作に対応するコミュニケーション情報を特定するように、表示指示決定部134に指示する。
When the touch panel 11 (input unit 111) receives an input operation (YES in S1), the
表示指示決定部134は入力特定部131からの指示を受けて、コミュニケーション情報を特定する(S4)。具体的には、入力特定部131が特定した入力操作に対応付けられたコミュニケーション情報を表示指示格納部142から読み出す。例えば、タップ操作された定型文ボタン領域531のボタンが示す言葉を、アバター73の近傍に表示するためのコミュニケーション情報を表示指示格納部142から読み出す。そして、表示指示決定部134は、特定したコミュニケーション情報を、通信部15を介してサーバ3に送信する(S5)。
In response to the instruction from the
一方、入力特定部131が、テレビ2に対する表示処理を行うための入力操作ではないと特定した場合(S3でNO)、入力特定部131は、タブレット端末1に対する表示処理を行うための入力操作であると特定する(S6)。そして、入力特定部131は、タブレット表示制御部133が実行する処理を指示する。例えば、入力特定部131が、図4に示すテキスト入力領域511へのテキスト入力操作を特定した場合、当該操作に対応する文字をテキスト入力領域511に表示するように、タブレット表示制御部133に指示する。
On the other hand, when the
タブレット表示制御部133は入力特定部131からの指示を受けて、当該指示に基づく処理を実行し、実行結果を表示する(S7)。具体的には、タブレット表示制御部133は、表示画像格納部141から画像データを読み出し、表示部112に表示するタブレット表示画像を生成する。例えば、テキスト入力領域511にユーザが入力した文字が表示されたタブレット表示画像を生成し、表示部112に表示する。
In response to the instruction from the
次に、状態取得部12が取得した、自装置または自装置の周囲の状態を特定するための特定情報から、状態特定部132が、自装置の状態または周囲の状態を特定した場合(S8でYES、状態特定ステップ)、特定した状態に対応するコミュニケーション情報を特定するように、表示指示決定部134に指示する。例えば、状態取得部12に含まれる地磁気センサ126が取得したタブレット端末1の向きおよび傾きから、状態特定部132は、当該向きおよび傾きが、ユーザがタブレット端末1を把持している場合に得られると推定される向きおよび傾きの範囲内であるか否かを特定する。そして、ユーザがタブレット端末1を把持している場合に得られると推定される向きおよび傾きの範囲内であると特定した場合、ユーザがタブレット端末1を把持している状態に対応するコミュニケーション情報を特定するように、表示指示決定部134に指示する。
Next, when the
表示指示決定部134は状態特定部132からの指示を受けて、コミュニケーション情報を特定する(S9、コミュニケーション情報特定ステップ)。具体的には、状態特定部が特定した状態に対応付けられたコミュニケーション情報を表示指示格納部142から読み出す。例えば、アバター73の表示を、ユーザがタブレット端末1を把持していることを示す表示にするためのコミュニケーション情報を表示指示格納部142から読み出す。そして、表示指示決定部134は、特定したコミュニケーション情報を、通信部15を介してサーバ3に送信する(S10)。
The display
なお、ステップS8からステップS10では、所定の時間、自装置の状態または周囲の状態が特定されなかった場合に、自装置の状態または周囲の状態が特定されなかったことと対応するコミュニケーション情報を特定し、サーバ3に送信してもよい。すなわち、状態取得部12は図示しないタイマをさらに備え、当該タイマが所定の時間を測定した時点で自装置の状態または周囲の状態が特定されていない場合、状態取得部12は、その旨を示す特定情報を状態特定部132に供給する。状態特定部132は、自装置の状態または周囲の状態が特定されなかったことと対応するコミュニケーション情報を特定するように表示指示決定部134に指示する。表示指示決定部134は状態特定部132からの指示を受けて、コミュニケーション情報を特定する。例えば、アバター73を半透明表示にするためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。これにより、所定の時間、自装置の状態または周囲の状態が特定されなかった場合は、テレビ2に表示されているアバター73が半透明表示される。
In steps S8 to S10, if the state of the own device or the surrounding state is not specified for a predetermined time, the communication information corresponding to the fact that the state of the own device or the surrounding state is not specified is specified. Then, it may be transmitted to the server 3. That is, the
(実施形態1に係る発明の作用効果)
以上のように、実施形態1に係るタブレット端末1は、共同閲覧システム100において、テレビ2に表示されるコミュニケーション画像(例えばアバター)に対する処理を実行するために、ユーザによる入力操作だけでなく、自装置または自装置の周囲の状態に基づいて、コミュニケーション情報を特定する。例えば、地磁気センサ126が特定した自装置の向きおよび傾きによって、ユーザが自装置を把持しているか否かを特定し、自装置を把持している場合には、ユーザが自装置を把持していることを示すコミュニケーション情報を特定する。(Operational effects of the invention according to Embodiment 1)
As described above, in the collaborative browsing system 100, the
これにより、ユーザが意識的な入力操作を行わなくても、自装置または自装置の周囲の状態に基づいて特定されたコミュニケーション情報が外部に送信され、コミュニケーション画像に対する処理が実行される。すなわち、ユーザが意識的な入力操作を行わなくても、他のユーザはコミュニケーション画像を見ることで、当該ユーザの状態を把握することができる。また、ユーザは意識的な入力操作を行わなくてもコミュニケーション画像に対する処理を実行することができるので、入力操作に気を取られてコンテンツの閲覧がおろそかになることがない。以上より、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 Thereby, even if a user does not perform conscious input operation, the communication information specified based on the own apparatus or the surrounding state of the own apparatus is transmitted to the outside, and the process for the communication image is executed. That is, even if the user does not perform a conscious input operation, other users can grasp the state of the user by looking at the communication image. In addition, since the user can execute processing on the communication image without performing a conscious input operation, the user is not distracted by the input operation and browsing of content is not neglected. As described above, the user can enjoy browsing the content and communicating with other users at the same time.
また、ユーザによる入力操作に基づいてコミュニケーションを特定する場合、タッチパネル11(表示部112)に表示されたユーザインターフェースに対する入力操作に応じたコミュニケーション情報を特定することができる。例えば、定型文ボタン領域531に配置されたボタンに対するタップ操作を特定し、タップ操作されたボタンに応じた発言をアバターに実行させるためのコミュニケーション情報を特定する。
Moreover, when specifying communication based on the input operation by a user, the communication information according to the input operation with respect to the user interface displayed on the touch panel 11 (display part 112) can be specified. For example, the tap operation on the button arranged in the fixed
これにより、ユーザはユーザインターフェースに対して入力操作を行うだけで、コミュニケーション画像に対する処理を実行させることができる。すなわち、簡易な操作によってコミュニケーション画像に対する処理を実行させることができる。よって、入力操作に気を取られてコンテンツの閲覧がおろそかになることがないので、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 Thus, the user can execute processing on the communication image only by performing an input operation on the user interface. That is, the process for the communication image can be executed by a simple operation. Therefore, the user can enjoy browsing the content and communicating with other users at the same time because the user is not distracted by the input operation.
さらに、他のユーザとのコミュニケーションにおいて音声を使用しないため、他のユーザの発言を聞き取れないといった状態を防ぐことができる。また、ユーザは聴覚をコンテンツから発せられる音声に集中させることができるので、ユーザは、コミュニケーションを図りながらも、コンテンツ(特に映像コンテンツ)の内容を理解しやすくなる。 Furthermore, since voice is not used in communication with other users, it is possible to prevent a situation in which other users' speech cannot be heard. In addition, since the user can concentrate the hearing on the sound emitted from the content, the user can easily understand the content (particularly video content) while communicating.
また、図5に示すように、本発明に係る共同閲覧システム100では、コンテンツ71の周辺にコミュニケーション画像(アバター73)が表示される。これにより、コンテンツ71およびアバター73の一方にユーザが目線を移動させても、もう一方が視界に入るため、両方の内容を把握しやすい。よって、いずれかの閲覧がおろそかになるという状態を防ぐことができる。
As shown in FIG. 5, in the collaborative browsing system 100 according to the present invention, a communication image (avatar 73) is displayed around the
また、本実施形態では、コミュニケーション画像としてアバター73を使用しているため、映像によるコミュニケーション(例えばビデオチャット)のように、他のユーザに見られたくない情報(自身の顔、部屋の様子など)が表示されることがないというメリットがある。なお、自身の顔の画像は表示してもよいが、部屋の様子を表示したくない場合などは、上述したように、アバター73の顔の部分に、タブレット端末1のカメラ124(図2)を用いて撮影した写真を貼り付けるものであってもよい。
In the present embodiment, since the
(実施形態1の変形例1)
次に、実施形態1の一変形例について、図10を参照して説明する。図10は、タッチパネル11(表示部12)に表示される画像(タブレット表示画像)の一例を示す模式図である。(
Next, a modification of the first embodiment will be described with reference to FIG. FIG. 10 is a schematic diagram illustrating an example of an image (tablet display image) displayed on the touch panel 11 (display unit 12).
図10の(a)に示すように、定型文入力領域53は、実施形態1にて説明した定型文ボタン領域531に代えて、心情入力領域532を含んでいてもよい。心情入力領域532は、「よい−わるい」などの反対語を両端に書いた直線、および、ユーザのドラッグ操作を受け付けて当該直線状を移動するスライダを1つ以上含んでいる。これにより、入力特定部131は、心情入力領域532のスライダに対するドラッグ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、スライダの位置に対応する定型文をアバター73に発言させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザはスライダに対してドラッグ操作を実行することによって、自身の心情を表す位置にスライダを移動させる。これにより、自身の心情に合った定型文を、テレビ2に表示されたアバター73が発言する。すなわち、ユーザは自身の心情を直接テキスト入力することなく、他のユーザに伝えることができる。なお、直線の両端に書かれる反対語は、ユーザの心情を表すような言葉であればよく、図10の(a)の例に限定されるものではない。
As shown in FIG. 10A, the fixed
また、図10の(b)に示すように、定型文入力領域53は、心情入力領域533を含んでいてもよい。心情入力領域533は、「よい−わるい」、「たのしい−かなしい」などの反対語を縦軸および横軸の両端に配置した二次元領域であってもよい。これにより、例えば、入力特定部131は、心情入力領域533に対するタップ操作を特定する。そして、表示指示決定部134は入力特定部131からの指示を受けて、心情入力領域533のタップされた位置に対応する定型文をアバター73に発言させるためのコミュニケーション情報を特定し、通信部15を介してサーバ3に送信する。換言すれば、ユーザは心情入力領域533のうち、自身の心情に近い位置に対してタップ操作を実行する。これにより、自身の心情に合った定型文を、テレビ2に表示されたアバター73が発言する。
Further, as shown in FIG. 10B, the fixed
(実施形態1の変形例2)
次に、実施形態1の別の変形例について、図11を参照して説明する。図11は、テレビ2に表示される画像(表示画像)の一例を示す模式図である。(
Next, another modification of the first embodiment will be described with reference to FIG. FIG. 11 is a schematic diagram illustrating an example of an image (display image) displayed on the
実施形態1の表示画像と異なり、本変形例の表示画像は、コミュニケーション領域72に代えて、コミュニケーション領域を分割した分割領域77を含む。なお、分割領域77とは、分割領域77a、分割領域77b、および分割領域77cを総称した呼称である。
Unlike the display image of the first embodiment, the display image of this modification includes a divided area 77 obtained by dividing the communication area instead of the
本変形例では、ユーザがどのようにコンテンツを閲覧しているかに応じて、アバター73の表示位置を変更する。具体的には、サーバ3は、各タブレット端末1から送信される、発言を表示するためのコミュニケーション情報が、特定のユーザに対する発言75を表示するためのコミュニケーション情報か否かを判別する。そして、当該コミュニケーション情報が、特定のユーザに対する発言を表示するためのコミュニケーション情報である場合、表示画像において、コミュニケーション情報を送信したユーザのアバター73の近傍に特定のユーザに対する発言である発言75を配置するとともに、アバター73が分割領域77aにいない場合は、アバター73および発言75を分割領域77aに移動させる。
In this modification, the display position of the
一方、コミュニケーション情報が、特定のユーザに対する発言を表示するためのコミュニケーション情報ではない場合、表示画像において、コミュニケーション情報を送信したユーザのアバター73の近傍に発言75を配置するとともに、アバター73が分割領域77bにいない場合は、アバター73および発言75を分割領域77bに移動させる。
On the other hand, when the communication information is not communication information for displaying a message for a specific user, the
また、タブレット端末1から、発言75を表示するためのコミュニケーション情報を所定時間受信しなかった場合、表示画像において、当該タブレット端末1のユーザのアバター73を分割領域77cに移動させる。
Moreover, when the communication information for displaying the
すなわち、分割領域77は以下のように表現できる。分割領域77aは、他のユーザとコミュニケーションを取っているユーザのアバター73が配置される領域である。また、分割領域77bは、発言している(タブレット端末1を、発言75を表示するために操作している)が、他のユーザとコミュニケーションを取っていないユーザのアバター73が表示される領域である。また、分割領域77cは、タブレット端末1を操作していないユーザのアバターが表示される領域である。
That is, the divided area 77 can be expressed as follows. The divided
これにより、ユーザは、他のユーザがコミュニケーションを図れるユーザであるか否かを簡単に特定することができる。例えば、ユーザは、分割領域77aにアバター73が配置されているユーザとは、積極的にコミュニケーションを図れる可能性が高いと認識できる。一方、分割領域77cにアバター73が配置されているユーザとは、コミュニケーションを図れる可能性が低いと認識できる。
Thereby, the user can specify easily whether other users are users who can communicate. For example, the user can recognize that there is a high possibility of actively communicating with the user in which the
この構成は、多数のユーザが同じコンテンツを閲覧している場合、換言すれば、表示画像内に多数のアバター73が表示されている場合に好適である。
This configuration is suitable when many users are browsing the same content, in other words, when
(実施形態1の変形例3)
次に、実施形態1のさらに別の変形例について、図1、図3および図4を参照して説明する。実施形態1では、定型文ボタン領域531に表示される定型文ボタンは、タブレット表示制御部133が表示画像格納部141から読み出したデータに基づいて生成する構成であった。一方、本変形例では、タブレット表示制御部133が通信部15を介して外部から取得したデータに基づいて定型文ボタンの画像を生成する構成である。(Modification 3 of Embodiment 1)
Next, still another modification of the first embodiment will be described with reference to FIGS. 1, 3, and 4. In the first embodiment, the fixed sentence button displayed in the fixed
具体的には、サーバ3は、テレビ2に表示しているコンテンツ71の内容を特定する。例えば、コンテンツ71がテレビ番組である場合、番組の種類、出演者などの情報を特定する。そして、サーバ3は、特定した情報に基づいて、定型文ボタンを生成するためのボタン生成情報を生成し、タブレット端末1に送信する。例えば、当該テレビ番組の出演者の名前を定型文ボタンとして生成するためのボタン生成情報や、テレビ番組がクイズ番組の場合、「わかった!」などを定型文ボタンとして生成するためのボタン生成情報を生成し、タブレット端末1に送信する。
Specifically, the server 3 specifies the details of the
タブレット表示制御部133は、表示画像格納部141から読み出したデータに加え、受信したボタン生成情報に基づいてタブレット表示画像を生成する。これにより、ユーザは、コンテンツ71の内容に応じた定型文をアバター73に発言させることができる。よって、ユーザはタブレット端末1に対する簡易な操作で、他のユーザとのコンテンツ71の内容に応じたコミュニケーションを図ることができる。
The tablet
なお、上述した各変形例は、後述する各実施形態においても適用可能である。 In addition, each modification mentioned above is applicable also in each embodiment mentioned later.
〔実施形態2〕
本発明の別の実施形態について、図12を参照して説明すれば以下のとおりである。図12は、タブレット端末10の要部構成を示すブロック図である。なお、タブレット端末10は、実施形態1にて説明したタブレット端末1と同様に、図3に示すようなサブシステムに含まれる。すなわち、タブレット端末10は、ルータなどを介してサーバ3と互いに通信可能に接続される。[Embodiment 2]
Another embodiment of the present invention will be described with reference to FIG. FIG. 12 is a block diagram illustrating a main configuration of the
本実施形態に係るタブレット端末10は、外部からの情報に基づいてバイブレータ16を動作させる。具体的には、サーバ3が、タブレット端末10のユーザのアバター73と別のユーザのアバター73とがコミュニケーション領域72(または分割領域73、分割領域77)の同じ位置に配置されたことを特定すると、その旨を示す情報である衝突情報をタブレット端末10に送信する。上記衝突情報は、通信部15を介して報知動作制御部135に供給される。そして、報知動作制御部135は衝突情報を供給されると、バイブレータ16を動作させる。
The
また、サーバ3は、同じ位置に配置されたアバター73同士が衝突したことを示す画像を作成し、テレビ2に送信して表示させる。
Further, the server 3 creates an image indicating that the
これにより、ユーザは、テレビ2にてアバター73同士が衝突したことを確認すると同時に、タブレット端末10の振動を体感することができる。よって、テレビ2に表示される画像内でのイベントを、リアルに体感することができる。
Thereby, the user can experience the vibration of the
〔実施形態3〕
本発明のさらに別の実施形態について説明すれば以下のとおりである。本実施形態では、状態取得部12に含まれるマイク125が取得した音声によってテキスト入力を行う構成について説明する。[Embodiment 3]
The following will describe still another embodiment of the present invention. This embodiment demonstrates the structure which performs a text input with the audio | voice which the
図4に示すメッセージ入力領域51は音声入力開始ボタン(不図示)をさらに含む。入力特定部131は、音声入力開始ボタンに対するタップ操作を特定すると、マイク125が取得した音声の情報を、タブレット表示制御部133に出力するように設定する。そして、入力特定部131は、音声によるテキスト入力を終了させるための入力操作(例えば、音声入力開始ボタンをもう一度タップする操作)を特定するまでに入力された音声を、タブレット表示制御部133に出力する。タブレット表示制御部133は、マイク125から入力された音声の情報をテキスト情報に変換し、表示部112に表示させる。
The
なお、入力特定部131は、音声入力開始ボタンに対するタップ操作を特定した場合、マイク125が取得した音声の情報を、状態特定部132に出力しないように設定してもよい。これにより、音声による入力操作が実行されている間は、実施形態1で説明したような、マイク125が取得した音声によってコミュニケーション情報を特定する処理が実行されない。すなわち、ユーザが音声による入力操作を行いたいのに、別の処理(コミュニケーション画像に対する処理)が実行されるということがない。よって、ユーザが望む処理を適切に実行することができる入力装置を実現できる。
Note that the
〔実施形態4〕
本発明のさらに別の実施形態について、図13を参照して説明すれば以下のとおりである。図13は、本実施形態における共同閲覧システム200の構成を示す図である。[Embodiment 4]
The following will describe still another embodiment of the present invention with reference to FIG. FIG. 13 is a diagram illustrating a configuration of the collaborative browsing system 200 in the present embodiment.
共同閲覧システム200は、図3に示す共同閲覧システム100に含まれるサブシステム101bに代えて、サブシステム101cを含む。サブシステム101cは、インターネットに接続可能なスマートフォン5を含む。すなわち、スマートフォン5は、入力装置と表示装置とを兼ねるものである。スマートフォン5の要部構成を示すブロック図は、例えば図1に示すブロック図と同様である。ただし、タブレット表示制御部133は、タブレット表示画像に加えて、サーバ3から送信された表示画像も表示部112に表示させる。
The collaborative browsing system 200 includes a subsystem 101c instead of the subsystem 101b included in the collaborative browsing system 100 shown in FIG. The subsystem 101c includes a smartphone 5 that can be connected to the Internet. That is, the smartphone 5 serves as both an input device and a display device. The block diagram showing the main configuration of the smartphone 5 is the same as the block diagram shown in FIG. 1, for example. However, the tablet
これにより、ユーザは外出している場合でも共同閲覧システム200に参加することができる。なお、本実施形態ではサブシステム101cはスマートフォン5を含むものとして説明したが、ユーザが外出先で共同閲覧システム200に参加することが可能な構成であれば、これに限定されるものではない。例えば、サブシステム101cは、タブレット端末および持ち運び可能なルータを含むものであってもよい。 Thereby, the user can participate in the collaborative browsing system 200 even when the user is out. In the present embodiment, the sub-system 101c has been described as including the smartphone 5. However, the sub-system 101c is not limited to this as long as the user can participate in the collaborative browsing system 200 on the go. For example, the subsystem 101c may include a tablet terminal and a portable router.
〔ソフトウェアによる実現例〕
タブレット端末1およびタブレット端末10の制御ブロック(特に入力特定部131、状態特定部132、タブレット表示制御部133、および表示指示決定部134)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。[Example of software implementation]
The control blocks (particularly the
後者の場合、タブレット端末1およびタブレット端末10は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
〔まとめ〕
本発明の態様1に係る入力装置(タブレット端末1)は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システム100において、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部(通信部15)を備える入力装置であって、自装置または自装置の周囲の状態を特定する状態特定部132と、上記状態特定部による特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定部(表示指示決定部134)と、を備える。[Summary]
The input device (tablet terminal 1) according to
上記の構成によれば、状態特定部による特定結果に対応付けられたコミュニケーション情報を特定することで、自装置または自装置の周囲の状態に応じた、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を特定することができる。 According to said structure, by specifying the communication information matched with the specific result by a state specific | specification part, the communication image for aiming at communication with another user according to the surrounding state of the own apparatus or the own apparatus It is possible to specify communication information indicating a process for.
これにより、ユーザが意識的な入力操作を行わなくても、自装置または自装置の周囲の状態に応じたコミュニケーション情報が外部に送信され、コミュニケーション画像に対する処理が実行される。すなわち、ユーザが意識的な入力操作を行わなくても、他のユーザはコミュニケーション画像を見ることで、当該ユーザの状態を把握することができる。また、ユーザは意識的な入力操作を行わなくてもコミュニケーション画像に対する処理を実行することができるので、入力操作に気を取られてコンテンツの閲覧がおろそかになることがない。以上より、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 Thereby, even if a user does not perform conscious input operation, the communication information according to the own apparatus or the surrounding state of the own apparatus is transmitted to the outside, and the process for the communication image is executed. That is, even if the user does not perform a conscious input operation, other users can grasp the state of the user by looking at the communication image. In addition, since the user can execute processing on the communication image without performing a conscious input operation, the user is not distracted by the input operation and browsing of content is not neglected. As described above, the user can enjoy browsing the content and communicating with other users at the same time.
本発明の態様2に係る入力装置は、上記態様1において、自装置または自装置の周囲の状態を特定するための特定情報を取得する取得部(状態取得部12)をさらに備え、上記状態特定部は、上記取得部が取得した特定情報に基づいて自装置または自装置の周囲の状態を特定してもよい。
The input device according to
上記構成によれば、入力装置は、自装置または自装置の周囲の状態を特定するための特定情報を取得する取得部を備えているので、自装置または自装置の周囲の状態を特定するための特定情報を、自装置の構成のみで取得することができる。 According to the above configuration, since the input device includes the acquisition unit that acquires the identification information for identifying the device or the surrounding state of the device, the input device identifies the device or the surrounding state of the device. Specific information can be acquired only by the configuration of the device itself.
本発明の態様3に係る入力装置は、上記態様2において、上記取得部は、自装置に生じる加速度を取得する加速度取得部(加速度センサ121)、自装置の周囲の照度を取得する照度取得部(照度センサ122)、自装置の位置情報を取得する位置情報取得部123、自装置の周囲を撮影する撮影部(カメラ124)、自装置の周囲の音声を取得する音声取得部(マイク125)、および、自装置の向きおよび傾きを取得する方向/傾き取得部のうち、少なくともいずれか1つを含み、上記状態特定部は、上記加速度取得部、上記照度取得部、上記位置情報取得部、上記撮影部、上記音声取得部、上記方向/傾き取得部のうち、少なくともいずれか1つが取得した特定情報に基づいて自装置または自装置の周囲の状態を特定してもよい。
In the input device according to aspect 3 of the present invention, in the
上記構成によれば、自装置に生じる加速度、自装置の周囲の照度、自装置の位置情報、自装置の周囲を撮影した画像、自装置の周囲の音声、自装置の向きおよび傾きのうち、少なくともいずれか1つに基づいたコミュニケーション情報が特定される。よって、様々な自装置または自装置の周囲の状態に応じたコミュニケーション情報が特定されるので、本発明に係る入力装置を使用しているユーザの様々な状態を、他のユーザは特定することができる。 According to the above configuration, among the acceleration generated in the own device, the illuminance around the own device, the position information of the own device, the image taken around the own device, the sound around the own device, the orientation and the tilt of the own device, Communication information based on at least one of them is specified. Therefore, since communication information according to various own devices or the surrounding conditions of the own device is specified, other users can specify various states of the user using the input device according to the present invention. it can.
本発明の態様4に係る入力装置は、上記態様3において、上記コミュニケーション情報特定部は、上記状態特定部が、上記方向/傾き取得部によって取得された自装置の向きおよび傾きからユーザが自装置を把持していると特定したとき、ユーザが自装置を把持していることを示す上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 4 of the present invention, in the above aspect 3, the communication information specifying unit is configured such that the state specifying unit is configured so that the user himself / herself from the orientation and inclination of the own device acquired by the direction / tilt acquisition unit. The communication information indicating that the user is holding his / her device may be specified.
上記構成によれば、自装置の向きおよび傾きからユーザが自装置を把持していると特定されたとき、自装置を把持していることを示すコミュニケーション情報が特定される。これにより、本発明に係る入力装置のユーザが入力装置を把持しながらコンテンツを閲覧していることを、他のユーザは認識することができる。 According to the above configuration, when it is specified that the user is holding the own device from the direction and inclination of the own device, the communication information indicating that the user is holding the device is specified. Thereby, the other user can recognize that the user of the input device according to the present invention is browsing the content while holding the input device.
すなわち、本発明に係る入力装置のユーザが入力装置への入力操作を実行することが可能であると、他のユーザは認識することができるので、他のユーザは当該ユーザとのコミュニケーションが可能であると認識することができる。 That is, since the other user can recognize that the user of the input device according to the present invention can execute an input operation to the input device, the other user can communicate with the user. It can be recognized that there is.
本発明の態様5に係る入力装置は、上記態様3において、上記コミュニケーション情報特定部は、上記状態特定部が、上記加速度取得部によって取得された自装置に生じた加速度から、ユーザが自装置を把持していると特定したとき、ユーザが自装置を把持していることを示す上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 5 of the present invention, in the aspect 3, the communication information specifying unit is configured so that the user specifies his / her own device from the acceleration generated in the own device acquired by the acceleration acquiring unit. When it is specified that the user is holding, the communication information indicating that the user is holding the device may be specified.
上記構成によれば、自装置に生じた加速度からユーザが自装置を把持していると特定されたとき、自装置を把持していることを示すコミュニケーション情報が特定される。これにより、本発明に係る入力装置のユーザが入力装置を把持しながらコンテンツを閲覧していることを、他のユーザは認識することができる。 According to the above configuration, when it is specified that the user is holding the own device from the acceleration generated in the own device, the communication information indicating that the user is holding the device is specified. Thereby, the other user can recognize that the user of the input device according to the present invention is browsing the content while holding the input device.
すなわち、本発明に係る入力装置のユーザが入力装置への入力操作を実行することが可能であると、他のユーザは認識することができるので、他のユーザは当該ユーザとのコミュニケーションが可能であると認識することができる。 That is, since the other user can recognize that the user of the input device according to the present invention can execute an input operation to the input device, the other user can communicate with the user. It can be recognized that there is.
本発明の態様6に係る入力装置は、上記態様3から5のいずれかにおいて、上記コミュニケーション情報特定部は、上記状態特定部が、上記照度取得部によって取得された自装置の周囲の照度が、所定の値を超えていないとき、ユーザの周囲が暗いことを示す上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 6 of the present invention, in any of the above aspects 3 to 5, the communication information specifying unit is configured such that the state specifying unit has an illuminance around the own device acquired by the illuminance acquiring unit. When the predetermined value is not exceeded, the communication information indicating that the surrounding of the user is dark may be specified.
上記構成によれば、自装置の周囲の照度が所定の値を超えないと特定されたとき、ユーザの周囲が暗いことを示すコミュニケーション情報が特定される。これにより、本願発明に係る入力装置のユーザの周囲が暗いことを他のユーザは認識することができる。よって、他のユーザは当該ユーザとのコミュニケーションが可能か否かを判断することができる。 According to the above configuration, when it is specified that the illuminance around the own device does not exceed a predetermined value, the communication information indicating that the user is dark is specified. Thereby, other users can recognize that the circumference of the user of the input device concerning the present invention is dark. Therefore, other users can determine whether or not communication with the user is possible.
本発明の態様7に係る入力装置は、上記態様3から6のいずれかにおいて、上記コミュニケーション画像は、ユーザを一義的に識別するための画像であり、上記状態特定部は、上記位置情報取得部が取得した自装置の位置情報に基づいて、上記コンテンツおよびコミュニケーション画像を表示する表示装置(テレビ2)と自装置との位置関係を特定し、上記コミュニケーション情報特定部は、上記状態特定部が特定した上記表示装置と自装置との位置関係を、上記表示装置に表示される上記コンテンツと上記コミュニケーション画像との位置関係に反映させるための上記コミュニケーション情報を特定してもよい。 In the input device according to aspect 7 of the present invention, in any one of the above aspects 3 to 6, the communication image is an image for uniquely identifying a user, and the state specifying unit includes the position information acquisition unit. Identifies the positional relationship between the display device (TV 2) that displays the content and the communication image and the device itself based on the location information of the device acquired by the device, and the state identification unit identifies the communication information identification unit. The communication information for reflecting the positional relationship between the display device and the device itself to the positional relationship between the content displayed on the display device and the communication image may be specified.
上記構成によれば、自装置と表示装置との位置関係が、表示装置に表示されているコミュニケーション画像とコンテンツとの位置関係に反映される。これにより、他のユーザは、本願発明に係る入力装置のユーザが、当該ユーザが使用している表示装置に対してどこにいるかを認識することができる。 According to the above configuration, the positional relationship between the own device and the display device is reflected in the positional relationship between the communication image displayed on the display device and the content. Thereby, another user can recognize where the user of the input device according to the present invention is located with respect to the display device used by the user.
本発明の態様8に係る入力装置は、上記態様1から7のいずれかにおいて、ユーザによる入力操作を受け付ける入力部111と、上記入力操作を受け付けるための1つ以上のユーザインターフェースを表示する表示部112と、上記入力部が受け付けた入力操作を特定する入力特定部131と、をさらに備え、上記入力特定部は、上記表示部に表示されたユーザインターフェースに対する入力操作を特定し、上記コミュニケーション情報特定部は、上記ユーザインターフェースに対する上記入力特定部によって特定された入力操作に対応付けられた上記コミュニケーション情報を特定してもよい。
An input device according to aspect 8 of the present invention is the display unit according to any one of
上記構成によれば、表示部に表示されたユーザインターフェースに対する入力操作が特定されることで、当該入力操作に対応付けられたコミュニケーション情報を特定する。これにより、ユーザはユーザインターフェースに対して入力操作を行うだけで、コミュニケーション画像に対する処理を実行させることができる。すなわち、簡易な操作によってコミュニケーション画像に対する処理を実行させることができる。よって、入力操作に気を取られてコンテンツの閲覧がおろそかになることがないので、ユーザはコンテンツの閲覧と他のユーザとのコミュニケーションとを同時に楽しむことができる。 According to the above configuration, the communication operation associated with the input operation is specified by specifying the input operation for the user interface displayed on the display unit. Thus, the user can execute processing on the communication image only by performing an input operation on the user interface. That is, the process for the communication image can be executed by a simple operation. Therefore, the user can enjoy browsing the content and communicating with other users at the same time because the user is not distracted by the input operation.
本発明の態様9に係る入力装置は、上記態様8において、上記入力操作は、上記コンテンツを変更するための入力操作であり、上記コミュニケーション情報特定部は、上記入力特定部が特定した上記コンテンツを変更するための入力操作に対応付けられた上記コミュニケーション情報を特定してもよい。 The input device according to aspect 9 of the present invention is the input apparatus according to aspect 8, wherein the input operation is an input operation for changing the content, and the communication information specifying unit specifies the content specified by the input specifying unit. The communication information associated with the input operation for changing may be specified.
上記構成によれば、コンテンツを変更するための入力操作が特定されたとき、コンテンツを変更するための入力操作に対応付けられたコミュニケーション情報が特定される。これにより、本願発明に係る入力装置のユーザがコンテンツを変更しようとしていることを他のユーザは認識することができる。よって、コンテンツを変更しようとしている状態に適したコミュニケーションを図ることができる。 According to the above configuration, when an input operation for changing content is specified, communication information associated with the input operation for changing content is specified. Thereby, the other user can recognize that the user of the input device according to the present invention intends to change the content. Therefore, it is possible to achieve communication suitable for the state where the content is to be changed.
本発明の態様10に係る入力装置は、上記態様8において、上記表示部に表示する上記ユーザインターフェースを決定する表示内容決定部(タブレット表示制御部133)をさらに備え、上記表示内容決定部は、上記コンテンツの内容に応じて上記表示部に表示する上記ユーザインターフェースを決定してもよい。
The input device according to
上記構成によれば、コンテンツの内容に応じて、表示部に表示されるユーザインターフェースが決定される。すなわち、コンテンツが変更されると、ユーザインターフェースも変化する。これにより、ユーザインターフェースを使用しながらでも、バラエティに富んだコミュニケーションを図ることができる。 According to the above configuration, the user interface displayed on the display unit is determined according to the content. That is, when the content is changed, the user interface is also changed. This makes it possible to achieve a variety of communication while using the user interface.
本発明の態様11に係る入力装置を用いたコミュニケーション情報の特定方法は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を示すコミュニケーション情報を送信する送信部を備える入力装置を用いたコミュニケーション情報の特定方法であって、自装置または自装置の周囲の状態を特定する状態特定ステップ(ステップS8)と、上記状態特定ステップにおける特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定ステップ(ステップS9)と、を含む。
A communication information specifying method using an input device according to an
上記構成による作用効果は、上述した態様1と同じである。
The effect by the said structure is the same as the
本発明の態様12に係る処理装置(サーバ3)は、上記態様1から10のいずれかに記載の入力装置から送信された上記コミュニケーション情報に応じて、コミュニケーション画像に対する処理を実行し、上記コンテンツおよび上記コミュニケーション画像を表示する表示装置(テレビ2)に、処理が実行された上記コミュニケーション画像を送信してもよい。
The processing device (server 3) according to
上記構成によれば、処理装置においてコミュニケーション画像に対する処理が実行されるので、入力装置や表示装置の処理負荷を軽減することができる。 According to the above configuration, since the processing on the communication image is executed in the processing device, the processing load on the input device and the display device can be reduced.
本発明の態様13に係る表示装置(テレビ2)は、上記態様12に記載の処理装置から送信された上記コミュニケーション画像を、上記コンテンツとともに表示してもよい。
The display device (television 2) according to
上記構成によれば、表示装置は、送信されたコミュニケーション画像をコンテンツとともに表示するので、特別な機能を必要としない。よって、一般的なテレビやディスプレイなどを本発明の表示装置として使用することができる。 According to the above configuration, the display device displays the transmitted communication image together with the content, and therefore does not require a special function. Therefore, a general television or display can be used as the display device of the present invention.
本発明の態様14に係る処理装置(サーバ3)は、上記態様1から10のいずれかに記載の入力装置から送信された上記コミュニケーション情報に応じて、上記コミュニケーション画像に対する処理を実行するための指示情報を上記コンテンツおよび上記コミュニケーション画像を表示する表示装置(テレビ2)に送信してもよい。 The processing device (server 3) according to the fourteenth aspect of the present invention provides an instruction for executing processing on the communication image according to the communication information transmitted from the input device according to any one of the first to tenth aspects. Information may be transmitted to the display device (television 2) that displays the content and the communication image.
上記構成によれば、コミュニケーション情報に応じた指示情報を表示装置に送信するので、コミュニケーション画像に対する処理は実行しない。よって、処理装置の処理負荷を軽減することができる。 According to the above configuration, since the instruction information corresponding to the communication information is transmitted to the display device, the process for the communication image is not executed. Therefore, the processing load of the processing device can be reduced.
本発明の態様15に係る表示装置(テレビ2)は、上記態様14に記載の処理装置から送信された上記指示情報に応じて、コミュニケーション画像に対する処理を実行し、処理が実行された上記コミュニケーション画像を上記コンテンツとともに表示してもよい。
The display device (television 2) according to
上記構成によれば、表示装置においてコミュニケーション画像に対する処理が実行されるので、処理装置からコミュニケーション画像などの大容量の情報が送信されることがない。よって、装置間における情報のやり取りをスムーズにすることができる。 According to the above configuration, since the processing for the communication image is executed in the display device, a large amount of information such as a communication image is not transmitted from the processing device. Therefore, information can be exchanged smoothly between apparatuses.
本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各部(ソフトウェア要素に限る)として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The input device according to each aspect of the present invention may be realized by a computer. In this case, the input device is operated by the computer by causing the computer to operate as each unit (limited to software elements) included in the input device. An input device control program to be realized and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
本発明は、通信ネットワークを介した複数のユーザによるコンテンツの閲覧およびコミュニケーションを可能にする共同閲覧システムにおいて、他のユーザとコミュニケーションを図るためのコミュニケーション画像に対する処理を実行するための入力操作を受け付ける入力装置に利用することができる。具体的には、タブレット端末、スマートフォンなどに好適に利用することができる。 The present invention provides an input for receiving an input operation for executing processing on a communication image for communication with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network. Can be used in the device. Specifically, it can be suitably used for tablet terminals, smartphones, and the like.
1 タブレット端末(入力装置)
2 テレビ(表示装置)
12 状態取得部(取得部)
15 通信部(送信部)
100 共同閲覧システム
111 入力部
112 表示部
121 加速度センサ(加速度取得部)
122 照度センサ(照度取得部)
123 位置情報取得部
124 カメラ(撮影部)
125 マイク(音声取得部)
126 地磁気センサ(方向/傾き取得部)
131 入力特定部
132 状態特定部
133 タブレット表示制御部(表示内容決定部)
134 表示指示決定部(コミュニケーション情報特定部)
S8 状態特定ステップ
S9 コミュニケーション情報特定ステップ1 Tablet terminal (input device)
2 Television (display device)
12 Status acquisition unit (acquisition unit)
15 Communication unit (transmission unit)
100
122 Illuminance sensor (illuminance acquisition unit)
123 Position
125 microphone (voice acquisition unit)
126 Geomagnetic sensor (direction / tilt acquisition unit)
131
134 Display instruction determining unit (communication information specifying unit)
S8 State identification step S9 Communication information identification step
Claims (16)
自装置または自装置の周囲の状態を特定する状態特定部と、
上記状態特定部による特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定部と、を備えることを特徴とする入力装置。In a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network, an input device including a transmission unit that transmits communication information indicating processing on a communication image for communication with other users There,
A state identifying unit for identifying the own device or the surrounding state of the own device;
An input device comprising: a communication information specifying unit that specifies the communication information associated with the specifying result by the state specifying unit.
上記状態特定部は、上記取得部が取得した特定情報に基づいて自装置または自装置の周囲の状態を特定することを特徴とする請求項1に記載の入力装置。It further includes an acquisition unit that acquires specific information for specifying the own device or the surrounding state of the own device,
The input device according to claim 1, wherein the state specifying unit specifies the own device or a surrounding state of the own device based on the specifying information acquired by the acquiring unit.
上記状態特定部は、上記加速度取得部、上記照度取得部、上記位置情報取得部、上記撮影部、上記音声取得部、上記方向/傾き取得部のうち、少なくともいずれか1つが取得した特定情報に基づいて自装置または自装置の周囲の状態を特定することを特徴とする請求項2に記載の入力装置。The acquisition unit is an acceleration acquisition unit that acquires acceleration generated in the own device, an illuminance acquisition unit that acquires illuminance around the own device, a position information acquisition unit that acquires position information of the own device, and photographs the surroundings of the own device. Including at least one of a photographing unit, a sound acquisition unit that acquires sound around the device, and a direction / tilt acquisition unit that acquires the orientation and inclination of the device,
The state specifying unit includes specific information acquired by at least one of the acceleration acquisition unit, the illuminance acquisition unit, the position information acquisition unit, the imaging unit, the sound acquisition unit, and the direction / tilt acquisition unit. The input device according to claim 2, wherein the input device or a surrounding state of the device is specified based on the input device.
上記状態特定部は、上記位置情報取得部が取得した自装置の位置情報に基づいて、上記コンテンツおよびコミュニケーション画像を表示する表示装置と自装置との位置関係を特定し、
上記コミュニケーション情報特定部は、上記状態特定部が特定した上記表示装置と自装置との位置関係を、上記表示装置に表示される上記コンテンツと上記コミュニケーション画像との位置関係に反映させるための上記コミュニケーション情報を特定することを特徴とする請求項3から5の何れか1項に記載の入力装置。The communication image is an image for identifying a user,
The state specifying unit specifies a positional relationship between the display device that displays the content and the communication image and the own device based on the position information of the own device acquired by the position information acquisition unit,
The communication information specifying unit is configured to reflect the positional relationship between the display device specified by the state specifying unit and the device itself to the positional relationship between the content displayed on the display device and the communication image. 6. The input device according to claim 3, wherein information is specified.
上記入力特定部は、上記表示部に表示されたユーザインターフェースに対する入力操作を特定し、
上記コミュニケーション情報特定部は、上記ユーザインターフェースに対する上記入力特定部によって特定された入力操作に対応付けられた上記コミュニケーション情報を特定することを特徴とする請求項1から6のいずれか1項に記載の入力装置。An input unit that receives an input operation by a user; a display unit that displays one or more user interfaces for receiving the input operation; and an input specifying unit that specifies an input operation received by the input unit;
The input specifying unit specifies an input operation for the user interface displayed on the display unit,
The said communication information specific | specification part specifies the said communication information matched with the input operation specified by the said input specific | specification part with respect to the said user interface, The any one of Claim 1 to 6 characterized by the above-mentioned. Input device.
上記コミュニケーション情報特定部は、上記入力特定部が特定した上記コンテンツを変更するための入力操作に対応付けられた上記コミュニケーション情報を特定することを特徴とする請求項7に記載の入力装置。The input operation is an input operation for changing the content,
The input device according to claim 7, wherein the communication information specifying unit specifies the communication information associated with an input operation for changing the content specified by the input specifying unit.
上記表示内容決定部は、上記コンテンツの内容に応じて上記表示部に表示する上記ユーザインターフェースを決定することを特徴とする請求項7に記載の入力装置。A display content determination unit for determining the user interface to be displayed on the display unit;
The input device according to claim 7, wherein the display content determination unit determines the user interface to be displayed on the display unit according to the content.
自装置または自装置の周囲の状態を特定する状態特定ステップと、
上記状態特定ステップにおける特定結果に対応付けられた上記コミュニケーション情報を特定するコミュニケーション情報特定ステップと、を含むことを特徴とする入力装置を用いたコミュニケーション情報の特定方法。An input device including a transmission unit that transmits communication information indicating processing for a communication image for communicating with other users in a collaborative browsing system that enables browsing and communication of content by a plurality of users via a communication network A method for identifying communication information used,
A state identifying step for identifying the own device or a surrounding state of the own device;
And a communication information specifying step for specifying the communication information associated with the specifying result in the state specifying step.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013245454 | 2013-11-27 | ||
JP2013245454 | 2013-11-27 | ||
PCT/JP2014/078935 WO2015079865A1 (en) | 2013-11-27 | 2014-10-30 | Input device, communication information identification method, processing device, display device, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2015079865A1 true JPWO2015079865A1 (en) | 2017-03-16 |
Family
ID=53198813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015550622A Pending JPWO2015079865A1 (en) | 2013-11-27 | 2014-10-30 | INPUT DEVICE, COMMUNICATION INFORMATION SPECIFICATION METHOD, PROCESSING DEVICE, DISPLAY DEVICE, PROGRAM, AND RECORDING MEDIUM |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2015079865A1 (en) |
WO (1) | WO2015079865A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017159383A1 (en) * | 2016-03-16 | 2017-09-21 | ソニー株式会社 | Information processing device, information processing method, program, and moving-image delivery system |
US10574939B2 (en) | 2016-10-20 | 2020-02-25 | Sony Corporation | Information processing apparatus, information processing method, and communication system |
JP7329209B1 (en) | 2022-06-17 | 2023-08-18 | グリー株式会社 | Information processing system, information processing method and computer program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002082859A (en) * | 2000-06-30 | 2002-03-22 | Seiko Epson Corp | System and method for distributing information, program for executing the method by computer, and recording medium recorded with the program |
JP2002083320A (en) * | 2000-09-07 | 2002-03-22 | Sony Corp | Virtual conversation aiding system, virtual conversation aid, and storage medium |
US20090300525A1 (en) * | 2008-05-27 | 2009-12-03 | Jolliff Maria Elena Romera | Method and system for automatically updating avatar to indicate user's status |
JP5209101B2 (en) * | 2011-09-27 | 2013-06-12 | 株式会社 ディー・エヌ・エー | Message transmission / reception system, message transmission / reception method, and program |
-
2014
- 2014-10-30 WO PCT/JP2014/078935 patent/WO2015079865A1/en active Application Filing
- 2014-10-30 JP JP2015550622A patent/JPWO2015079865A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2015079865A1 (en) | 2015-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108769814B (en) | Video interaction method, device, terminal and readable storage medium | |
US9628744B2 (en) | Display apparatus and control method thereof | |
US11632584B2 (en) | Video switching during music playback | |
US10187520B2 (en) | Terminal device and content displaying method thereof, server and controlling method thereof | |
CN110061900B (en) | Message display method, device, terminal and computer readable storage medium | |
CN110198484B (en) | Message pushing method, device and equipment | |
KR20180057366A (en) | Mobile terminal and method for controlling the same | |
EP3654335A1 (en) | Method and apparatus for displaying pitch information in live broadcast room, and storage medium | |
US9148586B2 (en) | Terminal apparatus for combining images from two different cameras based on detected sound | |
WO2017130486A1 (en) | Information processing device, information processing method, and program | |
CN111596818A (en) | Message display method and electronic equipment | |
CN109151044B (en) | Information pushing method and device, electronic equipment and storage medium | |
CN110769189B (en) | Video conference switching method and device and readable storage medium | |
CN105677023B (en) | Information demonstrating method and device | |
WO2021043121A1 (en) | Image face changing method, apparatus, system, and device, and storage medium | |
CN111028566A (en) | Live broadcast teaching method, device, terminal and storage medium | |
WO2015079865A1 (en) | Input device, communication information identification method, processing device, display device, program, and recording medium | |
CN110798327A (en) | Message processing method, device and storage medium | |
CN109451158B (en) | Reminding method and device | |
JP2016189121A (en) | Information processing device, information processing method, and program | |
US11189289B2 (en) | Information processing device, information processing method, and information processing system | |
US11074034B2 (en) | Information processing apparatus, information processing method, and program | |
CN113301444B (en) | Video processing method and device, electronic equipment and storage medium | |
JP2011129969A (en) | Communication device, communication method, and program | |
CN114327197B (en) | Message sending method, device, equipment and medium |