WO2011122266A1 - ネットワークシステム、通信方法、および通信端末 - Google Patents

ネットワークシステム、通信方法、および通信端末 Download PDF

Info

Publication number
WO2011122266A1
WO2011122266A1 PCT/JP2011/055379 JP2011055379W WO2011122266A1 WO 2011122266 A1 WO2011122266 A1 WO 2011122266A1 JP 2011055379 W JP2011055379 W JP 2011055379W WO 2011122266 A1 WO2011122266 A1 WO 2011122266A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
mobile phone
communication terminal
hand
communication
Prior art date
Application number
PCT/JP2011/055379
Other languages
English (en)
French (fr)
Inventor
昌秀 高杉
真幸 山本
美鈴 川村
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US13/638,517 priority Critical patent/US9172986B2/en
Priority to CN201180016679.8A priority patent/CN103098440B/zh
Publication of WO2011122266A1 publication Critical patent/WO2011122266A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25816Management of client data involving client authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4333Processing operations in response to a pause request
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Definitions

  • the present invention relates to a network system including at least first and second communication terminals that can communicate with each other via a network, a communication method, and a communication terminal, and in particular, the first and second communication terminals receive the same content.
  • the present invention relates to a network system, a communication method, and a communication terminal.
  • a network system is known in which a plurality of communication terminals connectable to the Internet exchange hand-drawn data.
  • a server / client system For example, a server / client system, a P2P (Peer to Peer) system, etc. are mentioned.
  • each communication terminal transmits or receives hand-drawn data, text data, or the like.
  • Each of the communication terminals displays a hand-drawn image or text on the display based on the received data.
  • Patent Document 1 discloses a chat service system for mobile phones.
  • a moving image display area and a character display area are displayed on the browser display screen of the terminal for a large number of mobile phone terminals and operator web terminals connected via the Internet.
  • a chat server to be displayed in the character display area, and each of the operator web terminals forms an independent chat channel for each mobile phone terminal with respect to the plurality of mobile phone terminals.
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide a network system and communication in which users of first and second communication terminals can exchange information while browsing the same scene.
  • the present invention relates to a method and a communication terminal.
  • a network system including first and second communication terminals.
  • the first communication terminal can acquire content from the outside.
  • the first communication terminal reproduces content using the first display, the first communication device for communicating with the second communication terminal, and the first display, and the content according to the first input
  • For temporarily stopping playback of the content transmitting a stop command to the second communication terminal, restarting playback of the content in response to the second input, and transmitting a restart command to the second communication terminal
  • a first processor can acquire content from the outside at the same timing as the first communication terminal.
  • the second communication terminal reproduces the content using the second display, the second communication device for communicating with the first communication terminal, and the second display, and stops from the first communication terminal.
  • a second processor for temporarily stopping the playback of the content in response to the command and restarting the playback of the content in response to the restart command from the first communication terminal.
  • the first display is a touch panel.
  • the first processor accepts an input of a hand-drawn image using the touch panel while the content is paused, displays the hand-drawn image on the content using the first touch panel, and the hand-drawn image via the first communication device. Is transmitted to the second communication terminal.
  • the second processor receives the hand-drawn image from the first communication terminal via the second communication device and pauses the content, and displays the hand-drawn image on the content using the second display.
  • the first processor detects that an external object has touched the touch panel, receives the contact operation as a first input, detects that the external object has moved away from the touch panel, and performs the separation.
  • the operation is accepted as the second input.
  • the first communication terminal further includes a first memory.
  • the first processor stores the acquired content in the first memory, and resumes playback of the content from the pause position in response to the second input.
  • the second communication terminal further includes a second memory.
  • the second processor stores the acquired content in the second memory, and resumes playback of the content from the pause position in response to the resume command.
  • the stop command includes information indicating a temporary stop position in the content.
  • the stop command includes information indicating a temporary stop time.
  • the resume command includes information indicating the suspension period.
  • a communication method in a network system including first and second communication terminals includes a step in which the first communication terminal receives content from the outside and reproduces the content on the first display, and the second communication terminal from the outside at the same timing as the first communication terminal.
  • the step of receiving the content and reproducing the content on the second display; and the first communication terminal pauses the reproduction of the content in response to the first input, and issues a stop command to the second communication terminal.
  • a communication terminal capable of acquiring content from the outside.
  • the communication terminal reproduces the content using the display, the communication device for communicating with the other communication terminal, and the display, pauses the reproduction of the content in response to the first input, and transmits to the other communication terminal.
  • a stop command is transmitted, and the reproduction of the content is resumed according to the second input, and the resume command is transmitted to another communication terminal, and the reproduction of the content is temporarily paused according to the stop command from the other communication terminal.
  • a processor for restarting the reproduction of the content in response to a restart command from another communication terminal.
  • the display is a touch panel.
  • the processor accepts an input of the first hand-drawn image using the touch panel while the content is paused, displays the first hand-drawn image on the content using the touch panel, and receives the first hand-drawn image via the communication device. Is transmitted to the other communication terminal, the second hand-drawn image is received from the other communication terminal via the communication device, and the second hand-drawn image is displayed on the content using the touch panel.
  • the processor detects that an external object has touched the touch panel, accepts the contact operation as a first input, detects that the external object has moved away from the touch panel, and performs the separation operation. 2 input.
  • the communication terminal further includes a memory.
  • the processor stores the received content in the memory, and resumes the reproduction of the content from the pause position in response to the second input or the resume command.
  • the stop command includes information indicating a temporary stop position in the content.
  • the stop command includes information indicating a temporary stop time.
  • the resume command includes information indicating the suspension period.
  • a communication method in a communication terminal including a display, a processor, and a communication device includes a step in which a processor receives content from the outside and reproduces the content using a display, and the processor pauses reproduction of the content in response to the first input, via the communication device. Transmitting a stop command to another communication terminal, and a processor restarting playback of the content in response to the second input, and transmitting a restart command to the other communication terminal via the communication device; The processor pauses the playback of the content in response to a stop command from another communication terminal, and the processor restarts the playback of the content in response to a restart command from the other communication terminal. Prepare.
  • the network system, communication method, and communication terminal according to the present invention enable the users of the first and second communication terminals to exchange information while viewing the same scene.
  • FIG. 6 is an image diagram showing an outline of operations related to transmission / reception of hand-drawn data according to the first embodiment. It is an image figure which shows the external appearance of the mobile telephone which concerns on this Embodiment. It is a block diagram which shows the hardware constitutions of the mobile telephone which concerns on this Embodiment. It is an image figure which shows the various data structures which comprise the memory which concerns on this Embodiment.
  • FIG. 1 It is a block diagram which shows the hardware constitutions of the chat server which concerns on this Embodiment. It is an image figure which shows the data structure of the room management table memorize
  • 3 is a flowchart showing a processing procedure of P2P communication processing in the mobile phone according to Embodiment 1; 3 is an image diagram showing a data structure of transmission data according to Embodiment 1.
  • FIG. It is a flowchart which shows the process sequence of the input process in the mobile telephone which concerns on this Embodiment. It is a flowchart which shows the process sequence of the setting process of the pen information in the mobile telephone which concerns on this Embodiment.
  • 10 is an image diagram showing an outline of operations related to transmission / reception of hand-drawn data according to the second embodiment.
  • 10 is a flowchart showing a processing procedure of P2P communication processing in the mobile phone according to the second embodiment.
  • 10 is an image diagram illustrating a data structure of transmission data according to Embodiment 2.
  • FIG. 10 is a flowchart showing a modification of the processing procedure of the P2P communication processing in the mobile phone according to the second embodiment.
  • 10 is a flowchart illustrating a processing procedure of communication processing in the content server according to the second embodiment.
  • a mobile phone will be described as a representative example of a “communication terminal”.
  • the communication terminal is connected to a network such as a personal computer, a car navigation device (Satellite navigation system), a PND (Personal Navigation Device), a PDA (Personal Data Assistance), a game machine, an electronic dictionary, an electronic BOOK, etc.
  • a network such as a personal computer, a car navigation device (Satellite navigation system), a PND (Personal Navigation Device), a PDA (Personal Data Assistance), a game machine, an electronic dictionary, an electronic BOOK, etc.
  • Other information communication devices that can be connected may be used.
  • FIG. 1 is a schematic diagram showing an example of a network system 1 according to the present embodiment.
  • a network system 1 includes mobile phones 100A, 100B, and 100C, a chat server (first server device) 400, a content server (second server device) 600, and a broadcasting station (TV broadcast).
  • Antenna) 650 the Internet (first network) 500, and a carrier network (second network) 700.
  • the network system 1 according to the present embodiment includes a car navigation device 200 mounted on a vehicle 250 and a personal computer (PC) 300.
  • PC personal computer
  • the network system 1 includes a first mobile phone 100A, a second mobile phone 100B, and a third mobile phone 100C. Will be described. Further, when the common configurations and functions of the mobile phones 100A, 100B, and 100C are described, they are also collectively referred to as the mobile phone 100. And when explaining a structure and function common to each of mobile phone 100A, 100B, 100C, the car navigation apparatus 200, and the personal computer 300, these are also named generically as a communication terminal.
  • the mobile phone 100 is configured to be connectable to the carrier network 700.
  • the car navigation device 200 is configured to be connectable to the Internet 500.
  • the personal computer 300 is configured to be connectable to the Internet 500 via a LAN (Local Area Network) 350 or a WAN (Wide Area Network).
  • Chat server 400 is configured to be connectable to the Internet 500.
  • the content server 600 is configured to be connectable to the Internet 500.
  • the first mobile phone 100A, the second mobile phone 100B, the third mobile phone 100C, the car navigation device 200, and the personal computer 300 are the Internet 500, the carrier network 700, and mail transmission. They can be connected to each other via a server (chat server 400 in FIG. 2), and can transmit and receive data to and from each other.
  • a server chat server 400 in FIG. 2
  • identification information for example, an e-mail address or an IP (Internet Protocol) address
  • identification information for example, an e-mail address or an IP (Internet Protocol) address
  • the mobile phone 100, the car navigation device 200, and the personal computer 300 can store identification information of other communication terminals in an internal recording medium, and the relevant information is transmitted via the carrier network 700, the Internet 500, or the like based on the identification information. Data can be transmitted and received with other communication terminals.
  • Mobile phone 100, car navigation device 200, and personal computer 300 transmit / receive data to / from other communication terminals without using servers 400 and 600 using an IP address assigned to the other terminal. Can be done. That is, the mobile phone 100, the car navigation device 200, and the personal computer 300 included in the network system 1 according to the present embodiment can constitute a so-called P2P (Peer to Peer) type network.
  • P2P Peer to Peer
  • chat server 400 when each communication terminal accesses the chat server 400, that is, when each communication terminal accesses the Internet, an IP address is assigned by the chat server 400 or another server device (not shown). Details of the IP address assignment process are well known, and therefore the description will not be repeated here.
  • the broadcasting station 650 transmits terrestrial digital broadcasting.
  • the broadcast station 650 transmits a one-segment broadcast.
  • the mobile phone 100, the car navigation device 200, and the personal computer 300 receive the one-segment broadcasting. Users of the mobile phone 100, the car navigation device 200, and the personal computer 300 can view a television program (content) from the broadcast station 650.
  • the mobile phone 100, the car navigation device 200, and the personal computer 300 receive Internet TV and other moving image contents from the content server 600 through the Internet 500 substantially at the same time. Users of the mobile phone 100, the car navigation device 200, and the personal computer 300 can view the moving image content from the content server 600.
  • FIG. 2 is a sequence diagram showing an outline of operation in the network system 1 according to the present embodiment.
  • the content server 600 and the broadcast station 650 in FIG. 1 are collectively referred to as a content transmission device.
  • each communication terminal needs to exchange (acquire) each other's IP address first in order to perform P2P type data transmission / reception. Then, after acquiring the IP address, each communication terminal transmits a message, an attached file, and the like to other communication terminals by P2P type data transmission / reception.
  • each of the communication terminals transmits and receives a message and an attached file via the chat room generated in the chat server 400.
  • a case will be described in which first mobile phone 100A generates a new chat room and invites second mobile phone 100B to the chat room.
  • first mobile phone 100A requests IP registration (login) from chat server 400 (step S0002).
  • First mobile phone 100A may obtain an IP address at the same time, or may obtain an IP address in advance. More specifically, the first mobile phone 100A transmits the mail address, IP address, and first address of the first mobile phone 100A to the chat server 400 via the carrier network 700, the mail transmission server (chat server 400), and the Internet 500. 2 sends the mail address of the mobile phone 100B and a message requesting the generation of a new chat room.
  • Chat server 400 stores the mail address of first mobile phone 100A in association with the IP address in response to the request. Then, chat server 400 generates a room name based on the mail address of first mobile phone 100A and the mail address of second mobile phone 100B, and generates a chat room with the room name. At this time, chat server 400 may notify first mobile phone 100A that the generation of the chat room has been completed. Chat server 400 stores room names and IP addresses of participating communication terminals in association with each other.
  • first mobile phone 100A generates a room name of a new chat room based on the mail address of first mobile phone 100A and the mail address of second mobile phone 100B, and chats the room name.
  • Chat server 400 generates a new chat room based on the room name.
  • the first mobile phone 100A transmits a P2P participation request mail indicating that a new chat room has been generated, that is, an invitation to the chat room, to the second mobile phone 100B (steps S0004 and S0006). More specifically, the first mobile phone 100A transmits a P2P participation request email to the second mobile phone 100B via the carrier network 700, a mail transmission server (chat server 400), and the Internet 500 (step S0004, Step S0006).
  • the chat server 400 may also serve as the content server 600.
  • the second mobile phone 100B When the second mobile phone 100B receives the P2P participation request email (step S0006), the second mobile phone 100B generates a room name based on the email address of the first mobile phone 100A and the email address of the second mobile phone 100B, and chats. A message to join the chat room having the mail address, IP address, and room name of second mobile phone 100B is transmitted to server 400 (step S0008). Second mobile phone 100B may acquire the IP address at the same time, or may access chat server 400 after acquiring the IP address first.
  • Chat server 400 accepts the message, determines whether or not the email address of second mobile phone 100B corresponds to the room name, and then sets the email address of second mobile phone 100B to the IP address. Store in association with. Then, chat server 400 transmits to first mobile phone 100A the fact that second mobile phone 100B has joined the chat room and the IP address of second mobile phone 100B (step S0010). At the same time, chat server 400 transmits to second mobile phone 100B that it has accepted participation in the chat room and the IP address of first mobile phone 100A.
  • the first mobile phone 100A and the second mobile phone 100B acquire each other's mail address and IP address and authenticate each other (step S0012).
  • first mobile phone 100A and second mobile phone 100B start P2P communication (chat communication) (step S0014). An outline of the operation during P2P communication will be described later.
  • first mobile phone 100A transmits a message to disconnect P2P communication to second mobile phone 100B (step S0016)
  • second mobile phone 100B makes a request to first mobile phone 100A to disconnect.
  • a message indicating acceptance is transmitted (step S0018).
  • First mobile phone 100A transmits a request to delete chat room to chat server 400 (step S0020), and chat server 400 deletes the chat room.
  • FIG. 3 is an image diagram showing transition of the display mode of the communication terminal along the operation outline according to the present embodiment.
  • the first mobile phone 100A and the second mobile phone 100B transmit and receive hand-drawn images while displaying content acquired from the broadcast station 650 or the content server 600 as a background will be described.
  • the first mobile phone 100A receives and displays content such as a TV program.
  • content such as a TV program.
  • first mobile phone 100A accepts a command to start chatting.
  • FIG. 3B first mobile phone 100A accepts the other user's selection command.
  • first mobile phone 100A transmits information for specifying a TV program to second mobile phone 100B via a mail transmission server (chat server 400).
  • second mobile phone 100B receives information from first mobile phone 100A (step S0006).
  • Second mobile phone 100B receives and displays the TV program based on the information.
  • both the first mobile phone 100A and the second mobile phone 100B may receive video content such as a TV program from the broadcast station 650 or the content server 600 after the P2P communication is started, that is, during the P2P communication. .
  • the first mobile phone 100A can repeat the mail transmission without P2P communication with the second mobile phone 100B.
  • first mobile phone 100A registers its own IP address in chat server 400, and a new one is created based on the mail address of first mobile phone 100A and the mail address of second mobile phone 100B.
  • a request is made to generate a chat room (step S0002).
  • second mobile phone 100B accepts a command to start chatting, and sends chat room 400 a message indicating that the room name and chat room are to be joined, and its own IP address. Are transmitted (step S0008).
  • the first mobile phone 100A acquires the IP address of the second mobile phone 100B
  • the second mobile phone 100B acquires the IP address of the first mobile phone 100A (step S0010), and authenticates each other. We meet (step S0012).
  • the first mobile phone 100A and the second mobile phone 100B can perform P2P communication (step S0014). That is, first mobile phone 100A and second mobile phone 100B according to the present embodiment transmit and receive data during reproduction of moving image content.
  • first mobile phone 100A receives an input of a hand-drawn image from the user, and displays the hand-drawn image on the moving image content.
  • first mobile phone 100A transmits hand-drawn data to second mobile phone 100B.
  • Second mobile phone 100B displays a hand-drawn image on the moving image content based on the hand-drawn data from first mobile phone 100A.
  • the second mobile phone 100B also receives an input of a hand-drawn image from the user and displays the hand-drawn image on the moving image content.
  • Second mobile phone 100B transmits hand-drawn data to first mobile phone 100A.
  • Second mobile phone 100B displays a hand-drawn image on the moving image content based on the hand-drawn data from first mobile phone 100A.
  • first mobile phone 100A or second mobile phone 100B when input end button is selected or input of hand-drawn data is started in either first mobile phone 100A or second mobile phone 100B.
  • first mobile phone 100A and the second mobile phone 100B pause the reproduction of the moving image content.
  • both the first mobile phone 100A and the second mobile phone 100B resume the reproduction of the moving image content.
  • the second mobile phone 100B sends an e-mail to the first mobile phone 100A or the like. It can be performed. Note that it is also possible to perform P2P communication by the TCP / IP communication method and mail transmission / reception by the HTTP communication method. That is, it is possible to send and receive mail during P2P communication.
  • FIG. 4 is an image diagram showing an outline of operations related to transmission / reception of hand-drawn data according to the present embodiment.
  • first mobile phone 100A and the second mobile phone 100B are directly performing chat communication (transmission and reception of hand-drawn images) without using a server will be described.
  • the first mobile phone 100A and the second mobile phone 100B may be connected via a server in chat communication (transmission and reception of hand-drawn images).
  • first mobile phone 100A and second mobile phone 100B receive the same moving image content (for example, a TV program) from broadcast station 650 or content server 600.
  • the moving image content is displayed.
  • the moving image content here can be stored (recorded) by the first mobile phone 100A or the second mobile phone 100B.
  • the third mobile phone 100C not participating in the chat communication may also receive and display the same moving image content.
  • the moving image content progresses as time passes. That is, the displayed image changes in the first mobile phone 100A, the second mobile phone 100B, and the third mobile phone 100C.
  • the first mobile phone 100A, the second mobile phone 100B, and the third mobile phone 100C may output audio corresponding to the moving image content.
  • first mobile phone 100A pauses the moving image content. That is, the first mobile phone 100A pauses the moving image content and displays a still image. Then, first mobile phone 100A transmits pause information to second mobile phone 100B via P2P communication.
  • the first mobile phone 100A determines that the first input has been received. Alternatively, when the user presses the handwriting start button, it is determined that first mobile phone 100A has received the first input.
  • second mobile phone 100B receives pause information and pauses the moving image content. That is, the second mobile phone 100B pauses the moving image content and displays a still image.
  • the third mobile phone 100C does not receive the pause information because it does not participate in the chat communication.
  • the third mobile phone 100C continues to play the moving image content as usual.
  • first mobile phone 100A displays the hand-drawn image on touch panel 102.
  • First mobile phone 100A transmits hand-drawn data to second mobile phone 100B via P2P communication.
  • second mobile phone 100B receives hand-drawn data from first mobile phone 100A and displays a hand-drawn image.
  • the third mobile phone 100C does not participate in chat communication, and therefore receives neither pause information nor a hand-drawn image.
  • the third mobile phone 100C continues to play the moving image content as usual.
  • second mobile phone 100B displays the hand-drawn image on touch panel 102.
  • Second mobile phone 100B transmits hand-drawn data to first mobile phone 100A via P2P communication.
  • first mobile phone 100A receives hand-drawn data from second mobile phone 100B and displays a hand-drawn image.
  • the third mobile phone 100C does not participate in chat communication, and therefore receives neither pause information nor a hand-drawn image.
  • the third mobile phone 100C continues to play the moving image content as usual.
  • first mobile phone 100A resumes the reproduction of the moving image content. Then, first mobile phone 100A transmits the resume information to second mobile phone 100B.
  • the first mobile phone 100A determines that the second input has been accepted.
  • the user presses the hand-drawing end button it is determined that the first mobile phone 100A has received the second input.
  • second mobile phone 100B receives the resume information from first mobile phone 100A, and resumes playback of the moving image content.
  • third mobile phone 100C continues to reproduce the moving image content as usual.
  • the first mobile phone 100A and the second mobile phone 100B determine whether or not the scene of the video content being played has been switched during the playback of the video content. Referring to FIGS. 4 (p) and (q), when first mobile phone 100A and second mobile phone 100B determine that the scene of the moving image content has been switched, the hand-drawn images that have been drawn so far are deleted. . This is because the hand-drawn images so far are likely to be related to the scene before switching.
  • the first mobile phone 100A that has received the first input receives the second input. Then, both the first mobile phone 100A and the second mobile phone 100B can input hand-drawn images while the moving image content is stopped.
  • the network system 1 according to the present embodiment can be applied to the following forms. First, the second input will be described.
  • both the first mobile phone 100A and the second mobile phone 100B receive the second input. May be acceptable.
  • both the first mobile phone 100A and the second mobile phone 100B input hand-drawn images. Can be accepted (transmittable).
  • first mobile phone 100A and the second mobile phone 100B start the input of a hand-drawn image, that is, touch the touch panel 102 of the stylus pen 120 with the first mobile phone 100A. It may be determined as an input. Alternatively, first mobile phone 100A and second mobile phone 100B may consider that the handwriting input start button on touch panel 102 is pressed as the input of the first command.
  • first mobile phone 100A and the second mobile phone 100B may determine the end of the input of the hand-drawn image, that is, the separation of the stylus pen 120 from the touch panel 102 as the second input.
  • first mobile phone 100A and second mobile phone 100B may consider that the handwriting input end button on touch panel 102 is pressed as the input of the second command.
  • the network system 1 causes an undesired scene change during the input of the hand-drawn image, or the first mobile phone 100A and the second mobile phone during the input of the hand-drawn image.
  • the possibility of displaying a scene different from 100B can be reduced.
  • FIG. 5 is an image diagram showing an appearance of mobile phone 100 according to the present embodiment.
  • FIG. 6 is a block diagram showing a hardware configuration of mobile phone 100 according to the present embodiment.
  • the mobile phone 100 includes a communication device 101 that transmits / receives data to / from an external network, a TV antenna 113 that receives television broadcasts, programs, and various types of programs.
  • a memory 103 for storing a database, a CPU (Central Processing Unit) 106, a display 107, a microphone 108 to which external sound is input, a speaker 109 for outputting sound, and various buttons 110 for receiving input of various information; It includes a first notification unit 111 that outputs a voice indicating that communication data or a call signal from the outside has been received, and a second notification unit 112 that displays that the communication data or call signal from the outside has been received.
  • a communication device 101 that transmits / receives data to / from an external network
  • a TV antenna 113 that receives television broadcasts, programs, and various types of programs.
  • a memory 103 for storing a database, a CPU (Central Processing Unit) 106, a display 107, a microphone 108 to which external sound is input,
  • the display 107 according to the present embodiment realizes the touch panel 102 including a liquid crystal panel and a CRT. That is, in the mobile phone 100 according to the present embodiment, the pen tablet 104 is laid on the upper side (front side) of the display 107. Accordingly, the user can input graphic information or the like into the CPU 106 via the pen tablet 104 by hand using the stylus pen 120 or the like.
  • the user can also perform hand-drawn input by the following method. That is, by using a special pen that outputs infrared light and sound waves, the movement of the pen is determined by a receiving unit that receives infrared light and sound waves transmitted from the pen. In this case, by connecting the receiving unit to a device that stores a trajectory, the CPU 106 can receive the trajectory output from the device as a hand-drawn input.
  • the user can write a hand-drawn image on the electrostatic panel using a finger or an electrostatic-compatible pen.
  • the display 107 displays an image or text based on the data output from the CPU 106.
  • the display 107 displays moving image content received via the communication device 101 or the TV antenna 113.
  • the display 107 displays the hand-drawn image superimposed on the moving image content based on the hand-drawn data received via the tablet 104 or the hand-drawn data received via the communication device 101.
  • the various buttons 110 receive information from the user by a key input operation or the like.
  • the various buttons 110 include a TEL button 110A for accepting a call or making a call, a mail button 110B for accepting a mail or sending a mail, accepting P2P communication, or performing P2P communication.
  • P2P button 110C for issuing, address book button 110D for calling up address book data, and end button 110E for ending various processes. That is, when receiving the P2P participation request mail via the communication device 101, the various buttons 110 accept from the user an instruction to participate in the chat room, an instruction to display the contents of the mail, and the like.
  • the various buttons 110 may include a button for receiving a command for starting hand-drawn input, that is, a button for receiving a first input.
  • the various buttons 110 may include a button for receiving a command for ending hand-drawn input, that is, a button for receiving a second input.
  • the first notification unit 111 outputs a ring tone through the speaker 109 or the like. Alternatively, the first notification unit 111 has a vibration function. The first notification unit 111 outputs a voice or vibrates the mobile phone 100 when an incoming call is received, a mail is received, or a P2P participation request mail is received.
  • the second notification unit 112 includes a TEL LED (Light Emitting Diode) 112A that flashes when an incoming call is received, a mail LED 112B that flashes when a mail is received, and a P2P LED 112C that flashes when a P2P communication is received. including.
  • TEL LED Light Emitting Diode
  • CPU 106 controls each unit of mobile phone 100. For example, various commands are received from the user via various buttons 110, and data is transmitted / received to / from an external communication terminal via the communication device 101, the communication device 101, or the network.
  • the communication device 101 converts communication data from the CPU 106 into a communication signal and transmits the communication signal to the outside.
  • the communication device 101 converts communication signals received from the outside into communication data, and inputs the communication data to the CPU 106.
  • the memory 103 is realized by a RAM (Random Access Memory) that functions as a working memory, a ROM (Read Only Memory) that stores a control program, a hard disk that stores image data, and the like.
  • FIG. 7A is an image diagram showing the data structure of various work memories 103 ⁇ / b> A that constitute the memory 103.
  • FIG. 7B is an image diagram showing the address book data 103B stored in the memory 103.
  • FIG. 7C is an image diagram showing the own terminal data 103 ⁇ / b> C stored in the memory 103.
  • FIG. 7D is an image diagram showing the IP address data 103D of the own terminal and the IP address data 103E of another terminal stored in the memory 103.
  • the work memory 103A of the memory 103 includes an RCVTELNO area for storing a caller's telephone number, an RCVMAIL area for storing information about received mail, and a SENDMIL area for storing information about outgoing mail.
  • the work memory 103A may not store a telephone number.
  • the information related to the received mail includes the mail text stored in the MAIN area and the mail address of the mail transmission source stored in the RCVMAIL FROM area.
  • the information regarding the outgoing mail includes the mail text stored in the MAIN area and the mail address of the mail destination stored in the TO area of RCVMAIL.
  • the address book data 103B associates a memory No. for each destination (other communication terminal).
  • the address book data 103B stores a name, a telephone number, a mail address, and the like in association with each other for each destination.
  • the own terminal data 103C stores the name of the user of the own terminal, the telephone number of the own terminal, the mail address of the own terminal, and the like.
  • the IP address data 103D of the own terminal stores the IP address of the own terminal.
  • the IP address data 103E of the other terminal stores the IP address of the other terminal.
  • Each of the mobile phones 100 according to the present embodiment uses the data shown in FIG. 7 to transmit data to and from other communication terminals in the manner described above (see FIGS. 1 to 3). Can be sent and received.
  • chat server 400 and content server 600 Next, the hardware configuration of chat server 400 and content server 600 according to the present embodiment will be described. Below, the hardware configuration of the chat server 400 will be described first.
  • FIG. 8 is a block diagram showing a hardware configuration of chat server 400 according to the present embodiment.
  • chat server 400 according to the present embodiment includes CPU 405, memory 406, fixed disk 407, and server communication device 409 that are connected to each other via internal bus 408.
  • the memory 406 stores various types of information. For example, the memory 406 temporarily stores data necessary for executing a program in the CPU 405.
  • the fixed disk 407 stores a program executed by the CPU 405 and a database.
  • the CPU 405 controls each element of the chat server 400 and is a device that performs various calculations.
  • the server communication device 409 converts the data output from the CPU 405 into an electrical signal and transmits it to the outside, and converts the electrical signal received from the outside into data and inputs it to the CPU 405. Specifically, the server communication device 409 transmits data from the CPU 405 to the mobile phone 100, the car navigation device 200, the personal computer 300, the game machine, the electronic dictionary, the electronic BOOK, etc. via the Internet 500, the carrier network 700, and the like. Send to devices that can be connected to other networks. Then, the server communication device 409 is received from the mobile phone 100, the car navigation device 200, the personal computer 300, the game machine, the electronic dictionary, the electronic BOOK, or the like that can be connected to the network via the Internet 500 or the carrier network 700. Data is input to the CPU 405.
  • FIG. 9A is a first image diagram showing the data structure of the room management table 406A stored in the memory 406 or the fixed disk 407 of the chat server 400.
  • FIG. 9B shows the memory of the chat server 400.
  • FIG. 9A is a first image diagram showing the data structure of the room management table 406A stored in the memory 406 or the fixed disk 407 of the chat server 400.
  • FIG. 9B shows the memory of the chat server 400.
  • the room management table 406A stores room names and IP addresses in association with each other. For example, at a certain point in time, as shown in FIG. 9A, a chat room having a room name R, a chat room having a room name S, and a chat room having a room name T are generated in the chat server 400. Then, a communication terminal having an IP address of A and a communication terminal having an IP address of C enter the chat room having the room name R. A communication terminal having an IP address of B enters the chat room having the room name S. A communication terminal having an IP address of D enters the chat room having the room name T.
  • the room name R is determined by the CPU 406 based on the mail address of a communication terminal having an IP address of A and the mail address of a communication terminal having an IP address of B.
  • the room management table 406A stores the room name S as shown in FIG. 9B.
  • IP address E are stored in association with each other.
  • chat server 400 when first mobile phone 100A requests generation of a new chat room (step S0002 in FIG. 2), CPU 405 determines the mail address of first mobile phone 100A.
  • the room name is generated based on the mail address of the second mobile phone 100B and the room name is stored in the room management table 406A in association with the IP address of the first mobile phone 100A.
  • the CPU 405 stores the room name and the second mobile phone 100B in the room management table 406A. Is stored in association with the IP address of CPU 406 reads the IP address of first mobile phone 100A corresponding to the room name from room management table 406A. CPU 406 transmits the IP address of first mobile phone 100A to each second communication terminal, and transmits the IP address of second mobile phone 100B to first mobile phone 100A.
  • a content server 600 includes a CPU 605, a memory 606, a fixed disk 607, and a server communication device 609 that are mutually connected by an internal bus 608.
  • the memory 606 stores various types of information. For example, the memory 606 temporarily stores data necessary for execution of a program by the CPU 605.
  • the fixed disk 607 stores a program executed by the CPU 605 and a database.
  • the CPU 605 controls each element of the content server 600 and is a device that performs various calculations.
  • the server communication device 609 converts the data output from the CPU 605 into an electrical signal and transmits it to the outside, and converts the electrical signal received from the outside into data and inputs it to the CPU 605. Specifically, the server communication device 609 transmits the data from the CPU 605 to the mobile phone 100, the car navigation device 200, the personal computer 300, the game machine, the electronic dictionary, the electronic BOOK, etc. via the Internet 500 or the carrier network 700. Send to devices that can be connected to other networks. Then, the server communication device 609 is received via the Internet 500 or the carrier network 700 from a device that can be connected to a network such as the mobile phone 100, the car navigation device 200, the personal computer 300, a game machine, an electronic dictionary, or an electronic book. Data is input to the CPU 605.
  • the memory 606 or the fixed disk 607 of the content server 600 stores moving image content.
  • the CPU 605 of the content server 600 receives the content specification from the first mobile phone 100A and the second mobile phone 100B via the server communication device 609. Based on the content specification, the CPU 605 of the content server 600 reads out the moving image content corresponding to the specification from the memory 606, and the content is transmitted via the server communication device 609 to the first mobile phone 100A and the second mobile phone. To 100B.
  • the moving image content is streaming data or the like, and the content server 600 distributes the same content to the first mobile phone 100A and the second mobile phone 100B almost simultaneously.
  • the CPU 605 of the content server 600 issues a stop command (first command) or a restart command (second command) from the first mobile phone 100A or the second mobile phone 100B via the server communication device 609. Receive.
  • the CPU 605 temporarily stops the progress of the moving image being distributed to the first mobile phone 100A and the second mobile phone 100B in response to the stop command.
  • the CPU 605 transmits the streaming data via the server communication device 609 so that the progress of the moving image in the first mobile phone 100A and the second mobile phone 100B is temporarily stopped. That is, in the first mobile phone 100A and the second mobile phone 100B, the frames displayed on the first mobile phone 100A and the second mobile phone 100B when the first command is input are: It continues to be displayed like a still image.
  • the CPU 605 restarts the moving image in response to the restart command.
  • the CPU 605 transmits streaming data via the server communication device 609 so that the progress of the moving image on the first mobile phone 100A and the second mobile phone 100B is resumed. That is, the CPU 605 resumes distribution from the continuation of the frame displayed on the first mobile phone 100A and the second mobile phone 100B when the first command is input.
  • FIG. 10 is a flowchart showing a processing procedure of chat communication processing in the network system according to the present embodiment.
  • FIG. 11 is an image diagram showing a data structure of transmission data according to the present embodiment.
  • the first mobile phone 100A and the second mobile phone 100B may transmit / receive data via the chat server 400 after the chat room is established, or may transmit data via P2P communication without using the chat server 400. You may send and receive.
  • CPU 106 of first mobile phone 100A acquires data related to chat communication from chat server 400 via communication device 101 (step S002).
  • CPU 106 of second mobile phone 100B (reception side) also acquires data related to chat communication from chat server 400 via communication device 101 (step S004).
  • data related to chat communication includes chat room ID, member terminal information, notification (notification information), chat contents up to this point, and the like.
  • the CPU 106 of the first mobile phone 100A acquires the video information (a) for specifying the video content from the chat server via the communication device 101 (step S006).
  • the moving image information (a) includes, for example, a broadcast station code and a broadcast time for specifying a TV program.
  • the moving image information (a) includes a URL indicating a storage location of the moving image.
  • one CPU 106 of first mobile phone 100 ⁇ / b> A and second mobile phone 100 ⁇ / b> B transmits moving image information to chat server 400 via communication device 101.
  • the other CPU 106 of the first mobile phone 100A and the second mobile phone 100B receives the video information from the chat server 400 via the communication device 101 (step S008).
  • the first mobile phone 100A and the second mobile phone 100B acquire moving image information during chat communication, but the present invention is not limited to this, and the first mobile phone 100A and the second mobile phone 100B Mobile phone 100B may acquire common video information before chat communication.
  • the CPU 106 of the first mobile phone 100A displays a window for reproducing moving image content on the touch panel 102 (step S010).
  • CPU 106 of second mobile phone 100B causes touch panel 102 to display a window for reproducing moving image content (step S012).
  • the CPU 106 of the first mobile phone 100A receives the moving image content (for example, TV program) via the communication device 101 or the TV antenna 113 based on the moving image information.
  • CPU 106 starts to reproduce the moving image content via touch panel 102 (step S014).
  • the CPU 106 may output the sound of the moving image content via the speaker 109.
  • the CPU 106 of the second mobile phone 100B receives the same moving image content as the first mobile phone 100A via the communication device 101 or the TV antenna 113 based on the moving image information.
  • CPU 106 starts to reproduce the moving image content via touch panel 102 (step S016).
  • the CPU 106 may output the sound of the moving image content via the speaker 109.
  • the CPU 106 of the first mobile phone 100A starts storing the received moving image content in the memory 103 (step S018).
  • the CPU 106 of the second mobile phone 100B starts storing the received moving image content in the memory 103 (step S020).
  • the CPU 106 of the first mobile phone 100A contacts the second mobile phone 100B via the communication device 101.
  • Pause information (f) is transmitted (step S022).
  • CPU 106 of second mobile phone 100B receives pause information (f) from first mobile phone 100A via communication device 101 (step S024).
  • first mobile phone 100A may transmit the pause information (f) to the second mobile phone 100B via the chat server 400.
  • Chat server 400 may accumulate pause information (f) transmitted / received by first mobile phone 100A or second mobile phone 100B.
  • the pause information (f) is, for example, the time (ms) from the start of the program when the first mobile phone 100A accepts the first input, or the program information Includes scene number and frame number.
  • the pause information (f) includes information for pausing the reproduction of the moving image content and information for specifying a scene, a frame, and the like of the moving image content corresponding to the paused timing.
  • the CPU 106 of the first mobile phone 100A temporarily stops the reproduction of the moving image content (step S026).
  • the CPU 106 displays a still image of a scene or frame that is displayed when the hand-drawing start button is pressed, based on a plurality of image data constituting the moving image content.
  • the CPU 106 of the second mobile phone 100B also pauses the reproduction of the moving image content (step S028).
  • the CPU 106 displays a still image of a scene or frame specified by pose information based on a plurality of image data constituting the moving image content.
  • the CPU 106 of the first mobile phone 100A accepts a hand-drawn input from the user via the touch panel 102 (step S030). More specifically, the CPU 106 sequentially receives contact coordinate data from the touch panel 102 every predetermined time, thereby acquiring a change (trajectory) of the contact position with respect to the touch panel 102. As shown in FIG. 11, the CPU 106 includes hand-drawn clear information (b), information (c) indicating the locus of the contact position, information (d) indicating the line color, and information (e) indicating the line width. The transmission data including these is created (step S032).
  • the hand-drawn clear information (b) includes information (true) for clearing the hand-drawn input input so far or information (false) for continuing the hand-drawn input.
  • the CPU 106 displays a hand-drawn image on the moving image content (superimposed on the moving image content) on the display 107 based on the transmission data.
  • CPU 106 transmits transmission data to second mobile phone 100B via communication device 101 (step S034).
  • CPU 106 of second mobile phone 100B receives the transmission data from first mobile phone 100A via communication device 101 (step S036).
  • first mobile phone 100A may transmit the transmission data to the second mobile phone 100B via the chat server 400.
  • Chat server 400 may accumulate transmission data transmitted and received by first mobile phone 100A and second mobile phone 100B.
  • the CPU 106 analyzes the transmission data (step S038). Based on the transmission data, the CPU 106 displays a hand-drawn image on the moving image content (superimposed on the moving image content) on the display 107 (step S040).
  • the CPU 106 of the first mobile phone 100A communicates with the second mobile phone 100B via the communication device 101.
  • Resume information (f) is transmitted (step S042).
  • CPU 106 of second mobile phone 100B receives resume information (f) from first mobile phone 100A via communication device 101 (step S044).
  • the first mobile phone 100A may transmit the resume information (f) to the second mobile phone 100B via the chat server 400. Then, the chat server 400 may accumulate resume information (f) transmitted / received by the first mobile phone 100A or the second mobile phone 100B.
  • the resume information (f) includes, for example, information for resuming the reproduction of the moving image content.
  • the resume information (f) may include information for specifying the stop time of the moving image content.
  • the resume information (f) may include the time (ms) from the start of the program when the first mobile phone 100A accepts the first input, or the scene number or frame of the program.
  • the CPU 106 of the first mobile phone 100A resumes the reproduction of the moving image content (step S046).
  • CPU 106 resumes the reproduction of the moving image content from the paused scene or frame based on the moving image content stored in memory 103.
  • first mobile phone 100A may transmit a message to the effect that the suspension has been canceled to the second mobile phone 100B directly by P2P communication or via the chat server 400.
  • Chat server 400 may accumulate messages transmitted and received by first mobile phone 100A and second mobile phone 100B.
  • the CPU 106 of the second mobile phone 100B also resumes the reproduction of the moving image content (step S048). Based on the moving image content stored in the memory 103, the CPU 106 resumes the reproduction of the moving image content from the scene or frame specified by the resume information.
  • first mobile phone 100A and the second mobile phone 100B may start playing the video content received after receiving the second input or resume information without recording the video content. Good.
  • the CPU 106 of the first mobile phone 100A closes the moving image content window (step S050).
  • CPU 106 of second mobile phone 100B closes the moving image content window (step S052).
  • FIG. 12 is a flowchart showing a processing procedure of input processing in mobile phone 100 according to the present embodiment.
  • CPU 106 first executes pen information setting processing (step S200) when input to mobile phone 100 is started.
  • the pen information setting process (step S200) will be described later.
  • step S200 the CPU 106 determines whether or not the data (b) is true (step S102). If data (b) is true (YES in step S102), CPU 106 stores data (b) in memory 103 (step S104). The CPU 106 ends the input process.
  • step S106 determines whether or not the stylus pen 120 has touched the touch panel 102 (step S106). That is, the CPU 106 determines whether pen-down has been detected.
  • step S106 determines whether or not the contact position of the stylus pen 120 with respect to the touch panel 102 has changed (step S108). That is, the CPU 106 determines whether or not pen drag has been detected. If CPU 106 does not detect a pen drag (NO in step S108), CPU 106 ends the input process.
  • CPU 106 sets “false” to data (b) when pen-down is detected (YES in step S 106) or pen drag is detected (YES in step S 108) ( Step S110).
  • CPU 106 executes hand-drawn processing (step S300). The hand drawing process (step S300) will be described later.
  • CPU 106 stores the data (b), (c), (d), and (e) in the memory 103 after completing the hand-drawing process (step S300) (step S112).
  • the CPU 106 ends the input process.
  • FIG. 13 is a flowchart showing a processing procedure of pen information setting processing in mobile phone 100 according to the present embodiment.
  • CPU 106 determines whether an instruction for clearing a hand-drawn image is received from the user via touch panel 102 (step S202).
  • CPU 106 receives a command for clearing the hand-drawn image from the user (YES in step S202)
  • CPU 106 sets “true” in data (b) (step S204).
  • CPU 106 executes the processing from step S208.
  • CPU 106 sets “false” in the data (e) when not receiving a command for clearing the hand-drawn image from the user (NO in step S202) (step S206).
  • CPU 106 determines whether an instruction for changing the pen color is received from the user via touch panel 102 (step S208). When CPU 106 has not received a command for changing the pen color from the user (NO in step S208), CPU 106 executes the processing from step S212.
  • the CPU 106 When the CPU 106 receives a command for changing the pen color from the user (YES in step S208), the CPU 106 sets the changed pen color in the data (d) (step S210).
  • CPU 106 determines whether or not a command for changing the pen width has been received from the user via touch panel 102 (step S212). If CPU 106 has not received a command to change the pen width from the user (NO in step S212), CPU 106 ends the pen information setting process.
  • the CPU 106 When the CPU 106 receives a command for changing the pen width from the user (YES in step S212), the CPU 106 sets the changed pen width in the data (e) (step S214). The CPU 106 ends the pen information setting process.
  • FIG. 14 is a flowchart showing a processing procedure of hand-drawing processing in mobile phone 100 according to the present embodiment.
  • CPU 106 determines whether stylus pen 120 is currently in contact with touch panel 102 via touch panel 102 (step S302). If stylus pen 120 is not in contact with touch panel 102 (NO in step S302), CPU 106 ends the hand-drawing process.
  • step S302 When stylus pen 120 is in contact with touch panel 102 (YES in step S302), CPU 106 makes contact coordinates (X, Y) of stylus pen 120 with respect to touch panel 102 via touch panel 102 and the current time ( T) is acquired (step S304). The CPU 106 sets “X, Y, T” in the data (c) (step S306).
  • CPU 106 determines whether or not a predetermined time has elapsed since the previous acquisition of coordinates (step S308). If the predetermined time has not elapsed (NO in step S308), CPU 106 repeats the processing from step S308.
  • CPU 106 determines whether pen drag has been detected via touch panel 102 when the predetermined time has elapsed (YES in step S308) (step S310). When CPU 106 has not detected a pen drag (NO in step S310), CPU 106 executes processing from step S316.
  • step S310 When the CPU 106 detects a pen drag (YES in step S310), the touch position coordinate (X, Y) of the stylus pen 120 with respect to the touch panel 102 and the current time (T) are detected via the touch panel 102. Is acquired (step S312). The CPU 106 adds “: X, Y, T” to the data (c) (step S314). CPU 106 determines whether or not a predetermined time has elapsed since the previous acquisition of contact coordinates (step S316). If the predetermined time has not elapsed (NO in step S316), CPU 106 repeats the processing from step S316.
  • CPU 106 determines whether pen-up has been detected via touch panel 102 (step S318). CPU 106 repeats the processing from step S310 when pen-up is not detected (NO in step S318).
  • the CPU 106 detects pen-up (when YES in step S318), the touch coordinates (X, Y) of the stylus pen with respect to the touch panel 102 at the time of pen-up and pen-up are detected via the touch panel 102.
  • Time (T) is acquired (step S320).
  • the CPU 106 adds “: X, Y, T” to the data (c) (step S322).
  • the CPU 106 ends the hand drawing process.
  • FIG. 15 is a flowchart showing a processing procedure of display processing in mobile phone 100 according to the present embodiment.
  • CPU 106 determines whether or not the reproduction of the moving image content has ended (step S402).
  • CPU 106 ends the display process when the reproduction of the moving image content ends (YES in step S402).
  • step S406 clear information clear (data (b)) when reproduction of moving image content has not ended (NO in step S402) (step S404).
  • the CPU 106 determines whether or not the clear information clear is true (step S406). If the clear information clear is true (YES in step S406), the CPU 106 hides the hand-drawn image (step S408). The CPU 106 ends the display process.
  • step S406 When the clear information clear is not true (NO in step S406), the CPU 106 acquires the pen color (data (d)) (step S410). The CPU 106 resets the pen color (step S412). The CPU 106 acquires the pen width (data (e)) (step S414). The CPU 106 resets the pen width (step S416).
  • CPU 106 executes hand-drawn image display processing (step S500). The hand-drawn image display process (step S500) will be described later. The CPU 106 ends the display process.
  • FIG. 16 is a flowchart showing a processing procedure of an application example of display processing in mobile phone 100 according to the present embodiment.
  • the mobile phone 100 erases (resets) not only the clear information but also the hand-drawn image displayed so far when the scene is switched.
  • CPU 106 determines whether or not the reproduction of the moving image content has ended (step S452).
  • CPU 106 ends the display process when the reproduction of the moving image content ends (YES in step S452).
  • CPU 106 determines whether or not the scene of the video content has been switched (step S454) if the playback of the video content has not ended (NO in step S452). If the scene of the moving image content has not been switched (NO in step S454), CPU 106 executes the processing from step S458.
  • step S454 When the scene of the moving image content is switched (YES in step S454), CPU 106 hides the hand-drawn image displayed so far (step S456).
  • the CPU 106 acquires clear information clear (data (b)) (step S458).
  • the CPU 106 determines whether or not the clear information clear is true (step S460). If the clear information clear is true (YES in step S460), the CPU 106 hides the hand-drawn image displayed so far (step S462). The CPU 106 ends the display process.
  • step S460 the CPU 106 acquires the pen color (data (d)) (step S464).
  • the CPU 106 resets the pen color (step S466).
  • the CPU 106 acquires the pen width (data (e)) (step S468).
  • CPU 106 resets the pen width (step S470).
  • CPU 106 executes hand-drawn image display processing (step S500).
  • the hand-drawn image display process (step S500) will be described later.
  • the CPU 106 ends the display process.
  • FIG. 17 is a flowchart showing a processing procedure of hand-drawn image display processing in mobile phone 100 according to the present embodiment.
  • CPU 106 acquires the coordinates (data (c)) of the vertex of the hand-drawn stroke (step S502).
  • the CPU 106 acquires the number n of coordinates of the vertices of the hand-drawn stroke (step S504).
  • CPU 106 substitutes 1 for variable i (step S506).
  • the CPU 106 draws a hand-drawn stroke by connecting the coordinates (Cxi, Cyi) and the coordinates (Cx (i + 1), Cy (i + 1)) with a line using the touch panel 102 (step S508).
  • CPU 106 increments variable i (step S510).
  • the CPU 106 determines whether or not the variable i is greater than or equal to the number n (step S512). If the variable i is less than the number n (NO in step S512), CPU 106 repeats the processing from step S508. If the variable i is greater than or equal to the number n (YES in step S512), the CPU 106 ends the hand-drawn image display process.
  • FIG. 18 is a flowchart showing a processing procedure of an application example of the hand-drawn image display processing in mobile phone 100 according to the present embodiment.
  • a process for displaying a hand-drawn image at the input speed of the hand-drawn image will be described.
  • CPU 106 obtains the coordinates (data (c)) of the hand-drawn stroke vertex (step S552).
  • the CPU 106 acquires the number n of coordinates of the vertices of the hand-drawn stroke (step S554).
  • CPU 106 substitutes 1 for variable i (step S556).
  • the CPU 106 determines whether or not the time Ct (i + 1) has elapsed from the time t at which the previous drawing step (step S560 described later) was executed (step S558). If time Ct (i + 1) has not elapsed since time t (NO in step S558), the processing from step S558 is repeated.
  • step S558 When the time Ct (i + 1) has elapsed from time t (YES in step S558), the CPU 106 uses the touch panel 102 to coordinate (Cxi, Cyi) and coordinates (Cx (i + 1), Cy (i + 1). )) Are connected by a line to draw a hand-drawn stroke (step S560). CPU 106 increments variable i (step S562).
  • CPU 106 determines whether or not the variable i is greater than or equal to the number n (step S564). CPU 106 repeats the processing from step S558 when variable i is less than the number n (NO in step S564). If the variable i is greater than or equal to the number n (YES in step S564), CPU 106 ends the hand-drawn image display process.
  • the content server 600 uses the first mobile phone 100A or the second mobile phone regardless of the chat status of the first mobile phone 100A or the second mobile phone 100B.
  • the content (moving image) is transmitted to the telephone 100B.
  • the first mobile phone 100A or the second mobile phone 100B stops the moving image while the content server 600 is moving the moving image. For this reason, the first mobile phone 100A and the second mobile phone 100B need to store the moving image (distributed) corresponding to the period in which the moving image is stopped.
  • content server 600 temporarily stops the content (video) being distributed according to the chat status of first mobile phone 100A or second mobile phone 100B. To do. That is, the first mobile phone 100A and the second mobile phone 100B do not need to store moving images corresponding to the period in which the moving images are stopped. However, the content server 600 needs to receive information from the first mobile phone 100A or the second mobile phone 100B that the progress of the moving image being distributed should be stopped or restarted.
  • FIG. 19 is an image diagram showing an outline of operation related to transmission / reception of hand-drawn data according to the present embodiment.
  • first mobile phone 100A and the second mobile phone 100B are directly performing chat communication (transmission and reception of hand-drawn images) without using a server will be described.
  • the first mobile phone 100A and the second mobile phone 100B may be connected via a server in chat communication (transmission and reception of hand-drawn images).
  • first mobile phone 100A and second mobile phone 100B receive the same video content (for example, a TV program) from content server 600, and the video content Is displayed.
  • the moving image content is one in which the content server 600 can control playback and pause in the first mobile phone 100A and the second mobile phone 100B, and includes, for example, streaming data.
  • the third mobile phone 100C not participating in the chat communication may also receive and display the same moving image content.
  • the moving image content progresses with time. That is, the displayed image changes in the first mobile phone 100A, the second mobile phone 100B, and the third mobile phone 100C.
  • the first mobile phone 100A, the second mobile phone 100B, and the third mobile phone 100C may output audio corresponding to the moving image content.
  • first mobile phone 100A instructs content server 600 to start inputting a hand-drawn image.
  • the content server 600 receives the message (start message) and pauses the progress of the moving image content. For example, the content server 600 transmits information indicating that the frame does not change.
  • the progress of the moving image content pauses in the first mobile phone 100A and the second mobile phone 100B. More precisely, the first mobile phone 100A and the second mobile phone 100B seem to stop the progress of the moving image content. In other words, it seems that the latest still image is displayed.
  • the first mobile phone 100A determines that the first command has been received. Alternatively, when the user presses the handwriting start button, it is determined that first mobile phone 100A has received the first command. First mobile phone 100A transmits a start message to content server 600 in response to the first command.
  • the third mobile phone 100C does not receive the start message because it does not participate in the chat communication.
  • the third mobile phone 100C continues to play the moving image content from the content server 600 as usual.
  • first mobile phone 100 ⁇ / b> A displays the hand-drawn image on touch panel 102.
  • First mobile phone 100A transmits hand-drawn data to second mobile phone 100B via P2P communication.
  • second mobile phone 100B receives hand-drawn data from first mobile phone 100A and displays a hand-drawn image.
  • the third mobile phone 100C does not participate in the chat communication, and therefore receives neither a start message nor a hand-drawn image.
  • the third mobile phone 100C continues to play the moving image content as usual.
  • second mobile phone 100B displays the hand-drawn image on touch panel 102.
  • Second mobile phone 100B transmits hand-drawn data to first mobile phone 100A via P2P communication.
  • first mobile phone 100A receives hand-drawn data from second mobile phone 100B and displays a hand-drawn image.
  • third mobile phone 100C does not participate in the chat communication, and therefore receives neither a start message nor a hand-drawn image.
  • the third mobile phone 100C continues to play the moving image content as usual.
  • first mobile phone 100A causes content server 600 to store the hand-drawn image.
  • a message to the effect that input has been completed or a message to resume video distribution is transmitted.
  • the content server 600 receives the message (end message), and resumes the progress of the moving image content from the stopped position.
  • first mobile phone 100A and second mobile phone 100B the progress of the moving image content is resumed in first mobile phone 100A and second mobile phone 100B. More precisely, on the first mobile phone 100A and the second mobile phone 100B, it seems that the progress of the moving image content has been resumed.
  • the first mobile phone 100A when the stylus pen 120 or a finger or the like is not in contact with the touch panel 102 of the first mobile phone 100A and no hand-drawn data is received from the second mobile phone 100B, the first mobile phone 100A. Determines that the second command has been received. Alternatively, when the user presses the hand-drawn end button, it is determined that the first mobile phone 100A has received the second command. First mobile phone 100A transmits an end message to content server 600 in response to the second command.
  • third mobile phone 100C continues to reproduce the moving image content as usual.
  • the content server 600 determines whether or not the scene of the video content being played has been switched during the distribution of the video content. 19 (p) (q), content server 600 transmits scene change information to first mobile phone 100A and second mobile phone 100B when determining that the scene of the moving image content has been switched. First mobile phone 100A and second mobile phone 100B receive the scene change information and delete the hand-drawn image drawn so far. This is because the hand-drawn images so far are likely to be related to the scene before switching.
  • each of the first mobile phone 100A and the second mobile phone 100B may determine whether or not the scene of the video content being played is switched during the playback of the video content. That is, referring to FIGS. 19 (p) and 19 (q), when first mobile phone 100A and second mobile phone 100B determine that the scene of the moving image content has been switched, the hand-drawn images that have been drawn so far are displayed. It may be deleted.
  • FIG. 19 (r) (s) when the content server 600 determines that the scene of the moving image content has been switched, the content server 600 transmits scene change information to the first mobile phone 100A and the second mobile phone 100B.
  • First mobile phone 100A and second mobile phone 100B receive the scene change information and delete the hand-drawn image drawn so far.
  • each of the first mobile phone 100A and the second mobile phone 100B may determine whether or not the scene of the video content being played has been switched during the playback of the video content. That is, referring to FIGS. 19 (p) and 19 (q), when first mobile phone 100A and second mobile phone 100B determine that the scene of the moving image content has been switched, the hand-drawn images that have been drawn so far are displayed. It may be deleted.
  • the first mobile phone 100A that has received the first input receives the second input. Then, both the first mobile phone 100A and the second mobile phone 100B can input hand-drawn images while the moving image content is stopped.
  • the network system 1 according to the present embodiment can be applied to the following forms. First, the second instruction will be described.
  • both the first mobile phone 100A and the second mobile phone 100B receive the second command. May be acceptable.
  • Only the first mobile phone 100A that has received the first command (transmitted the start message) may be capable of receiving (transmitting) an input of a hand-drawn image.
  • both the first mobile phone 100A and the second mobile phone 100B input hand-drawn images. Can be accepted (transmittable).
  • first mobile phone 100A and the second mobile phone 100B start the input of a hand-drawn image, that is, touch the touch panel 102 of the stylus pen 120 with the first mobile phone 100A. It may be determined as an instruction. Alternatively, first mobile phone 100A and second mobile phone 100B may consider that the handwriting input start button on touch panel 102 is pressed as the input of the first command.
  • first mobile phone 100A and the second mobile phone 100B may determine that the input of the hand-drawn image, that is, the separation of the stylus pen 120 from the touch panel 102 is the second command.
  • first mobile phone 100A and second mobile phone 100B may consider that the handwriting input end button on touch panel 102 is pressed as the input of the second command.
  • network system 1 when any communication terminal accepts an input start command for hand-drawn images, reproduction of video content on all communication terminals in which content server 600 is performing chat communication is performed. Pause. When one of the communication terminals receives a hand-drawn image input end command, the reproduction of the moving image content on all the communication terminals in the chat communication is resumed.
  • the network system 1 causes an undesired scene change during the input of the hand-drawn image, or the first mobile phone 100A and the second mobile phone during the input of the hand-drawn image.
  • the possibility of displaying a scene different from 100B can be reduced.
  • FIG. 20 is a flowchart showing a processing procedure of chat communication processing in the network system according to the present embodiment.
  • FIG. 21 is an image diagram showing a data structure of transmission data according to the present embodiment.
  • the first mobile phone 100A and the second mobile phone 100B may transmit / receive data via the chat server 400 after the chat room is established, or may transmit data via P2P communication without using the chat server 400. You may send and receive.
  • CPU 106 of first mobile phone 100A acquires data related to chat communication from chat server 400 via communication device 101 (step S1002).
  • CPU 106 of second mobile phone 100B (reception side) also acquires data related to chat communication from chat server 400 via communication device 101 (step S1004).
  • data related to chat communication includes chat room ID, member terminal information, notification (notification information), chat contents up to this point, and the like.
  • the CPU 106 of the first mobile phone 100A acquires the video information (a) for specifying the video content from the chat server via the communication device 101 (step S1006).
  • the moving image information (a) includes, for example, a broadcast station code and a broadcast time for specifying a TV program.
  • the moving image information (a) includes a URL indicating a storage location of the moving image.
  • one CPU 106 of first mobile phone 100 ⁇ / b> A and second mobile phone 100 ⁇ / b> B transmits moving image information to chat server 400 via communication device 101.
  • the other CPU 106 of the first mobile phone 100A and the second mobile phone 100B receives the video information from the chat server 400 via the communication device 101 (step S1008).
  • the first mobile phone 100A and the second mobile phone 100B acquire moving image information during chat communication, but the present invention is not limited to this, and the first mobile phone 100A and the second mobile phone 100B Mobile phone 100B may acquire common video information before chat communication.
  • the CPU 106 of the first mobile phone 100A causes the touch panel 102 to display a window for reproducing the moving image content (step S1010).
  • CPU 106 of second mobile phone 100B causes touch panel 102 to display a window for reproducing moving image content (step S1012).
  • the content server 600 requests the chat server 400 for member information related to the chat in which the first mobile phone 100A and the second mobile phone 100B are participating (step S1014).
  • chat server 400 returns terminal information to content server 600 (step S1016).
  • the terminal information includes member information (f) and distribution destination information (g).
  • the member information (f) includes, for example, a chat room name that the chat server 400 generates.
  • the distribution destination information (g) includes the IP addresses of the first mobile phone 100A and the second mobile phone 100B, which are distribution request terminals.
  • the CPU 106 of the first mobile phone 100A starts receiving moving image content (for example, streaming data) via the communication device 101 based on the moving image information.
  • CPU 106 starts to reproduce the moving image content via touch panel 102 (step S1018).
  • the CPU 106 may output the sound of the moving image content via the speaker 109.
  • the CPU 106 of the second mobile phone 100B starts to receive the same moving image content as the first mobile phone 100A via the communication device 101 based on the moving image information.
  • CPU 106 starts to reproduce the moving image content via touch panel 102 (step S1020).
  • the CPU 106 may output the sound of the moving image content via the speaker 109.
  • CPU 106 of first mobile phone 100A sends a hand-draw start message to content server 600 via communication device 101. Is transmitted (step S1022).
  • the CPU 605 of the content server 600 receives the handwriting start message and stops the distribution of the moving image content (step S1024).
  • the first mobile phone stores data such that the reproduction of the moving image content on the first mobile phone 100A and the second mobile phone 100B is temporarily stopped. Transmit to 100A and second mobile phone 100B. It appears to the user of the first mobile phone 100A and the user of the second mobile phone 100B that the progress of the moving image content has stopped.
  • the content server 600 may temporarily stop the reproduction of the moving image content by transmitting data requesting the reproduction stop to each terminal, or the content server 600 may stop the distribution of the moving image content to each terminal. Thus, the reproduction of the moving image content may be paused.
  • the CPU 106 of the first mobile phone 100A receives an input of a hand-drawn image from the user via the touch panel 102 (step S1026). More specifically, the CPU 106 sequentially receives contact coordinate data from the touch panel 102 every predetermined time, thereby acquiring a change (trajectory) of the contact position with respect to the touch panel 102. As shown in FIG. 21, the CPU 106 displays the hand-drawn clear information (b), the information (c) indicating the locus of the contact position, the information (d) indicating the color of the line, and the information (e) indicating the width of the line. The transmission data including these is created (step S1028).
  • the hand-drawn clear information (b) includes information (true) for clearing the hand-drawn input input so far or information (false) for continuing the hand-drawn input.
  • the CPU 106 displays a hand-drawn image on the moving image content (superimposed on the moving image content) on the display 107 based on the transmission data.
  • CPU 106 transmits transmission data to second mobile phone 100B via communication device 101 (step S1030).
  • CPU 106 of second mobile phone 100B receives the transmission data from first mobile phone 100A via communication device 101 (step S1032).
  • first mobile phone 100A may transmit the transmission data to the second mobile phone 100B via the chat server 400.
  • chat server 400 may store transmission data transmitted and received by first mobile phone 100A and second mobile phone 100B.
  • CPU 106 analyzes the transmission data (step S1034). Based on the transmission data, CPU 106 causes display 107 to display a hand-drawn image on the moving image content (superimposed on the moving image content) (step S1036).
  • the CPU 106 of the first mobile phone 100A terminates the hand-drawing to the content server 600 via the communication device 101.
  • a message is transmitted (step S1038).
  • the CPU 605 of the content server 600 receives the hand-drawn end message and resumes the distribution of the moving image content.
  • the streaming data that causes the reproduction of the video content on the first mobile phone 100A and the second mobile phone 100B to be resumed is transmitted to the first mobile phone.
  • the transmission starts to 100A and the second mobile phone 100B. It seems to the user of the first mobile phone 100A and the user of the second mobile phone 100B that the progress of the moving image content has been resumed (steps S1040 and S1042).
  • the CPU 106 of the first mobile phone 100A closes the moving image content window (step S1050).
  • CPU 106 of second mobile phone 100B closes the moving image content window (step S1052).
  • FIG. 22 is a flowchart showing a processing procedure of a variation of the chat communication processing in the network system according to the present embodiment.
  • the content server 600 requests terminal information from the chat server 400. However, as shown in FIG. 22, the content server 600 may receive terminal information from the first mobile phone 100A and the second mobile phone 100B.
  • step S1019 and step S1021 may be executed instead of step S1016, step S1018, step S1020, and step S1022 in FIG.
  • CPU 106 of first mobile phone 100A may start receiving moving image content (for example, streaming data) by transmitting terminal information of first mobile phone 100A to content server 600 based on the moving image information. (Step S1019). Then, the CPU 106 may output the sound of the moving image content via the speaker 109.
  • moving image content for example, streaming data
  • CPU 106 of second mobile phone 100B may start receiving video content (for example, streaming data) by transmitting terminal information of second mobile phone 100B to content server 600 based on the video information. Good (step S1021). Then, the CPU 106 may output the sound of the moving image content via the speaker 109.
  • video content for example, streaming data
  • the terminal information includes member information (f) and distribution destination information (g).
  • the member information (f) includes, for example, the names of chat rooms in which the first mobile phone 100A and the second mobile phone 100B are participating.
  • the distribution destination information (g) includes the IP addresses of the first mobile phone 100A and the second mobile phone 100B, which are distribution request terminals.
  • FIG. 23 is a flowchart showing a processing procedure of moving image content distribution processing in content server 600 according to the present embodiment.
  • CPU 605 of content server 600 determines whether a distribution request for moving image content or a second command (hand-drawn input end message) is received from the communication terminal via server communication device 609. (Step S1102).
  • CPU 605 acquires terminal information from chat server 400 or the communication terminal (step S1104).
  • the CPU 605 refers to the memory 606 to determine whether or not the terminal information has already been registered (step S1106). If the terminal information is already registered in memory 606 (YES in step S1106), CPU 605 distributes content distributed to the same member whose terminal information is the same chat terminal, that is, the communication terminal entering the same chat room. Starts to be distributed from the current reproduction position (step S1108). Alternatively, the CPU 605 starts to distribute the moving image content from the latest stop position to all members having the same terminal information. That is, the CPU 605 resumes the moving image content. The CPU 605 executes processing from step S1116.
  • the CPU 605 registers the terminal information in the memory 606 (step S1110).
  • the CPU 605 acquires the moving image information (a) from the communication terminal (step S1112).
  • the CPU 605 starts distributing the moving image content specified by the moving image information from the beginning (step S1114).
  • the CPU 605 determines whether or not the scene has changed based on the moving image content being distributed (step S1116). If the scene has not changed (NO in step S1116), CPU 605 executes the processing from step S1120.
  • step S1116 CPU 605 uses server communication device 609 to transmit scene change information to the communication terminals corresponding to the same terminal information (step S1118).
  • the CPU 605 continues to distribute the moving image content to the communication terminals corresponding to the same terminal information using the server communication device 609 (step S1120).
  • the CPU 605 repeats the process from step S1102.
  • step S1102 if the CPU 605 does not receive the distribution request for the moving image content from the communication terminal (NO in step S1102), the CPU 605 requests the stop of the moving image content or the first command (hand-drawn) from the communication terminal via the server communication device 609. It is determined whether or not an input start message has been received (step S1122). When the moving image content stop request is not received from the communication terminal (NO in step S1122), the processing from step S1102 is repeated.
  • the CPU 605 refers to the memory 606 and identifies a communication terminal corresponding to the same terminal information (step S1124).
  • CPU 605 stops the distribution of the moving image content to the communication terminal corresponding to the same terminal information (step S1126).
  • CPU605 stops the progress of the moving image content in the delivery to the communication terminal corresponding to the same terminal information.
  • the CPU 605 repeats the process from step S1102.
  • the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.
  • the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
  • a storage medium for supplying the program code for example, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card (IC memory card), ROM (mask ROM, flash) EEPROM, etc.) can be used.
  • the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
  • 1 network system 100, 100A, 100B, 100C mobile phone, 101 communication device, 102 touch panel, 103 memory, 103A work memory, 103B address book data, 103C own terminal data, 103D address data, 103E address data, 104 pen tablet, 106 CPU, 107 display, 108 microphone, 109 speaker, 110 various buttons, 111 first notification unit, 112 second notification unit, 113 TV antenna, 120 stylus pen, 200 car navigation device, 250 vehicle, 300 personal computer, 400 chat server, 406 memory, 406A room management table, 407 fixed disk, 408 internal bus, 409 Over server communications device, 500 Internet, 600 content server 606 memory, 607 a fixed disk, 608 internal bus, 609 the server communications device, 615 a fixed disk, 700 carrier network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 通信端末(100A)は、タッチパネル(102)と、他の通信端末(100B)と通信するための通信デバイス(101)と、タッチパネルを用いてコンテンツを再生し、第1の入力に応じてコンテンツの再生を一時停止するとともに、他の通信端末(100B)へと停止命令を送信し、第2の入力に応じてコンテンツの再生を再開するとともに、他の通信端末へと再開命令を送信し、他の通信端末からの停止命令に応じてコンテンツの再生を一時停止し、他の通信端末からの再開命令に応じてコンテンツの再生を再開するためのプロセッサ(106)とを含む。

Description

ネットワークシステム、通信方法、および通信端末
 本発明は、ネットワークを介して相互に通信可能な少なくとも第1および第2の通信端末を備えるネットワークシステム、通信方法、および通信端末に関し、特に、第1および第2の通信端末が同じコンテンツを受信して再生するネットワークシステム、通信方法、および通信端末に関する。
 インターネットに接続可能な複数の通信端末が、手描きデータを交換するネットワークシステムが知られている。たとえば、サーバ/クライアントシステムや、P2P(Peer to Peer)システムなどが挙げられる。そのようなネットワークシステムにおいては、通信端末の各々は、手描きデータや、テキストデータなどを送信したり受信したりする。通信端末の各々は、受信したデータに基づいて、ディスプレイに手描き画像やテキストを表示する。
 また、放送局やコンテンツサーバから動画像を含むコンテンツを受信して、当該コンテンツを再生する通信端末も知られている。
 たとえば、特開2006-4190号公報(特許文献1)には、携帯電話向けチャットサービスシステムが開示されている。特開2006-4190号公報(特許文献1)によると、インターネットを介して通信接続された多数の携帯電話端末およびオペレータ用ウェブ端末に対し、上記端末のブラウザ表示画面に動画表示領域と文字表示領域を形成させるとともに、上記動画表示領域にストリーミング表示される動画データを配信する配信サーバと、上記携帯電話端末と上記オペレータ用ウェブ端末の間でのチャットをサポートするとともに文字データからなるチャットデータを上記文字表示領域に表示させるチャットサーバとを備え、上記チャットサーバは、各オペレータ用ウェブ端末がそれぞれ、複数の携帯電話端末に対して携帯電話端末ごとに独立のチャットチャネルを形成する。
特開2006-4190号公報
 複数のユーザがコンテンツを閲覧しながら情報をやり取りする場合、コンテンツの進行が原因で、所望のシーンに関する情報を上手く交換できない虞がある。たとえば、第1の通信端末のユーザが第2の通信端末のユーザに第1のシーンに関するコメントを伝えるケースにおいては、第1の通信端末のユーザが当該コメントを手描き入力したり話したりしている間に、第1のシーンが第2のシーンへと切り替わってしまう虞がある。また、第1の通信端末と第2の通信端末とが異なるシーンを表示していると、第1および第2の通信端末のユーザにとって、同じシーンに関してのチャットが困難になってしまう。
 本発明は、かかる問題を解決するためになされたものであり、その目的は、第1および第2の通信端末のユーザが、同じシーンを閲覧しながら情報を交換することができるネットワークシステム、通信方法、および通信端末に関する。
 この発明のある局面に従うと、第1および第2の通信端末を備えるネットワークシステムが提供される。第1の通信端末は、外部からコンテンツを取得可能である。第1の通信端末は、第1のディスプレイと、第2の通信端末と通信するための第1の通信デバイスと、第1のディスプレイを用いてコンテンツを再生し、第1の入力に応じてコンテンツの再生を一時停止するとともに、第2の通信端末へと停止命令を送信し、第2の入力に応じてコンテンツの再生を再開するとともに、第2の通信端末へと再開命令を送信するための第1のプロセッサとを含む。第2の通信端末は、第1の通信端末と同じタイミングで外部からコンテンツを取得可能である。第2の通信端末は、第2のディスプレイと、第1の通信端末と通信するための第2の通信デバイスと、第2のディスプレイを用いてコンテンツを再生し、第1の通信端末からの停止命令に応じてコンテンツの再生を一時停止し、第1の通信端末からの再開命令に応じてコンテンツの再生を再開するための第2のプロセッサとを含む。
 好ましくは、第1のディスプレイはタッチパネルである。第1のプロセッサは、コンテンツの一時停止中に、タッチパネルを用いて手描き画像の入力を受け付け、第1のタッチパネルを用いてコンテンツ上に手描き画像を表示し、第1の通信デバイスを介して手描き画像を第2の通信端末へと送信する。第2のプロセッサは、コンテンツの一時停止中に、第2の通信デバイスを介して第1の通信端末から手描き画像を受信し、第2のディスプレイを用いてコンテンツ上に手描き画像を表示する。
 好ましくは、第1のプロセッサは、外部の物体がタッチパネルに接触したことを検知して、当該接触操作を第1の入力として受け付け、外部の物体がタッチパネルから離間したことを検知して、当該離間操作を第2の入力として受け付ける。
 好ましくは、第1の通信端末は、第1のメモリをさらに含む。第1のプロセッサは、取得したコンテンツを第1のメモリに格納し、第2の入力に応じて、一時停止位置からコンテンツの再生を再開する。第2の通信端末は、第2のメモリをさらに含む。第2のプロセッサは、取得したコンテンツを第2のメモリに格納し、再開命令に応じて、一時停止位置からコンテンツの再生を再開する。
 好ましくは、停止命令は、コンテンツにおける一時停止位置を示す情報を含む。
 好ましくは、停止命令は、一時停止時刻を示す情報を含む。再開命令は、一時停止期間を示す情報を含む。
 この発明の別の局面に従うと、第1および第2の通信端末を含むネットワークシステムにおける通信方法が提供される。通信方法は、第1の通信端末が、外部からコンテンツを受信して、コンテンツを第1のディスプレイで再生するステップと、第2の通信端末が、第1の通信端末と同じタイミングで、外部からコンテンツを受信して、コンテンツを第2のディスプレイで再生するステップと、第1の通信端末が、第1の入力に応じて、コンテンツの再生を一時停止し、停止命令を第2の通信端末へと送信するステップと、第2の通信端末が、第1の通信端末からの停止命令に応じて、コンテンツの再生を一時停止するステップと、第1の通信端末が、第2の入力に応じて、コンテンツの再生を再開し、再開命令を第2の通信端末へと送信するステップと、第2の通信端末が、第1の通信端末からの再開命令に応じて、コンテンツの再生を再開するステップとを備える。
 この発明の別の局面に従うと、外部からコンテンツを取得可能な通信端末が提供される。通信端末は、ディスプレイと、他の通信端末と通信するための通信デバイスと、ディスプレイを用いてコンテンツを再生し、第1の入力に応じてコンテンツの再生を一時停止するとともに、他の通信端末へと停止命令を送信し、第2の入力に応じてコンテンツの再生を再開するとともに、他の通信端末へと再開命令を送信し、他の通信端末からの停止命令に応じてコンテンツの再生を一時停止し、他の通信端末からの再開命令に応じてコンテンツの再生を再開するためのプロセッサとを含む。
 好ましくは、ディスプレイはタッチパネルである。プロセッサは、コンテンツの一時停止中に、タッチパネルを用いて第1の手描き画像の入力を受け付け、タッチパネルを用いてコンテンツ上に第1の手描き画像を表示し、通信デバイスを介して第1の手描き画像を他の通信端末へと送信し、通信デバイスを介して他の通信端末から第2の手描き画像を受信し、タッチパネルを用いてコンテンツ上に第2の手描き画像を表示する。
 好ましくは、プロセッサは、外部の物体がタッチパネルに接触したことを検知して、当該接触操作を第1の入力として受け付け、外部の物体がタッチパネルから離間したことを検知して、当該離間操作を第2の入力として受け付ける。
 好ましくは、通信端末は、メモリをさらに含む。プロセッサは、受信したコンテンツをメモリに格納し、第2の入力あるいは再開命令に応じて、一時停止位置からコンテンツの再生を再開する。
 好ましくは、停止命令は、コンテンツにおける一時停止位置を示す情報を含む。
 好ましくは、停止命令は、一時停止時刻を示す情報を含む。再開命令は、一時停止期間を示す情報を含む。
 この発明の別の局面に従うと、ディスプレイとプロセッサと通信デバイスとを含む通信端末における通信方法が提供される。通信方法は、プロセッサが、外部からコンテンツを受信して、ディスプレイを用いてコンテンツを再生するステップと、プロセッサが、第1の入力に応じて、コンテンツの再生を一時停止し、通信デバイスを介して停止命令を他の通信端末へと送信するステップと、プロセッサが、第2の入力に応じて、コンテンツの再生を再開し、通信デバイスを介して再開命令を他の通信端末へと送信するステップと、プロセッサが、他の通信端末からの停止命令に応じて、コンテンツの再生を一時停止するステップと、プロセッサが、他の通信端末からの再開命令に応じて、コンテンツの再生を再開するステップとを備える。
 以上のように、本発明に係るネットワークシステム、通信方法、および通信端末によって、第1および第2の通信端末のユーザが、同じシーンを閲覧しながら情報を交換できるようになる。
本実施の形態に係るネットワークシステムの一例を示す概略図である。 本実施の形態に係るネットワークシステムにおける動作概要を示すシーケンス図である。 本実施の形態に係る動作概要に沿った通信端末の表示態様の推移を示したイメージ図である。 実施の形態1に係る手描きデータの送受信に関する動作概要を示すイメージ図である。 本実施の形態に係る携帯電話の外観を示すイメージ図である。 本実施の形態に係る携帯電話のハードウェア構成を示すブロック図である。 本実施の形態に係るメモリを構成する各種のデータ構造を示すイメージ図である。 本実施の形態に係るチャットサーバのハードウェア構成を示すブロック図である。 本実施の形態に係るチャットサーバのメモリあるいは固定ディスクに記憶されるルーム管理テーブルのデータ構造を示すイメージ図である。 実施の形態1に係る携帯電話におけるP2P通信処理の処理手順を示すフローチャートである。 実施の形態1に係る送信データのデータ構造を示すイメージ図である。 本実施の形態に係る携帯電話における入力処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話におけるペン情報の設定処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における手描き処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における表示処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における表示処理の応用例の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における手描き画像表示処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話における手描き画像表示処理の応用例の処理手順を示すフローチャートである。 実施の形態2に係る手描きデータの送受信に関する動作概要を示すイメージ図である。 実施の形態2に係る携帯電話におけるP2P通信処理の処理手順を示すフローチャートである。 実施の形態2に係る送信データのデータ構造を示すイメージ図である。 実施の形態2に係る携帯電話におけるP2P通信処理の処理手順の変形例を示すフローチャートである。 実施の形態2に係るコンテンツサーバにおける通信処理の処理手順を示すフローチャートである。
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 また、以下では、携帯電話を「通信端末」の代表例として説明を行う。ただし、通信端末は、パーソナルコンピュータや、カーナビゲーション装置(Satellite navigation system)や、PND(Personal Navigation Device)や、PDA(Personal Data Assistance)、ゲーム機、電子辞書、電子BOOKなどのような、ネットワークに接続可能な他の情報通信機器であってもよい。
 [実施の形態1]
 <ネットワークシステム1の全体構成>
 まず、本実施の形態に係るネットワークシステム1の全体構成について説明する。図1は、本実施の形態に係るネットワークシステム1の一例を示す概略図である。図1に示すように、ネットワークシステム1は、携帯電話100A,100B,100Cと、チャットサーバ(第1のサーバ装置)400と、コンテンツサーバ(第2のサーバ装置)600と、放送局(TV放送のアンテナ)650と、インターネット(第1のネットワーク)500と、キャリア網(第2のネットワーク)700とを含む。また、本実施の形態に係るネットワークシステム1は、車両250に搭載されるカーナビゲーション装置200と、パーソナルコンピュータ(PC;Personal Computer)300とを含む。
 なお、説明の容易化のために、以下では、本実施の形態に係るネットワークシステム1が、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cとを含む場合について説明する。また、携帯電話100A,100B,100Cの各々に共通の構成や機能を説明する際には、それらを携帯電話100とも総称する。そして、携帯電話100A,100B,100C、カーナビゲーション装置200、パーソナルコンピュータ300の各々に共通の構成や機能を説明する際には、それらを通信端末とも総称する。
 携帯電話100は、キャリア網700に接続可能に構成されている。カーナビゲーション装置200は、インターネット500に接続可能に構成されている。パーソナルコンピュータ300は、LAN(Local Area Network)350やWAN(Wide Area Network)を介してインターネット500に接続可能に構成されている。チャットサーバ400は、インターネット500に接続可能に構成されている。コンテンツサーバ600は、インターネット500に接続可能に構成されている。
 より詳細には、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cと、カーナビゲーション装置200と、パーソナルコンピュータ300とは、インターネット500やキャリア網700やメール送信サーバ(図2におけるチャットサーバ400)を介して、互いに接続可能であって、互いにデータの送受信が可能である。
 本実施の形態においては、携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300には、自端末を特定するための識別情報(たとえば、メールアドレスやIP(Internet Protocol)アドレスなど)が割り当てられる。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300は、内部の記録媒体に他の通信端末の識別情報を記憶することができ、当該識別情報に基づいてキャリア網700やインターネット500などを介して当該他の通信端末とデータ送受信を行うことができる。
 本実施の形態に係る携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300とは、他の端末に割り当てられるIPアドレスを利用して、サーバ400,600を介さずに当該他の通信端末とデータ送受信を行うことが可能である。すなわち、本実施の形態に係るネットワークシステム1に含まれる携帯電話100、カーナビゲーション装置200、パーソナルコンピュータ300は、いわゆるP2P(Peer to Peer)型のネットワークを構成することが可能である。
 ここでは、各通信端末がチャットサーバ400にアクセスする際には、すなわち各通信端末がインターネットにアクセスした際に、チャットサーバ400あるいは他の図示しないサーバ装置などによってIPアドレスが割り当てられるものとする。IPアドレスの割り当て処理の詳細は公知であるので、ここでは説明を繰り返さない。
 また、本実施の形態に係る放送局650は、地上デジタル放送を送信する。たとえば、放送局650は、ワンセグ放送を送信する。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300とは、ワンセグ放送を受信する。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300のユーザは、放送局650からのテレビ番組(コンテンツ)を視聴することができる。
 携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300とは、インターネット500を介して、コンテンツサーバ600から、インターネットTVやその他の動画コンテンツを略同時に受信する。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300のユーザは、コンテンツサーバ600からの動画コンテンツを視聴することができる。
 <ネットワークシステム1の全体的な動作概要>
 次に、本実施の形態に係るネットワークシステム1の動作概要について説明する。図2は、本実施の形態に係るネットワークシステム1における動作概要を示すシーケンス図である。図2においては、図1におけるコンテンツサーバ600と放送局650とを総称してコンテンツ発信装置という。
 図1および図2に示すように、本実施の形態に係る各通信端末は、P2P型のデータ送受信を行うために、はじめに互いのIPアドレスを交換(取得)する必要がある。そして、各通信端末は、IPアドレスを取得したのちに、P2P型のデータ送受信によってメッセージや添付ファイルなどを他の通信端末に送信する。
 以下では、通信端末のそれぞれが、チャットサーバ400に生成されたチャットルームを介して、メッセージや添付ファイルを送受信する場合について説明する。そして、第1の携帯電話100Aが新たなチャットルームを生成し、当該チャットルームに第2の携帯電話100Bを招待する場合について説明する。
 まず、第1の携帯電話100A(図2において端末A)が、チャットサーバ400にIP登録(ログイン)を要求する(ステップS0002)。第1の携帯電話100Aは、同時にIPアドレスを取得してもよいし、予めIPアドレスを取得していてもよい。より詳細には、第1の携帯電話100Aは、キャリア網700、メール送信サーバ(チャットサーバ400)、インターネット500を介して、チャットサーバ400に第1の携帯電話100AのメールアドレスとIPアドレスと第2の携帯電話100Bのメールアドレスと新たなチャットルームの生成を要求するメッセージとを送信する。
 チャットサーバ400は、その要求に応じて、第1の携帯電話100AのメールアドレスをそのIPアドレスに対応付けて格納する。そして、チャットサーバ400は、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいて、ルーム名を生成し、当該ルーム名のチャットルームを生成する。このとき、チャットサーバ400は、チャットルームの生成が完了した旨を第1の携帯電話100Aに通知してもよい。チャットサーバ400は、ルーム名と参加中の通信端末のIPアドレスとを対応付けて格納する。
 あるいは、第1の携帯電話100Aは、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいて、新たなチャットルームのルーム名を生成し、当該ルーム名をチャットサーバ400に送信する。チャットサーバ400は、ルーム名に基づいて、新たなチャットルームを生成する。
 第1の携帯電話100Aは、新たなチャットルームを生成したこと、すなわちチャットルームへの招待を示すP2P参加要請メールを第2の携帯電話100Bに送信する(ステップS0004、ステップS0006)。より詳細には、第1の携帯電話100Aは、キャリア網700、メール送信サーバ(チャットサーバ400)、インターネット500を介して、P2P参加要請メールを第2の携帯電話100Bに送信する(ステップS0004、ステップS0006)。ただし、チャットサーバ400が、コンテンツサーバ600の役割を兼ねるものであってもよい。
 第2の携帯電話100Bは、P2P参加要請メールを受信すると(ステップS0006)、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成し、チャットサーバ400に第2の携帯電話100BのメールアドレスとIPアドレスとそのルーム名を有するチャットルームへ参加する旨のメッセージとを送信する(ステップS0008)。第2の携帯電話100Bは、同時にIPアドレスを取得してもよいし、先にIPアドレスを取得してからチャットサーバ400にアクセスしてもよい。
 チャットサーバ400は、そのメッセージを受け付けて、第2の携帯電話100Bのメールアドレスがルーム名に対応するものであるか否かを判断した上で、第2の携帯電話100BのメールアドレスをIPアドレスに対応付けて格納する。そして、チャットサーバ400は、第1の携帯電話100Aに、第2の携帯電話100Bがチャットルームに参加した旨と第2の携帯電話100BのIPアドレスとを送信する(ステップS0010)。同時に、チャットサーバ400は、第2の携帯電話100Bに、チャットルームへの参加を受け付けた旨と第1の携帯電話100AのIPアドレスとを送信する。
 第1の携帯電話100Aと第2の携帯電話100Bは、相手のメールアドレスやIPアドレスを取得して、互いを認証する(ステップS0012)。認証が完了すると、第1の携帯電話100Aと第2の携帯電話100Bとは、P2P通信(チャット通信)を開始する(ステップS0014)。P2P通信中の動作概要については、後述する。
 第1の携帯電話100Aが、第2の携帯電話100BにP2P通信を切断する旨のメッセージを送信すると(ステップS0016)、第2の携帯電話100Bは、第1の携帯電話100Aに切断する要求を受け付けた旨のメッセージを送信する(ステップS0018)。第1の携帯電話100Aは、チャットサーバ400にチャットルームを削除する要求を送信し(ステップS0020)、チャットサーバ400はチャットルームを削除する。
 以下、図2と図3とを参照して、本実施の形態に係るネットワークシステム1の動作概要をより具体的に説明する。図3は、本実施の形態に係る動作概要に沿った通信端末の表示態様の推移を示したイメージ図である。なお、以下では、第1の携帯電話100Aと第2の携帯電話100Bとが、放送局650またはコンテンツサーバ600から取得したコンテンツを背景として表示しながら、手描き画像を送受信する場合について説明する。
 図3(A)に示すように、まず、第1の携帯電話100AがTV番組などのコンテンツを受信して表示している。第1の携帯電話100Aのユーザが、TV番組を視聴しながら第2の携帯電話100Bのユーザとチャットしたい場合、第1の携帯電話100Aは、チャット開始の命令を受け付ける。図3(B)に示すように、第1の携帯電話100Aは、相手ユーザの選択命令を受け付ける。
 ここでは、図3(C)に示すように、第1の携帯電話100Aは、TV番組を特定するための情報をメール送信サーバ(チャットサーバ400)を介して第2の携帯電話100Bへと送信する(ステップS0004)。図3(D)に示すように、第2の携帯電話100Bは、第1の携帯電話100Aから情報を受信する(ステップS0006)。第2の携帯電話100Bは、当該情報に基づいてTV番組を受信して表示する。
 なお、第1の携帯電話100Aと第2の携帯電話100Bとは共に、P2P通信開始後に、すなわちP2P通信中に、TV番組などの動画コンテンツを放送局650やコンテンツサーバ600から受信してもよい。
 図3(E)に示すように、第1の携帯電話100Aは、第2の携帯電話100BとP2P通信することなく、メール送信を繰り返すこともできる。第1の携帯電話100Aは、メール送信が完了すると、チャットサーバ400に自身のIPアドレスを登録し、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいて新たなチャットルームを生成するように要求する(ステップS0002)。
 図3(F)に示すように、第2の携帯電話100Bは、チャットを開始する旨の命令を受け付けて、チャットサーバ400に、ルーム名とチャットルームに参加する旨のメッセージと自身のIPアドレスとを送信する(ステップS0008)。第1の携帯電話100Aは、第2の携帯電話100BのIPアドレスを取得して、第2の携帯電話100Bは第1の携帯電話100AのIPアドレスを取得して(ステップS0010)、互いを認証しあう(ステップS0012)。
 これによって、図3(G)および図3(H)に示すように、第1の携帯電話100Aと第2の携帯電話100BとはP2P通信を行うことができる(ステップS0014)。すなわち、本実施の形態に係る第1の携帯電話100Aと第2の携帯電話100Bとは、動画コンテンツの再生中に、データを送受信するものである。
 より詳細には、本実施の形態においては、第1の携帯電話100Aがユーザから手描き画像の入力を受け付けて、動画コンテンツ上に当該手描き画像を表示する。また、第1の携帯電話100Aは、手描きデータを第2の携帯電話100Bに送信する。第2の携帯電話100Bは、第1の携帯電話100Aからの手描きデータに基づいて、動画コンテンツ上に手描き画像を表示する。
 逆に、第2の携帯電話100Bもユーザから手描き画像の入力を受け付けて、動画コンテンツ上に当該手描き画像を表示する。また、第2の携帯電話100Bは、手描きデータを第1の携帯電話100Aに送信する。第2の携帯電話100Bは、第1の携帯電話100Aからの手描きデータに基づいて、動画コンテンツ上に手描き画像を表示する。
 後述するように、本実施の形態に係るネットワークシステム1においては、第1の携帯電話100Aおよび第2の携帯電話100Bのいずれかにおいて、入力終了ボタンが選択されたときや手描きデータの入力が開始されたときに、すなわち第1の入力が受け付けられた場合に、第1の携帯電話100Aと第2の携帯電話100Bの両者が動画コンテンツの再生を一時停止する。そして、第1の携帯電話100Aおよび第2の携帯電話100Bのいずれかにおいて、入力終了ボタンが選択されたときや手描きデータの入力が終了されたときに、すなわち第2の入力が受け付けられた場合に、第1の携帯電話100Aと第2の携帯電話100Bの両者が動画コンテンツの再生を再開する。
 そして、第1の携帯電話100AがP2P通信を切断した後(ステップS0016、ステップS0018)、図3(I)に示すように、第2の携帯電話100Bは第1の携帯電話100Aなどにメール送信を行うことができる。なお、P2P通信をTCP/IP通信方式で、メールの送受信をHTTP通信方式で行うことも可能である。すなわち、P2P通信中にメール送受信を行うことも可能である。
 <ネットワークシステム1における手描きデータの送受信に関する動作概要>
 次に、本実施の形態に係る手描きデータの送受信に関する動作概要についてさらに詳細に説明する。図4は、本実施の形態に係る手描きデータの送受信に関する動作概要を示すイメージ図である。
 以下では、第1の携帯電話100Aと第2の携帯電話100Bとが、サーバを介さずに、直接的に、チャット通信(手描き画像の送受信)を行っている場合について説明する。ただし、後述するように、第1の携帯電話100Aと第2の携帯電話100Bとは、チャット通信(手描き画像の送受信)においても、サーバを介すものであってもよい。
 図4(a)(b)を参照して、第1の携帯電話100Aと第2の携帯電話100Bとが、放送局650またはコンテンツサーバ600から同じ動画コンテンツ(たとえば、TV番組)を受信して、当該動画コンテンツを表示している。ここでの、動画コンテンツは、第1の携帯電話100Aや第2の携帯電話100Bが記憶(録画)できるものである。このとき、チャット通信に参加していない第3の携帯電話100Cも、同じ動画コンテンツを受信して、表示しているかもしれない。
 図4(d)~(f)を参照して、時間の経過とともに、動画コンテンツが進行する。すなわち、第1の携帯電話100A、第2の携帯電話100B、第3の携帯電話100Cにおいて、表示される画像が変化していく。このとき、第1の携帯電話100A、第2の携帯電話100B、第3の携帯電話100Cが、動画コンテンツに対応する音声を出力してもよい。
 図4(d)を参照して、第1の携帯電話100Aのユーザが、手描き画像の入力を開始すると、第1の携帯電話100Aは動画コンテンツの進行をポーズさせる。すなわち、第1の携帯電話100Aは、動画コンテンツを一時停止させて、静止画像を表示する。そして、第1の携帯電話100Aは、P2P通信を介して、第2の携帯電話100Bにポーズ情報を送信する。
 より詳細には、ユーザが、スタイラスペン120や指などをタッチパネル102に接触させると、第1の携帯電話100Aが第1の入力を受け付けたと判断する。あるいは、ユーザが、手描き開始ボタンを押下すると、第1の携帯電話100Aが第1の入力を受け付けたと判断する。
 図4(e)を参照して、第2の携帯電話100Bは、ポーズ情報を受信して、動画コンテンツの進行をポーズさせる。すなわち、第2の携帯電話100Bは、動画コンテンツを一時停止させて、静止画像を表示する。
 図4(f)を参照して、このとき、第3の携帯電話100Cは、チャット通信に参加していないので、ポーズ情報を受信しない。第3の携帯電話100Cは、通常通り、動画コンテンツを再生し続ける。
 図4(g)を参照して、ユーザが第1の携帯電話100Aに手描き画像を入力すると、第1の携帯電話100Aは、タッチパネル102に手描き画像を表示する。第1の携帯電話100Aは、P2P通信を介して、手描きデータを第2の携帯電話100Bに送信する。
 図4(h)を参照して、第2の携帯電話100Bは、第1の携帯電話100Aから手描きデータを受信して、手描き画像を表示する。
 図4(i)を参照して、このとき、第3の携帯電話100Cは、チャット通信に参加していないので、ポーズ情報も手描き画像も受信しない。第3の携帯電話100Cは、通常通り、動画コンテンツを再生し続ける。
 図4(k)を参照して、ユーザが第2の携帯電話100Bに手描き画像を入力すると、第2の携帯電話100Bは、タッチパネル102に手描き画像を表示する。第2の携帯電話100Bは、P2P通信を介して、手描きデータを第1の携帯電話100Aに送信する。
 図4(j)を参照して、第1の携帯電話100Aは、第2の携帯電話100Bから手描きデータを受信して、手描き画像を表示する。
 図4(l)を参照して、このとき、第3の携帯電話100Cは、チャット通信に参加していないので、ポーズ情報も手描き画像も受信しない。第3の携帯電話100Cは、通常通り、動画コンテンツを再生し続ける。
 図4(m)を参照して、第1の携帯電話100Aと第2の携帯電話100Bのユーザが手描き画像の入力を終了すると、第1の携帯電話100Aは動画コンテンツの再生を再開させる。そして、第1の携帯電話100Aは、第2の携帯電話100Bにリジューム情報を送信する。
 より詳細には、スタイラスペン120や指などが第1の携帯電話100Aのタッチパネル102に接触しておらず、第2の携帯電話100Bからの手描きデータを受信しなくなると、第1の携帯電話100Aが第2の入力を受け付けたと判断する。あるいは、ユーザが手描き終了ボタンを押下すると、第1の携帯電話100Aが第2の入力を受け付けたと判断する。
 図4(n)を参照して、第2の携帯電話100Bは、第1の携帯電話100Aからリジューム情報を受信して、動画コンテンツの再生を再開させる。図4(o)を参照して、このとき、第3の携帯電話100Cは、通常通り、動画コンテンツを再生し続ける。
 第1の携帯電話100Aおよび第2の携帯電話100Bは、動画コンテンツの再生中に、再生している動画コンテンツのシーンが切り替わったか否かを判断する。図4(p)(q)を参照して、第1の携帯電話100Aおよび第2の携帯電話100Bは、動画コンテンツのシーンが切り替わったと判断すると、それまでに描画されてきた手描き画像を削除する。それまでの手描き画像が、切り替わる前のシーンに関係するものである可能性が高いからである。
 図4(r)(s)でも同様に、第1の携帯電話100Aおよび第2の携帯電話100Bは、動画コンテンツのシーンが切り替わったと判断すると、それまでに描画されてきた手描き画像を削除する。それまでの手描き画像が、切り替わる前のシーンに関係するものである可能性が高いからである。
 なお、図4においては、第1の入力を受け付けた第1の携帯電話100Aが、第2の入力を受け付けている。そして、動画コンテンツの停止中に、第1の携帯電話100Aと第2の携帯電話100Bとが、共に、手描き画像を入力できるものであった。
 この点に関して、本実施の形態に係るネットワークシステム1は、以下のような形態にも適用可能である。まず、第2の入力について説明する。
 (1)第1の入力を受け付けた(ポーズ情報を送信した)第1の携帯電話100Aのみが、第2の入力を受け付け可能であってもよい。
 (2)第1の入力を受け付けていない(ポーズ情報を受信した)第2の携帯電話100Bのみが、第2の入力を受け付け可能であってもよい。
 (3)第1の入力を受け付けたか否かに関わらず(ポーズ情報を送信したか受信したかに関わらず)、第1の携帯電話100Aと第2の携帯電話100Bの両者が第2の入力を受け付け可能であってもよい。
 次に、手描き画像の画像の入力について説明する。
 (1)第1の入力を受け付けた(ポーズ情報を送信した)第1の携帯電話100Aのみが、手描き画像の入力を受け付け可能(送信可能)であってもよい。
 (2)第1の入力を受け付けたか否かに関わらず(ポーズ情報を送信したか受信したかに関わらず)、第1の携帯電話100Aと第2の携帯電話100Bの両者が手描き画像の入力を受け付け可能(送信可能)であってもよい。
 上記の適用例に加えて、上述したように、第1の携帯電話100Aおよび第2の携帯電話100Bは、手描き画像の入力の開始、すなわちスタイラスペン120のタッチパネル102への接触を、第1の入力と判断してもよい。あるいは、第1の携帯電話100Aおよび第2の携帯電話100Bは、タッチパネル102上の手描き入力開始ボタンが押下されたことを、第1の命令の入力とみなしてもよい。
 そして、第1の携帯電話100Aおよび第2の携帯電話100Bは、手描き画像の入力の終了、すなわちスタイラスペン120のタッチパネル102からの離間を、第2の入力と判断してもよい。あるいは、第1の携帯電話100Aおよび第2の携帯電話100Bは、タッチパネル102上の手描き入力終了ボタンが押下されたことを、第2の命令の入力とみなしてもよい。
 このように、本実施の形態に係るネットワークシステム1においては、いずれかの通信端末が手描き画像の入力の開始命令を受け付けると、チャット通信中の全ての通信端末が動画コンテンツの再生を一時停止する。そして、いずれかの通信端末が手描き画像の入力の終了命令を受け付けると、チャット通信中の全ての通信端末が動画コンテンツの再生を再開する。
 これによって、チャット通信中の全てのユーザが、同じシーンを閲覧しながら、手描き画像を送受信することができる。換言すれば、本実施の形態に係るネットワークシステム1によって、手描き画像の入力中に望まないシーンの切り替えが発生することや、手描き画像の入力中に第1の携帯電話100Aと第2の携帯電話100Bとが異なるシーンを表示する可能性を低減することができる。
 以下、このような機能を実現するためのネットワークシステム1の構成について詳述する。
 <携帯電話100のハードウェア構成>
 本実施の形態に係る携帯電話100のハードウェア構成について説明する。図5は、本実施の形態に係る携帯電話100の外観を示すイメージ図である。図6は、本実施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。
 図5および図6に示すように、本実施の形態に係る携帯電話100は、外部のネットワークとの間でデータを送受信する通信デバイス101と、テレビ放送を受信するTVアンテナ113と、プログラムや各種データベースを記憶するメモリ103と、CPU(Central Processing Unit)106と、ディスプレイ107と、外部音声が入力されるマイク108と、音声を出力するスピーカ109と、各種情報の入力を受け付ける各種ボタン110と、外部からの通信データや通話信号を受信した旨の音声を出力する第1の通知部111と、外部からの通信データや通話信号を受信した旨を表示する第2の通知部112とを含む。
 本実施の形態に係るディスプレイ107は、液晶パネルやCRTから構成されるタッチパネル102を実現する。すなわち、本実施の形態に係る携帯電話100は、ディスプレイ107の上側(表側)にペンタブレット104が敷設されている。これによって、ユーザは、スタイラスペン120などを用いることによって、ペンタブレット104を介して、図形情報などをCPU106に手描き入力することができる。
 なお、ユーザは、以下の方法によっても、手描き入力を行うことが可能である。すなわち、赤外線や音波を出力する特殊なペンを利用することによって、そのペンから発信される赤外線や音波を受信する受信部によってペンの動きを割り出す。この場合、当該受信部を軌跡を記憶する装置に接続することによって、CPU106が当該装置から出力される軌跡を手描き入力として受信することができる。
 あるいは、ユーザは、静電パネルに対して、指、または、静電対応のペンを用いて手描き画像を書くことも可能である。
 このようにして、ディスプレイ107(タッチパネル102)は、CPU106が出力したデータに基づいて、画像やテキストを表示する。たとえば、ディスプレイ107は、通信デバイス101やTVアンテナ113を介して受信した動画コンテンツを表示する。ディスプレイ107は、タブレット104を介して受け付けた手描きデータや、通信デバイス101を介して受け付けた手描きデータに基づいて、手描き画像を動画コンテンツに重畳させて表示する。
 各種ボタン110は、キー入力操作などによってユーザから情報を受け付ける。たとえば、各種ボタン110は、通話を受け付けたり、通話を発したりするためのTELボタン110Aと、メールを受け付けたり、メールを発したりするためのメールボタン110Bと、P2P通信を受け付けたり、P2P通信を発したりするためのP2Pボタン110Cと、アドレス帳データを呼び出すアドレス帳ボタン110Dと、各種の処理を終了させるための終了ボタン110Eとを含む。すなわち、各種ボタン110は、通信デバイス101を介してP2P参加要請メールを受信したときに、ユーザから、チャットルームへ参加する命令や、メールの内容を表示させる命令などを選択可能に受け付ける。
 また、各種ボタン110は、手描き入力を開始するための命令を受け付けるためのボタン、すなわち第1の入力を受け付けるためのボタンを含んでもよい。各種ボタン110は、手描き入力を終了するための命令を受け付けるためのボタン、すなわち第2の入力を受け付けるためのボタンを含んでもよい。
 第1の通知部111は、スピーカ109などを介して着信音を出力する。あるいは、第1の通知部111は、バイブレーション機能を有する。第1の通知部111は、着呼した際や、メールを受信した際や、P2P参加要請メールを受信した際に、音声を出力したり、携帯電話100を振動させたりする。
 第2の通知部112は、着信したときに点滅するTEL用LED(Light Emitting Diode)112Aと、メールを受信したときに点滅するメール用LED112Bと、P2P通信を受信したときに点滅するP2P用LED112Cを含む。
 CPU106は、携帯電話100の各部を制御する。たとえば、各種ボタン110を介してユーザから各種命令を受け付けて、通信デバイス101や通信デバイス101やネットワークを介して外部の通信端末とデータの送受信を行う。
 通信デバイス101は、CPU106からの通信データを通信信号に変換し、その通信信号を外部へと発信する。通信デバイス101は、外部から受信した通信信号を通信データに変換し、その通信データをCPU106に入力する。
 メモリ103は、作業用メモリとして機能するRAM(Random Access Memory)や、制御プログラムなどを格納するROM(Read Only Memory)や、画像データなどを記憶するハードディスクなどによって実現される。図7(a)は、メモリ103を構成する各種のワークメモリ103Aのデータ構造を示すイメージ図である。図7(b)は、メモリ103が記憶するアドレス帳データ103Bを示すイメージ図である。図7(c)は、メモリ103が記憶する自端末データ103Cを示すイメージ図である。図7(d)は、メモリ103が記憶する自端末のIPアドレスデータ103Dと他端末のIPアドレスデータ103Eとを示すイメージ図である。
 図7(a)に示すように、メモリ103のワークメモリ103Aは、発信者の電話番号を格納するRCVTELNO領域、受信メールに関する情報を格納するRCVMAIL領域、送信メールに関する情報を格納するSENDMAIL領域、選択されたアドレスのメモリNoを格納するSEL領域、生成されたルーム名を格納するROOMNAME領域などを含む。なお、ワークメモリ103Aは、電話番号を格納しなくてもよい。受信メールに関する情報は、MAIN領域に格納されるメール本文と、RCVMAILのFROM領域に格納されるメール送信元のメールアドレスを含む。送信メールに関する情報は、MAIN領域に格納されるメール本文と、RCVMAILのTO領域に格納されるメール送信先のメールアドレスとを含む。
 図7(b)に示すように、アドレス帳データ103Bは、宛先(他の通信端末)毎にメモリNoを対応付けている。そして、アドレス帳データ103Bは、宛先毎に、名前、電話番号、メールアドレスなどを互いに対応付けて格納する。
 図7(c)に示すように、自端末データ103Cは、自端末のユーザの名前、自端末の電話番号、自端末のメールアドレスなどを格納する。
 図7(d)に示すように、自端末のIPアドレスデータ103Dは、自端末のIPアドレスを格納する。他端末のIPアドレスデータ103Eは、他端末のIPアドレスを格納する。
 本実施の形態に係る携帯電話100の各々は、図7に示すデータを利用することによって、前述したような方法で(図1~図3を参照。)、他の通信端末との間でデータを送受信することができる。
 <チャットサーバ400およびコンテンツサーバ600のハードウェア構成>
 次に、本実施の形態に係るチャットサーバ400およびコンテンツサーバ600のハードウェア構成について説明する。以下では、まず、チャットサーバ400のハードウェア構成について説明する。
 図8は、本実施の形態に係るチャットサーバ400のハードウェア構成を示すブロック図である。図8に示すように、本実施の形態に係るチャットサーバ400は、相互に内部バス408で接続されたCPU405と、メモリ406と、固定ディスク407と、サーバ通信デバイス409とを含む。
 メモリ406は、各種の情報を記憶するものであって、たとえば、CPU405でのプログラムの実行に必要なデータを一時的に記憶する。固定ディスク407は、CPU405が実行するプログラムやデータベースを記憶する。CPU405は、チャットサーバ400の各要素を制御するものであって、各種の演算を実施する装置である。
 サーバ通信デバイス409は、CPU405が出力したデータを電気信号へと変換して外部へ送信し、外部から受信した電気信号をデータに変換してCPU405に入力する。具体的には、サーバ通信デバイス409は、CPU405からのデータを、インターネット500やキャリア網700などを介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器に送信する。そして、サーバ通信デバイス409は、インターネット500やキャリア網700を介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器から受信したデータを、CPU405に入力する。
 ここで、メモリ406あるいは固定ディスク407に記憶されるデータについて説明する。図9(a)は、チャットサーバ400のメモリ406あるいは固定ディスク407に記憶されるルーム管理テーブル406Aのデータ構造を示す第1のイメージ図であって、図9(b)は、チャットサーバ400のメモリ406あるいは固定ディスク407に記憶されるルーム管理テーブル406Aのデータ構造を示す第2のイメージ図である。
 図9(a)および図9(b)に示すように、ルーム管理テーブル406Aは、ルーム名とIPアドレスとを対応付けて格納する。たとえば、ある時点においては、図9(a)に示すように、チャットサーバ400にルーム名Rを有するチャットルーム、ルーム名Sを有するチャットルーム、ルーム名Tを有するチャットルームが生成されている。そして、ルーム名Rを有するチャットルームには、AというIPアドレスを有する通信端末と、CというIPアドレスを有する通信端末が入室している。ルーム名Sを有するチャットルームには、BというIPアドレスを有する通信端末が入室している。ルーム名Tを有するチャットルームには、DというIPアドレスを有する通信端末が入室している。
 後述するように、ルーム名Rは、CPU406が、AというIPアドレスを有する通信端末のメールアドレスとBというIPアドレスを有する通信端末のメールアドレスに基づいて決定する。図9(a)に示す状態において、ルーム名Sを有するチャットルームに新たにEというIPアドレスを有する通信端末が入室すると、図9(b)に示すように、ルーム管理テーブル406Aはルーム名SとIPアドレスEとを対応付けて格納する。
 具体的には、チャットサーバ400においては、第1の携帯電話100Aが新たなチャットルームの生成を要求してきた際(図2におけるステップS0002)に、CPU405が、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成した上で、ルーム管理テーブル406Aに当該ルーム名と第1の携帯電話100AのIPアドレスとを対応付けて格納する。
 そして、第2の携帯電話100Bがチャットサーバ400にチャットルームへの参加を要求してきた際(図2におけるステップS0008)に、CPU405が、ルーム管理テーブル406Aに当該ルーム名と第2の携帯電話100BのIPアドレスとを対応付けて格納する。CPU406は、ルーム管理テーブル406Aから、当該ルーム名に対応する第1の携帯電話100AのIPアドレスを読み出す。CPU406は、第1の携帯電話100AのIPアドレスを第2の各通信端末に送信し、第2の携帯電話100BのIPアドレスを第1の携帯電話100Aに送信する。
 次に、コンテンツサーバ600のハードウェア構成について説明する。図8に示すように、本実施の形態に係るコンテンツサーバ600は、相互に内部バス608で接続されたCPU605と、メモリ606と、固定ディスク607と、サーバ通信デバイス609とを含む。
 メモリ606は、各種の情報を記憶するものであって、たとえば、CPU605でのプログラムの実行に必要なデータを一時的に記憶する。固定ディスク607は、CPU605が実行するプログラムやデータベースを記憶する。CPU605は、コンテンツサーバ600の各要素を制御するものであって、各種の演算を実施する装置である。
 サーバ通信デバイス609は、CPU605が出力したデータを電気信号へと変換して外部へ送信し、外部から受信した電気信号をデータに変換してCPU605に入力する。具体的には、サーバ通信デバイス609は、CPU605からのデータを、インターネット500やキャリア網700などを介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器に送信する。そして、サーバ通信デバイス609は、インターネット500やキャリア網700を介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器から受信したデータを、CPU605に入力する。
 コンテンツサーバ600のメモリ606あるいは固定ディスク607は、動画コンテンツを記憶する。コンテンツサーバ600のCPU605は、サーバ通信デバイス609を介して、第1の携帯電話100Aおよび第2の携帯電話100Bからコンテンツの指定を受信する。コンテンツサーバ600のCPU605は、コンテンツの指定に基づいて、当該指定に対応する動画コンテンツをメモリ606から読み出して、サーバ通信デバイス609を介して当該コンテンツを第1の携帯電話100Aおよび第2の携帯電話100Bへ送信する。動画コンテンツは、ストリーミングデータなどであって、コンテンツサーバ600は、同じコンテンツを、略同時に、第1の携帯電話100Aおよび第2の携帯電話100Bへと配信する。
 また、コンテンツサーバ600のCPU605は、サーバ通信デバイス609を介して、第1の携帯電話100Aあるいは第2の携帯電話100Bからの停止命令(第1の命令)や再開命令(第2の命令)を受信する。
 CPU605は、停止命令に応じて、第1の携帯電話100Aと第2の携帯電話100Bとに配信中の動画の進行を一時停止させる。CPU605は、サーバ通信デバイス609を介して、第1の携帯電話100Aおよび第2の携帯電話100Bにおける動画の進行が一時停止するように、ストリーミングデータを送信する。すなわち、第1の携帯電話100Aと第2の携帯電話100Bとにおいて、第1の命令が入力された際に第1の携帯電話100Aと第2の携帯電話100Bとで表示されているフレームが、静止画像のように表示され続ける。
 CPU605は、再開命令に応じて、動画の進行を再開させる。CPU605は、サーバ通信デバイス609を介して、第1の携帯電話100Aおよび第2の携帯電話100Bにおける動画の進行が再開するように、ストリーミングデータを送信する。すなわち、CPU605は、第1の命令が入力された際に第1の携帯電話100Aと第2の携帯電話100Bとで表示されているフレームの続きから、配信を再開する。
 <ネットワークシステムにおけるチャット通信処理>
 次に、本実施の形態に係るネットワークシステムにおけるチャット通信処理について説明する。図10は、本実施の形態に係るネットワークシステムにおけるチャット通信処理の処理手順を示すフローチャートである。図11は、本実施の形態に係る送信データのデータ構造を示すイメージ図である。
 以下では、第1の携帯電話100Aが第2の携帯電話100Bへと手描きデータを送信する場合について説明する。なお、第1の携帯電話100Aと第2の携帯電話100Bとは、チャットルーム開設後、チャットサーバ400を介してデータを送受信してもよいし、チャットサーバ400を介さずにP2P通信によってデータを送受信してもよいものである。
 図10を参照して、まず、第1の携帯電話100A(送信側)のCPU106は、通信デバイス101を介して、チャットサーバ400からチャット通信に関するデータを取得する(ステップS002)。同様に、第2の携帯電話100B(受信側)のCPU106も、通信デバイス101を介して、チャットサーバ400からチャット通信に関するデータを取得する(ステップS004)。
 なお、「チャット通信に関するデータ」は、チャットルームのID、メンバーの端末情報、お知らせ(告知情報)、この時点までのチャット内容などを含む。
 第1の携帯電話100AのCPU106は、通信デバイス101を介して、チャットサーバから動画コンテンツを特定するための動画情報(a)を取得する(ステップS006)。図11に示すように、動画情報(a)は、たとえば、TV番組を特定するための放送局コードや放送時間などを含む。あるいは、動画情報(a)は、動画の格納場所を示すURLなどを含む。本実施の形態においては、第1の携帯電話100Aおよび第2の携帯電話100Bの一方のCPU106が、通信デバイス101を介して、チャットサーバ400に、動画情報を送信する。
 第1の携帯電話100Aと第2の携帯電話100Bの他方のCPU106が、通信デバイス101を介して、チャットサーバ400から動画情報を受信する(ステップS008)。なお、ここでは、第1の携帯電話100Aと第2の携帯電話100Bとが、チャット通信中に動画情報を取得する例を示したが、これに限られず、第1の携帯電話100Aと第2の携帯電話100Bとが、チャット通信前に、共通の動画情報を取得していてもよい。
 第1の携帯電話100AのCPU106は、タッチパネル102に、動画コンテンツを再生するためのウインドウを表示させる(ステップS010)。同様に、第2の携帯電話100BのCPU106は、タッチパネル102に、動画コンテンツを再生するためのウインドウを表示させる(ステップS012)。
 第1の携帯電話100AのCPU106は、動画情報に基づいて、通信デバイス101あるいはTVアンテナ113を介して、動画コンテンツ(たとえば、TV番組)を受信する。CPU106は、タッチパネル102を介して、動画コンテンツを再生し始める(ステップS014)。CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。
 第2の携帯電話100BのCPU106は、動画情報に基づいて、通信デバイス101あるいはTVアンテナ113を介して、第1の携帯電話100Aと同じ動画コンテンツを受信する。CPU106は、タッチパネル102を介して、動画コンテンツを再生し始める(ステップS016)。CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。
 第1の携帯電話100AのCPU106は、受信した動画コンテンツをメモリ103に格納し始める(ステップS018)。第2の携帯電話100BのCPU106は、受信した動画コンテンツをメモリ103に格納し始める(ステップS020)。
 第1の携帯電話100Aのユーザが手描き開始ボタンを押下すると、あるいはスタイラスペン120がタッチパネル102に接触すると、第1の携帯電話100AのCPU106は、通信デバイス101を介して第2の携帯電話100Bにポーズ情報(f)を送信する(ステップS022)。第2の携帯電話100BのCPU106は、通信デバイス101を介して、第1の携帯電話100Aからポーズ情報(f)を受信する(ステップS024)。
 なお、第1の携帯電話100Aは、ポーズ情報(f)を、チャットサーバ400を介して、第2の携帯電話100Bへと送信してもよい。そして、チャットサーバ400は、第1の携帯電話100Aや第2の携帯電話100Bが送受信するポーズ情報(f)を蓄積してもよい。
 より詳細には、図11に示すように、ポーズ情報(f)は、たとえば、第1の携帯電話100Aが第1の入力を受け付けたときの、番組開始からの時間(ms)、あるいは番組のシーン番号やフレーム番号などを含む。換言すれば、ポーズ情報(f)は、動画コンテンツの再生をポーズさせるための情報と、一時停止されたタイミングに対応する動画コンテンツのシーンやフレームなどを特定するための情報とを含む。
 第1の携帯電話100AのCPU106は、動画コンテンツの再生を一時停止する(ステップS026)。CPU106は、動画コンテンツを構成する複数の画像データに基づいて、手描き開始ボタンが押下されたときに表示されているシーンあるいはフレームの静止画像を表示する。
 第2の携帯電話100BのCPU106も、動画コンテンツの再生を一時停止する(ステップS028)。CPU106は、動画コンテンツを構成する複数の画像データに基づいて、ポーズ情報で特定されるシーンあるいはフレームの静止画像を表示する。
 第1の携帯電話100AのCPU106は、タッチパネル102を介して、ユーザからの手描き入力を受け付ける(ステップS030)。より詳細には、CPU106は、所定時間毎にタッチパネル102から接触座標データを順次受け付けることにより、タッチパネル102に対する接触位置の変化(軌跡)を取得する。図11に示すように、CPU106は、手描きクリア情報(b)と、接触位置の軌跡を示す情報(c)と、線の色を示す情報(d)と、線の幅を示す情報(e)とを含む、送信データを作成する(ステップS032)。
 手描きクリア情報(b)は、それまでに入力された手描きをクリアするための情報(true)または手描き入力を続行するための情報(false)を含む。このとき、CPU106は、送信データに基づいて、ディスプレイ107に動画コンテンツ上に(動画コンテンツに重畳させて)手描き画像を表示させる。
 CPU106は、通信デバイス101を介して、第2の携帯電話100Bに、送信データを送信する(ステップS034)。第2の携帯電話100BのCPU106は、通信デバイス101を介して、第1の携帯電話100Aから送信データを受信する(ステップS036)。
 なお、第1の携帯電話100Aは、送信データを、チャットサーバ400を介して、第2の携帯電話100Bへと送信してもよい。そして、チャットサーバ400は、第1の携帯電話100Aや第2の携帯電話100Bが送受信する送信データを蓄積してもよい。
 CPU106は、送信データを解析する(ステップS038)。CPU106は、送信データに基づいて、ディスプレイ107に動画コンテンツ上に(動画コンテンツに重畳させて)手描き画像を表示させる(ステップS040)。
 第1の携帯電話100Aのユーザが手描き終了ボタンを押下すると、あるいはスタイラスペン120がタッチパネル102から離間すると、第1の携帯電話100AのCPU106は、通信デバイス101を介して第2の携帯電話100Bにリジューム情報(f)を送信する(ステップS042)。第2の携帯電話100BのCPU106は、通信デバイス101を介して、第1の携帯電話100Aからリジューム情報(f)を受信する(ステップS044)。
 なお、第1の携帯電話100Aは、リジューム情報(f)を、チャットサーバ400を介して、第2の携帯電話100Bへと送信してもよい。そして、チャットサーバ400は、第1の携帯電話100Aや第2の携帯電話100Bが送受信するリジューム情報(f)を蓄積してもよい。
 より詳細には、図11に示すように、リジューム情報(f)は、たとえば、動画コンテンツの再生を再開させるための情報を含む。リジューム情報(f)は、動画コンテンツの停止時間を特定するための情報を含んでもよい。リジューム情報(f)は、第1の携帯電話100Aが第1の入力を受け付けたときの、番組開始からの時間(ms)、あるいは番組のシーン番号やフレームを含んでもよい。
 第1の携帯電話100AのCPU106は、動画コンテンツの再生を再開する(ステップS046)。本実施の形態においては、CPU106は、メモリ103に格納されている動画コンテンツに基づいて、一時停止されていたシーンあるいはフレームから動画コンテンツの再生を再開する。
 なお、第1の携帯電話100Aは、一時停止を解除した旨のメッセージを、P2P通信によって直接的に、あるいはチャットサーバ400を介して、第2の携帯電話100Bへと送信してもよい。そして、チャットサーバ400は、第1の携帯電話100Aや第2の携帯電話100Bが送受信するメッセージを蓄積してもよい。
 第2の携帯電話100BのCPU106も、動画コンテンツの再生を再開する(ステップS048)。CPU106は、メモリ103に格納されている動画コンテンツに基づいて、リジューム情報で特定されるシーンあるいはフレームから動画コンテンツの再生を再開する。
 なお、第1の携帯電話100Aおよび第2の携帯電話100Bは、動画コンテンツの録画を行なうことなく、第2の入力あるいはリジューム情報を受け付けた後に受信した動画コンテンツを再生し始めるものであってもよい。
 第1の携帯電話100AのCPU106は、動画情報で特定される動画コンテンツの再生が終了すると、動画コンテンツ用のウインドウを閉じる(ステップS050)。第2の携帯電話100BのCPU106は、動画情報で特定される動画コンテンツの再生が終了すると、動画コンテンツ用のウインドウを閉じる(ステップS052)。
 <携帯電話100における入力処理>
 次に、本実施の形態に係る携帯電話100における入力処理について説明する。図12は、本実施の形態に係る携帯電話100における入力処理の処理手順を示すフローチャートである。
 図12を参照して、CPU106は、まず、携帯電話100への入力が開始された際に、ペン情報の設定処理(ステップS200)を実行する。なお、ペン情報の設定処理(ステップS200)については後述する。
 CPU106は、ペン情報の設定処理(ステップS200)が終了すると、データ(b)がtrueであるか否かを判断する(ステップS102)。データ(b)がtrueである場合(ステップS102にてYESである場合)、CPU106は、データ(b)をメモリ103に格納する(ステップS104)。CPU106は、入力処理を終了する。
 データ(b)がtrueでない場合(ステップS102にてNOである場合)、CPU106は、スタイラスペン120がタッチパネル102に接触したか否かを判断する(ステップS106)。すなわち、CPU106は、ペンダウンを検出したか否かを判断する。
 ペンダウンを検出しなかった場合(ステップS106にてNOである場合)、CPU106は、スタイラスペン120のタッチパネル102に対する接触位置が変化したか否かを判断する(ステップS108)。すなわち、CPU106は、ペンドラッグを検出したか否かを判断する。CPU106は、ペンドラッグを検出しなかった場合(ステップS108にてNOである場合)、入力処理を終了する。
 CPU106は、ペンダウンを検出した場合(ステップS106にてYESである場合)、あるいは、ペンドラッグを検出した場合(ステップS108にてYESである場合)、データ(b)に「false」を設定する(ステップS110)。CPU106は、手描き処理(ステップS300)を実行する。手描き処理(ステップS300)については後述する。
 CPU106は、手描き処理(ステップS300)を終了すると、データ(b)、(c)、(d)、(e)をメモリ103に格納する(ステップS112)。CPU106は、入力処理を終了する。
 <携帯電話100におけるペン情報の設定処理>
 次に、本実施の形態に係る携帯電話100におけるペン情報の設定処理について説明する。図13は、本実施の形態に係る携帯電話100におけるペン情報の設定処理の処理手順を示すフローチャートである。
 図13を参照して、CPU106は、タッチパネル102を介してユーザから手描き画像をクリアするための命令を受け付けたか否かを判断する(ステップS202)。CPU106は、ユーザから手描き画像をクリアするための命令を受け付けた場合(ステップS202にてYESである場合)、データ(b)に「true」を設定する(ステップS204)。CPU106は、ステップS208からの処理を実行する。
 CPU106は、ユーザから手描き画像をクリアするための命令を受け付けなかった場合(ステップS202にてNOである場合)、データ(e)に「false」を設定する(ステップS206)。CPU106は、タッチパネル102を介して、ユーザからペンの色を変更するための命令を受け付けたか否かを判断する(ステップS208)。CPU106は、ユーザからペンの色を変更するための命令を受け付けなかった場合(ステップS208にてNOである場合)、ステップS212からの処理を実行する。
 CPU106は、ユーザからペンの色を変更するための命令を受け付けた場合(ステップS208にてYESである場合)、データ(d)に変更後のペンの色を設定する(ステップS210)。CPU106は、タッチパネル102を介して、ユーザからペンの幅を変更するための命令を受け付けたか否かを判断する(ステップS212)。CPU106は、ユーザからペンの幅を変更するための命令を受け付けなかった場合(ステップS212にてNOである場合)、ペン情報の設定処理を終了する。
 CPU106は、ユーザからペンの幅を変更するための命令を受け付けた場合(ステップS212にてYESである場合)、データ(e)に変更後のペンの幅を設定する(ステップS214)。CPU106は、ペン情報の設定処理を終了する。
 <携帯電話100における手描き処理>
 次に、本実施の形態に係る携帯電話100における手描き処理について説明する。図14は、本実施の形態に係る携帯電話100における手描き処理の処理手順を示すフローチャートである。
 図14を参照して、CPU106は、タッチパネル102を介して、現在スタイラスペン120がタッチパネル102に接触しているか否かを判断する(ステップS302)。スタイラスペン120がタッチパネル102に接触していない場合(ステップS302にてNOである場合)、CPU106は、手描き処理を終了する。
 スタイラスペン120がタッチパネル102に接触している場合(ステップS302にてYESである場合)、CPU106は、タッチパネル102を介してスタイラスペン120のタッチパネル102に対する接触座標(X,Y)と現在の時刻(T)とを取得する(ステップS304)。CPU106は、データ(c)に「X,Y,T」を設定する(ステップS306)。
 CPU106は、前回の座標の取得時から所定時間が経過しているか否かを判断する(ステップS308)。CPU106は、所定時間が経過していない場合(ステップS308にてNOである場合)、ステップS308からの処理を繰り返す。
 CPU106は、所定時間が経過している場合(ステップS308にてYESである場合)、タッチパネル102を介して、ペンドラッグを検出したか否かを判断する(ステップS310)。CPU106は、ペンドラッグを検出しなかった場合(ステップS310にてNOである場合)、ステップS316からの処理を実行する。
 CPU106は、ペンドラッグを検出した場合(ステップS310にてYESである場合)、タッチパネル102を介して、スタイラスペン120のタッチパネル102に対する接触位置座標(X,Y)と、現在の時刻(T)とを取得する(ステップS312)。CPU106は、データ(c)に「:X,Y,T」を追加する(ステップS314)。CPU106は、前回の接触座標の取得から所定時間経過したか否かを判断する(ステップS316)。CPU106は、所定時間が経過していない場合(ステップS316にてNOである場合)、ステップS316からの処理を繰り返す。
 CPU106は、所定時間が経過した場合(ステップS316にてYESの場合)、タッチパネル102を介して、ペンアップを検出したか否かを判断する(ステップS318)。CPU106は、ペンアップを検出しなかった場合(ステップS318にてNOである場合)、ステップS310からの処理を繰り返す。
 CPU106は、ペンアップを検出した場合(ステップS318にてYESである場合)、タッチパネル102を介して、ペンアップ時におけるスタイラスペンのタッチパネル102に対する接触座標(X,Y)とペンアップされたときの時刻(T)とを取得する(ステップS320)。CPU106は、データ(c)に「:X,Y,T」を追加する(ステップS322)。CPU106は、手描き処理を終了する。
 <携帯電話100における表示処理>
 次に、本実施の形態に係る携帯電話100における表示処理について説明する。図15は、本実施の形態に係る携帯電話100における表示処理の処理手順を示すフローチャートである。
 図15を参照して、CPU106は、動画コンテンツの再生が終了したか否かを判断する(ステップS402)。CPU106は、動画コンテンツの再生が終了した場合(ステップS402にてYESである場合)、表示処理を終了する。
 CPU106は、動画コンテンツの再生が終了していない場合(ステップS402にてNOである場合)、クリア情報clear(データ(b))を取得する(ステップS404)。CPU106は、クリア情報clearがtrueであるか否かを判断する(ステップS406)。CPU106は、クリア情報clearがtrueである場合(ステップS406にてYESである場合)、手描き画像を非表示にする(ステップS408)。CPU106は、表示処理を終了する。
 CPU106は、クリア情報clearがtrueでない場合(ステップS406にてNOである場合)、ペンの色(データ(d))を取得する(ステップS410)。CPU106は、ペンの色を設定し直す(ステップS412)。CPU106は、ペンの幅(データ(e))を取得する(ステップS414)。CPU106は、ペンの幅を設定し直す(ステップS416)。CPU106は、手描き画像表示処理(ステップS500)を実行する。手描き画像表示処理(ステップS500)については後述する。CPU106は、表示処理を終了する。
 <携帯電話100における表示処理の応用例>
 次に、本実施の形態に係る携帯電話100における表示処理の応用例について説明する。図16は、本実施の形態に係る携帯電話100における表示処理の応用例の処理手順を示すフローチャートである。この応用例においては、携帯電話100は、クリア情報だけでなくシーンが切り換わった際にも、それまでに表示されている手描き画像を消去(リセット)するものである。
 図16を参照して、CPU106は、動画コンテンツの再生が終了したか否かを判断する(ステップS452)。CPU106は、動画コンテンツの再生が終了した場合(ステップS452にてYESである場合)、表示処理を終了する。
 CPU106は、動画コンテンツの再生が終了していない場合(ステップS452にてNOである場合)、動画コンテンツのシーンが切り換わったか否かを判断する(ステップS454)。CPU106は、動画コンテンツのシーンが切り換わっていない場合(ステップS454にてNOである場合)、ステップS458からの処理を実行する。
 CPU106は、動画コンテンツのシーンが切り換わった場合(ステップS454にてYESである場合)、それまでに表示されていた手描き画像を非表示にする(ステップS456)。CPU106は、クリア情報clear(データ(b))を取得する(ステップS458)。CPU106は、クリア情報clearがtrueであるか否かを判断する(ステップS460)。CPU106は、クリア情報clearがtrueである場合(ステップS460にてYESである場合)、それまでに表示されていた手描き画像を非表示にする(ステップS462)。CPU106は、表示処理を終了する。
 CPU106は、クリア情報clearがtrueでない場合(ステップS460にてNOである場合)、ペンの色(データ(d))を取得する(ステップS464)。CPU106は、ペンの色を設定し直す(ステップS466)。CPU106は、ペンの幅(データ(e))を取得する(ステップS468)。CPU106は、ペンの幅を設定し直す(ステップS470)。CPU106は、手描き画像表示処理(ステップS500)を実行する。手描き画像表示処理(ステップS500)については後述する。CPU106は、表示処理を終了する。
 <携帯電話100における手描き画像表示処理>
 次に、本実施の形態に係る携帯電話100における手描き画像表示処理について説明する。図17は、本実施の形態に係る携帯電話100における手描き画像表示処理の処理手順を示すフローチャートである。
 図17を参照して、CPU106は、手描きストロークの頂点の座標(データ(c))を取得する(ステップS502)。CPU106は、手描きストロークの頂点の座標の個数nを取得する(ステップS504)。CPU106は、変数iに1を代入する(ステップS506)。
 CPU106は、タッチパネル102を用いて、座標(Cxi,Cyi)と座標(Cx(i+1),Cy(i+1))とを線で繋ぐことによって、手描きストロークを描画する(ステップS508)。CPU106は、変数iをインクリメントする(ステップS510)。
 CPU106は、変数iが個数n以上であるか否かを判断する(ステップS512)。CPU106は、変数iが個数n未満である場合(ステップS512にてNOである場合)、ステップS508からの処理を繰り返す。CPU106は、変数iが個数n以上である場合(ステップS512にてYESである場合)、手描き画像表示処理を終了する。
 <携帯電話100における手描き画像表示処理の応用例>
 次に、本実施の形態に係る携帯電話100における手描き画像表示処理の応用例について説明する。図18は、本実施の形態に係る携帯電話100における手描き画像表示処理の応用例の処理手順を示すフローチャートである。ここでは、手描き画像の入力速度で、手描き画像を表示するための処理を説明する。
 図18を参照して、CPU106は、手描きストロークの頂点の座標(データ(c))を取得する(ステップS552)。CPU106は、手描きストロークの頂点の座標の個数nを取得する(ステップS554)。CPU106は、変数iに1を代入する(ステップS556)。
 CPU106は、前回の描画ステップ(後述するステップS560)が実行された時刻tからCt(i+1)の時間が経過したか否かを判断する(ステップS558)。時刻tからCt(i+1)の時間が経過していない場合(ステップS558にてNOである場合)、ステップS558からの処理を繰り返す。
 CPU106は、時刻tからCt(i+1)の時間が経過した場合(ステップS558にてYESである場合)、タッチパネル102を用いて、座標(Cxi,Cyi)と座標(Cx(i+1),Cy(i+1))とを線で繋ぐことによって、手描きストロークを描画する(ステップS560)。CPU106は、変数iをインクリメントする(ステップS562)。
 CPU106は、変数iが個数n以上であるか否かを判断する(ステップS564)。CPU106は、変数iが個数n未満である場合(ステップS564にてNOである場合)、ステップS558からの処理を繰り返す。CPU106は、変数iが個数n以上である場合(ステップS564にてYESである場合)、手描き画像表示処理を終了する。
 [実施の形態2]
 次に、本発明の実施の形態2について説明する。上述の実施の形態1に係るネットワークシステム1では、コンテンツサーバ600は、第1の携帯電話100Aや第2の携帯電話100Bのチャット状況に関わらずに、第1の携帯電話100Aや第2の携帯電話100Bにコンテンツ(動画)を送信するものであった。換言すれば、コンテンツサーバ600が動画を進行させている一方で、第1の携帯電話100Aや第2の携帯電話100Bが動画の進行を停止させるものであった。そのため、第1の携帯電話100Aや第2の携帯電話100Bは、動画を停止している期間に対応する(配信された)動画を蓄積しておく必要があった。
 一方、本実施の形態に係るネットワークシステム1では、コンテンツサーバ600が、第1の携帯電話100Aや第2の携帯電話100Bのチャット状況に応じて、配信中のコンテンツ(動画)を一時的に停止するものである。すなわち、第1の携帯電話100Aや第2の携帯電話100Bが、動画が停止されている期間に対応する動画を蓄積する必要がないものである。ただし、コンテンツサーバ600は、第1の携帯電話100Aや第2の携帯電話100Bから、配信中の動画の進行を停止または再開すべき旨の情報を受信する必要がある。
 なお、実施の形態1に係るネットワークシステム1と同様の構成については、説明を繰り返さない。たとえば、図1に示したようなネットワークシステム1の全体構成や、図2および3に示したようなネットワークシステム1の全体的な動作概要や、図5および6に示したような携帯電話100のハードウェア構成や、図8および9に示したようなチャットサーバ400およびコンテンツサーバ600のハードウェア構成などは、本実施の形態に係るそれらと同様であるため、ここでは説明を繰り返さない。
 <ネットワークシステム1における手描きデータの送受信に関する動作概要>
 以下では、本実施の形態に係る手描きデータの送受信に関する動作概要について詳細に説明する。図19は、本実施の形態に係る手描きデータの送受信に関する動作概要を示すイメージ図である。
 以下では、第1の携帯電話100Aと第2の携帯電話100Bとが、サーバを介さずに、直接的に、チャット通信(手描き画像の送受信)を行っている場合について説明する。ただし、後述するように、第1の携帯電話100Aと第2の携帯電話100Bとは、チャット通信(手描き画像の送受信)においても、サーバを介すものであってもよい。
 図19(a)(b)を参照して、第1の携帯電話100Aと第2の携帯電話100Bとが、コンテンツサーバ600から同じ動画コンテンツ(たとえば、TV番組)を受信して、当該動画コンテンツを表示している。ここでの、動画コンテンツは、コンテンツサーバ600が第1の携帯電話100Aや第2の携帯電話100Bにおける再生や一時停止を制御できるものであって、たとえばストリーミングデータが挙げられる。このとき、チャット通信に参加していない第3の携帯電話100Cも、同じ動画コンテンツを受信して、表示しているかもしれない。
 図19(d)~(f)を参照して、時間の経過とともに、動画コンテンツが進行する。すなわち、第1の携帯電話100A、第2の携帯電話100B、第3の携帯電話100Cにおいて、表示される画像が変化していく。このとき、第1の携帯電話100A、第2の携帯電話100B、第3の携帯電話100Cが、動画コンテンツに対応する音声を出力してもよい。
 図19(d)を参照して、第1の携帯電話100Aのユーザが、手描き画像の入力を開始すると、第1の携帯電話100Aは、コンテンツサーバ600に、手描き画像の入力が開始する旨のメッセージ、あるいは動画コンテンツの進行を一時停止する旨のメッセージを送信する。コンテンツサーバ600は、上記メッセージ(開始メッセージ)を受信して、動画コンテンツの進行を一時停止する。たとえば、コンテンツサーバ600は、フレームが変化しないことを示す情報を送信する。
 これによって、図19(d)および(e)を参照して、第1の携帯電話100Aと第2の携帯電話100Bとにおいて、動画コンテンツの進行がポーズする。より正確には、第1の携帯電話100Aと第2の携帯電話100Bでは、まるで動画コンテンツの進行がストップしているように見える。換言すれば、最新の静止画像が表示されているように見える。
 より詳細には、ユーザが、スタイラスペン120や指などをタッチパネル102に接触させると、第1の携帯電話100Aが第1の命令を受け付けたと判断する。あるいは、ユーザが、手描き開始ボタンを押下すると、第1の携帯電話100Aが第1の命令を受け付けたと判断する。第1の携帯電話100Aは、第1の命令に応じて、開始メッセージをコンテンツサーバ600に送信する。
 図19(f)を参照して、このとき、第3の携帯電話100Cは、チャット通信に参加していないので、開始メッセージを受信しない。第3の携帯電話100Cは、通常通り、コンテンツサーバ600からの動画コンテンツを再生し続ける。
 図19(g)を参照して、ユーザが第1の携帯電話100Aに手描き画像を入力すると、第1の携帯電話100Aは、タッチパネル102に手描き画像を表示する。第1の携帯電話100Aは、P2P通信を介して、手描きデータを第2の携帯電話100Bに送信する。
 図19(h)を参照して、第2の携帯電話100Bは、第1の携帯電話100Aから手描きデータを受信して、手描き画像を表示する。
 図19(i)を参照して、このとき、第3の携帯電話100Cは、チャット通信に参加していないので、開始メッセージも手描き画像も受信しない。第3の携帯電話100Cは、通常通り、動画コンテンツを再生し続ける。
 図19(k)を参照して、ユーザが第2の携帯電話100Bに手描き画像を入力すると、第2の携帯電話100Bは、タッチパネル102に手描き画像を表示する。第2の携帯電話100Bは、P2P通信を介して、手描きデータを第1の携帯電話100Aに送信する。
 図19(j)を参照して、第1の携帯電話100Aは、第2の携帯電話100Bから手描きデータを受信して、手描き画像を表示する。
 図19(l)を参照して、このとき、第3の携帯電話100Cは、チャット通信に参加していないので、開始メッセージも手描き画像も受信しない。第3の携帯電話100Cは、通常通り、動画コンテンツを再生し続ける。
 図19(m)を参照して、第1の携帯電話100Aと第2の携帯電話100Bのユーザが手描き画像の入力を終了すると、第1の携帯電話100Aは、コンテンツサーバ600に、手描き画像の入力が終了した旨のメッセージ、あるいは動画の配信を再開する旨のメッセージを送信する。コンテンツサーバ600は、上記メッセージ(終了メッセージ)を受信して、停止していた位置から動画コンテンツの進行を再開する。
 これによって、図19(m)および(n)を参照して、第1の携帯電話100Aと第2の携帯電話100Bとにおいて、動画コンテンツの進行が再開する。より正確には、第1の携帯電話100Aと第2の携帯電話100Bでは、動画コンテンツの進行が再開したように見える。
 より詳細には、スタイラスペン120や指などが第1の携帯電話100Aのタッチパネル102に接触しておらず、第2の携帯電話100Bからの手描きデータを受信しなくなると、第1の携帯電話100Aが第2の命令を受け付けたと判断する。あるいは、ユーザが手描き終了ボタンを押下すると、第1の携帯電話100Aが第2の命令を受け付けたと判断する。第1の携帯電話100Aは、第2の命令に応じて、終了メッセージをコンテンツサーバ600に送信する。
 図19(o)を参照して、このとき、第3の携帯電話100Cは、通常通り、動画コンテンツを再生し続ける。
 コンテンツサーバ600は、動画コンテンツの配信中に、再生している動画コンテンツのシーンが切り替わったか否かを判断する。図19(p)(q)を参照して、コンテンツサーバ600は、動画コンテンツのシーンが切り替わったと判断すると、第1の携帯電話100Aおよび第2の携帯電話100Bにシーンチェンジ情報を送信する。第1の携帯電話100Aおよび第2の携帯電話100Bは、シーンチェンジ情報を受信して、それまでに描画されてきた手描き画像を削除する。それまでの手描き画像が、切り替わる前のシーンに関係するものである可能性が高いからである。
 ただし、第1の携帯電話100Aおよび第2の携帯電話100Bの各々が、動画コンテンツの再生中に、再生している動画コンテンツのシーンが切り替わったか否かを判断してもよい。すなわち、図19(p)(q)を参照して、第1の携帯電話100Aおよび第2の携帯電話100Bは、動画コンテンツのシーンが切り替わったと判断すると、それまでに描画されてきた手描き画像を削除してもよい。
 図19(r)(s)でも同様に、コンテンツサーバ600は、動画コンテンツのシーンが切り替わったと判断すると、第1の携帯電話100Aおよび第2の携帯電話100Bにシーンチェンジ情報を送信する。第1の携帯電話100Aおよび第2の携帯電話100Bは、シーンチェンジ情報を受信して、それまでに描画されてきた手描き画像を削除する。あるいは、第1の携帯電話100Aおよび第2の携帯電話100Bの各々が、動画コンテンツの再生中に、再生している動画コンテンツのシーンが切り替わったか否かを判断してもよい。すなわち、図19(p)(q)を参照して、第1の携帯電話100Aおよび第2の携帯電話100Bは、動画コンテンツのシーンが切り替わったと判断すると、それまでに描画されてきた手描き画像を削除してもよい。
 なお、図19においては、第1の入力を受け付けた第1の携帯電話100Aが、第2の入力を受け付けている。そして、動画コンテンツの停止中に、第1の携帯電話100Aと第2の携帯電話100Bとが、共に、手描き画像を入力できるものであった。
 この点に関して、本実施の形態に係るネットワークシステム1は、以下のような形態にも適用可能である。まず、第2の命令について説明する。
 (1)第1の命令を受け付けた(開始メッセージを送信した)第1の携帯電話100Aのみが、第2の命令を受け付け可能であってもよい。
 (2)第1の命令を受け付けていない(開始メッセージを受信した)第2の携帯電話100Bのみが、第2の命令を受け付け可能であってもよい。
 (3)第1の命令を受け付けたか否かに関わらず(開始メッセージを送信したか受信したかに関わらず)、第1の携帯電話100Aと第2の携帯電話100Bの両者が第2の命令を受け付け可能であってもよい。
 次に、手描き画像の入力について説明する。
 (1)第1の命令を受け付けた(開始メッセージを送信した)第1の携帯電話100Aのみが、手描き画像の入力を受け付け可能(送信可能)であってもよい。
 (2)第1の命令を受け付けたか否かに関わらず(開始メッセージを送信したか受信したかに関わらず)、第1の携帯電話100Aと第2の携帯電話100Bの両者が手描き画像の入力を受け付け可能(送信可能)であってもよい。
 上記の適用例に加えて、上述したように、第1の携帯電話100Aおよび第2の携帯電話100Bは、手描き画像の入力の開始、すなわちスタイラスペン120のタッチパネル102への接触を、第1の命令と判断してもよい。あるいは、第1の携帯電話100Aおよび第2の携帯電話100Bは、タッチパネル102上の手描き入力開始ボタンが押下されたことを、第1の命令の入力とみなしてもよい。
 そして、第1の携帯電話100Aおよび第2の携帯電話100Bは、手描き画像の入力の終了、すなわちスタイラスペン120のタッチパネル102からの離間を、第2の命令と判断してもよい。あるいは、第1の携帯電話100Aおよび第2の携帯電話100Bは、タッチパネル102上の手描き入力終了ボタンが押下されたことを、第2の命令の入力とみなしてもよい。
 このように、本実施の形態に係るネットワークシステム1においては、いずれかの通信端末が手描き画像の入力の開始命令を受け付けると、コンテンツサーバ600がチャット通信中の全ての通信端末における動画コンテンツの再生を一時停止する。そして、いずれかの通信端末が手描き画像の入力の終了命令を受け付けると、チャット通信中の全ての通信端末における動画コンテンツの再生を再開する。
 これによって、チャット通信中の全てのユーザが、同じシーンを閲覧しながら、手描き画像を送受信することができる。換言すれば、本実施の形態に係るネットワークシステム1によって、手描き画像の入力中に望まないシーンの切り替えが発生することや、手描き画像の入力中に第1の携帯電話100Aと第2の携帯電話100Bとが異なるシーンを表示する可能性を低減することができる。
 <ネットワークシステムにおけるチャット通信処理>
 次に、本実施の形態に係るネットワークシステムにおけるチャット通信処理について説明する。図20は、本実施の形態に係るネットワークシステムにおけるチャット通信処理の処理手順を示すフローチャートである。図21は、本実施の形態に係る送信データのデータ構造を示すイメージ図である。
 以下では、第1の携帯電話100Aが第2の携帯電話100Bへと手描きデータを送信する場合について説明する。なお、第1の携帯電話100Aと第2の携帯電話100Bとは、チャットルーム開設後、チャットサーバ400を介してデータを送受信してもよいし、チャットサーバ400を介さずにP2P通信によってデータを送受信してもよいものである。
 図20を参照して、まず、第1の携帯電話100A(送信側)のCPU106は、通信デバイス101を介して、チャットサーバ400からチャット通信に関するデータを取得する(ステップS1002)。同様に、第2の携帯電話100B(受信側)のCPU106も、通信デバイス101を介して、チャットサーバ400からチャット通信に関するデータを取得する(ステップS1004)。
 なお、「チャット通信に関するデータ」は、チャットルームのID、メンバーの端末情報、お知らせ(告知情報)、この時点までのチャット内容などを含む。
 第1の携帯電話100AのCPU106は、通信デバイス101を介して、チャットサーバから動画コンテンツを特定するための動画情報(a)を取得する(ステップS1006)。図21に示すように、動画情報(a)は、たとえば、TV番組を特定するための放送局コードや放送時間などを含む。あるいは、動画情報(a)は、動画の格納場所を示すURLなどを含む。本実施の形態においては、第1の携帯電話100Aおよび第2の携帯電話100Bの一方のCPU106が、通信デバイス101を介して、チャットサーバ400に、動画情報を送信する。
 第1の携帯電話100Aと第2の携帯電話100Bの他方のCPU106が、通信デバイス101を介して、チャットサーバ400から動画情報を受信する(ステップS1008)。なお、ここでは、第1の携帯電話100Aと第2の携帯電話100Bとが、チャット通信中に動画情報を取得する例を示したが、これに限られず、第1の携帯電話100Aと第2の携帯電話100Bとが、チャット通信前に、共通の動画情報を取得していてもよい。
 第1の携帯電話100AのCPU106は、タッチパネル102に、動画コンテンツを再生するためのウインドウを表示させる(ステップS1010)。同様に、第2の携帯電話100BのCPU106は、タッチパネル102に、動画コンテンツを再生するためのウインドウを表示させる(ステップS1012)。
 コンテンツサーバ600は、チャットサーバ400に対して、第1の携帯電話100Aおよび第2の携帯電話100Bが参加しているチャットに関するメンバー情報を要求する(ステップS1014)。チャットサーバ400は、当該要求に応じて、端末情報をコンテンツサーバ600に返送する(ステップS1016)。
 図21に示すように、端末情報は、メンバー情報(f)と配信先情報(g)とを含む。メンバー情報(f)は、たとえば、チャットサーバ400が振り出すチャットルーム名などを含む。配信先情報(g)は、配信要求端末である第1の携帯電話100Aや第2の携帯電話100BのIPアドレスなどを含む。
 第1の携帯電話100AのCPU106は、動画情報に基づいて、通信デバイス101を介して、動画コンテンツ(たとえば、ストリーミングデータ)を受信し始める。CPU106は、タッチパネル102を介して、動画コンテンツを再生し始める(ステップS1018)。CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。
 第2の携帯電話100BのCPU106は、動画情報に基づいて、通信デバイス101を介して、第1の携帯電話100Aと同じ動画コンテンツを受信し始める。CPU106は、タッチパネル102を介して、動画コンテンツを再生し始める(ステップS1020)。CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。
 第1の携帯電話100Aのユーザが手描き開始ボタンを押下すると、あるいはスタイラスペン120がタッチパネル102に接触すると、第1の携帯電話100AのCPU106は、通信デバイス101を介してコンテンツサーバ600に手描き開始メッセージを送信する(ステップS1022)。コンテンツサーバ600のCPU605は、手描き開始メッセージを受信して、動画コンテンツの配信を停止する(ステップS1024)。
 すなわち、コンテンツサーバ600のCPU605は、手描き開始メッセージを受信すると、第1の携帯電話100Aと第2の携帯電話100Bとにおける動画コンテンツの再生が一時停止されるようなデータを、第1の携帯電話100Aと第2の携帯電話100Bとに送信する。第1の携帯電話100Aのユーザと第2の携帯電話100Bのユーザには、動画コンテンツの進行が停止したように見える。なお、コンテンツサーバ600が再生停止を要求するデータを各端末へと送信することによって動画コンテンツの再生が一時停止されてもよいし、コンテンツサーバ600が各端末への動画コンテンツの配信を停止することによって動画コンテンツの再生が一時停止されてもよい。
 第1の携帯電話100AのCPU106は、タッチパネル102を介して、ユーザからの手描き画像の入力を受け付ける(ステップS1026)。より詳細には、CPU106は、所定時間毎にタッチパネル102から接触座標データを順次受け付けることにより、タッチパネル102に対する接触位置の変化(軌跡)を取得する。図21に示すように、CPU106は、手描きクリア情報(b)と、接触位置の軌跡を示す情報(c)と、線の色を示す情報(d)と、線の幅を示す情報(e)とを含む、送信データを作成する(ステップS1028)。
 手描きクリア情報(b)は、それまでに入力された手描きをクリアするための情報(true)または手描き入力を続行するための情報(false)を含む。このとき、CPU106は、送信データに基づいて、ディスプレイ107に動画コンテンツ上に(動画コンテンツに重畳させて)手描き画像を表示させる。
 CPU106は、通信デバイス101を介して、第2の携帯電話100Bに、送信データを送信する(ステップS1030)。第2の携帯電話100BのCPU106は、通信デバイス101を介して、第1の携帯電話100Aから送信データを受信する(ステップS1032)。
 なお、第1の携帯電話100Aは、送信データを、チャットサーバ400を介して、第2の携帯電話100Bへと送信してもよい。そして、チャットサーバ400は、第1の携帯電話100Aや第2の携帯電話100Bが送受信する送信データを蓄積しておいてもよい。
 CPU106は、送信データを解析する(ステップS1034)。CPU106は、送信データに基づいて、ディスプレイ107に動画コンテンツ上に(動画コンテンツに重畳させて)手描き画像を表示させる(ステップS1036)。
 第1の携帯電話100Aのユーザが手描き終了ボタンを押下すると、あるいはスタイラスペン120がタッチパネル102から離間すると、第1の携帯電話100AのCPU106は、通信デバイス101を介してコンテンツサーバ600に、手描き終了メッセージを送信する(ステップS1038)。コンテンツサーバ600のCPU605は、手描き終了メッセージを受信して、動画コンテンツの配信を再開する。
 すなわち、コンテンツサーバ600のCPU605は、手描き終了メッセージを受信すると、第1の携帯電話100Aと第2の携帯電話100Bとにおける動画コンテンツの再生が再開されるようなストリーミングデータを、第1の携帯電話100Aと第2の携帯電話100Bとに送信し始める。第1の携帯電話100Aのユーザと第2の携帯電話100Bのユーザには、動画コンテンツの進行が再開したように見える(ステップS1040,ステップS1042)。
 第1の携帯電話100AのCPU106は、動画情報で特定される動画コンテンツの再生が終了すると、動画コンテンツ用のウインドウを閉じる(ステップS1050)。第2の携帯電話100BのCPU106は、動画情報で特定される動画コンテンツの再生が終了すると、動画コンテンツ用のウインドウを閉じる(ステップS1052)。
  (ネットワークシステムにおけるチャット通信処理の変形例)
 次に、本実施の形態に係るネットワークシステムにおけるチャット通信処理の変形例について説明する。図22は、本実施の形態に係るネットワークシステムにおけるチャット通信処理の変形例の処理手順を示すフローチャートである。
 前述した図20においては、コンテンツサーバ600がチャットサーバ400に対して、端末情報を要求するものであった。しかしながら、図22に示すように、コンテンツサーバ600は、第1の携帯電話100Aと第2の携帯電話100Bとから、それぞれの端末情報を受け取ってもよい。
 より詳細には、図20におけるステップS1016、ステップS1018、ステップS1020、ステップS1022の代わりに、ステップS1019とステップS1021が実行されてもよい。
 すなわち、第1の携帯電話100AのCPU106は、動画情報に基づいてコンテンツサーバ600に第1の携帯電話100Aの端末情報を送信することによって、動画コンテンツ(たとえば、ストリーミングデータ)を受信し始めてもよい(ステップS1019)。そして、CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。
 同様に、第2の携帯電話100BのCPU106は、動画情報に基づいてコンテンツサーバ600に第2の携帯電話100Bの端末情報を送信することによって、動画コンテンツ(たとえば、ストリーミングデータ)を受信し始めてもよい(ステップS1021)。そして、CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。
 なお、図21に示したように、端末情報は、メンバー情報(f)と配信先情報(g)とを含む。メンバー情報(f)は、たとえば、第1の携帯電話100Aと第2の携帯電話100Bとが参加しているチャットルームの名前などを含む。配信先情報(g)は、配信要求端末である第1の携帯電話100Aや第2の携帯電話100BのIPアドレスなどを含む。
 <コンテンツサーバ600における動画コンテンツ配信処理>
 次に、本実施の形態に係るコンテンツサーバ600における動画コンテンツ配信処理について説明する。図23は、本実施の形態に係るコンテンツサーバ600における動画コンテンツ配信処理の処理手順を示すフローチャートである。
 図23を参照して、コンテンツサーバ600のCPU605は、サーバ通信デバイス609を介して、通信端末から動画コンテンツの配信要求あるいは第2の命令(手描き入力の終了メッセージ)を受けたか否かを判断する(ステップS1102)。通信端末から動画コンテンツの配信要求を受けた場合(ステップS1102においてYESである場合)、CPU605は、チャットサーバ400あるいは当該通信端末から端末情報を取得する(ステップS1104)。
 CPU605は、メモリ606を参照して、当該端末情報が既に登録されているか否かを判断する(ステップS1106)。当該端末情報が既にメモリ606に登録されている場合(ステップS1106においてYESである場合)、CPU605は、端末情報が同じメンバー、すなわち同じチャットルームに入室している通信端末、に配信しているコンテンツを現在の再生位置から配信し始める(ステップS1108)。または、CPU605は、端末情報が同じメンバー全員に、動画コンテンツを最新の停止位置から配信し始める。すなわち、CPU605は、動画コンテンツの進行を再開する。CPU605は、ステップS1116からの処理を実行する。
 一方、当該端末情報が既にメモリ606に登録されていない場合(ステップS1106においてNOである場合)、CPU605は、当該端末情報をメモリ606に登録する(ステップS1110)。CPU605は、当該通信端末から動画情報(a)を取得する(ステップS1112)。CPU605は、サーバ通信デバイス609を用いて、動画情報によって指定される動画コンテンツを始めから配信し始める(ステップS1114)。
 CPU605は、配信中の動画コンテンツに基づいて、シーンがチェンジしたか否かを判断する(ステップS1116)。シーンがチェンジしていない場合(ステップS1116においてNOである場合)、CPU605は、ステップS1120からの処理を実行する。
 一方、シーンがチェンジした場合(ステップS1116においてYESである場合)、CPU605は、サーバ通信デバイス609を用いて、同じ端末情報に対応する通信端末へとシーンチェンジ情報を送信する(ステップS1118)。CPU605は、引き続き、サーバ通信デバイス609を用いて、同じ端末情報に対応する通信端末へと動画コンテンツを配信し続ける(ステップS1120)。CPU605は、ステップS1102からの処理を繰り返す。
 一方、CPU605は、通信端末から動画コンテンツの配信要求を受けない場合(ステップS1102においてNOである場合)、サーバ通信デバイス609を介して、通信端末から動画コンテンツの停止要求あるいは第1の命令(手描き入力の開始メッセージ)を受け付けたか否かを判断する(ステップS1122)。通信端末から動画コンテンツの停止要求を受け付けなかった場合(ステップS1122においてNOである場合)、ステップS1102からの処理を繰り返す。
 一方、通信端末から動画コンテンツの停止要求を受け付けた場合(ステップS1122においてYESである場合)、CPU605は、メモリ606を参照して、同じ端末情報に対応する通信端末を特定する(ステップS1124)。CPU605は、同じ端末情報に対応する通信端末への動画コンテンツの配信を停止する(ステップS1126)。あるいは、CPU605は、同じ端末情報に対応する通信端末への配信中の動画コンテンツの進行を停止する。CPU605は、ステップS1102からの処理を繰り返す。
 なお、携帯電話100における入力処理、携帯電話100におけるペン情報の設定処理、携帯電話100における手描き処理、携帯電話100における表示処理、携帯電話100における表示処理の応用例、携帯電話100における手描き画像表示処理、携帯電話100における手描き画像表示処理の応用例については、実施の形態1に係るそれらと同様であるため、ここでは説明を繰り返さない。
 <ネットワークシステム1のその他の適用例>
 本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
 この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
 プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード(ICメモリカード)、ROM(マスクROM、フラッシュEEPROMなど)などを用いることができる。
 また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1 ネットワークシステム、100,100A,100B,100C 携帯電話、101 通信デバイス、102 タッチパネル、103 メモリ、103A ワークメモリ、103B アドレス帳データ、103C 自端末データ、103D アドレスデータ、103E アドレスデータ、104 ペンタブレット、106 CPU、107 ディスプレイ、108 マイク、109 スピーカ、110 各種ボタン、111 第1の通知部、112 第2の通知部、113 TVアンテナ、120 スタイラスペン、200 カーナビゲーション装置、250 車両、300 パーソナルコンピュータ、400 チャットサーバ、406 メモリ、406A ルーム管理テーブル、407 固定ディスク、408 内部バス、409 サーバ通信デバイス、500 インターネット、600 コンテンツサーバ、606 メモリ、607 固定ディスク、608 内部バス、609 サーバ通信デバイス、615 固定ディスク、700 キャリア網。

Claims (14)

  1.  第1および第2の通信端末(100A,100B)を備えるネットワークシステム(1)であって、
     前記第1の通信端末は、外部からコンテンツを取得可能であって、
     第1のディスプレイ(107)と、
     前記第2の通信端末と通信するための第1の通信デバイス(101)と、
     前記第1のディスプレイを用いて前記コンテンツを再生し、第1の入力に応じて前記コンテンツの再生を一時停止するとともに、前記第2の通信端末へと停止命令を送信し、第2の入力に応じて前記コンテンツの再生を再開するとともに、前記第2の通信端末へと再開命令を送信するための第1のプロセッサ(106)とを含み、
     前記第2の通信端末は、前記第1の通信端末と同じタイミングで外部から前記コンテンツを取得可能であって、
     第2のディスプレイと、
     前記第1の通信端末と通信するための第2の通信デバイスと、
     前記第2のディスプレイを用いて前記コンテンツを再生し、前記第1の通信端末からの前記停止命令に応じて前記コンテンツの再生を一時停止し、前記第1の通信端末からの前記再開命令に応じて前記コンテンツの再生を再開するための第2のプロセッサとを含む、ネットワークシステム。
  2.  前記第1のディスプレイはタッチパネル(102)であって、
     前記第1のプロセッサは、前記コンテンツの一時停止中に、前記タッチパネルを用いて手描き画像の入力を受け付け、前記タッチパネルを用いて前記コンテンツ上に前記手描き画像を表示し、前記第1の通信デバイスを介して前記手描き画像を前記第2の通信端末へと送信し、
     前記第2のプロセッサは、前記コンテンツの一時停止中に、前記第2の通信デバイスを介して前記第1の通信端末から手描き画像を受信し、前記第2のディスプレイを用いて前記コンテンツ上に前記手描き画像を表示する、請求項1に記載のネットワークシステム。
  3.  前記第1のプロセッサは、
     外部の物体が前記タッチパネルに接触したことを検知して、当該接触操作を前記第1の入力として受け付け、
     前記外部の物体が前記タッチパネルから離間したことを検知して、当該離間操作を前記第2の入力として受け付ける、請求項2に記載のネットワークシステム。
  4.  前記第1の通信端末は、第1のメモリ(103)をさらに含み、
     前記第1のプロセッサは、
     取得した前記コンテンツを前記第1のメモリに格納し、
     前記第2の入力に応じて、一時停止位置から前記コンテンツの再生を再開し、
     前記第2の通信端末は、第2のメモリをさらに含み、
     前記第2のプロセッサは、
     取得した前記コンテンツを前記第2のメモリに格納し、
     前記再開命令に応じて、前記一時停止位置から前記コンテンツの再生を再開する、請求項1に記載のネットワークシステム。
  5.  前記停止命令は、前記コンテンツにおける一時停止位置を示す情報を含む、請求項1に記載のネットワークシステム。
  6.  前記停止命令は、一時停止時刻を示す情報を含み、
     前記再開命令は、一時停止期間を示す情報を含む、請求項1に記載のネットワークシステム。
  7.  第1および第2の通信端末を含むネットワークシステムにおける通信方法であって、
     前記第1の通信端末が、外部からコンテンツを受信して、前記コンテンツを第1のディスプレイで再生するステップと、
     前記第2の通信端末が、前記第1の通信端末と同じタイミングで、外部から前記コンテンツを受信して、前記コンテンツを第2のディスプレイで再生するステップと、
     前記第1の通信端末が、第1の入力に応じて、前記コンテンツの再生を一時停止し、停止命令を前記第2の通信端末へと送信するステップと、
     前記第2の通信端末が、前記第1の通信端末からの前記停止命令に応じて、前記コンテンツの再生を一時停止するステップと、
     前記第1の通信端末が、第2の入力に応じて、前記コンテンツの再生を再開し、再開命令を前記第2の通信端末へと送信するステップと、
     前記第2の通信端末が、前記第1の通信端末からの前記再開命令に応じて、前記コンテンツの再生を再開するステップとを備える、通信方法。
  8.  外部からコンテンツを取得可能な通信端末であって、
     ディスプレイと、
     他の通信端末と通信するための通信デバイスと、
     前記ディスプレイを用いて前記コンテンツを再生し、第1の入力に応じて前記コンテンツの再生を一時停止するとともに、前記他の通信端末へと停止命令を送信し、第2の入力に応じて前記コンテンツの再生を再開するとともに、前記他の通信端末へと再開命令を送信し、前記他の通信端末からの前記停止命令に応じて前記コンテンツの再生を一時停止し、前記他の通信端末からの前記再開命令に応じて前記コンテンツの再生を再開するためのプロセッサとを含む、通信端末。
  9.  前記ディスプレイはタッチパネルであって、
     前記プロセッサは、前記コンテンツの一時停止中に、前記タッチパネルを用いて第1の手描き画像の入力を受け付け、前記タッチパネルを用いて前記コンテンツ上に前記第1の手描き画像を表示し、前記通信デバイスを介して前記第1の手描き画像を前記他の通信端末へと送信し、前記通信デバイスを介して前記他の通信端末から第2の手描き画像を受信し、前記タッチパネルを用いて前記コンテンツ上に前記第2の手描き画像を表示する、請求項8に記載の通信端末。
  10.  前記プロセッサは、
     外部の物体が前記タッチパネルに接触したことを検知して、当該接触操作を前記第1の入力として受け付け、
     前記外部の物体が前記タッチパネルから離間したことを検知して、当該離間操作を前記第2の入力として受け付ける、請求項9に記載の通信端末。
  11.  前記通信端末は、メモリをさらに含み、
     前記プロセッサは、
     受信した前記コンテンツを前記メモリに格納し、
     前記第2の入力あるいは前記再開命令に応じて、一時停止位置から前記コンテンツの再生を再開する、請求項8に記載の通信端末。
  12.  前記停止命令は、前記コンテンツにおける一時停止位置を示す情報を含む、請求項8に記載の通信端末。
  13.  前記停止命令は、一時停止時刻を示す情報を含み、
     前記再開命令は、一時停止期間を示す情報を含む、請求項8に記載の通信端末。
  14.  ディスプレイとプロセッサと通信デバイスとを含む通信端末における通信方法であって、
     前記プロセッサが、外部からコンテンツを受信して、前記ディスプレイを用いて前記コンテンツを再生するステップと、
     前記プロセッサが、第1の入力に応じて、前記コンテンツの再生を一時停止し、前記通信デバイスを介して停止命令を他の通信端末へと送信するステップと、
     前記プロセッサが、第2の入力に応じて、前記コンテンツの再生を再開し、前記通信デバイスを介して再開命令を前記他の通信端末へと送信するステップと、
     前記プロセッサが、前記他の通信端末からの前記停止命令に応じて、前記コンテンツの再生を一時停止するステップと、
     前記プロセッサが、前記他の通信端末からの前記再開命令に応じて、前記コンテンツの再生を再開するステップとを備える、通信方法。
PCT/JP2011/055379 2010-03-30 2011-03-08 ネットワークシステム、通信方法、および通信端末 WO2011122266A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/638,517 US9172986B2 (en) 2010-03-30 2011-03-08 Network system, communication method, and communication terminal
CN201180016679.8A CN103098440B (zh) 2010-03-30 2011-03-08 网络系统、通信方法以及通信终端

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010077781A JP2011210051A (ja) 2010-03-30 2010-03-30 ネットワークシステム、通信方法、および通信端末
JP2010-077781 2010-03-30

Publications (1)

Publication Number Publication Date
WO2011122266A1 true WO2011122266A1 (ja) 2011-10-06

Family

ID=44711992

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/055379 WO2011122266A1 (ja) 2010-03-30 2011-03-08 ネットワークシステム、通信方法、および通信端末

Country Status (4)

Country Link
US (1) US9172986B2 (ja)
JP (1) JP2011210051A (ja)
CN (1) CN103098440B (ja)
WO (1) WO2011122266A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101590341B1 (ko) * 2011-10-31 2016-02-19 삼성전자주식회사 휴대용 단말기에서 인터럽트 제어 방법 및 장치
JPWO2013065221A1 (ja) * 2011-11-04 2015-04-02 パナソニック株式会社 送信端末、受信端末および情報伝達方法
JP6074894B2 (ja) * 2012-02-24 2017-02-08 株式会社ニコン 情報表示装置
JP5740367B2 (ja) * 2012-08-27 2015-06-24 シャープ株式会社 中継装置、情報提示方法、制御プログラム、端末装置、および表示装置
JP2018022013A (ja) * 2016-08-03 2018-02-08 セイコーエプソン株式会社 表示装置、表示システム、及び、表示装置の制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04252447A (ja) * 1991-01-28 1992-09-08 Nippon Telegr & Teleph Corp <Ntt> 再生速度の制御方法
JP2005208710A (ja) * 2004-01-20 2005-08-04 Nec Corp 同期制御方法、コミュニケーション同期制御装置および双方向コミュニケーションシステム
JP2009071379A (ja) * 2007-09-10 2009-04-02 Toshiba Corp 電子機器および電子機器システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4227509B2 (ja) * 2003-12-15 2009-02-18 キヤノン株式会社 通信端末装置及びその制御方法
JP2006004190A (ja) 2004-06-17 2006-01-05 Root1 Inc 携帯電話向けチャットサービスシステム
JP4935345B2 (ja) * 2006-12-25 2012-05-23 ソニー株式会社 コンテンツ再生システム、再生装置、再生制御方法及びプログラム
KR101561826B1 (ko) * 2008-06-11 2015-10-21 주식회사 팬택 데이터 입력 방법 및 이동통신단말기
US8594740B2 (en) * 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
EP2480957B1 (en) * 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8755921B2 (en) * 2010-06-03 2014-06-17 Google Inc. Continuous audio interaction with interruptive audio

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04252447A (ja) * 1991-01-28 1992-09-08 Nippon Telegr & Teleph Corp <Ntt> 再生速度の制御方法
JP2005208710A (ja) * 2004-01-20 2005-08-04 Nec Corp 同期制御方法、コミュニケーション同期制御装置および双方向コミュニケーションシステム
JP2009071379A (ja) * 2007-09-10 2009-04-02 Toshiba Corp 電子機器および電子機器システム

Also Published As

Publication number Publication date
US20130024537A1 (en) 2013-01-24
US9172986B2 (en) 2015-10-27
CN103098440B (zh) 2016-08-03
JP2011210051A (ja) 2011-10-20
CN103098440A (zh) 2013-05-08

Similar Documents

Publication Publication Date Title
CN102696224B (zh) 将视频通信连接到其它装置的方法、视频通信设备及其显示设备
TWI474712B (zh) 數位電視接收終端與移動終端交互方法、裝置和系統
CA2820872C (en) Transmission management apparatus
CN107371044B (zh) 电子设备互动方法、电子设备、用户终端及服务器
CN109413453B (zh) 视频播放方法、装置、终端及存储介质
JP2007060123A (ja) ストリームデータ配信装置
JP2013055403A (ja) 伝送管理システム、伝送管理方法、プログラム、プログラム提供システム、及びメンテナンスシステム
WO2011122266A1 (ja) ネットワークシステム、通信方法、および通信端末
WO2011132472A1 (ja) 電子機器、表示方法、および表示プログラムを記憶するコンピュータ読取可能な記録媒体
JP5223543B2 (ja) コミュニケーションシステム、放送受信機、サーバ装置、及びコンピュータプログラム
JP2022028798A (ja) 伝送管理システム、伝送システム、プログラム、プログラム提供システム、及びメンテナンスシステム
JP2017068329A (ja) 通信管理システム、通信システム、通信管理方法、及びプログラム
JP2014007723A (ja) 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP5781275B2 (ja) 電子機器、表示方法、および表示プログラム
JP6361728B2 (ja) 伝送制御システム、伝送システム、伝送制御方法、及び記録媒体
WO2011122267A1 (ja) ネットワークシステム、通信方法、および通信端末
JP2003223407A (ja) コンテンツ共有支援システム、ユーザ端末装置、コンテンツ共有支援サーバ、複数のユーザ間でコンテンツを共有するための方法、そのプログラム並びにプログラム記録媒体
JP5755843B2 (ja) 電子機器、表示方法、および表示プログラム
JP6544117B2 (ja) 端末、通信システム、通信方法、及びプログラム
JP6597299B2 (ja) 共有端末、通信システム、通信方法、及びプログラム
JP6565430B2 (ja) 端末、通信システム、通信方法、及びプログラム
JP2009246815A (ja) サーバ制御型動画通信端末向けVoDシステム
KR100914066B1 (ko) 심리스 채널 전환 기능을 제공하는 단말기 및 방법
KR20100052024A (ko) 컨텐츠 전송 시스템 및 방법
JP6607034B2 (ja) 共有端末、通信システム、通信方法、及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180016679.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11762506

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13638517

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 9044/CHENP/2012

Country of ref document: IN

122 Ep: pct application non-entry in european phase

Ref document number: 11762506

Country of ref document: EP

Kind code of ref document: A1