WO2012014813A1 - ネットワークシステムおよび通信方法 - Google Patents

ネットワークシステムおよび通信方法 Download PDF

Info

Publication number
WO2012014813A1
WO2012014813A1 PCT/JP2011/066728 JP2011066728W WO2012014813A1 WO 2012014813 A1 WO2012014813 A1 WO 2012014813A1 JP 2011066728 W JP2011066728 W JP 2011066728W WO 2012014813 A1 WO2012014813 A1 WO 2012014813A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
server
terminal
pen
drawn
Prior art date
Application number
PCT/JP2011/066728
Other languages
English (en)
French (fr)
Inventor
昌秀 高杉
赤羽 俊夫
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US13/637,610 priority Critical patent/US20130036358A1/en
Priority to CN2011800375308A priority patent/CN103004176A/zh
Publication of WO2012014813A1 publication Critical patent/WO2012014813A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a network system and a communication method including at least a first communication terminal and a server capable of communicating via a network, and in particular, a network system and a communication method in which handwritten data is transmitted and received between the first communication terminal and the server.
  • a network system and a communication method including at least a first communication terminal and a server capable of communicating via a network, and in particular, a network system and a communication method in which handwritten data is transmitted and received between the first communication terminal and the server.
  • a network system in which a communication terminal that can be connected to the Internet network and a server exchange content data.
  • a network system (server client system) in which a plurality of communication terminals connectable to the Internet network exchange content data via a server is also known.
  • a network system in which a plurality of communication terminals that can be connected to the Internet network directly exchange content data is also known.
  • a P2P (Peer to Peer) system may be used.
  • each communication terminal transmits and receives hand-drawn image data, text data, photo data, and the like.
  • Each of the communication terminals displays a hand-drawn image, text, or photograph on the display based on the received data.
  • Patent Document 1 Japanese Translation of PCT International Publication No. 2006-511112 discloses a mobile graphic display device.
  • the mobile graphic display device has a touch panel display screen connected to a touch panel processor.
  • the touch panel processor generates first ink data representing an input drawing operation performed on the touch panel display screen.
  • the apparatus includes a graphic display and a graphic image processor that displays an image representing at least first ink data on a graphic display screen in combination with a hand-drawn image that has already been created.
  • the wireless communication processor transmits the first ink data from the mobile graphic display device to the other graphic display device, and receives other ink data representing another drawing operation from the other graphic display device.
  • the graphic display processor generates a display of other ink data relative to the display of the first ink data according to the common reference.
  • the mobile graphic display device is configured to exchange hand-drawn images with other devices.
  • At least one of a terminal that accepts hand-drawn instructions and a terminal that displays hand-drawn images converts hand-drawn instructions into hand-drawn images according to the type of pen. It is necessary to have data for (or change) (hereinafter also referred to as extended pen data). Therefore, the company that operates the service cannot easily add or update the extended pen data.
  • the present invention has been made to solve such a problem, the purpose of which communication terminal accepts a hand-drawn command and a pen type selection command corresponding to a pen type that is not supported by itself, In other words, it is possible to display a hand-drawn image corresponding to a type of pen that is not supported by the user.
  • a network system including a first terminal and a server.
  • the first terminal transmits a first communication interface, a touch panel for accepting a hand-drawn command and a pen type, and a hand-drawn command and a pen type to the server via the first communication interface.
  • a first processor for displaying a hand-drawn image corresponding to the type of pen on the touch panel based on the drawing data.
  • the server refers to the server communication interface, the memory for storing the conversion rule from the hand-drawing command to the drawing data in association with the pen type, and the memory to refer to the hand-drawing command from the first terminal.
  • a server processor for converting drawing data for displaying a hand-drawn image corresponding to the type of pen from the terminal and transmitting the drawing data to the first terminal via the server communication interface.
  • the network system further includes a second terminal.
  • the server processor also transmits drawing data to the second terminal via the server communication interface.
  • the second terminal includes a display, a second communication interface, and a second processor for displaying a hand-drawn image corresponding to the pen type on the display based on the drawing data from the server.
  • the network system further includes a second terminal.
  • the first processor transmits drawing data to the second terminal via the first communication interface.
  • the second terminal includes a display, a second communication interface, and a second processor for causing the display to display a hand-drawn image corresponding to the type of pen based on the drawing data from the first terminal. .
  • the server processor transmits pen data indicating a plurality of pen types supported by the server to the first terminal via the server communication interface.
  • the first processor displays a plurality of pen types on the touch panel in a selectable manner based on the pen data.
  • the first processor displays a hand-drawn image corresponding to a predetermined pen type on the touch panel until a hand-drawn image corresponding to the pen type is displayed after the hand-drawing instruction is received.
  • a communication method in a network system including a first terminal and a server
  • the server includes a memory for storing a conversion rule from a hand-drawn command to drawing data in association with a pen type.
  • the first terminal accepts a hand-drawn command and the pen type
  • the first terminal sends the hand-drawn command and the pen type to the server
  • the server refers to the memory.
  • the step of converting the hand-drawing command from the first terminal into drawing data for displaying a hand-drawn image corresponding to the pen type from the first terminal converts the drawing data into the first data Transmitting to the terminal, and the first terminal displaying a hand-drawn image corresponding to the pen type based on the drawing data from the server.
  • the communication terminal accepts a hand-drawn instruction or a pen type selection instruction corresponding to a pen type that the terminal does not support, or the communication terminal supports it. It will be possible to display hand-drawn images corresponding to no pen type.
  • FIG. 1 It is a schematic diagram showing an example of network system 1 concerning this embodiment. It is an image figure which shows the external appearance of the mobile telephone 100 which concerns on this Embodiment. It is a block diagram which shows the hardware constitutions of the mobile telephone 100 which concerns on this Embodiment. It is a block diagram which shows the hardware constitutions of the chat server 400 which concerns on this Embodiment. It is a sequence diagram which shows the operation
  • 1 is an overall block diagram of a network system 1 according to the present embodiment. It is a whole block diagram of the modification of the network system 1 which concerns on this Embodiment. It is a flowchart which shows the process sequence of the hand-drawn chat process in the mobile telephone 100 which concerns on this modification.
  • the mobile phone 100 will be described as a representative example of the “communication terminal”.
  • the communication terminal may be another information communication device such as a personal computer, a car navigation device (Satellite navigation system), a PND (Personal Navigation Device), or a PDA (Personal Data Assistance).
  • FIG. 1 is a schematic diagram showing an example of a network system 1 according to the present embodiment.
  • the network system 1 includes mobile phones 100A, 100B, and 100C, a chat server 400, an Internet network (first network) 500, and a carrier network (second network) 700.
  • the network system 1 according to the present embodiment includes a personal computer (PC) 300.
  • PC personal computer
  • the network system 1 includes a first mobile phone 100A, a second mobile phone 100B, and a third mobile phone 100C. Will be described. Further, when the common configurations and functions of the mobile phones 100A, 100B, and 100C are described, they are also collectively referred to as the mobile phone 100. And when describing a structure and a function common to each of the mobile phones 100A, 100B, 100C and the personal computer 300, they are also collectively referred to as a communication terminal.
  • the mobile phone 100 is configured to be connectable to the carrier network 700.
  • the personal computer 300 is configured to be connectable to the Internet network 500 via a LAN (Local Area Network) 350 or a WAN (Wide Area Network).
  • Chat server 400 is configured to be connectable to Internet network 500.
  • the first mobile phone 100A, the second mobile phone 100B, the third mobile phone 100C, and the personal computer 300 can be connected to each other via the carrier network 700 and the Internet network 500.
  • data can be transmitted and received between each other.
  • identification information for example, an e-mail address or an IP (Internet Protocol) address
  • IP Internet Protocol
  • the mobile phone 100 and the personal computer 300 can store the identification information of other communication terminals in the internal recording medium.
  • the mobile phone 100 and the personal computer 300 can perform data transmission / reception with the other communication terminals via the carrier network 700, the Internet network 500, and the like based on the identification information.
  • the cellular phone 100 and the personal computer 300 according to the present embodiment perform data transmission / reception with the other communication terminal without using a server by using an IP address assigned to the other communication terminal.
  • the mobile phone 100 and the personal computer 300 included in the network system 1 according to the present embodiment can constitute a so-called P2P (Pear to Pear) type network.
  • P2P Near to Pear
  • chat server 400 when each communication terminal accesses the chat server 400, that is, when each communication terminal accesses the Internet, an IP address is assigned by the chat server 400 or another server device (not shown). Details of the IP address assignment process are well known, and therefore the description will not be repeated here.
  • the chat server 400 generates drawing data from hand-drawn commands.
  • the network system 1 may have a hand-drawn server for generating drawing data from hand-drawn instructions, separately from the chat server 400.
  • FIG. 2 is an image diagram showing an appearance of mobile phone 100 according to the present embodiment.
  • FIG. 3 is a block diagram showing a hardware configuration of mobile phone 100 according to the present embodiment.
  • the mobile phone 100 includes a communication interface 101 that transmits and receives data to and from an external network, a memory 103 that stores programs and various databases, a CPU ( Central Processing Unit) 110, display 107, microphone 108 to which external audio is input, speaker 109 for outputting audio, various buttons 106 for receiving input of various information, and receiving communication data and call signals from the outside
  • a first notification unit 111 that outputs a voice indicating that the communication has been performed, and a second notification unit 112 that displays that the communication data or call signal from the outside has been received.
  • the display 107 realizes the touch panel 102 including a liquid crystal panel and a CRT. That is, in the mobile phone 100 according to the present embodiment, the pen tablet 104 is laid on the lower side (back side) of the display 107. Thus, the user can input graphic information or the like into the CPU 110 via the pen tablet 104 by hand using the stylus pen 120 or the like.
  • the display 107 (touch panel 102) displays an image or text based on the data output by the CPU 110.
  • the various buttons 106 receive information from the user by a key input operation or the like.
  • the various buttons 106 include a TEL button 106A for accepting a call or making a call, a mail button 106B for accepting a mail or sending a mail, accepting a P2P communication, or performing a P2P communication.
  • the first notification unit 111 outputs a ring tone through the speaker 109 or the like. Alternatively, the first notification unit 111 has a vibration function. The first notification unit 111 outputs a voice or vibrates the mobile phone 100 when an incoming call is received, a mail is received, or a P2P participation request mail is received.
  • the second notification unit 112 includes a TEL LED (Light Emitting Diode) 112A that flashes when an incoming call is received, a mail LED 112B that flashes when a mail is received, and a P2P LED 112C that flashes when a P2P communication is received. including.
  • TEL LED Light Emitting Diode
  • CPU 110 controls each unit of mobile phone 100. For example, various commands are received from the user via various buttons 106, and data is transmitted / received to / from an external communication terminal or chat server 400 via the communication interface 101 or the network.
  • the communication interface 101 converts communication data from the CPU 110 into a communication signal and transmits the communication signal via an antenna (not shown).
  • the communication interface 101 converts communication signals received via the antenna into communication data, and inputs the communication data to the CPU 110.
  • the memory 103 is realized by a RAM (Random Access Memory) that functions as a working memory, a ROM (Read Only Memory) that stores a control program, a hard disk that stores image data, and the like.
  • the memory 103 according to the present embodiment stores a hand-drawn chat application 103A for executing communication processing to be described later.
  • the mobile phone 100 can perform a hand-drawn chat with another communication terminal via the chat server 400 when the CPU 110 executes the hand-drawn chat application 103A.
  • chat server 400 ⁇ Hardware configuration of chat server 400> Next, a hardware configuration of chat server 400 according to the present embodiment will be described. Below, the hardware configuration of the chat server 400 will be described first.
  • FIG. 4 is a block diagram showing a hardware configuration of chat server 400 according to the present embodiment.
  • chat server 400 according to the present embodiment includes a CPU 405, a memory 406, a fixed disk 407, and a server communication interface 409 that are connected to each other via an internal bus 408.
  • the memory 406 stores various types of information. For example, the memory 406 temporarily stores data necessary for executing a program in the CPU 405.
  • the fixed disk 407 stores a program executed by the CPU 405 and a database.
  • the CPU 405 controls each element of the chat server 400 and is a device that performs various calculations.
  • the memory 406 or the fixed disk 407 of the chat server 400 stores extended pen data.
  • the extended pen data stores each of a plurality of types of conversion methods from stroke information to drawing data, which will be described later, in association with a pen type (pen ID).
  • the CPU 405 can convert stroke information (included in input data described later) from the mobile phone 100 into drawing data according to the type of pen.
  • the server communication interface 409 converts the data output from the CPU 405 into an electrical signal and transmits it to the outside, and converts the electrical signal received from the outside into data and inputs it to the CPU 405. Specifically, the server communication interface 409 transmits data from the CPU 405 to the mobile phone 100 or the personal computer 300 via the Internet network 500, the carrier network 700, or the like. Then, data received from the mobile phone 100 or the personal computer 300 via the Internet network 500 or the carrier network 700 is input to the CPU 405.
  • FIG. 5 is a sequence diagram showing an outline of operation in the network system 1 according to the present embodiment.
  • each communication terminal according to the present embodiment needs to exchange (acquire) each other's IP address first in order to perform P2P type data transmission / reception. Then, after acquiring the IP address, each communication terminal transmits a message, an attached file, and the like to other communication terminals by P2P type data transmission / reception.
  • each communication terminal transmits and receives a message and an IP address via a chat room generated in the chat server 400, and then performs P2P communication based on each other's IP address.
  • first mobile phone 100A requests chat server 400 for IP registration (login) (step S002).
  • First mobile phone 100A may obtain an IP address at the same time, or may obtain an IP address from another server device in advance. More specifically, the first mobile phone 100A transmits the mail address and IP address of the first mobile phone 100A and the second mobile phone 100B (see FIG. 5) to the chat server 400 via the carrier network 700 and the Internet network 500. Terminal B) and a message requesting generation of a new chat room.
  • Chat server 400 stores the mail address of first mobile phone 100A in association with the IP address in response to the request. Then, chat server 400 generates a room name based on the email address of first mobile phone 100A and the email address of second mobile phone 100B, or extracts the room name included in the message, and Create a chat room with a room name. At this time, chat server 400 may notify first mobile phone 100A that the generation of the chat room has been completed. Chat server 400 stores room names and IP addresses of participating communication terminals in association with each other.
  • the user of the first mobile phone 100A informs the user of the second mobile phone 100B that a new chat room has been generated, that is, invites the user of the second mobile phone 100B to the chat room.
  • the first mobile phone 100A transmits a P2P participation request mail to the second mobile phone 100B via the carrier network 700 and the Internet network 500.
  • the second mobile phone 100B When the second mobile phone 100B receives the P2P participation request email, the second mobile phone 100B generates a room name based on the email address of the first mobile phone 100A and the email address of the second mobile phone 100B, or from the participation request email. The room name is acquired, and a message to join the chat room having the room name is transmitted to the chat server 400 (step S008). Second mobile phone 100B may acquire the IP address at the same time, or may access chat server 400 after acquiring the IP address first. At this time, the chat server 400 may delete the chat room.
  • Chat server 400 accepts the message and stores the mail address of second mobile phone 100A in association with the IP address. Chat server 400 then transmits to first mobile phone 100A that second mobile phone 100B has joined the chat room and the IP address of second mobile phone 100B (step S010). At the same time, chat server 400 transmits to second mobile phone 100B that it has accepted participation in the chat room and the IP address of first mobile phone 100A.
  • the first mobile phone 100A transmits a P2P connection request message (start message) to the second mobile phone 100B based on the IP address of the second mobile phone 100B (step S012).
  • the second mobile phone 100B receives the connection request message, and transmits a first connection acceptance message (response message) to the first mobile phone 100A based on the IP address of the first mobile phone 100A (step) S014).
  • First mobile phone 100A receives the first connection acceptance message from second mobile phone 100B and transmits the second connection acceptance message to second mobile phone 100B (step S016).
  • first mobile phone 100A and the second mobile phone 100B authenticate each other.
  • first mobile phone 100A and second mobile phone 100B start P2P hand-drawn chat communication (step S018).
  • P2P hand-drawn chat communication will be described later.
  • first mobile phone 100A transmits a disconnection request message to disconnect P2P communication to second mobile phone 100B (step S030)
  • second mobile phone 100B transmits to first mobile phone 100A.
  • a disconnection approval message indicating that a request for disconnection has been received is transmitted (step S032).
  • FIG. 6 is a sequence diagram showing a pen list transmission / reception process in the network system 1 according to the present embodiment.
  • the mobile phone 100 inquires the chat server 400 about the pen list (step S102). More specifically, the CPU 110 of the mobile phone 100 transmits a “requestPenList” message 101X to the chat server 400 via the communication interface 101 in response to a command from the user via the touch panel 102 or automatically.
  • the CPU 405 of the chat server 400 transmits the pen list information 409X to the mobile phone 100 via the communication interface 409 in response to an inquiry from the mobile phone 100.
  • a pen ID is associated with text data indicating the properties of the pen.
  • FIG. 7 is an image diagram showing a list of pen types displayed on the touch panel 102.
  • CPU 110 of mobile phone 100 causes touch panel 102 to display a list indicating pen types based on pen list information 409 ⁇ / b> X from chat server 400.
  • pen list information 409X the text data “thin pen” and the pen ID “1”, the text data “border pen” and the pen ID “2”, the text data “dotted line” and the pen ID “3” are included. It is associated.
  • FIG. 8 is a sequence diagram showing drawing data transmission / reception processing in the simple mode in the network system 1 according to the present embodiment.
  • the mobile phone 100 accepts a hand-drawn command from the user (step S112). That is, CPU 110 of mobile phone 100 accepts a user's touch operation on touch panel 102. In the present embodiment, CPU 110 accepts touch operation (selection command) for selecting a pen type and touch operation (hand-drawn command) for drawing a hand-drawn stroke on touch panel 102 via touch panel 102. .
  • FIG. 9 is an image diagram showing a touch operation (hand-drawn command).
  • the CPU 110 detects that the external object has touched the position having the coordinates (10, 10) via the touch panel 102, the object has been slid from the coordinates (10, 10) to the coordinates (20, 10), and the coordinates (20 , 10) to the coordinate (10, 20), the object has been slid, the coordinate (10, 20) to the coordinate (20, 20), the object has been slid from the position having the touch coordinates (20, 20). It is detected that the object is separated.
  • FIG. 10 is an image diagram showing the input data 101A when the first pen is selected.
  • the CPU 110 creates input data 101A including a pen ID for designating a pen type and stroke information indicating a hand-drawn command based on a touch operation.
  • the stroke information is draw data with which a plurality of types of mobile phones 100 (at least terminal A and terminal B) can display images based on the stroke information.
  • the CPU 110 transmits input data 101 A to chat server 400 via communication interface 101.
  • the CPU 405 of the chat server 400 refers to the memory 406 and generates drawing data 409A based on the input data 101A.
  • the drawing data 409A is draw data or paint data on which a plurality of types of mobile phones 100 can display images based on the drawing data 409A.
  • FIG. 11 is an image diagram showing drawing data 409A when the first pen is selected.
  • CPU 405 converts stroke information into drawing data 409A based on the pen ID.
  • the CPU 405 transmits the drawing data 409A to the mobile phone 100.
  • the CPU 110 of the mobile phone 100 receives the drawing data 409A via the communication interface 101.
  • CPU 110 causes touch panel 102 to display a hand-drawn image drawn with the selected pen based on drawing data 409A.
  • FIG. 12 is an image diagram showing a hand-drawn image when the first pen is selected.
  • CPU 110 causes touch panel 102 to display a hand-drawn image (hand-drawn character) of a style having a thickness in the horizontal direction.
  • FIG. 13 is an image diagram showing the input data 101B when the second pen is selected.
  • the CPU 110 includes input data including a pen ID for designating a pen type and stroke information indicating a touch operation (hand-drawn command) based on the touch operation. 101B is created.
  • the CPU 110 transmits the input data 101B to the chat server 400 via the communication interface 101.
  • the CPU 405 of the chat server 400 refers to the memory 406 and generates drawing data 409B based on the input data 101B.
  • the drawing data 409B is draw data or paint data on which a plurality of types of mobile phones 100 can display images based on the drawing data 409B.
  • FIG. 14 is an image diagram showing the drawing data 409B when the second pen is selected.
  • CPU 405 converts stroke information into drawing data 409B based on the pen ID.
  • the CPU 405 transmits the drawing data 409B to the mobile phone 100.
  • the CPU 110 of the mobile phone 100 receives the drawing data 409B via the communication interface 101.
  • CPU 110 displays a hand-drawn image drawn with the selected pen on touch panel 102 based on drawing data 409B.
  • FIG. 15 is an image diagram showing a hand-drawn image when the second pen is selected.
  • CPU 110 causes touch panel 102 to display hand-drawn images (hand-drawn characters) drawn in seven colors.
  • FIG. 16 is an image diagram showing the input data 101C when the third pen is selected.
  • the CPU 110 includes input data including a pen ID for designating a pen type and stroke information indicating a touch operation (hand-drawn command) based on the touch operation. 101C is created.
  • the CPU 110 transmits the input data 101C to the chat server 400 via the communication interface 101.
  • the CPU 405 of the chat server 400 refers to the memory 406 and generates drawing data 409C based on the input data 101C.
  • the drawing data 409C is draw data or paint data on which a plurality of types of mobile phones 100 can display images.
  • FIG. 17 is an image diagram showing the drawing data 409C when the third pen is selected.
  • CPU 405 converts stroke information into drawing data 409C based on the pen ID.
  • the CPU 405 transmits the drawing data 409C to the mobile phone 100.
  • the CPU 110 of the mobile phone 100 receives the drawing data 409C via the communication interface 101.
  • the CPU 110 displays a hand-drawn image drawn with the selected pen on the touch panel 102 based on the drawing data 409C.
  • FIG. 18 is an image diagram showing a hand-drawn image when the third pen is selected.
  • CPU 110 causes touch panel 102 to display a hand-drawn image (hand-drawn character) drawn with a dotted line.
  • the mobile phone 100 creates draw data (hand-drawn instructions) that allows the plurality of types of mobile phones 100 to display images based on the touch operation.
  • the cellular phone 100 transmits input data 101A, 101B, and 101C including the pen ID and the draw data corresponding to the input pen selection command to the chat server 400.
  • Chat server 400 converts the draw data into drawing data based on the pen ID.
  • the mobile phone 100 displays drawing data.
  • FIG. 19 is an image diagram showing a display form of a hand-drawn image in the simple mode according to the present embodiment.
  • CPU 110 causes touch panel 102 to display a hand-drawn image corresponding to the type of pen after receiving the drawing data. In other words, even if the CPU 110 receives a hand-drawn command, the CPU 110 does not display the corresponding hand-drawn image until drawing data is received from the chat server 400.
  • FIG. 20 is a sequence diagram showing drawing data transmission / reception processing in the detailed mode in the network system 1 according to the present embodiment.
  • FIG. 21 is an image diagram showing a display form of a hand-drawn image in the detailed mode according to the present embodiment. Note that transmission / reception of the input data 101A, 101B, and 101C and the drawing data 409A, 409B, and 409C in the detailed mode is the same as those in the simple mode, and thus description thereof will not be repeated here.
  • CPU 110 accepts a hand-drawn command (step S122).
  • CPU 110 causes touch panel 102 to display a hand-drawn image drawn with a default pen (line type or font that mobile phone 100 can display) (step S124).
  • the CPU 110 transmits input data 101A, 101B, and 101C via the communication interface 101.
  • the CPU 110 receives the drawing data 409A, 409B, and 409C.
  • CPU 110 causes touch panel 102 to display a hand-drawn image corresponding to the type of pen. In other words, CPU 110 redraws the hand-drawn image when drawing data is received from chat server 400.
  • the CPU 110 of the mobile phone 100 accepts a switching command between the simple mode and the detailed mode via the touch panel 102.
  • FIG. 22 is a flowchart showing a processing procedure of hand-drawn chat processing in mobile phone 100 according to the present embodiment.
  • CPU 110 determines whether or not a pen selection command has been received from the user via touch panel 102 (step S202).
  • CPU110 changes pen ID, when the selection command of a pen is received from a user (when it is YES in step S202) (step S204).
  • CPU110 repeats the process from step S202.
  • CPU 110 determines whether a hand-drawn command (stroke operation) is received from the user via touch panel 102 (step S206). .
  • CPU110 performs an input process (step S300), when the hand-drawing command (stroke operation) is received from the user (when it is YES in step S206). The input process (step S300) will be described later.
  • CPU110 repeats the process from step S202.
  • CPU 110 determines whether or not drawing data has been received from chat server 400 when a hand-drawn command (stroke operation) has not been received from the user (NO in step S206) (step S208).
  • CPU110 performs a server reception process (step S400), when drawing data is received from the chat server 400 (when it is YES in step S208).
  • the server reception process (step S400) will be described later.
  • CPU110 repeats the process from step S202.
  • CPU110 repeats the process from step S202 also when drawing data is not received from the chat server 400 (when it is NO in step S208).
  • FIG. 23 is a flowchart showing a processing procedure of input processing in mobile phone 100 according to the present embodiment.
  • CPU 110 creates stroke information via touch panel 102.
  • the CPU 110 creates input information from the stroke information and the pen ID (step S302). Based on the stroke information, CPU 110 causes touch panel 102 to temporarily draw a hand-drawn image with a predetermined pen type (default line type) (step S304).
  • CPU 110 transmits input information to chat server 400 via communication interface 101 (step S306).
  • CPU 110 returns to the hand-drawn chat process.
  • FIG. 24 is a flowchart showing a processing procedure of server reception processing in mobile phone 100 according to the present embodiment.
  • CPU 110 receives drawing data from chat server 400 via communication interface 101 (step S402).
  • the CPU 110 deletes the hand-drawn image temporarily drawn on the touch panel 102 (step S404).
  • the CPU 110 causes the touch panel 102 to draw a hand-drawn image based on the drawing data (step S406).
  • CPU 110 returns to the hand-drawn chat process.
  • FIG. 25 is an overall block diagram of the network system 1 according to the present embodiment.
  • the user inputs a hand-drawn command and a pen type to first mobile phone 100A via touch panel 102 (1).
  • the hand-drawn chat application of the first mobile phone 100A passes the hand-drawn command and the pen type to the communication interface 101 (2).
  • the communication interface 101 transmits the hand-drawn command and the pen type to the chat server 400 (3).
  • Chat server 400 converts a hand-drawn command into drawing data according to the type of pen. Chat server 400 transmits drawing data to first mobile phone 100A (6). First mobile phone 100A displays a hand-drawn image corresponding to the type of pen on display 107 based on the drawing data (7). Similarly, chat server 400 transmits drawing data to second mobile phone 100B (8). The second mobile phone 100B displays a hand-drawn image corresponding to the pen type on the display 107 based on the drawing data (9).
  • the chat server 400 may include a chat dedicated server 400A and an extended pen server 400B.
  • the user inputs a hand-drawn command and a pen type to the first mobile phone 100A via the touch panel 102 (1).
  • the hand-drawn chat application of the first mobile phone 100A passes the hand-drawn command and the pen type to the communication interface 101 (2).
  • the communication interface 101 transmits the hand-drawn command and the pen type to the chat server 400A (3).
  • the chat-dedicated server 400A transmits the hand-drawn command and the pen type to the extended pen server 400B (4).
  • the extended pen server 400B converts the hand-drawn command into drawing data according to the pen type.
  • the extended pen server 400B transmits the drawing data to the chat dedicated server 400A (5).
  • the chat-dedicated server 400A transmits drawing data to the first mobile phone 100A (6).
  • First mobile phone 100A displays a hand-drawn image corresponding to the type of pen on display 107 based on the drawing data (7).
  • the chat-only server 400A transmits drawing data to the second mobile phone 100B (8).
  • the second mobile phone 100B displays a hand-drawn image corresponding to the pen type on the display 107 based on the drawing data (9).
  • chat server 400 converts stroke information from mobile phone 100A into drawing data, and the drawing data is transferred to mobile phone 100A and mobile phone 100A.
  • the message is transmitted to another mobile phone 100B during chat communication.
  • the mobile phone 100A may transfer drawing data from the chat server 400 to another mobile phone 100B in communication with the mobile phone 100A.
  • FIG. 26 is an overall block diagram of a modified example of the network system 1 according to the present embodiment.
  • the user inputs a hand-drawn command and a pen type to first mobile phone 100A via touch panel 102 (1).
  • the hand-drawn chat application of the first mobile phone 100A passes the hand-drawn command and the pen type to the communication interface 101 (2).
  • the communication interface 101 transmits the hand-drawn command and the pen type to the chat server 400 (3).
  • Chat server 400 converts a hand-drawn command into drawing data according to the type of pen. Chat server 400 transmits drawing data to first mobile phone 100A (4). First mobile phone 100A displays a hand-drawn image corresponding to the type of pen on display 107 based on the drawing data (5).
  • the first mobile phone 100A transmits drawing data to the second mobile phone 100B (6).
  • the second mobile phone 100B displays a hand-drawn image corresponding to the type of pen on the display 107 based on the drawing data (7).
  • the chat server 400 may include a chat dedicated server 400A and an extended pen server 400B.
  • the user inputs a hand-drawn command and a pen type to the first mobile phone 100A via the touch panel 102 (1).
  • the hand-drawn chat application of the first mobile phone 100A passes the hand-drawn command and the pen type to the communication interface 101 (2).
  • the communication interface 101 transmits the hand-drawn command and the pen type to the chat server 400A (3).
  • the chat dedicated server 400A transmits the hand-drawn command and the pen type to the extended pen server 400B.
  • the extended pen server 400B converts the hand-drawn command into drawing data according to the pen type.
  • the extended pen server 400B transmits drawing data to the chat dedicated server 400A.
  • the chat-dedicated server 400A transmits drawing data to the first mobile phone 100A (4).
  • First mobile phone 100A displays a hand-drawn image corresponding to the type of pen on display 107 based on the drawing data (5).
  • First mobile phone 100A transmits drawing data to second mobile phone 100B (6).
  • the second mobile phone 100B displays a hand-drawn image corresponding to the type of pen on the display 107 based on the drawing data (7).
  • FIG. 27 is a flowchart showing a processing procedure of hand-drawn chat processing in the mobile phone 100 according to the present modification.
  • CPU 110 determines whether or not a pen selection command has been received from the user via touch panel 102 (step S502).
  • CPU110 changes pen ID, when the selection command of a pen is received from a user (when it is YES in step S502) (step S504).
  • CPU110 repeats the process from step S502.
  • CPU 110 determines whether a hand-drawn command (stroke operation) is accepted from the user via touch panel 102 (step S506). .
  • CPU110 performs an input process (step S300), when the hand-drawing command (stroke operation) is received from a user (when it is YES in step S506).
  • the input process (step S300) is as described above.
  • CPU110 judges whether drawing data was received from chat server 400, when a hand-drawing command (stroke operation) was not received from a user (when it is NO in Step S506) (Step S508).
  • CPU 110 receives drawing data from chat server 400 (YES in step S508), CPU 110 executes server reception processing (step S600).
  • the server reception process (step S600) will be described later.
  • CPU110 repeats the process from step S502.
  • CPU 110 determines whether drawing data has been received from another mobile phone (step S510).
  • CPU110 performs a terminal reception process (step S700), when drawing data is received from another mobile telephone (when it is YES in step S510).
  • the terminal reception process (step S700) will be described later.
  • CPU110 repeats the process from step S502.
  • CPU110 repeats the process from step S502 also when drawing data is not received from another mobile telephone (when it is NO in step S510).
  • FIG. 28 is a flowchart showing the processing procedure of server reception processing in the mobile phone 100 according to the present modification.
  • CPU 110 receives drawing data from chat server 400 via communication interface 101 (step S602).
  • CPU110 deletes the hand-drawn image temporarily drawn on the touch panel 102 (step S604).
  • the CPU 110 causes the touch panel 102 to draw a hand-drawn image based on the drawing data (step S606).
  • CPU 110 transmits drawing data to another mobile phone in the chat communication via communication interface 101.
  • CPU 110 returns to the hand-drawn chat process.
  • FIG. 29 is a flowchart showing a procedure of terminal reception processing in the mobile phone 100 according to the present modification.
  • CPU 110 receives drawing data from another mobile phone in communication via communication interface 101 (step S702).
  • the CPU 110 causes the touch panel 102 to draw a hand-drawn image based on the drawing data (step S704).
  • CPU 110 returns to the hand-drawn chat process.
  • FIG. 30 is an overall block diagram of another server / client type network system.
  • the server in another server-client type network system, the server merely transfers input information from one mobile phone to another mobile phone.
  • a user inputs a hand-drawn command and a pen type to the first mobile phone 1000A via the touch panel (1).
  • the hand-drawn chat application of the first mobile phone 1000A generates drawing data from the hand-drawing command and the pen type based on data (extended pen data) for converting stroke information into drawing data according to the pen type.
  • the hand-drawn chat application of the first mobile phone 1000A displays a hand-drawn image on the display based on the drawing data (4).
  • the hand-drawn chat application of the first mobile phone 1000A transmits the hand-drawn command and the pen type to the server 4000 (5) (6).
  • the server 4000 transmits the hand-drawn command and the pen type to the second mobile phone 1000B (6) (7).
  • the hand-drawn chat application of the second mobile phone 1000B generates drawing data from the hand-drawing command and the pen type based on data (extended pen data) for converting stroke information into drawing data in accordance with the pen type.
  • the hand-drawn chat application of the second mobile phone 1000B displays a hand-drawn image on the display based on the drawing data (10).
  • each mobile phone needs to have data (extended pen data) for converting stroke information into drawing data in accordance with the pen type. It was.
  • FIG. 31 is an overall block diagram of another P2P type network system. Referring to FIG. 31, in another P2P type network system, input information received by one mobile phone is merely transmitted directly to another mobile phone.
  • a user inputs a hand-drawn command and a pen type to the first mobile phone 1000A via the touch panel (1).
  • the hand-drawn chat application of the first mobile phone 1000A generates drawing data from the hand-drawing command and the pen type based on data (extended pen data) for converting stroke information into drawing data according to the pen type.
  • the hand-drawn chat application of the first mobile phone 1000A displays a hand-drawn image on the display based on the drawing data (4).
  • the hand-drawn chat application of the first mobile phone 1000A transmits the hand-drawn command and the pen type to the second mobile phone 1000B (5) (6) (7).
  • the hand-drawn chat application of the second mobile phone 1000B generates drawing data from the hand-drawing command and the pen type based on data (extended pen data) for converting stroke information into drawing data in accordance with the pen type.
  • the hand-drawn chat application of the second mobile phone 1000B displays a hand-drawn image on the display based on the drawing data (10).
  • each mobile phone needs to have data (extended pen data) for converting stroke information into drawing data in accordance with the type of pen.
  • chat server 400 converts stroke information into drawing data according to the type of pen. It is not necessary for each mobile phone to have data (extended pen data) for converting stroke information into drawing data in accordance with the type of pen. Further, the company that operates the chat server 400 can arbitrarily add or update the pen type (extended pen data).
  • the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
  • a storage medium for supplying the program code for example, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card (IC memory card), ROM (mask ROM, flash) EEPROM, etc.) can be used.
  • the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
  • 1 network system 100, 100A, 100B, 100C mobile phone, 101 communication interface, 101A, 101B, 101C input data, 102 touch panel, 103 memory, 104 pen tablet, 106 buttons, 107 display, 108 microphone, 109 speaker, 110 CPU , 111 1st notification unit, 112 2nd notification unit, 120 stylus pen, 300 personal computer, 400 chat server, 405 CPU, 406 memory, 407 fixed disk, 408 internal bus, 409 server communication interface, 409A, 409B, 409C drawing data, 500 Internet network, 700 carrier network.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Position Input By Displaying (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 第1の端末(100A)が、手描き命令とペンの種類とを受け付け、手描き命令とペンの種類とをサーバ(400)へ送信する。サーバ(400)が、メモリを参照することによって、第1の端末(100A)からの手描き命令を、第1の端末(100A)からのペンの種類に対応した手描き画像を表示するための描画データへと変換し、描画データを第1の端末(100A)へ送信する。第1の端末(100A)が、サーバ(400)からの描画データに基づいて、ペンの種類に対応した手描き画像を表示する。

Description

ネットワークシステムおよび通信方法
 本発明は、ネットワークを介して通信可能な少なくとも第1の通信端末とサーバとを備えるネットワークシステムおよび通信方法に関し、特に、第1の通信端末とサーバとが手描きデータを送受信するネットワークシステムおよび通信方法に関する。
 インターネット網に接続可能な通信端末とサーバとがコンテンツデータを交換するネットワークシステムが知られている。インターネット網に接続可能な複数の通信端末が、サーバを介して、コンテンツデータを交換するネットワークシステム(サーバクライアントシステム)も知られている。
 さらに、インターネット網に接続可能な複数の通信端末が、コンテンツデータをダイレクトに交換するネットワークシステムも知られている。たとえば、P2P(Peer to Peer)システムなどが挙げられる。
 そのようなネットワークシステムにおいては、通信端末の各々は、手描き画像データや、テキストデータや、写真データなどを送信したり受信したりする。そして、通信端末の各々は、受信したデータに基づいて、ディスプレイに手描き画像やテキストや写真を表示させる。
 たとえば、特表2006-511112号公報(特許文献1)には、モバイルグラフィック表示装置が開示されている。特表2006-511112号公報(特許文献1)によると、モバイルグラフィック表示装置は、タッチパネルプロセッサに接続されたタッチパネル表示画面を有する。タッチパネルプロセッサは、タッチパネル表示画面に対して行われた入力描画動作を表す第1のインクデータを生成する。本装置は、グラフィックディスプレイと、グラフィック表示画面上に少なくとも第1のインクデータを表す画像を、既に作成されている手描き画像と組み合わせて表示するグラフィック画像プロセッサとを備える。無線通信プロセッサは、モバイルグラフィック表示装置から他のグラフィック表示装置に第1のインクデータを送信するとともに、他のグラフィック表示装置から、他の描画動作を表す他のインクデータを受信する。グラフィック表示プロセッサは、共通参照に従い、第1のインクデータの表示に対して他のインクデータの表示を生成する。これにより、モバイルグラフィック表示装置は、他の装置と手描き画像を交換するように構成される。
特表2006-511112号公報
 しかしながら、複数種類のペンで描画された手描き画像を表示するためには、手描き命令を受け付ける端末と手描き画像を表示する端末の少なくともいずれかが、手描き命令をペンの種類に応じて手描き画像に変換(または変更)するためのデータ(以下、拡張ペンデータともいう。)を有している必要がある。そのため、サービスを運営する会社が、当該拡張ペンデータを容易に追加したり更新したりすることができなかった。
 本発明は、かかる問題を解決するためになされたものであり、その目的は、通信端末が、自身が対応していないペンの種類に対応する手描き命令やペンの種類の選択命令を受け付けたり、自身が対応していないペンの種類に対応する手描き画像を表示したりできるようにすることである。
 この発明のある局面に従うと、第1の端末とサーバとを備えるネットワークシステムが提供される。第1の端末は、第1の通信インターフェイスと、手描き命令とペンの種類とを受け付けるためのタッチパネルと、第1の通信インターフェイスを介して手描き命令とペンの種類とをサーバへ送信し、サーバからの描画データに基づいて、タッチパネルにペンの種類に対応した手描き画像を表示させるための第1のプロセッサとを含む。サーバは、サーバ通信インターフェイスと、手描き命令から描画データへの変換ルールを、ペンの種類に対応付けて記憶するメモリと、メモリを参照することによって、第1の端末からの手描き命令を、第1の端末からのペンの種類に対応した手描き画像を表示するための描画データへと変換し、サーバ通信インターフェイスを介して描画データを第1の端末へ送信するためのサーバプロセッサとを含む。
 好ましくは、ネットワークシステムは、第2の端末をさらに備える。サーバプロセッサは、サーバ通信インターフェイスを介して描画データを第2の端末へも送信する。第2の端末は、ディスプレイと、第2の通信インターフェイスと、サーバからの描画データに基づいて、ディスプレイにペンの種類に対応した手描き画像を表示させるための第2のプロセッサとを含む。
 好ましくは、ネットワークシステムは、第2の端末をさらに備える。第1のプロセッサは、第1の通信インターフェイスを介して描画データを第2の端末へ送信する。第2の端末は、ディスプレイと、第2の通信インターフェイスと、第1の端末からの描画データに基づいて、ディスプレイにペンの種類に対応した手描き画像を表示させるための第2のプロセッサとを含む。
 好ましくは、サーバプロセッサは、サーバ通信インターフェイスを介して、サーバが対応している複数のペンの種類を示すペンデータを第1の端末へ送信する。第1のプロセッサは、ペンデータに基づいて、タッチパネルに複数のペンの種類を選択可能に表示させる。
 好ましくは、第1のプロセッサは、手描き命令を受け付けてからペンの種類に対応した手描き画像を表示させるまで、タッチパネルに所定のペンの種類に対応した手描き画像を表示させる。
 この発明の別の局面に従うと、第1の端末とサーバとを備えるネットワークシステムにおける通信方法が提供される。サーバは、手描き命令から描画データへの変換ルールを、ペンの種類に対応付けて記憶するためのメモリを含む。通信方法は、第1の端末が、手描き命令とペンの種類とを受け付けるステップと、第1の端末が、手描き命令とペンの種類とをサーバへ送信するステップと、サーバが、メモリを参照することによって、第1の端末からの手描き命令を、第1の端末からのペンの種類に対応した手描き画像を表示するための描画データへと変換するステップと、サーバが、描画データを第1の端末へ送信するステップと、第1の端末が、サーバからの描画データに基づいて、ペンの種類に対応した手描き画像を表示するステップとを備える。
 以上のように、本発明に係るネットワークシステムおよび通信方法によって、通信端末が、自身が対応していないペンの種類に対応する手描き命令やペンの種類の選択命令を受け付けたり、自身が対応していないペンの種類に対応する手描き画像を表示したりできるようになる。
本実施の形態に係るネットワークシステム1の一例を示す概略図である。 本施の形態に係る携帯電話100の外観を示すイメージ図である。 本施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。 本実施の形態に係るチャットサーバ400のハードウェア構成を示すブロック図である。 本実施の形態に係るネットワークシステム1における動作概要を示すシーケンス図である。 本実施の形態に係るネットワークシステム1におけるペンリストの送受信処理を示すシーケンス図である。 タッチパネル102に表示されるペンの種類のリストを示すイメージ図である。 本実施の形態に係るネットワークシステム1における簡易モード時の描画データの送受信処理を示すシーケンス図である。 タッチ操作(手描き命令)を示すイメージ図である。 第1のペンが選択された場合における入力データ101Aを示すイメージ図である。 第1のペンが選択された場合における描画データ409Aを示すイメージ図である。 第1のペンが選択された場合における手描き画像を示すイメージ図である。 第2のペンが選択された場合における入力データ101Bを示すイメージ図である。 第2のペンが選択された場合における描画データ409Bを示すイメージ図である。 第2のペンが選択された場合における手描き画像を示すイメージ図である。 第3のペンが選択された場合における入力データ101Cを示すイメージ図である。 第3のペンが選択された場合における描画データ409Cを示すイメージ図である。 第3のペンが選択された場合における手描き画像を示すイメージ図である。 本実施の形態に係る簡易モードにおける手描き画像の表示形態を示すイメージ図である。 本実施の形態に係るネットワークシステム1における詳細モード時の描画データの送受信処理を示すシーケンス図である。 本実施の形態に係る詳細モードにおける手描き画像の表示形態を示すイメージ図である。 本実施の形態に係る携帯電話100における手描きチャット処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話100における入力処理の処理手順を示すフローチャートである。 本実施の形態に係る携帯電話100におけるサーバ受信処理の処理手順を示すフローチャートである。 本実施の形態に係るネットワークシステム1の全体的なブロック図である。 本実施の形態に係るネットワークシステム1の変形例の全体的なブロック図である。 本変形例に係る携帯電話100における手描きチャット処理の処理手順を示すフローチャートである。 本変形例に係る携帯電話100におけるサーバ受信処理の処理手順を示すフローチャートである。 本変形例に係る携帯電話100における端末受信処理の処理手順を示すフローチャートである。 他のサーバ・クライアント型のネットワークシステムの全体的なブロック図である。 他のP2P型のネットワークシステムの全体的なブロック図である。
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 また、以下では、携帯電話100を「通信端末」の代表例として説明を行う。ただし、通信端末は、パーソナルコンピュータや、カーナビゲーション装置(Satellite navigation system)や、PND(Personal Navigation Device)や、PDA(Personal Data Assistance)などのような、他の情報通信機器であってもよい。
 <ネットワークシステム1の全体構成>
 まず、ネットワークシステム1の実施の形態1について説明する。図1は、本実施の形態に係るネットワークシステム1の一例を示す概略図である。図1に示すように、ネットワークシステム1は、携帯電話100A,100B,100Cと、チャットサーバ400と、インターネット網(第1のネットワーク)500と、キャリア網(第2のネットワーク)700とを含む。また、本実施の形態に係るネットワークシステム1は、パーソナルコンピュータ(PC;Personal Computer)300を含む。
 なお、説明の容易化のために、以下では、本実施の形態に係るネットワークシステム1が、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cとを含む場合について説明する。また、携帯電話100A,100B,100Cの各々に共通の構成や機能を説明する際には、それらを携帯電話100とも総称する。そして、携帯電話100A,100B,100C、パーソナルコンピュータ300の各々に共通の構成や機能を説明する際には、それらを通信端末とも総称する。
 携帯電話100は、キャリア網700に接続可能に構成されている。パーソナルコンピュータ300は、LAN(Local Area Network)350やWAN(Wide Area Network)を介してインターネット網500に接続可能に構成されている。チャットサーバ400は、インターネット網500に接続可能に構成されている。
 より詳細には、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cと、パーソナルコンピュータ300とは、キャリア網700やインターネット網500を介して互いに接続可能であって、互いにデータの送受信が可能である。また、携帯電話100とパーソナルコンピュータ300には、自端末を特定するための識別情報(たとえば、メールアドレスやIP(Internet Protocol)アドレスなど)が割り当てられる。
 すなわち、携帯電話100とパーソナルコンピュータ300は、内部の記録媒体に他の通信端末の識別情報を記憶することができる。携帯電話100とパーソナルコンピュータ300は、当該識別情報に基づいてキャリア網700やインターネット網500などを介して当該他の通信端末とデータ送受信を行うことができる。
 なお、本実施の形態に係る携帯電話100とパーソナルコンピュータ300とは、他の通信端末に割り当てられるIPアドレスを利用して、サーバを介さずに当該他の通信端末とデータ送受信を行うものである。すなわち、本実施の形態に係るネットワークシステム1に含まれる携帯電話100、パーソナルコンピュータ300は、いわゆるP2P(Pear to Pear)型のネットワークを構成することが可能である。ただし、携帯電話100同士がP2P通信を行うことは必須ではない。
 ここでは、各通信端末がチャットサーバ400にアクセスする際には、すなわち各通信端末がインターネットにアクセスした際に、チャットサーバ400あるいは他の図示しないサーバ装置などによってIPアドレスが割り当てられるものとする。IPアドレスの割り当て処理の詳細は公知であるので、ここでは説明を繰り返さない。
 なお、後述するように、本実施の形態においては、チャットサーバ400が手描き命令から描画データを生成するものとしている。ただし、ネットワークシステム1は、チャットサーバ400とは別に、手描き命令から描画データを生成するための手描きサーバを有してもよい。
 <携帯電話100のハードウェア構成>
 本実施の形態に係る携帯電話100のハードウェア構成について説明する。図2は、本施の形態に係る携帯電話100の外観を示すイメージ図である。図3は、本施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。
 図2および図3に示すように、本実施の形態に係る携帯電話100は、外部のネットワークとの間でデータを送受信する通信インターフェイス101と、プログラムや各種データベースを記憶するメモリ103と、CPU(Central Processing Unit)110と、ディスプレイ107と、外部音声が入力されるマイク108と、音声を出力するスピーカ109と、各種情報の入力を受け付ける各種ボタン106と、外部からの通信データや通話信号を受信した旨の音声を出力する第1の通知部111と、外部からの通信データや通話信号を受信した旨を表示する第2の通知部112とを含む。
 本実施の形態に係るディスプレイ107は、液晶パネルやCRTから構成されるタッチパネル102を実現する。すなわち、本実施の形態に係る携帯電話100は、ディスプレイ107の下側(裏側)にペンタブレット104が敷設されている。これによって、ユーザはスタイラスペン120などを用いることによって、ペンタブレット104を介して、図形情報などをCPU110に手描き入力することができる。ディスプレイ107(タッチパネル102)は、CPU110が出力したデータに基づいて、画像やテキストを表示する。
 各種ボタン106は、キー入力操作などによってユーザから情報を受け付ける。たとえば、各種ボタン106は、通話を受け付けたり、通話を発したりするためのTELボタン106Aと、メールを受け付けたり、メールを発したりするためのメールボタン106Bと、P2P通信を受け付けたり、P2P通信を発したりするためのP2Pボタン106Cと、アドレス帳データを呼び出すアドレス帳ボタン106Dと、各種の処理を終了させるための終了ボタン106Eとを含む。すなわち、各種ボタン106は、通信インターフェイス101を介してP2P参加要請メールを受信したときに、ユーザから、チャットルームへ参加する命令や、メールの内容を表示させる命令などを選択可能に受け付ける。
 第1の通知部111は、スピーカ109などを介して着信音を出力する。あるいは、第1の通知部111は、バイブレーション機能を有する。第1の通知部111は、着呼した際や、メールを受信した際や、P2P参加要請メールを受信した際に、音声を出力したり、携帯電話100を振動させたりする。
 第2の通知部112は、着信したときに点滅するTEL用LED(Light Emitting Diode)112Aと、メールを受信したときに点滅するメール用LED112Bと、P2P通信を受信したときに点滅するP2P用LED112Cを含む。
 CPU110は、携帯電話100の各部を制御する。たとえば、各種ボタン106を介してユーザから各種命令を受け付けて、通信インターフェイス101やネットワークを介して外部の通信端末やチャットサーバ400とデータの送受信を行う。
 通信インターフェイス101は、CPU110からの通信データを通信信号に変換し、その通信信号を図示しないアンテナを介して発信する。通信インターフェイス101は、アンテナを介して受信した通信信号を通信データに変換し、その通信データをCPU110に入力する。
 メモリ103は、作業用メモリとして機能するRAM(Random Access Memory)や、制御プログラムなどを格納するROM(Read Only Memory)や、画像データなどを記憶するハードディスクなどによって実現される。本実施の形態に係るメモリ103は、後述する通信処理を実行するための手描きチャットアプリケーション103Aを格納する。
 本実施の形態に係る携帯電話100は、CPU110が手描きチャットアプリケーション103Aを実行することによって、チャットサーバ400を介して、他の通信端末と手描きチャットすることができる。
 <チャットサーバ400のハードウェア構成>
 次に、本実施の形態に係るチャットサーバ400のハードウェア構成について説明する。以下では、まず、チャットサーバ400のハードウェア構成について説明する。
 図4は、本実施の形態に係るチャットサーバ400のハードウェア構成を示すブロック図である。図4に示すように、本実施の形態に係るチャットサーバ400は、相互に内部バス408で接続されたCPU405と、メモリ406と、固定ディスク407と、サーバ通信インターフェイス409とを含む。
 メモリ406は、各種の情報を記憶するものであって、たとえば、CPU405でのプログラムの実行に必要なデータを一時的に記憶する。固定ディスク407は、CPU405が実行するプログラムやデータベースを記憶する。CPU405は、チャットサーバ400の各要素を制御するものであって、各種の演算を実施する装置である。
 より詳細には、本実施の形態においては、チャットサーバ400のメモリ406または固定ディスク407は、拡張ペンデータを記憶する。拡張ペンデータは、後述するストローク情報から描画データへの複数種類の変換方法のそれぞれを、ペンの種類(ペンID)に対応付けて格納する。これによって、CPU405は、携帯電話100からのストローク情報(後述する入力データに含まれている。)を、ペンの種類に応じて、描画データに変換することができる。
 サーバ通信インターフェイス409は、CPU405が出力したデータを電気信号へと変換して外部へ送信し、外部から受信した電気信号をデータに変換してCPU405に入力する。具体的には、サーバ通信インターフェイス409は、CPU405からのデータを、インターネット網500やキャリア網700などを介して携帯電話100やパーソナルコンピュータ300に送信する。そして、インターネット網500やキャリア網700を介して携帯電話100やパーソナルコンピュータ300から受信したデータを、CPU405に入力する。
 <ネットワークシステム1の全体的な動作概要>
 次に、本実施の形態に係るネットワークシステム1の動作概要について説明する。図5は、本実施の形態に係るネットワークシステム1における動作概要を示すシーケンス図である。図1および図5に示すように、本実施の形態に係る各通信端末は、P2P型のデータ送受信を行うために、はじめに互いのIPアドレスを交換(取得)する必要がある。そして、各通信端末は、IPアドレスを取得したのちに、P2P型のデータ送受信によってメッセージや添付ファイルなどを他の通信端末に送信する。ただし、前述したように、携帯電話100同士がP2P通信することは必須ではない。
 以下では、通信端末のそれぞれが、チャットサーバ400に生成されたチャットルームを介してメッセージおよびIPアドレスを送受信し、その後互いのIPアドレスに基づいてP2P通信を行う場合について説明する。
 まず、第1の携帯電話100A(図5において端末A)が、チャットサーバ400にIP登録(ログイン)を要求する(ステップS002)。第1の携帯電話100Aは、同時にIPアドレスを取得してもよいし、予め他のサーバ装置などからIPアドレスを取得してもよい。より詳細には、第1の携帯電話100Aは、キャリア網700、インターネット網500を介して、チャットサーバ400に第1の携帯電話100AのメールアドレスとIPアドレスと第2の携帯電話100B(図5において端末B)のメールアドレスと新たなチャットルームの生成を要求するメッセージとを送信する。
 チャットサーバ400は、その要求に応じて、第1の携帯電話100AのメールアドレスをそのIPアドレスに対応付けて格納する。そして、チャットサーバ400は、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成し、あるいは、メッセージに含まれるルーム名を抽出して、当該ルーム名のチャットルームを生成する。このとき、チャットサーバ400は、チャットルームを生成が完了した旨を第1の携帯電話100Aに通知してもよい。チャットサーバ400は、ルーム名と参加中の通信端末のIPアドレスとを対応付けて格納する。
 第1の携帯電話100Aのユーザは、第2の携帯電話100Bのユーザに、新たなチャットルームを生成したことを知らせる、すなわち第2の携帯電話100Bのユーザをチャットルームに招待する。たとえば、第1の携帯電話100Aは、キャリア網700、インターネット網500を介して、P2P参加要請メールを第2の携帯電話100Bに送信する。
 第2の携帯電話100Bは、P2P参加要請メールを受信すると、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成し、あるいは参加要請メールからルーム名を取得し、チャットサーバ400に第2の携帯電話100BのメールアドレスとIPアドレスとそのルーム名を有するチャットルームへ参加する旨のメッセージとを送信する(ステップS008)。第2の携帯電話100Bは、同時にIPアドレスを取得してもよいし、先にIPアドレスを取得してからチャットサーバ400にアクセスしてもよい。このとき、チャットサーバ400はチャットルームを削除してもよい。
 チャットサーバ400は、そのメッセージを受け付けて、第2の携帯電話100AのメールアドレスをIPアドレスに対応付けて格納する。そして、チャットサーバ400は、第1の携帯電話100Aに、第2の携帯電話100Bがチャットルームに参加した旨と第2の携帯電話100BのIPアドレスとを送信する(ステップS010)。同時に、チャットサーバ400は、第2の携帯電話100Bに、チャットルームへの参加を受け付けた旨と第1の携帯電話100AのIPアドレスとを送信する。
 第1の携帯電話100Aは、第2の携帯電話100BのIPアドレスに基づいて第2の携帯電話100BにP2P接続要求メッセージ(開始メッセージ)を送信する(ステップS012)。第2の携帯電話100Bは、接続要求メッセージを受信して、第1の携帯電話100AのIPアドレスに基づいて第1の携帯電話100Aに第1の接続承諾メッセージ(返答メッセージ)を送信する(ステップS014)。第1の携帯電話100Aは、第2の携帯電話100Bから第1の接続承諾メッセージを受信して、第2の携帯電話100Bに第2の接続承諾メッセージを送信する(ステップS016)。
 このようにして、第1の携帯電話100Aと第2の携帯電話100Bとは、互いに相手を認証する。認証が完了すると、第1の携帯電話100Aと第2の携帯電話100Bとは、P2P手描きチャット通信を開始する(ステップS018)。なお、P2P手描きチャット通信については後述する。
 そして、第1の携帯電話100Aが、第2の携帯電話100BにP2P通信を切断する旨の切断要求メッセージを送信すると(ステップS030)、第2の携帯電話100Bは、第1の携帯電話100Aに切断する要求を受け付けた旨の切断承諾メッセージを送信する(ステップS032)。
 <P2P手描きチャット通信>
 以下、本実施の形態に係るネットワークシステム1におけるP2P手描きチャット通信の動作について説明する。まずは、本実施の形態に係るネットワークシステム1におけるペンリストの送受信について説明する。図6は、本実施の形態に係るネットワークシステム1におけるペンリストの送受信処理を示すシーケンス図である。
 図6に示すように、P2P手描きチャット通信が開始すると、携帯電話100は、チャットサーバ400にペンリストを問い合わせる(ステップS102)。より詳細には、携帯電話100のCPU110は、タッチパネル102を介したユーザからの命令に応じて、あるいは自動で、通信インターフェイス101を介して、チャットサーバ400に「requestPenList」メッセージ101Xを送信する。
 チャットサーバ400のCPU405は、携帯電話100からの問い合わせに応じて、通信インターフェイス409を介して、携帯電話100にペンリスト情報409Xを送信する。ペンリスト情報409Xは、ペンの種類毎に、ペンIDと、ペンの性質を示すテキストデータとが対応付けられている。
 図7は、タッチパネル102に表示されるペンの種類のリストを示すイメージ図である。図7を参照して、携帯電話100のCPU110は、チャットサーバ400からのペンリスト情報409Xに基づいて、タッチパネル102にペンの種類を示すリストを表示させる。ペンリスト情報409Xにおいては、テキストデータ「細ペン」とペンID「1」とが、テキストデータ「縁取りペン」とペンID「2」とが、テキストデータ「点線」とペンID「3」とが対応付けられている。
 次に、本実施の形態に係るネットワークシステム1における簡易モード時の描画データの送受信処理について説明する。図8は、本実施の形態に係るネットワークシステム1における簡易モード時の描画データの送受信処理を示すシーケンス図である。
 図8に示すように、ペンリストの送受信処理が終了すると、携帯電話100は、ユーザからの手描き命令を受け付ける(ステップS112)。すなわち、携帯電話100のCPU110は、ユーザのタッチパネル102に対するタッチ操作を受け付ける。本実施の形態においては、CPU110は、タッチパネル102を介して、ペンの種類を選択するためのタッチ操作(選択命令)や、タッチパネル102上に手描きストロークを描くためのタッチ操作(手描き命令)を受け付ける。
 図9は、タッチ操作(手描き命令)を示すイメージ図である。図9を参照して、本実施の形態においては、ユーザが、スタイラスペン120などを用いて、タッチパネル102に「Z」と記入した場合について説明する。CPU110は、タッチパネル102を介して、座標(10,10)を有する位置に外部物体がタッチしたこと、座標(10,10)から座標(20,10)まで当該物体がスライドしたこと、座標(20,10)から座標(10,20)まで当該物体がスライドしたこと、座標(10,20)から座標(20,20)まで当該物体がスライドしたこと、タッチ座標(20,20)を有する位置から当該物体が離間したことを検知する。
 まず、以下では、ユーザがペンの種類として第1のペンを選択した場合について説明する。図10は、第1のペンが選択された場合における入力データ101Aを示すイメージ図である。図8~図10に示すように、CPU110は、タッチ操作に基づいて、ペンの種類を指定するためのペンIDと、手描き命令を示すストローク情報とを含む、入力データ101Aを作成する。ストローク情報は、それに基づいて複数種類の携帯電話100(少なくとも端末Aおよび端末B)が画像を表示することができるドローデータである。
 CPU110は、通信インターフェイス101を介して、入力データ101Aをチャットサーバ400に送信する。チャットサーバ400のCPU405は、メモリ406を参照して、入力データ101Aに基づいて描画データ409Aを生成する。描画データ409Aは、それに基づいて複数種類の携帯電話100が画像を表示することができるドローデータあるいはペイントデータである。
 図11は、第1のペンが選択された場合における描画データ409Aを示すイメージ図である。図8~図11を参照して、CPU405は、ペンIDに基づいて、ストローク情報を描画データ409Aに変換する。CPU405は、描画データ409Aを携帯電話100に送信する。
 携帯電話100のCPU110は、通信インターフェイス101を介して、描画データ409Aを受信する。CPU110は、描画データ409Aに基づいて、タッチパネル102に選択されたペンで描かれた手描き画像を表示させる。
 図12は、第1のペンが選択された場合における手描き画像を示すイメージ図である。図12を参照して、CPU110は、タッチパネル102に、横方向に厚みを有したスタイルの手描き画像(手描き文字)を表示させる。
 次に、ユーザがペンの種類として第2のペンを選択した場合について説明する。図13は、第2のペンが選択された場合における入力データ101Bを示すイメージ図である。図8、図9、図13に示すように、CPU110は、タッチ操作に基づいて、ペンの種類を指定するためのペンIDと、タッチ操作(手描き命令)を示すストローク情報とを含む、入力データ101Bを作成する。
 CPU110は、通信インターフェイス101を介して、入力データ101Bをチャットサーバ400に送信する。チャットサーバ400のCPU405は、メモリ406を参照して、入力データ101Bに基づいて描画データ409Bを生成する。描画データ409Bは、それに基づいて複数種類の携帯電話100が画像を表示することができるドローデータあるいはペイントデータである。
 図14は、第2のペンが選択された場合における描画データ409Bを示すイメージ図である。図8、図9、図13、図14を参照して、CPU405は、ペンIDに基づいて、ストローク情報を描画データ409Bに変換する。CPU405は、描画データ409Bを携帯電話100に送信する。
 携帯電話100のCPU110は、通信インターフェイス101を介して、描画データ409Bを受信する。CPU110は、描画データ409Bに基づいて、タッチパネル102に選択されたペンで描かれた手描き画像を表示させる。
 図15は、第2のペンが選択された場合における手描き画像を示すイメージ図である。図15を参照して、CPU110は、タッチパネル102に、七色で描かれた手描き画像(手描き文字)を表示させる。
 次に、ユーザがペンの種類として第3のペンを選択した場合について説明する。図16は、第3のペンが選択された場合における入力データ101Cを示すイメージ図である。図8、図9、図16に示すように、CPU110は、タッチ操作に基づいて、ペンの種類を指定するためのペンIDと、タッチ操作(手描き命令)を示すストローク情報とを含む、入力データ101Cを作成する。
 CPU110は、通信インターフェイス101を介して、入力データ101Cをチャットサーバ400に送信する。チャットサーバ400のCPU405は、メモリ406を参照して、入力データ101Cに基づいて描画データ409Cを生成する。描画データ409Cは、それに基づいて複数種類の携帯電話100が画像を表示することができるドローデータあるいはペイントデータである。
 図17は、第3のペンが選択された場合における描画データ409Cを示すイメージ図である。図8、図9、図16、図17を参照して、CPU405は、ペンIDに基づいて、ストローク情報を描画データ409Cに変換する。CPU405は、描画データ409Cを携帯電話100に送信する。
 携帯電話100のCPU110は、通信インターフェイス101を介して、描画データ409Cを受信する。CPU110は、描画データ409Cに基づいて、タッチパネル102に選択されたペンで描かれた手描き画像を表示させる。
 図18は、第3のペンが選択された場合における手描き画像を示すイメージ図である。図18を参照して、CPU110は、タッチパネル102に、点線で描かれた手描き画像(手描き文字)を表示させる。
 このように、本実施の形態においては、携帯電話100が、タッチ操作に基づいて複数種類の携帯電話100が画像を表示することができるドローデータ(手描き命令)を作成する。携帯電話100は、入力されたペンの選択命令に対応するペンIDとドローデータとを含む入力データ101A,101B,101Cをチャットサーバ400に送信する。チャットサーバ400は、ペンIDに基づいて、ドローデータを、描画データに変換する。携帯電話100は、描画データを表示する。
 図19は、本実施の形態に係る簡易モードにおける手描き画像の表示形態を示すイメージ図である。図8と図19とを参照して、簡易モードにおいては、CPU110は、描画データを受信してから、タッチパネル102にペンの種類に応じた手描き画像を表示させる。換言すれば、CPU110は、手描き命令を受け付けても、チャットサーバ400から描画データを受信するまでは、対応する手描き画像を表示しない。
 次に、本実施の形態に係るネットワークシステム1における詳細モード時の描画データの送受信処理について説明する。図20は、本実施の形態に係るネットワークシステム1における詳細モード時の描画データの送受信処理を示すシーケンス図である。図21は、本実施の形態に係る詳細モードにおける手描き画像の表示形態を示すイメージ図である。なお、詳細モード時における入力データ101A,101B,101Cと描画データ409A,409B,409Cの送受信に関しては、簡易モード時におけるそれらと同様であるため、ここでは説明を繰り返さない。
 図20と図21とを参照して、詳細モードにおいては、CPU110は、手描き命令を受け付ける(ステップS122)。CPU110は、タッチパネル102に、デフォルトのペン(携帯電話100が表示可能な線種または字体)で描かれた手描き画像を表示させる(ステップS124)。CPU110は、通信インターフェイス101を介して、入力データ101A,101B,101Cを送信する。CPU110は、描画データ409A,409B,409Cを受信する。CPU110は、タッチパネル102にペンの種類に応じた手描き画像を表示させる。換言すれば、CPU110は、チャットサーバ400から描画データを受信した際に、手描き画像を描き直す。
 本実施の形態においては、携帯電話100のCPU110は、タッチパネル102を介して、簡易モードと詳細モードとの切替命令を受け付ける。
 <携帯電話100における手描きチャット処理>
 次に、本実施の形態に係る携帯電話100における手描きチャット処理について説明する。図22は、本実施の形態に係る携帯電話100における手描きチャット処理の処理手順を示すフローチャートである。
 図22を参照して、CPU110は、タッチパネル102を介して、ユーザからペンの選択命令を受け付けたか否かを判断する(ステップS202)。CPU110は、ユーザからペンの選択命令を受け付けた場合(ステップS202においてYESである場合)、ペンIDを変更する(ステップS204)。CPU110は、ステップS202からの処理を繰り返す。
 CPU110は、ユーザからペンの選択命令を受け付けなかった場合(ステップS202においてNOである場合)、タッチパネル102を介して、ユーザから手描き命令(ストローク操作)を受け付けたか否かを判断する(ステップS206)。CPU110は、ユーザから手描き命令(ストローク操作)を受け付けた場合(ステップS206においてYESである場合)、入力処理(ステップS300)を実行する。なお、入力処理(ステップS300)については後述する。CPU110は、ステップS202からの処理を繰り返す。
 CPU110は、ユーザから手描き命令(ストローク操作)を受け付けなかった場合(ステップS206においてNOである場合)、チャットサーバ400から描画データを受信したか否かを判断する(ステップS208)。CPU110は、チャットサーバ400から描画データを受信した場合(ステップS208においてYESである場合)、サーバ受信処理(ステップS400)を実行する。サーバ受信処理(ステップS400)については後述する。CPU110は、ステップS202からの処理を繰り返す。
 CPU110は、チャットサーバ400から描画データを受信しなかった場合(ステップS208においてNOである場合)においても、ステップS202からの処理を繰り返す。
 次に、本実施の形態に係る携帯電話100における入力処理について説明する。図23は、本実施の形態に係る携帯電話100における入力処理の処理手順を示すフローチャートである。
 図23を参照して、CPU110は、タッチパネル102を介して、ストローク情報を作成する。CPU110は、ストローク情報とペンIDとから入力情報を作成する(ステップS302)。CPU110は、ストローク情報に基づいて、タッチパネル102に所定のペンの種類で(デフォルトの線種で)手描き画像を仮描画させる(ステップS304)。CPU110は、通信インターフェイス101を介して、チャットサーバ400へと入力情報を送信する(ステップS306)。CPU110は、手描きチャット処理に戻る。
 次に、本実施の形態に係る携帯電話100におけるサーバ受信処理について説明する。図24は、本実施の形態に係る携帯電話100におけるサーバ受信処理の処理手順を示すフローチャートである。
 図24を参照して、CPU110は、通信インターフェイス101を介して、チャットサーバ400から描画データを受信する(ステップS402)。CPU110は、タッチパネル102に仮描画されていた手描き画像を消去させる(ステップS404)。CPU110は、描画データに基づいて、タッチパネル102に手描き画像を描画させる(ステップS406)。CPU110は、手描きチャット処理に戻る。
 <本実施の形態に係るネットワークシステム1のまとめ>
 本実施の形態に係るネットワークシステム1をまとめると以下の通りである。図25は、本実施の形態に係るネットワークシステム1の全体的なブロック図である。
 図25を参照して、まず、ユーザがタッチパネル102を介して第1の携帯電話100Aに手描き命令とペンの種類とを入力する(1)。第1の携帯電話100Aの手描きチャットアプリケーションは、手描き命令とペンの種類とを通信インターフェイス101に受け渡す(2)。通信インターフェイス101は、手描き命令とペンの種類とをチャットサーバ400に送信する(3)。
 チャットサーバ400は、ペンの種類に応じて、手描き命令を描画データに変換する。チャットサーバ400は、描画データを第1の携帯電話100Aに送信する(6)。第1の携帯電話100Aは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(7)。同様に、チャットサーバ400は、描画データを第2の携帯電話100Bに送信する(8)。第2の携帯電話100Bは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(9)。
 なお、チャットサーバ400は、チャット専用サーバ400Aと拡張ペンサーバ400Bとを含むものであってもよい。この場合には、ユーザがタッチパネル102を介して第1の携帯電話100Aに手描き命令とペンの種類とを入力する(1)。第1の携帯電話100Aの手描きチャットアプリケーションは、手描き命令とペンの種類とを通信インターフェイス101に受け渡す(2)。通信インターフェイス101は、手描き命令とペンの種類とをチャット専用サーバ400Aに送信する(3)。
 チャット専用サーバ400Aは、手描き命令とペンの種類とを拡張ペンサーバ400Bに送信する(4)。拡張ペンサーバ400Bは、ペンの種類に応じて、手描き命令を描画データに変換する。拡張ペンサーバ400Bは、描画データをチャット専用サーバ400Aに送信する(5)。
 チャット専用サーバ400Aは、描画データを第1の携帯電話100Aに送信する(6)。第1の携帯電話100Aは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(7)。同様に、チャット専用サーバ400Aは、描画データを第2の携帯電話100Bに送信する(8)。第2の携帯電話100Bは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(9)。
 <ネットワークシステム1の変形例>
 図25に示すように、本実施の形態に係るネットワークシステム1は、チャットサーバ400が、携帯電話100Aからのストローク情報を描画データに変換し、当該描画データを携帯電話100Aと当該携帯電話100Aとチャット通信中の他の携帯電話100Bとに送信するものであった。しかしながら、携帯電話100Aが、チャットサーバ400からの描画データを当該携帯電話100Aと通信中の他の携帯電話100Bへと転送するものであってもよい。図26は、本実施の形態に係るネットワークシステム1の変形例の全体的なブロック図である。
 図26を参照して、まず、ユーザがタッチパネル102を介して第1の携帯電話100Aに手描き命令とペンの種類とを入力する(1)。第1の携帯電話100Aの手描きチャットアプリケーションは、手描き命令とペンの種類とを通信インターフェイス101に受け渡す(2)。通信インターフェイス101は、手描き命令とペンの種類とをチャットサーバ400に送信する(3)。
 チャットサーバ400は、ペンの種類に応じて、手描き命令を描画データへと変換する。チャットサーバ400は、描画データを第1の携帯電話100Aに送信する(4)。第1の携帯電話100Aは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(5)。
 第1の携帯電話100Aは、描画データを第2の携帯電話100Bに送信する(6)。第2の携帯電話100Bは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(7)。
 なお、チャットサーバ400は、チャット専用サーバ400Aと拡張ペンサーバ400Bとを含むものであってもよい。この場合には、ユーザがタッチパネル102を介して第1の携帯電話100Aに手描き命令とペンの種類とを入力する(1)。第1の携帯電話100Aの手描きチャットアプリケーションは、手描き命令とペンの種類とを通信インターフェイス101に受け渡す(2)。通信インターフェイス101は、手描き命令とペンの種類とをチャット専用サーバ400Aに送信する(3)。
 チャット専用サーバ400Aは、手描き命令とペンの種類とを拡張ペンサーバ400Bに送信する。拡張ペンサーバ400Bは、ペンの種類に応じて、手描き命令を描画データへと変換する。拡張ペンサーバ400Bは、描画データをチャット専用サーバ400Aに送信する。
 チャット専用サーバ400Aは、描画データを第1の携帯電話100Aに送信する(4)。第1の携帯電話100Aは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(5)。第1の携帯電話100Aは、描画データを第2の携帯電話100Bに送信する(6)。第2の携帯電話100Bは、描画データに基づいてペンの種類に応じた手描き画像をディスプレイ107に表示する(7)。
 <携帯電話100における手描きチャット処理>
 次に、本変形例における手描きチャット処理について説明する。図27は、本変形例に係る携帯電話100における手描きチャット処理の処理手順を示すフローチャートである。
 図27を参照して、CPU110は、タッチパネル102を介して、ユーザからペンの選択命令を受け付けたか否かを判断する(ステップS502)。CPU110は、ユーザからペンの選択命令を受け付けた場合(ステップS502においてYESである場合)、ペンIDを変更する(ステップS504)。CPU110は、ステップS502からの処理を繰り返す。
 CPU110は、ユーザからペンの選択命令を受け付けなかった場合(ステップS502においてNOである場合)、タッチパネル102を介して、ユーザから手描き命令(ストローク操作)を受け付けたか否かを判断する(ステップS506)。CPU110は、ユーザから手描き命令(ストローク操作)を受け付けた場合(ステップS506においてYESである場合)、入力処理(ステップS300)を実行する。なお、入力処理(ステップS300)については前述した通りである。
 CPU110は、ユーザから手描き命令(ストローク操作)を受け付けなかった場合(ステップS506においてNOである場合)、チャットサーバ400から描画データを受信したか否かを判断する(ステップS508)。CPU110は、チャットサーバ400から描画データを受信した場合(ステップS508においてYESである場合)、サーバ受信処理(ステップS600)を実行する。サーバ受信処理(ステップS600)については後述する。CPU110は、ステップS502からの処理を繰り返す。
 CPU110は、チャットサーバ400から描画データを受信しなかった場合(ステップS508においてNOである場合)、他の携帯電話から描画データを受信したか否かを判断する(ステップS510)。CPU110は、他の携帯電話から描画データを受信した場合(ステップS510においてYESである場合)、端末受信処理(ステップS700)を実行する。端末受信処理(ステップS700)については後述する。CPU110は、ステップS502からの処理を繰り返す。
 CPU110は、他の携帯電話から描画データを受信しなかった場合(ステップS510においてNOである場合)においても、ステップS502からの処理を繰り返す。
 次に、本変形例におけるサーバ受信処理について説明する。図28は、本変形例に係る携帯電話100におけるサーバ受信処理の処理手順を示すフローチャートである。
 図28を参照して、CPU110は、通信インターフェイス101を介して、チャットサーバ400から描画データを受信する(ステップS602)。CPU110は、タッチパネル102に仮描画されていた手描き画像を消去させる(ステップS604)。
 CPU110は、描画データに基づいて、タッチパネル102に手描き画像を描画させる(ステップS606)。CPU110は、通信インターフェイス101を介して、チャット通信中の他の携帯電話に描画データを送信する。CPU110は、手描きチャット処理に戻る。
 次に、本変形例における端末受信処理について説明する。図29は、本変形例に係る携帯電話100における端末受信処理の処理手順を示すフローチャートである。
 図29を参照して、CPU110は、通信インターフェイス101を介して、通信中の他の携帯電話から描画データを受信する(ステップS702)。CPU110は、描画データに基づいて、タッチパネル102に手描き画像を描画させる(ステップS704)。CPU110は、手描きチャット処理に戻る。
 <他のネットワークシステムとの比較>
 以下、本実施の形態(変形例を含む。)に係るネットワークシステム1と他のネットワークシステムとを比較する。まず、他のネットワークシステムについて説明する。
 図30は、他のサーバ・クライアント型のネットワークシステムの全体的なブロック図である。図30を参照して、他のサーバ・クライアント型のネットワークシステムにおいては、サーバは、1の携帯電話からの入力情報を他の携帯電話に転送しているに過ぎない。
 より詳細には、他のサーバ・クライアント型のネットワークシステムにおいては、ユーザがタッチパネルを介して第1の携帯電話1000Aに手描き命令とペンの種類とを入力する(1)。第1の携帯電話1000Aの手描きチャットアプリケーションは、ペンの種類に応じてストローク情報を描画データに変換するためのデータ(拡張ペンデータ)に基づいて、手描き命令とペンの種類とから描画データを生成する(2)(3)。
 第1の携帯電話1000Aの手描きチャットアプリケーションは、描画データに基づいて、ディスプレイに手描き画像を表示する(4)。第1の携帯電話1000Aの手描きチャットアプリケーションは、手描き命令とペンの種類とをサーバ4000に送信する(5)(6)。
 サーバ4000は、手描き命令とペンの種類とを第2の携帯電話1000Bに送信する(6)(7)。第2の携帯電話1000Bの手描きチャットアプリケーションは、ペンの種類に応じてストローク情報を描画データに変換するためのデータ(拡張ペンデータ)に基づいて、手描き命令とペンの種類とから描画データを生成する(8)(9)。第2の携帯電話1000Bの手描きチャットアプリケーションは、描画データに基づいて、ディスプレイに手描き画像を表示する(10)。
 つまり、他のサーバ・クライアント型のネットワークシステムにおいては、携帯電話の各々が、ペンの種類に応じてストローク情報を描画データに変換するためのデータ(拡張ペンデータ)を有している必要があった。
 図31は、他のP2P型のネットワークシステムの全体的なブロック図である。図31を参照して、他のP2P型のネットワークシステムにおいては、1の携帯電話が受け付けた入力情報を他の携帯電話に直接送信しているに過ぎない。
 より詳細には、他のサーバ・クライアント型のネットワークシステムにおいては、ユーザがタッチパネルを介して第1の携帯電話1000Aに手描き命令とペンの種類とを入力する(1)。第1の携帯電話1000Aの手描きチャットアプリケーションは、ペンの種類に応じてストローク情報を描画データに変換するためのデータ(拡張ペンデータ)に基づいて、手描き命令とペンの種類とから描画データを生成する(2)(3)。第1の携帯電話1000Aの手描きチャットアプリケーションは、描画データに基づいて、ディスプレイに手描き画像を表示する(4)。
 第1の携帯電話1000Aの手描きチャットアプリケーションは、手描き命令とペンの種類とを第2の携帯電話1000Bに送信する(5)(6)(7)。第2の携帯電話1000Bの手描きチャットアプリケーションは、ペンの種類に応じてストローク情報を描画データに変換するためのデータ(拡張ペンデータ)に基づいて、手描き命令とペンの種類とから描画データを生成する(8)(9)。第2の携帯電話1000Bの手描きチャットアプリケーションは、描画データに基づいて、ディスプレイに手描き画像を表示する(10)。
 つまり、他のP2P型のネットワークシステムにおいても、携帯電話の各々が、ペンの種類に応じてストローク情報を描画データに変換するためのデータ(拡張ペンデータ)を有している必要があった。
 このように、他のネットワークシステムにおいては、携帯電話の各々が、ペンの種類に応じてストローク情報を描画データに変換するためのデータを有している必要があった。一方、本実施の形態(変形例を含む。)に係るネットワークシステム1においては、図25および図26に示すように、チャットサーバ400がペンの種類に応じてストローク情報を描画データに変換するため、携帯電話の各々が、ペンの種類に応じてストローク情報を描画データに変換するためのデータ(拡張ペンデータ)を有する必要がない。また、チャットサーバ400を運営する会社が、任意にペンの種類(拡張ペンデータ)を追加したり、更新したりすることができる。
 <本実施の形態に係るネットワークシステム1の応用例>
 本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
 この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
 プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード(ICメモリカード)、ROM(マスクROM、フラッシュEEPROMなど)などを用いることができる。
 また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 1 ネットワークシステム、100,100A,100B,100C 携帯電話、101 通信インターフェイス、101A,101B,101C 入力データ、102 タッチパネル、103 メモリ、104 ペンタブレット、106 ボタン、107 ディスプレイ、108 マイク、109 スピーカ、110 CPU、111 第1の通知部、112 第2の通知部、120 スタイラスペン、300 パーソナルコンピュータ、400 チャットサーバ、405 CPU、406 メモリ、407 固定ディスク、408 内部バス、409 サーバ通信インターフェイス、409A,409B,409C 描画データ、500 インターネット網、700 キャリア網。

Claims (10)

  1.  第1の端末(100A)とサーバ(400)とを備えるネットワークシステム(1)であって、
     前記第1の端末は、
     第1の通信インターフェイス(101)と、
     手描き命令とペンの種類とを受け付けるためのタッチパネル(102)と、
     前記第1の通信インターフェイスを介して前記手描き命令と前記ペンの種類とを前記サーバへ送信し、前記サーバからの描画データに基づいて、前記タッチパネルに前記ペンの種類に対応した手描き画像を表示させるための第1のプロセッサ(110)とを含み、
     前記サーバは、
     サーバ通信インターフェイス(409)と、
     前記手描き命令から前記描画データへの変換ルールを、前記ペンの種類に対応付けて記憶するメモリ(406)と、
     前記メモリを参照することによって、前記第1の端末からの前記手描き命令を、前記第1の端末からの前記ペンの種類に対応した前記手描き画像を表示するための前記描画データへと変換し、前記サーバ通信インターフェイスを介して前記描画データを前記第1の端末へ送信するためのサーバプロセッサ(405)とを含む、ネットワークシステム。
  2.  第2の端末(100B)をさらに備え、
     前記サーバプロセッサは、前記サーバ通信インターフェイスを介して前記描画データを前記第2の端末へも送信し、
     前記第2の端末は、
     ディスプレイと、
     第2の通信インターフェイスと、
     前記サーバからの前記描画データに基づいて、前記ディスプレイに前記ペンの種類に対応した手描き画像を表示させるための第2のプロセッサとを含む、請求項1に記載のネットワークシステム。
  3.  第2の端末をさらに備え、
     前記第1のプロセッサは、前記第1の通信インターフェイスを介して前記描画データを前記第2の端末へ送信し、
     前記第2の端末は、
     ディスプレイと、
     第2の通信インターフェイスと、
     前記第1の端末からの前記描画データに基づいて、前記ディスプレイに前記ペンの種類に対応した手描き画像を表示させるための第2のプロセッサとを含む、請求項1に記載のネットワークシステム。
  4.  前記サーバプロセッサは、前記サーバ通信インターフェイスを介して、前記サーバが対応している複数のペンの種類を示すペンデータを前記第1の端末へ送信し、
     前記第1のプロセッサは、前記ペンデータに基づいて、前記タッチパネルに前記複数のペンの種類を選択可能に表示させる、請求項1に記載のネットワークシステム。
  5.  前記第1のプロセッサは、前記手描き命令を受け付けてから前記ペンの種類に対応した手描き画像を表示させるまで、前記タッチパネルに所定のペンの種類に対応した手描き画像を表示させる、請求項1に記載のネットワークシステム。
  6.  第1の端末とサーバとを含むネットワークシステムにおける通信方法であって、
      前記サーバは、手描き命令から描画データへの変換ルールを、ペンの種類に対応付けて記憶するためのメモリを含み、
     前記第1の端末が、手描き命令とペンの種類とを受け付けるステップと、
     前記第1の端末が、前記手描き命令と前記ペンの種類とを前記サーバへ送信するステップと、
     前記サーバが、前記メモリを参照することによって、前記第1の端末からの前記手描き命令を、前記第1の端末からの前記ペンの種類に対応した手描き画像を表示するための前記描画データへと変換するステップと、
     前記サーバが、前記描画データを前記第1の端末へ送信するステップと、
     前記第1の端末が、前記サーバからの描画データに基づいて、前記ペンの種類に対応した手描き画像を表示するステップとを備える、通信方法。
  7.  前記ネットワークシステムは、第2の端末をさらに含み、
     前記サーバが、前記描画データを前記第2の端末へ送信するステップと、
     前記第2の端末が、前記サーバからの前記描画データに基づいて、ディスプレイに前記ペンの種類に対応した手描き画像を表示させるステップとをさらに備える、請求項6に記載の通信方法。
  8.  前記ネットワークシステムは、第2の端末をさらに含み、
     前記第1の端末が、前記描画データを前記第2の端末へ送信するステップと、
     前記第2の端末が、前記第1の端末からの前記描画データに基づいて、ディスプレイに前記ペンの種類に対応した手描き画像を表示させるステップとをさらに備える、請求項6に記載の通信方法。
  9.  前記サーバが、前記サーバが対応している複数のペンの種類を示すペンデータを前記第1の端末へ送信するステップと、
     前記第1の端末が、前記ペンデータに基づいて、前記複数のペンの種類を選択可能に表示する、請求項6に記載の通信方法。
  10.  前記第1の端末が、前記手描き命令を受け付けてから前記ペンの種類に対応した手描き画像を表示させるまで、所定のペンの種類に対応した手描き画像を表示する、請求項6に記載の通信方法。
PCT/JP2011/066728 2010-07-30 2011-07-22 ネットワークシステムおよび通信方法 WO2012014813A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/637,610 US20130036358A1 (en) 2010-07-30 2011-07-22 Network system and communication method
CN2011800375308A CN103004176A (zh) 2010-07-30 2011-07-22 网络系统和通信方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-172155 2010-07-30
JP2010172155A JP5523973B2 (ja) 2010-07-30 2010-07-30 ネットワークシステムおよび通信方法

Publications (1)

Publication Number Publication Date
WO2012014813A1 true WO2012014813A1 (ja) 2012-02-02

Family

ID=45530021

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/066728 WO2012014813A1 (ja) 2010-07-30 2011-07-22 ネットワークシステムおよび通信方法

Country Status (4)

Country Link
US (1) US20130036358A1 (ja)
JP (1) JP5523973B2 (ja)
CN (1) CN103004176A (ja)
WO (1) WO2012014813A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9250792B2 (en) * 2012-11-29 2016-02-02 International Business Machines Corporation Method, apparatus and computer program to designate content retrieval on an interactive display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04304567A (ja) * 1991-04-01 1992-10-27 Canon Inc 画像処理システム
JPH10171590A (ja) * 1996-12-06 1998-06-26 Nec Corp 既存アプリケーションプログラムへのアノテーション情報付加表示方式およびプレゼンテーションシステム
JP2006511112A (ja) * 2002-12-18 2006-03-30 オランジュ エス.アー. モバイルグラフィック表示装置
JP2007243919A (ja) * 2006-02-09 2007-09-20 Mitsubishi Electric Corp ビジュアル会議システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1300416A (zh) * 1999-02-08 2001-06-20 颇力太克株式会社 文字信息传输系统
US7337389B1 (en) * 1999-12-07 2008-02-26 Microsoft Corporation System and method for annotating an electronic document independently of its content
JP2003521061A (ja) * 2000-01-25 2003-07-08 オートデスク,インコーポレイテッド インターネット上で建築図面へのアクセスを提供し、処理する方法および装置
CN1180367C (zh) * 2001-06-04 2004-12-15 华为技术有限公司 手写字体识别服务器及其电子签名系统的处理方法
JP4202857B2 (ja) * 2003-01-30 2008-12-24 富士通株式会社 プログラム、文字入力編集方法、装置及び記録媒体
US20060167902A1 (en) * 2005-01-21 2006-07-27 Microsoft Corporation System and method for storing a document in a serial binary format
JP5010878B2 (ja) * 2006-09-07 2012-08-29 リンテック株式会社 非接触型書き換え可能記録媒体の記録方法
JP2008165264A (ja) * 2006-12-26 2008-07-17 Dynacomware Taiwan Inc ネットワークを利用して多様なフォントを用いたアジアWebページ文書を編集するためのシステム及び方法
KR20090046142A (ko) * 2007-11-05 2009-05-11 삼성전자주식회사 입력 필체 자동 변환 시스템 및 방법
CN101308578B (zh) * 2008-06-20 2010-09-01 华南理工大学 一种手写汉字美化方法
CN101393645A (zh) * 2008-09-12 2009-03-25 浙江大学 一种手写体汉字的计算机生成与美化方法
JP2010102274A (ja) * 2008-10-27 2010-05-06 Lim Corp Ltd 携帯端末のフォント表示システム
CN101699516B (zh) * 2009-10-30 2012-09-05 华南理工大学 一种手写汉字美化的笔画渲染方法
CN101699517B (zh) * 2009-10-30 2012-02-01 华南理工大学 一种手写汉字美化的骨架变换方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04304567A (ja) * 1991-04-01 1992-10-27 Canon Inc 画像処理システム
JPH10171590A (ja) * 1996-12-06 1998-06-26 Nec Corp 既存アプリケーションプログラムへのアノテーション情報付加表示方式およびプレゼンテーションシステム
JP2006511112A (ja) * 2002-12-18 2006-03-30 オランジュ エス.アー. モバイルグラフィック表示装置
JP2007243919A (ja) * 2006-02-09 2007-09-20 Mitsubishi Electric Corp ビジュアル会議システム

Also Published As

Publication number Publication date
US20130036358A1 (en) 2013-02-07
CN103004176A (zh) 2013-03-27
JP5523973B2 (ja) 2014-06-18
JP2012034195A (ja) 2012-02-16

Similar Documents

Publication Publication Date Title
US7774505B2 (en) Method for transmitting image data in real-time
KR101203248B1 (ko) 네트워크 시스템, 통신 단말기, 통신 방법 및 통신 프로그램을 기록한 컴퓨터 판독가능 기록매체
JP5658547B2 (ja) ネットワークシステム、通信方法、および通信端末
US10524097B2 (en) Communication terminal, communication method, computer readable recording medium having communication program recorded, and network system
JPWO2019064464A1 (ja) 情報処理方法、情報処理装置及び情報処理プログラム
JP5035852B2 (ja) 通信端末、制御方法、および制御プログラム
US20130016058A1 (en) Electronic device, display method and computer-readable recording medium storing display program
JP5354571B2 (ja) ネットワークシステム、通信装置、通信方法、および通信プログラム
US9172986B2 (en) Network system, communication method, and communication terminal
US20130014022A1 (en) Network system, communication method, and communication terminal
WO2012025000A1 (zh) 蓝牙服务的管理方法和装置
JP5523973B2 (ja) ネットワークシステムおよび通信方法
US20120309367A1 (en) Communication terminal, communication method, and computer readable storage medium having communication program stored therein
KR101789803B1 (ko) 명함 정보 교환 서비스 제공 방법 및 장치
EP1843538B1 (en) Method for conference setup between mobile terminals for a shared whiteboard session
JP7297971B2 (ja) サーバ、情報処理方法、プログラム
JP2015072668A (ja) アプリケーション共同実行端末、アプリケーション共同実行方法、及び、アプリケーション共同実行端末用プログラム
JP2011154606A (ja) ネットワークシステム、通信方法、サーバ、および通信端末
JP2010183447A (ja) 通信端末、通信方法、および通信プログラム
CN117478682A (zh) 建立点对点通道的方法、设备及协同工作系统
JP2010186400A (ja) 通信端末、通信方法、および通信プログラム
KR20160126827A (ko) 클라우드 프린팅 서비스를 제공하는 방법, 이를 수행하기 위한 장치 및 시스템
CN117499445A (zh) 协同工作系统、方法及电子设备
KR20240113280A (ko) 특정 url에 기반한 채팅 메시지를 표시하는 방법 및 사용자 단말
CN117499446A (zh) 协同工作系统、方法及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11812403

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13637610

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11812403

Country of ref document: EP

Kind code of ref document: A1