JP5781275B2 - Electronic device, display method, and display program - Google Patents

Electronic device, display method, and display program Download PDF

Info

Publication number
JP5781275B2
JP5781275B2 JP2010098534A JP2010098534A JP5781275B2 JP 5781275 B2 JP5781275 B2 JP 5781275B2 JP 2010098534 A JP2010098534 A JP 2010098534A JP 2010098534 A JP2010098534 A JP 2010098534A JP 5781275 B2 JP5781275 B2 JP 5781275B2
Authority
JP
Japan
Prior art keywords
image
hand
touch panel
mobile phone
drawn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010098534A
Other languages
Japanese (ja)
Other versions
JP2011227800A (en
Inventor
真幸 山本
真幸 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010098534A priority Critical patent/JP5781275B2/en
Priority to PCT/JP2011/055381 priority patent/WO2011132472A1/en
Priority to CN2011800202351A priority patent/CN102859485A/en
Priority to US13/637,312 priority patent/US20130016058A1/en
Publication of JP2011227800A publication Critical patent/JP2011227800A/en
Application granted granted Critical
Publication of JP5781275B2 publication Critical patent/JP5781275B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、動画を再生可能な電子機器、表示方法、および表示プログラムに関し、特に、手書き画像を表示することができる電子機器、表示方法、および表示プログラムに関する。   The present invention relates to an electronic device that can reproduce a moving image, a display method, and a display program, and more particularly, to an electronic device that can display a handwritten image, a display method, and a display program.

ワンセグ放送を受信したり、ストリーミングデータを受信したりすることによって、動画を表示することができる表示装置が知られている。   A display device that can display a moving image by receiving one-segment broadcasting or receiving streaming data is known.

また、インターネットに接続可能な複数の表示装置が、リアルタイムで、手描き画像を交換するネットワークシステムが知られている。たとえば、サーバ/クライアントシステムや、P2P(Peer to Peer)システムなどが挙げられる。そのようなネットワークシステムにおいては、表示装置の各々は、手描き画像や、テキストデータなどを送信したり受信したりする。表示装置の各々は、受信したデータに基づいて、ディスプレイに手書き画像やテキストを表示する。   A network system is also known in which a plurality of display devices connectable to the Internet exchange hand-drawn images in real time. For example, a server / client system, a P2P (Peer to Peer) system, etc. are mentioned. In such a network system, each display device transmits and receives hand-drawn images and text data. Each of the display devices displays a handwritten image or text on the display based on the received data.

たとえば、特開2006−4190号公報(特許文献1)には、携帯電話向けチャットサービスシステムが開示されている。特開2006−4190号公報(特許文献1)によると、インターネットを介して通信接続された多数の携帯電話端末およびオペレータ用ウェブ端末に対し、上記端末のブラウザ表示画面に動画表示領域と文字表示領域を形成させるとともに、上記動画表示領域にストリーミング表示される動画データを配信する配信サーバと、上記携帯電話端末と上記オペレータ用ウェブ端末の間でのチャットをサポートするとともに文字データからなるチャットデータを上記文字表示領域に表示させるチャットサーバとを備え、上記チャットサーバは、各オペレータ用ウェブ端末がそれぞれ、複数の携帯電話端末に対して携帯電話端末ごとに独立のチャットチャネルを形成する。   For example, JP 2006-4190 A (Patent Document 1) discloses a chat service system for mobile phones. According to Japanese Patent Laying-Open No. 2006-4190 (Patent Document 1), a moving image display area and a character display area are displayed on the browser display screen of the terminal for a large number of mobile phone terminals and operator web terminals connected via the Internet. A chat server between the mobile phone terminal and the operator web terminal and the chat data consisting of character data as well as the distribution server for distributing the video data stream-displayed in the video display area A chat server to be displayed in the character display area, and each of the operator web terminals forms an independent chat channel for each mobile phone terminal with respect to the plurality of mobile phone terminals.

特開2006−4190号公報JP 2006-4190 A

ユーザは、動画上に手描き画像を描画したい場合がある。そして、ユーザは、再生中の動画のシーンやフレームに関係する手書き画像を描画したい場合がある。しかしながら、従来は、入力された手描き画像が消去された後、または、動画のシーンが切り換わった後などに、過去に入力された手描き画像を対応する動画とともに閲覧することはできなかった。   A user may want to draw a hand-drawn image on a moving image. The user may want to draw a handwritten image related to the scene or frame of the moving image being played back. However, conventionally, after an input hand-drawn image is erased or after a scene of a moving image is switched, a hand-drawn image input in the past cannot be browsed together with the corresponding moving image.

本発明は、かかる問題を解決するためになされたものであり、その目的は、過去に入力された手描き画像を対応する動画とともに閲覧することができる電子機器、表示方法、および表示プログラムに関する。   The present invention has been made to solve such a problem, and an object thereof is to an electronic device, a display method, and a display program that can browse a hand-drawn image input in the past together with a corresponding moving image.

この発明のある局面に従うと、メモリと、背景画像を表示するためのタッチパネルと、タッチパネルを介して手描き画像の入力を受け付けて、タッチパネルに背景画像と手描き画像とを重ねて表示させるためのプロセッサとを備える電子機器が提供される。プロセッサは、背景画像に重畳された手描き画像を消去するための命令の入力を受け付け、命令が入力されたときにタッチパネルに表示されていた背景画像と手描き画像とを履歴情報としてメモリに記憶し、履歴情報に基づいて、タッチパネルに背景画像と手描き画像とを重ねて表示させる。   According to one aspect of the present invention, a memory, a touch panel for displaying a background image, a processor for receiving input of a hand-drawn image via the touch panel, and displaying the background image and the hand-drawn image on the touch panel, An electronic device is provided. The processor receives an input of a command for erasing the hand-drawn image superimposed on the background image, stores the background image and the hand-drawn image displayed on the touch panel when the command is input, as history information in a memory, Based on the history information, the background image and the hand-drawn image are displayed on the touch panel in an overlapping manner.

好ましくは、タッチパネルは、動画を表示する。背景画像は、動画のフレームを含む。
好ましくは、プロセッサは、タッチパネルに表示されている動画のシーンが切り換わったときに、当該切り換わりの直前にタッチパネルに表示されていた動画のフレームと手描き画像とを履歴情報としてメモリに記憶する。
Preferably, the touch panel displays a moving image. The background image includes a moving image frame.
Preferably, when the scene of the moving image displayed on the touch panel is switched, the processor stores the frame of the moving image displayed on the touch panel immediately before the switching and the hand-drawn image in the memory as history information.

好ましくは、プロセッサは、動画のシーンが切り換わったときに、動画上の手描き画像を消去する。   Preferably, the processor erases the hand-drawn image on the moving image when the moving image scene is switched.

好ましくは、プロセッサは、命令に応じて、背景画像上の手描き画像を消去する。
好ましくは、プロセッサは、タッチパネルの第1の領域に、背景画像を表示させながら、当該背景画像に重ねて手描き画像を表示させ、タッチパネルの第2の領域に、履歴情報に基づいて、背景画像と手描き画像と重ねて表示させる。
Preferably, the processor erases the hand-drawn image on the background image in response to the instruction.
Preferably, the processor displays a hand-drawn image on the background image while displaying the background image on the first area of the touch panel, and displays the background image on the second area of the touch panel based on the history information. Overlay with hand-drawn image.

好ましくは、電子機器は、背景画像を外部から受信するためのアンテナをさらに備える。   Preferably, the electronic device further includes an antenna for receiving a background image from the outside.

好ましくは、電子機器は、ネットワークを介して他の電子機器と通信するための通信インターフェイスをさらに備える。プロセッサは、通信インターフェイスを介して、タッチパネルを介して入力された手描き画像を他の電子機器へと送信し、他の電子機器からの手描き画像を受信し、タッチパネルに、背景画像に重ねて、タッチパネルを介して入力された手描き画像と他の電子機器からの手描き画像とを表示させ、タッチパネルを介して入力された手描き画像とともに、他の電子機器からの手描き画像を履歴情報としてメモリに記憶する。   Preferably, the electronic device further includes a communication interface for communicating with another electronic device via a network. The processor transmits the hand-drawn image input via the touch panel via the communication interface to another electronic device, receives the hand-drawn image from the other electronic device, and superimposes the background image on the touch panel. The hand-drawn image input through the electronic device and the hand-drawn image from another electronic device are displayed, and the hand-drawn image input from the other electronic device is stored in the memory as history information together with the hand-drawn image input through the touch panel.

好ましくは、プロセッサは、手描き画像と背景画像とが合成されたペイントデータを履歴情報としてメモリに記憶する。   Preferably, the processor stores paint data obtained by combining the hand-drawn image and the background image in the memory as history information.

好ましくは、プロセッサは、手描き画像を示すペイントデータと背景画像を示すペイントデータとを関連付けて履歴情報としてメモリに記憶する。   Preferably, the processor stores the paint data indicating the hand-drawn image and the paint data indicating the background image in association with each other in the memory as history information.

好ましくは、プロセッサは、手描き画像を示すドローデータと背景画像を示すペイントデータとを関連付けて履歴情報としてメモリに記憶する。   Preferably, the processor associates the draw data indicating the hand-drawn image with the paint data indicating the background image and stores them in the memory as history information.

この発明の別の局面に従うと、メモリとタッチパネルとプロセッサとを含むコンピュータにおける表示方法が提供される。表示方法は、プロセッサが、タッチパネルに、背景画像を表示させるステップと、プロセッサが、タッチパネルを介して、手描き画像の入力を受け付けるステップと、プロセッサが、タッチパネルに、背景画像と手描き画像とを重ねて表示させるステップと、プロセッサが、背景画像に重畳された手描き画像を消去するための命令の入力を受け付けるステップと、プロセッサが、命令が入力されたときにタッチパネルに表示されていた背景画像と手描き画像とを履歴情報としてメモリに記憶するステップと、プロセッサが、履歴情報に基づいて、タッチパネルに、背景画像と手描き画像とを重ねて表示させるステップとを備える。   According to another aspect of the present invention, a display method in a computer including a memory, a touch panel, and a processor is provided. The display method includes a step in which a processor displays a background image on the touch panel, a step in which the processor receives an input of a hand-drawn image via the touch panel, and a processor overlaps the background image and the hand-drawn image on the touch panel. A step of displaying, a step of accepting an input of a command for the processor to erase a hand-drawn image superimposed on the background image, and a background image and a hand-drawn image displayed on the touch panel when the processor inputs the command Are stored in the memory as history information, and the processor causes the touch panel to display a background image and a hand-drawn image on the touch panel based on the history information.

この発明の別の局面に従うと、メモリとタッチパネルとプロセッサとを含むコンピュータに画像を表示させるための表示プログラムが提供される。プロセッサに、タッチパネルに、背景画像を表示させるステップと、タッチパネルを介して、手描き画像の入力を受け付けるステップと、タッチパネルに、背景画像と手描き画像とを重ねて表示させるステップと、背景画像に重畳された手描き画像を消去するための命令の入力を受け付けるステップと、命令が入力されたときにタッチパネルに表示されていた背景画像と手描き画像とを履歴情報としてメモリに記憶するステップと、履歴情報に基づいて、タッチパネルに背景画像と手描き画像とを重ねて表示させるステップとを実行させる。   According to another aspect of the present invention, a display program for displaying an image on a computer including a memory, a touch panel, and a processor is provided. A step of causing the processor to display a background image on the touch panel, a step of accepting an input of a hand-drawn image via the touch panel, a step of displaying the background image and the hand-drawn image on the touch panel and displaying the background image superimposed on the background image. A step of receiving an input of a command for deleting the hand-drawn image, a step of storing the background image and the hand-drawn image displayed on the touch panel when the command is input in the memory as history information, and based on the history information The step of superimposing the background image and the hand-drawn image on the touch panel is executed.

以上のように、本発明によって、過去に入力された手描き画像を対応する動画とともに閲覧することができる電子機器、表示方法、および表示プログラムが提供される。   As described above, according to the present invention, an electronic device, a display method, and a display program that can browse a hand-drawn image input in the past together with a corresponding moving image are provided.

本実施の形態に係るネットワークシステムの一例を示す概略図である。It is the schematic which shows an example of the network system which concerns on this Embodiment. 本実施の形態に係るネットワークシステムにおける動作概要を示すシーケンス図である。It is a sequence diagram which shows the operation | movement outline | summary in the network system which concerns on this Embodiment. 本実施の形態に係る動作概要に沿った表示装置の表示画面の推移を示したイメージ図である。It is the image figure which showed transition of the display screen of the display apparatus along the operation | movement outline | summary which concerns on this Embodiment. 本実施の形態に係る手描き画像の送受信に関する動作概要を示すイメージ図である。It is an image figure which shows the operation | movement outline | summary regarding transmission / reception of the hand-drawn image which concerns on this Embodiment. 本実施の形態に係る携帯電話の外観を示すイメージ図である。It is an image figure which shows the external appearance of the mobile telephone which concerns on this Embodiment. 本実施の形態に係る携帯電話のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the mobile telephone which concerns on this Embodiment. 本実施の形態に係るメモリを構成する各種のデータ構造を示すイメージ図である。It is an image figure which shows the various data structures which comprise the memory which concerns on this Embodiment. 本実施の形態に係るチャットサーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the chat server which concerns on this Embodiment. 本実施の形態に係るチャットサーバのメモリあるいは固定ディスクに記憶されるルーム管理テーブルのデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the room management table memorize | stored in the memory or fixed disk of the chat server which concerns on this Embodiment. 本実施の形態に係るネットワークシステムにおけるP2P通信処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the P2P communication process in the network system which concerns on this Embodiment. 本実施の形態に係る送信データのデータ構造を示すイメージ図である。It is an image figure which shows the data structure of the transmission data which concerns on this Embodiment. 本実施の形態に係る携帯電話における入力処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the input process in the mobile telephone which concerns on this Embodiment. 本実施の形態に係る携帯電話におけるペン情報の設定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the setting process of the pen information in the mobile telephone which concerns on this Embodiment. 本実施の形態に係る携帯電話における手書き処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the handwriting process in the mobile telephone which concerns on this Embodiment. 本実施の形態に係る手描き画像を示すデータを示すイメージ図である。It is an image figure which shows the data which show the hand-drawn image which concerns on this Embodiment. 本実施の形態に係る携帯電話における表示処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the display process in the mobile telephone which concerns on this Embodiment. 本実施の形態に係る携帯電話における表示処理の応用例の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the application example of the display process in the mobile telephone which concerns on this Embodiment. 実施の形態1に係る携帯電話における手書き画像表示処理の処理手順を示すフローチャートである。4 is a flowchart showing a processing procedure of handwritten image display processing in the mobile phone according to Embodiment 1; 実施の形態1に係る携帯電話における第1の履歴作成処理の処理手順を示すフローチャートである。4 is a flowchart showing a processing procedure of first history creation processing in the mobile phone according to Embodiment 1; 第1の履歴作成処理に係る履歴データを示すイメージ図である。It is an image figure showing history data concerning the 1st history creation processing. 第1の履歴作成処理に係る履歴情報のデータ構造を示す図である。It is a figure which shows the data structure of the log | history information which concerns on a 1st log | history creation process. 実施の形態1に係る携帯電話における第2の履歴作成処理の処理手順を示すフローチャートである。6 is a flowchart showing a processing procedure of second history creation processing in the mobile phone according to Embodiment 1; 第2の履歴作成処理に係る履歴データを示すイメージ図である。It is an image figure showing history data concerning the 2nd history creation processing. 第2の履歴作成処理に係る履歴情報のデータ構造を示す図である。It is a figure which shows the data structure of the log | history information which concerns on a 2nd log | history creation process. 実施の形態1に係る携帯電話における第3の履歴作成処理の処理手順を示すフローチャートである。7 is a flowchart showing a processing procedure of third history creation processing in the mobile phone according to Embodiment 1; 第3の履歴作成処理に係る履歴データを示すイメージ図である。It is an image figure which shows the historical data which concerns on a 3rd log | history creation process. 第3の履歴作成処理に係る履歴情報のデータ構造を示す図である。It is a figure which shows the data structure of the log | history information which concerns on a 3rd log | history creation process. 実施の形態2に係る携帯電話における手書き画像表示処理の処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure of handwritten image display processing in the mobile phone according to Embodiment 2. 実施の形態2に係る携帯電話における第1の履歴作成処理の処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure of first history creation processing in the mobile phone according to Embodiment 2. 実施の形態2に係る携帯電話における第2の履歴作成処理の処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure of second history creation processing in the mobile phone according to the second embodiment. 実施の形態2に係る携帯電話における第3の履歴作成処理の処理手順を示すフローチャートである。11 is a flowchart showing a processing procedure of third history creation processing in the mobile phone according to Embodiment 2.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

また、以下では、携帯電話100を「表示装置」の代表例として説明を行う。ただし、表示装置は、パーソナルコンピュータや、カーナビゲーション装置(Satellite navigation system)や、PND(Personal Navigation Device)や、PDA(Personal Data Assistance)、ゲーム機、電子辞書、電子BOOKなどのような、ディスプレイを有する情報機器であってもよい。なお、表示装置は、ネットワークに接続可能であって、他の機器との間でデータの送受信が可能な情報通信機器であることが好ましい。   Hereinafter, the mobile phone 100 will be described as a representative example of the “display device”. However, a display device such as a personal computer, a car navigation device (Satellite navigation system), a PND (Personal Navigation Device), a PDA (Personal Data Assistance), a game machine, an electronic dictionary, an electronic BOOK, etc. It may be an information device. Note that the display device is preferably an information communication device that can be connected to a network and can transmit and receive data to and from other devices.

[実施の形態1]
<ネットワークシステム1の全体構成>
まず、本実施の形態に係るネットワークシステム1の全体構成について説明する。図1は、本実施の形態に係るネットワークシステム1の一例を示す概略図である。図1に示すように、ネットワークシステム1は、携帯電話100A,100B,100Cと、チャットサーバ(第1のサーバ装置)400と、コンテンツサーバ(第2のサーバ装置)600と、放送局(TV放送のアンテナ)650と、インターネット(第1のネットワーク)500と、キャリア網(第2のネットワーク)700とを含む。また、本実施の形態に係るネットワークシステム1は、車両250に搭載されるカーナビゲーション装置200と、パーソナルコンピュータ(PC;Personal Computer)300とを含む。
[Embodiment 1]
<Overall configuration of network system 1>
First, the overall configuration of the network system 1 according to the present embodiment will be described. FIG. 1 is a schematic diagram showing an example of a network system 1 according to the present embodiment. As shown in FIG. 1, a network system 1 includes mobile phones 100A, 100B, and 100C, a chat server (first server device) 400, a content server (second server device) 600, and a broadcasting station (TV broadcast). Antenna) 650, the Internet (first network) 500, and a carrier network (second network) 700. The network system 1 according to the present embodiment includes a car navigation device 200 mounted on a vehicle 250 and a personal computer (PC) 300.

なお、理解を容易にするために、以下では、本実施の形態に係るネットワークシステム1が、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cとを含む場合について説明する。また、携帯電話100A,100B,100Cの各々に共通の構成や機能を説明する際には、それらを携帯電話100とも総称する。そして、携帯電話100A,100B,100C、カーナビゲーション装置200、パーソナルコンピュータ300の各々に共通の構成や機能を説明する際には、それらを表示装置とも総称する。   In order to facilitate understanding, in the following, network system 1 according to the present embodiment includes first mobile phone 100A, second mobile phone 100B, and third mobile phone 100C. Will be described. Further, when the common configurations and functions of the mobile phones 100A, 100B, and 100C are described, they are also collectively referred to as the mobile phone 100. And when describing a structure and a function common to each of the mobile phones 100A, 100B, 100C, the car navigation device 200, and the personal computer 300, they are also collectively referred to as a display device.

携帯電話100は、キャリア網700に接続可能に構成されている。カーナビゲーション装置200は、インターネット500に接続可能に構成されている。パーソナルコンピュータ300は、LAN(Local Area Network)350やWAN(Wide Area Network)を介してインターネット500に接続可能に構成されている。チャットサーバ400は、インターネット500に接続可能に構成されている。コンテンツサーバ600は、インターネット500に接続可能に構成されている。   The mobile phone 100 is configured to be connectable to the carrier network 700. The car navigation device 200 is configured to be connectable to the Internet 500. The personal computer 300 is configured to be connectable to the Internet 500 via a LAN (Local Area Network) 350 or a WAN (Wide Area Network). Chat server 400 is configured to be connectable to the Internet 500. The content server 600 is configured to be connectable to the Internet 500.

より詳細には、第1の携帯電話100Aと、第2の携帯電話100Bと、第3の携帯電話100Cと、カーナビゲーション装置200と、パーソナルコンピュータ300とは、インターネット500やキャリア網700やメール送信サーバ(図2におけるチャットサーバ400)を介して、互いに接続可能であって、互いにデータを送受信することが可能である。   More specifically, the first mobile phone 100A, the second mobile phone 100B, the third mobile phone 100C, the car navigation device 200, and the personal computer 300 are the Internet 500, the carrier network 700, and mail transmission. It is possible to connect to each other via a server (chat server 400 in FIG. 2), and to transmit / receive data to / from each other.

本実施の形態においては、携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300には、自端末を特定するための識別情報(たとえば、メールアドレスやIP(Internet Protocol)アドレスなど)が割り当てられる。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300は、内部の記録媒体に他の表示装置の識別情報を記憶することができる。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300は、当該識別情報に基づいて、キャリア網700やインターネット500などを介して、他の表示装置とデータ送受信を行うことができる。   In the present embodiment, identification information (for example, an e-mail address or an IP (Internet Protocol) address) for identifying the terminal itself is assigned to the mobile phone 100, the car navigation device 200, and the personal computer 300. The mobile phone 100, the car navigation device 200, and the personal computer 300 can store identification information of other display devices in an internal recording medium. The mobile phone 100, the car navigation device 200, and the personal computer 300 can transmit and receive data to and from other display devices via the carrier network 700, the Internet 500, and the like based on the identification information.

本実施の形態に係る携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300とは、他の表示装置に割り当てられるIPアドレスを利用して、サーバ400,600を介さずに当該他の表示装置とデータ送受信を行うことが可能である。すなわち、本実施の形態に係るネットワークシステム1に含まれる携帯電話100、カーナビゲーション装置200、パーソナルコンピュータ300は、いわゆるP2P(Peer to Peer)型のネットワークを構成することが可能である。   The cellular phone 100, the car navigation device 200, and the personal computer 300 according to the present embodiment use the IP address assigned to the other display device, and the other display device and data without using the servers 400 and 600. It is possible to send and receive. That is, the mobile phone 100, the car navigation device 200, and the personal computer 300 included in the network system 1 according to the present embodiment can constitute a so-called P2P (Peer to Peer) type network.

ここでは、各表示装置がチャットサーバ400にアクセスする際には、すなわち各表示装置がインターネットにアクセスした際に、チャットサーバ400あるいは他の図示しないサーバ装置などによってIPアドレスが割り当てられるものとする。IPアドレスの割り当て処理の詳細は公知であるので、ここでは説明を繰り返さない。   Here, when each display device accesses the chat server 400, that is, when each display device accesses the Internet, an IP address is assigned by the chat server 400 or another server device (not shown). Details of the IP address assignment process are well known, and therefore the description will not be repeated here.

また、本実施の形態に係る放送局650は、地上デジタル放送を送信する。たとえば、放送局650は、ワンセグ放送を送信する。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300とは、ワンセグ放送を受信する。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300のユーザは、放送局650から受信したテレビ番組など(動画コンテンツ)を視聴することができる。   In addition, broadcasting station 650 according to the present embodiment transmits terrestrial digital broadcasting. For example, the broadcast station 650 transmits a one-segment broadcast. The mobile phone 100, the car navigation device 200, and the personal computer 300 receive the one-segment broadcasting. Users of the mobile phone 100, the car navigation device 200, and the personal computer 300 can view a television program (video content) received from the broadcast station 650.

携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300とは、インターネット500を介して、コンテンツサーバ600から、インターネットTVやその他の動画コンテンツを略同時に受信する。携帯電話100とカーナビゲーション装置200とパーソナルコンピュータ300のユーザは、コンテンツサーバ600からの動画コンテンツを視聴することができる。   The mobile phone 100, the car navigation device 200, and the personal computer 300 receive Internet TV and other moving image contents from the content server 600 via the Internet 500 at substantially the same time. Users of the mobile phone 100, the car navigation device 200, and the personal computer 300 can view the moving image content from the content server 600.

<ネットワークシステム1の全体的な動作概要>
次に、本実施の形態に係るネットワークシステム1の動作概要について説明する。図2は、本実施の形態に係るネットワークシステム1における動作概要を示すシーケンス図である。図2においては、図1におけるコンテンツサーバ600と放送局650とを総称してコンテンツ発信装置という。
<Overview of overall operation of network system 1>
Next, an outline of the operation of the network system 1 according to the present embodiment will be described. FIG. 2 is a sequence diagram showing an outline of operation in the network system 1 according to the present embodiment. 2, the content server 600 and the broadcast station 650 in FIG. 1 are collectively referred to as a content transmission device.

図1および図2に示すように、本実施の形態に係る各表示装置は、P2P型のデータ送受信を行うために、はじめに互いのIPアドレスを交換(取得)する必要がある。そして、各表示装置は、IPアドレスを取得したのちに、P2P型のデータ送受信によってメッセージや添付ファイルなどを他の表示装置に送信する。   As shown in FIGS. 1 and 2, each display device according to the present embodiment needs to exchange (acquire) each other's IP address first in order to perform P2P type data transmission / reception. Each display device acquires an IP address and then transmits a message, an attached file, and the like to other display devices by P2P type data transmission / reception.

以下では、表示装置のそれぞれが、チャットサーバ400に生成されたチャットルームを介して、互いの識別情報(IPアドレスなど)やメッセージや添付ファイルを送受信する場合について説明する。そして、第1の携帯電話100Aが、チャットサーバ400に新たなチャットルームを生成し、当該チャットルームに第2の携帯電話100Bを招待する場合について説明する。   Below, the case where each display apparatus transmits / receives mutual identification information (IP address etc.), a message, and an attached file via the chat room produced | generated by the chat server 400 is demonstrated. A case will be described in which first mobile phone 100A generates a new chat room in chat server 400 and invites second mobile phone 100B to the chat room.

まず、第1の携帯電話100A(図2において端末A)が、チャットサーバ400にIP登録(ログイン)を要求する(ステップS0002)。第1の携帯電話100Aは、同時にIPアドレスを取得してもよいし、予めIPアドレスを取得していてもよい。より詳細には、第1の携帯電話100Aは、キャリア網700、メール送信サーバ(チャットサーバ400)、インターネット500を介して、チャットサーバ400に第1の携帯電話100AのメールアドレスとIPアドレスと第2の携帯電話100Bのメールアドレスと新たなチャットルームの生成を要求するメッセージとを送信する。   First, first mobile phone 100A (terminal A in FIG. 2) requests IP registration (login) from chat server 400 (step S0002). First mobile phone 100A may obtain an IP address at the same time, or may obtain an IP address in advance. More specifically, the first mobile phone 100A transmits the mail address, IP address, and first address of the first mobile phone 100A to the chat server 400 via the carrier network 700, the mail transmission server (chat server 400), and the Internet 500. 2 sends the mail address of the mobile phone 100B and a message requesting the generation of a new chat room.

チャットサーバ400は、その要求に応じて、第1の携帯電話100AのメールアドレスをそのIPアドレスに対応付けて格納する。そして、チャットサーバ400は、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいて、ルーム名を生成し、当該ルーム名のチャットルームを生成する。このとき、チャットサーバ400は、チャットルームの生成が完了した旨を第1の携帯電話100Aに通知してもよい。チャットサーバ400は、ルーム名と参加中の表示装置のIPアドレスとを対応付けて格納する。   Chat server 400 stores the mail address of first mobile phone 100A in association with the IP address in response to the request. Then, chat server 400 generates a room name based on the mail address of first mobile phone 100A and the mail address of second mobile phone 100B, and generates a chat room with the room name. At this time, chat server 400 may notify first mobile phone 100A that the generation of the chat room has been completed. Chat server 400 stores room names and IP addresses of participating display devices in association with each other.

あるいは、第1の携帯電話100Aは、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいて、新たなチャットルームのルーム名を生成し、当該ルーム名をチャットサーバ400に送信する。チャットサーバ400は、ルーム名に基づいて、新たなチャットルームを生成する。   Alternatively, first mobile phone 100A generates a room name of a new chat room based on the mail address of first mobile phone 100A and the mail address of second mobile phone 100B, and chats the room name. Send to server 400. Chat server 400 generates a new chat room based on the room name.

第1の携帯電話100Aは、新たなチャットルームを生成したこと、すなわちチャットルームへの招待を示すP2P参加要請メールを第2の携帯電話100Bに送信する(ステップS0004、ステップS0006)。より詳細には、第1の携帯電話100Aは、キャリア網700、メール送信サーバ(チャットサーバ400)、インターネット500を介して、P2P参加要請メールを第2の携帯電話100Bに送信する(ステップS0004、ステップS0006)。ただし、チャットサーバ400が、コンテンツサーバ600の役割を兼ねるものであってもよい。   The first mobile phone 100A transmits a P2P participation request mail indicating that a new chat room has been generated, that is, an invitation to the chat room, to the second mobile phone 100B (steps S0004 and S0006). More specifically, the first mobile phone 100A transmits a P2P participation request email to the second mobile phone 100B via the carrier network 700, a mail transmission server (chat server 400), and the Internet 500 (step S0004, Step S0006). However, the chat server 400 may also serve as the content server 600.

第2の携帯電話100Bは、P2P参加要請メールを受信すると(ステップS0006)、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成し、チャットサーバ400に第2の携帯電話100BのメールアドレスとIPアドレスとそのルーム名を有するチャットルームへ参加する旨のメッセージとを送信する(ステップS0008)。第2の携帯電話100Bは、同時にIPアドレスを取得してもよいし、先にIPアドレスを取得してからチャットサーバ400にアクセスしてもよい。   When the second mobile phone 100B receives the P2P participation request email (step S0006), the second mobile phone 100B generates a room name based on the email address of the first mobile phone 100A and the email address of the second mobile phone 100B, and chats. A message to join the chat room having the mail address, IP address, and room name of second mobile phone 100B is transmitted to server 400 (step S0008). Second mobile phone 100B may acquire the IP address at the same time, or may access chat server 400 after acquiring the IP address first.

チャットサーバ400は、そのメッセージを受け付けて、第2の携帯電話100Bのメールアドレスがルーム名に対応するものであるか否かを判断した上で、第2の携帯電話100BのメールアドレスをIPアドレスに対応付けて格納する。そして、チャットサーバ400は、第1の携帯電話100Aに、第2の携帯電話100Bがチャットルームに参加した旨と第2の携帯電話100BのIPアドレスとを送信する(ステップS0010)。同時に、チャットサーバ400は、第2の携帯電話100Bに、チャットルームへの参加を受け付けた旨と第1の携帯電話100AのIPアドレスとを送信する。   Chat server 400 accepts the message, determines whether or not the email address of second mobile phone 100B corresponds to the room name, and then sets the email address of second mobile phone 100B to the IP address. Store in association with. Then, chat server 400 transmits to first mobile phone 100A the fact that second mobile phone 100B has joined the chat room and the IP address of second mobile phone 100B (step S0010). At the same time, chat server 400 transmits to second mobile phone 100B that it has accepted participation in the chat room and the IP address of first mobile phone 100A.

第1の携帯電話100Aと第2の携帯電話100Bは、相手のメールアドレスやIPアドレスを取得して、互いを認証する(ステップS0012)。認証が完了すると、第1の携帯電話100Aと第2の携帯電話100Bとは、P2P通信(チャット通信)を開始する(ステップS0014)。P2P通信中の動作概要については、後述する。   First mobile phone 100A and second mobile phone 100B acquire the other party's mail address and IP address and authenticate each other (step S0012). When authentication is completed, first mobile phone 100A and second mobile phone 100B start P2P communication (chat communication) (step S0014). An outline of the operation during P2P communication will be described later.

第1の携帯電話100Aが、第2の携帯電話100BにP2P通信を切断する旨のメッセージを送信する(ステップS0016)。第2の携帯電話100Bは、第1の携帯電話100Aに切断する要求を受け付けた旨のメッセージを送信する(ステップS0018)。第1の携帯電話100Aは、チャットサーバ400にチャットルームを削除する要求を送信する(ステップS0020)。チャットサーバ400は、チャットルームを削除する。   First mobile phone 100A transmits a message to the effect of disconnecting the P2P communication to second mobile phone 100B (step S0016). Second mobile phone 100B transmits a message to the first mobile phone 100A that it has received a request to disconnect (step S0018). First mobile phone 100A transmits a request to delete chat room to chat server 400 (step S0020). Chat server 400 deletes the chat room.

以下、図2と図3とを参照して、本実施の形態に係るネットワークシステム1の動作概要をより具体的に説明する。図3は、本実施の形態に係る動作概要に沿った表示装置の表示画面の推移を示したイメージ図である。なお、以下では、第1の携帯電話100Aと第2の携帯電話100Bとが、放送局650またはコンテンツサーバ600から取得したコンテンツを背景として表示しながら、入力された手書き画像を送受信する場合について説明する。   Hereinafter, the operation outline of the network system 1 according to the present embodiment will be described more specifically with reference to FIG. 2 and FIG. 3. FIG. 3 is an image diagram showing transition of the display screen of the display device along the operation outline according to the present embodiment. In the following description, the first mobile phone 100A and the second mobile phone 100B transmit and receive an input handwritten image while displaying the content acquired from the broadcast station 650 or the content server 600 as a background. To do.

図3(A)に示すように、まず、第1の携帯電話100AがTV番組などのコンテンツを受信して表示している。第1の携帯電話100Aのユーザが、TV番組を視聴しながら第2の携帯電話100Bのユーザとチャットしたい場合、第1の携帯電話100Aは、チャット開始の命令を受け付ける。図3(B)に示すように、第1の携帯電話100Aは、相手ユーザの選択命令を受け付ける。   As shown in FIG. 3A, first, the first mobile phone 100A receives and displays content such as a TV program. When the user of first mobile phone 100A wants to chat with the user of second mobile phone 100B while watching a TV program, first mobile phone 100A accepts a command to start chatting. As shown in FIG. 3B, first mobile phone 100A accepts the other user's selection command.

ここでは、図3(C)に示すように、第1の携帯電話100Aは、TV番組を特定するための情報をメール送信サーバ(チャットサーバ400)を介して第2の携帯電話100Bへと送信する(ステップS0004)。図3(D)に示すように、第2の携帯電話100Bは、第1の携帯電話100Aから情報を受信する(ステップS0006)。第2の携帯電話100Bは、当該情報に基づいてTV番組を受信して表示する。   Here, as shown in FIG. 3C, first mobile phone 100A transmits information for specifying a TV program to second mobile phone 100B via a mail transmission server (chat server 400). (Step S0004). As shown in FIG. 3D, second mobile phone 100B receives information from first mobile phone 100A (step S0006). Second mobile phone 100B receives and displays the TV program based on the information.

なお、第1の携帯電話100Aと第2の携帯電話100Bとは共に、P2P通信開始後に、すなわちP2P通信中に、TV番組などの動画コンテンツを放送局650やコンテンツサーバ600から受信してもよい。   Note that both the first mobile phone 100A and the second mobile phone 100B may receive video content such as a TV program from the broadcast station 650 or the content server 600 after the P2P communication is started, that is, during the P2P communication. .

図3(E)に示すように、第1の携帯電話100Aは、第2の携帯電話100BとP2P通信することなく、メール送信を繰り返すこともできる。第1の携帯電話100Aは、メール送信が完了すると、チャットサーバ400に自身のIPアドレスを登録し、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいて新たなチャットルームを生成するように要求する(ステップS0002)。   As shown in FIG. 3E, the first mobile phone 100A can repeat mail transmission without P2P communication with the second mobile phone 100B. When mail transmission is completed, first mobile phone 100A registers its own IP address in chat server 400, and a new one is created based on the mail address of first mobile phone 100A and the mail address of second mobile phone 100B. A request is made to generate a chat room (step S0002).

図3(F)に示すように、第2の携帯電話100Bは、チャットを開始する旨の命令を受け付けて、チャットサーバ400に、ルーム名とチャットルームに参加する旨のメッセージと自身のIPアドレスとを送信する(ステップS0008)。第1の携帯電話100Aは、第2の携帯電話100BのIPアドレスを取得して、第2の携帯電話100Bは第1の携帯電話100AのIPアドレスを取得して(ステップS0010)、互いを認証し合う(ステップS0012)。   As shown in FIG. 3 (F), second mobile phone 100B accepts a command to start chatting, and sends chat room 400 a message indicating that the room name and chat room are to be joined, and its own IP address. Are transmitted (step S0008). The first mobile phone 100A acquires the IP address of the second mobile phone 100B, the second mobile phone 100B acquires the IP address of the first mobile phone 100A (step S0010), and authenticates each other. (Step S0012).

これによって、図3(G)および図3(H)に示すように、第1の携帯電話100Aと第2の携帯電話100BとはP2P通信(手描きチャット通信)を行うことができる(ステップS0014)。すなわち、本実施の形態に係る第1の携帯電話100Aと第2の携帯電話100Bとは、動画コンテンツの再生中に、入力された手描き画像を示すデータを送受信するものである。   As a result, as shown in FIGS. 3G and 3H, the first mobile phone 100A and the second mobile phone 100B can perform P2P communication (hand-drawn chat communication) (step S0014). . That is, first mobile phone 100A and second mobile phone 100B according to the present embodiment transmit and receive data indicating an input hand-drawn image during reproduction of moving image content.

より詳細には、本実施の形態においては、第1の携帯電話100Aがユーザから手書き画像の入力を受け付けて、動画コンテンツ上に当該手書き画像を表示する。第1の携帯電話100Aは、手描き画像を第2の携帯電話100Bに送信する。第2の携帯電話100Bは、第1の携帯電話100Aからの手描き画像に基づいて、動画コンテンツ上に手書き画像を表示する。   More specifically, in the present embodiment, first mobile phone 100A receives a handwritten image input from the user and displays the handwritten image on the moving image content. First mobile phone 100A transmits the hand-drawn image to second mobile phone 100B. Second mobile phone 100B displays a handwritten image on the moving image content based on the hand-drawn image from first mobile phone 100A.

逆に、第2の携帯電話100Bもユーザから手書き画像の入力を受け付けて、動画コンテンツ上に当該手書き画像を表示する。第2の携帯電話100Bは、手描き画像を第1の携帯電話100Aに送信する。第2の携帯電話100Bは、第1の携帯電話100Aからの手描き画像に基づいて、動画コンテンツ上に手書き画像を表示する。   Conversely, the second mobile phone 100B also receives an input of a handwritten image from the user and displays the handwritten image on the moving image content. Second mobile phone 100B transmits the hand-drawn image to first mobile phone 100A. Second mobile phone 100B displays a handwritten image on the moving image content based on the hand-drawn image from first mobile phone 100A.

そして、後述するように、本実施の形態に係るネットワークシステム1においては、第1の携帯電話100Aおよび第2の携帯電話100Bのいずれかがユーザから手描き画像のクリア命令を受け付けた際に、第1の携帯電話100Aおよび第2の携帯電話100Bがディスプレイ107に表示されている画像を履歴情報として記憶する。より詳細には、第1の携帯電話100Aおよび第2の携帯電話100Bは、そのいずれかがクリア命令を受け付けた際に、その両者がディスプレイ107に表示されている動画コンテンツのフレーム(静止画像)と手描き画像とを記憶して、表示されている手描き画像をディスプレイ107から消去する。   As will be described later, in network system 1 according to the present embodiment, when either first mobile phone 100A or second mobile phone 100B receives a clear command for a hand-drawn image from a user, The first mobile phone 100A and the second mobile phone 100B store images displayed on the display 107 as history information. More specifically, when one of the first mobile phone 100A and the second mobile phone 100B receives a clear command, both frames of the moving image content (still image) displayed on the display 107 are displayed. And the hand-drawn image are stored, and the displayed hand-drawn image is erased from the display 107.

また、本実施の形態に係るネットワークシステム1においては、第1の携帯電話100Aおよび第2の携帯電話100Bが、動画コンテンツのシーンが切り換わった際に、切り換わる直前のディスプレイ107に表示されている画像を履歴情報として記憶する。より詳細には、第1の携帯電話100Aおよび第2の携帯電話100Bは、シーンが切り換わる直前にディスプレイ107に表示されている動画コンテンツのフレームと手描き画像とを記憶して、表示されている手描き画像をディスプレイ107から消去する。   In the network system 1 according to the present embodiment, the first mobile phone 100A and the second mobile phone 100B are displayed on the display 107 immediately before switching when the scene of the moving image content is switched. Is stored as history information. More specifically, the first mobile phone 100A and the second mobile phone 100B store and display the frames and hand-drawn images of the moving image content displayed on the display 107 immediately before the scene is switched. The hand-drawn image is erased from the display 107.

そして、第1の携帯電話100AがP2P通信を切断した後(ステップS0016、ステップS0018)、図3(I)に示すように、第2の携帯電話100Bは第1の携帯電話100Aなどにメール送信を行うことができる。なお、P2P通信をTCP/IP通信方式で、メールの送受信をHTTP通信方式で行うことも可能である。すなわち、P2P通信中にメール送受信を行うことも可能である。   Then, after the first mobile phone 100A disconnects the P2P communication (steps S0016 and S0018), as shown in FIG. 3I, the second mobile phone 100B sends an e-mail to the first mobile phone 100A or the like. It can be performed. Note that it is also possible to perform P2P communication by the TCP / IP communication method and mail transmission / reception by the HTTP communication method. That is, it is possible to send and receive mail during P2P communication.

<ネットワークシステム1における手描き画像の送受信に関する動作概要>
次に、手描き画像の送受信に関する動作概要、すなわちチャット通信中におけるネットワークシステム1の動作概要について詳細に説明する。図4は、手描き画像の送受信に関する動作概要を示すイメージ図である。以下では、第1の携帯電話100Aと第2の携帯電話100Bとがチャット通信を行っている場合について説明する。
<Outline of operation regarding transmission / reception of hand-drawn image in network system 1>
Next, an outline of operation related to transmission / reception of hand-drawn images, that is, an outline of operation of network system 1 during chat communication will be described in detail. FIG. 4 is an image diagram showing an outline of operations related to transmission / reception of hand-drawn images. Hereinafter, a case where the first mobile phone 100A and the second mobile phone 100B are performing chat communication will be described.

図4(A−1)(B−1)を参照して、第1の携帯電話100Aと第2の携帯電話100Bとが、放送局650またはコンテンツサーバ600から同じ動画コンテンツ(たとえば、TV番組)を受信して、当該動画コンテンツを第1の領域102Aに表示している。このとき、チャット通信に参加していない第3の携帯電話100Cも、同じ動画コンテンツを受信して、表示しているかもしれない。   Referring to FIGS. 4A-1 and B-1, first mobile phone 100A and second mobile phone 100B receive the same moving image content (for example, a TV program) from broadcast station 650 or content server 600. And the moving image content is displayed in the first area 102A. At this time, the third mobile phone 100C not participating in the chat communication may also receive and display the same moving image content.

第1の携帯電話100Aのユーザがタッチパネル102の第1の領域102Aに手描き画像を入力すると、タッチパネル102が入力された手描き画像を第1の領域102A表示する。すなわち、第1の携帯電話100Aは、動画コンテンツに重ねて手描き画像を表示する。第1の携帯電話100Aは、手描き画像に関するデータを、順次、第2の携帯電話100Bへと送信する。   When the user of the first mobile phone 100A inputs a hand-drawn image in the first area 102A of the touch panel 102, the hand-drawn image input by the touch panel 102 is displayed in the first area 102A. That is, first mobile phone 100A displays a hand-drawn image over the moving image content. First mobile phone 100A sequentially transmits data relating to the hand-drawn image to second mobile phone 100B.

第2の携帯電話100Bは、第1の携帯電話100Aからの手描き画像を受信して、タッチパネル102の第1の領域102Aに手描き画像を表示する。すなわち、第1の携帯電話100Aと第2の携帯電話100Bとは、同じ動画を再生しながら、当該動画上に同じ手描き画像を表示する。   Second mobile phone 100B receives the hand-drawn image from first mobile phone 100A, and displays the hand-drawn image in first area 102A of touch panel 102. That is, the first mobile phone 100A and the second mobile phone 100B display the same hand-drawn image on the moving image while reproducing the same moving image.

図4(A−2)を参照して、第1の携帯電話100Aのユーザが、タッチパネル102を介してクリアボタン(手描き画像のリセットボタン)を押下する。第1の携帯電話100Aは、クリアボタンが押下された旨のメッセージを第2の携帯電話100Bへと送信する。   Referring to FIG. 4A-2, the user of first mobile phone 100A presses a clear button (hand-drawn image reset button) via touch panel 102. First mobile phone 100A transmits a message indicating that the clear button has been pressed to second mobile phone 100B.

タッチパネル102は、それまでに入力された手描き画像を非表示にする。より詳細には、タッチパネル102は、第1の領域102Aから手描き画像のみを消去する。第1の携帯電話100Aは、クリアボタンが押下されたときに表示されていた手描き画像と動画のフレームとを履歴情報として記憶する。   The touch panel 102 hides the hand-drawn image input so far. More specifically, the touch panel 102 erases only the hand-drawn image from the first area 102A. First mobile phone 100A stores, as history information, the hand-drawn image and moving image frame that were displayed when the clear button was pressed.

本実施の形態においては、第1の携帯電話100Aは、履歴情報に基づいて、タッチパネル102の第2の領域102Bに、クリアボタンが押下されたときに表示されていた手描き画像と動画のフレームとを重ねて表示する。このとき、第1の携帯電話100Aは、タッチパネル102の第1の領域102Aで、動画コンテンツの再生を継続する。   In the present embodiment, first mobile phone 100A has a hand-drawn image and a moving image frame displayed when clear button is pressed in second area 102B of touch panel 102 based on the history information. Are displayed in layers. At this time, first mobile phone 100A continues to play the moving image content in first area 102A of touch panel 102.

図4(B−2)を参照して、第2の携帯電話100Bは当該メッセージを受信して、それまでに入力された手描き画像を非表示にする。より詳細には、タッチパネル102は、第1の領域102Aから手描き画像のみを消去する。第2の携帯電話100Bは、第1の携帯電話100Aのクリアボタンが押下されたとき(あるいはメッセージを受信したとき)に表示されていた手描き画像と動画のフレームとを履歴情報として記憶する。   Referring to FIG. 4B-2, second mobile phone 100B receives the message and hides the hand-drawn image input so far. More specifically, the touch panel 102 erases only the hand-drawn image from the first area 102A. Second mobile phone 100B stores, as history information, a hand-drawn image and a moving image frame that are displayed when the clear button of first mobile phone 100A is pressed (or when a message is received).

第2の携帯電話100Bは、履歴情報に基づいて、タッチパネル102の第2の領域102Bに、クリアボタンが押下されたときに表示されていた手描き画像と動画のフレームとを表示する。このとき、第2の携帯電話100Bは、タッチパネル102の第1の領域102Aで、動画コンテンツの再生を継続する。   Based on the history information, second mobile phone 100 </ b> B displays a hand-drawn image and a moving image frame that were displayed when the clear button was pressed, in second area 102 </ b> B of touch panel 102. At this time, the second mobile phone 100B continues to play the moving image content in the first area 102A of the touch panel 102.

図4(B−3)を参照して、第2の携帯電話100Bのユーザが、タッチパネル102の第1の領域102Aに手描き画像を入力すると、タッチパネル102が入力された手描き画像を第1の領域102Aに表示する。第2の携帯電話100Bは、手描き画像に関するデータを、順次、第2の携帯電話100Aへと送信する。図4(A−3)を参照して、第1の携帯電話100Aは、第2の携帯電話100Bからの手描き画像を受信して、タッチパネル102の第1の領域102Aに手描き画像を表示する。   Referring to FIG. 4B-3, when the user of second mobile phone 100B inputs a hand-drawn image in first area 102A of touch panel 102, the hand-drawn image input on touch panel 102 is displayed in the first area. 102A. Second mobile phone 100B sequentially transmits data relating to the hand-drawn image to second mobile phone 100A. Referring to FIG. 4A-3, first mobile phone 100A receives the hand-drawn image from second mobile phone 100B and displays the hand-drawn image in first area 102A of touch panel 102.

図4(A−4)を参照して、第1の携帯電話100Aのユーザが、タッチパネル102の第1の領域102Aに手描き画像を入力すると、タッチパネル102が入力された手描き画像を第1の領域102Aに表示する。第1の携帯電話100Aは、手描き画像に関するデータを、順次、第2の携帯電話100Bへと送信する。   Referring to FIG. 4A-4, when the user of first mobile phone 100A inputs a hand-drawn image in first area 102A of touch panel 102, the hand-drawn image input on touch panel 102 is displayed in the first area. 102A. First mobile phone 100A sequentially transmits data relating to the hand-drawn image to second mobile phone 100B.

このようにして、第1の携帯電話100Aと第2の携帯電話100Bとは、共に、第1の領域102A内で同じ動画を再生しながら、第1の領域102A内で同じ手描き画像を表示する。ただし、図4(B−4)では、以下に説明するように、ネットワーク障害が発生した場合のイメージ図を示している。   In this way, both the first mobile phone 100A and the second mobile phone 100B display the same hand-drawn image in the first area 102A while reproducing the same moving image in the first area 102A. . However, FIG. 4 (B-4) shows an image diagram when a network failure occurs, as described below.

本実施の形態に係る第1の携帯電話100Aと第2の携帯電話100Bとは、表示している動画コンテンツのシーンが切り換わった否かを常時判断している。たとえば、第1の携帯電話100Aと第2の携帯電話100Bとは、シーン番号が変化したか否かや、画像の変化量が所定値以上であるか否かを判断することによって、シーンが切り換わった否かを判断する。   First mobile phone 100A and second mobile phone 100B according to the present embodiment always determine whether or not the scene of the moving image content being displayed has changed. For example, the first mobile phone 100A and the second mobile phone 100B determine whether the scene has been cut by determining whether the scene number has changed and whether the amount of change in the image is greater than or equal to a predetermined value. It is determined whether or not it has been changed.

図4(A−5)(B−5)を参照して、動画コンテンツのシーンが切り換わると、第1の携帯電話100Aと第2の携帯電話100Bのタッチパネル102は、それまでに入力された手描き画像を非表示にする。第1の携帯電話100Aと第2の携帯電話100Bとは、シーンが切り換わる直前に表示されていた手描き画像と動画のフレーム(シーンの最後の静止画像)とを履歴情報として記憶する。   Referring to FIGS. 4A-5 and B-5, when the scene of the moving image content is switched, touch panel 102 of first mobile phone 100A and second mobile phone 100B has been input so far. Hide hand-drawn images. The first mobile phone 100A and the second mobile phone 100B store, as history information, a hand-drawn image and a moving image frame (last still image of the scene) displayed immediately before the scene is switched.

本実施の形態においては、第1の携帯電話100Aと第2の携帯電話100Bとは、履歴情報に基づいて、タッチパネル102の第3の領域102Cに、シーンが切り換わる直前に表示されていた手描き画像と動画のフレームとを重ねて表示する。このとき、第1の携帯電話100Aと第2の携帯電話100Bとは、継続して、タッチパネル102の第1の領域102Aで動画コンテンツを再生する。   In the present embodiment, the first mobile phone 100A and the second mobile phone 100B are hand-drawn displayed in the third area 102C of the touch panel 102 immediately before the scene is switched based on the history information. Display the image and the frame of the movie in an overlapping manner. At this time, the first mobile phone 100A and the second mobile phone 100B continue to play moving image content in the first area 102A of the touch panel 102.

同様に、図4(A−6)(B−6)を参照して、動画コンテンツのシーンが更に切り換わると、第1の携帯電話100Aと第2の携帯電話100Bのタッチパネル102は、それまでに入力された手描き画像を非表示にする。ここでは、シーンが切り換わる前に手描き画像が入力されていないため、手描き画像を非表示にする必要がない。すなわち、本実施の形態においては、シーンが切り換わるときに第1の領域102Aに(再生中の動画上に)手描き画像が表示されていない場合、第1の携帯電話100Aと第2の携帯電話100Bとは、手描き画像と動画のフレーム(シーンの最後のフレーム)とを記憶する必要がない。   Similarly, referring to FIGS. 4A-6 and B-6, when the scene of the moving image content is further switched, the touch panel 102 of the first mobile phone 100A and the second mobile phone 100B is not changed so far. Hide the hand-drawn image input in. Here, since the hand-drawn image is not input before the scene is switched, it is not necessary to hide the hand-drawn image. That is, in the present embodiment, when a hand-drawn image is not displayed (on the moving image being played back) in first area 102A when the scene changes, first mobile phone 100A and second mobile phone With 100B, it is not necessary to store the hand-drawn image and the frame of the moving image (the last frame of the scene).

ただし、他の実施の形態としては、シーンが切り換わるときに第1の領域102Aに(再生中の動画上に)手描き画像が表示されていない場合、第1の携帯電話100Aと第2の携帯電話100Bとが、動画フレームのみを履歴情報として記憶することも可能である。   However, as another embodiment, when a hand-drawn image is not displayed (on the moving image being played back) in the first area 102A when the scene changes, the first mobile phone 100A and the second mobile phone It is also possible for the telephone 100B to store only moving image frames as history information.

なお、図4(A−4)(B−4)を参照して、本実施の形態においては、第1の携帯電話100Aと第2の携帯電話100Bとの間のネットワークに障害が生じても、第1の携帯電話100Aと第2の携帯電話100Bが同じ履歴情報を記憶することができる。すなわち、ネットワークに障害が発生しても、第1の携帯電話100Aと第2の携帯電話100Bの両者は、入力された手描き画像と、入力時刻に対応する動画コンテンツのフレームとを対応付けて記憶することが可能である。   Referring to FIGS. 4A-4 and B-4, in the present embodiment, even if a failure occurs in the network between first mobile phone 100A and second mobile phone 100B. The first mobile phone 100A and the second mobile phone 100B can store the same history information. That is, even if a failure occurs in the network, both the first mobile phone 100A and the second mobile phone 100B store the input hand-drawn image and the frame of the moving image content corresponding to the input time in association with each other. Is possible.

後述するように、第1の携帯電話100Aと第2の携帯電話100Bとは入力された手描き画像を、入力のタイミングを示す情報とともに送信する。ここで、入力のタイミングは、手描き画像が入力された時刻や、手描き画像が入力されたときに表示されている動画のシーン番号あるいはフレーム番号などが挙げられる。   As will be described later, the first mobile phone 100A and the second mobile phone 100B transmit the input hand-drawn image together with information indicating the input timing. Here, the input timing includes the time when a hand-drawn image is input, the scene number or frame number of a moving image displayed when the hand-drawn image is input, and the like.

これによって、手描き画像の受信側(図4においては第2の携帯電話100B)が、手描き画像を対応する動画コンテンツのフレームに対応付けて履歴情報として記憶したり、履歴情報を上書き保存したりすることができる。その結果、図4(B−5)に示すように、第1の携帯電話100Aの第3の領域102Cと、第2の携帯電話100Bの第3の領域102Cとが、同じ履歴画像を表示することができる。   Thus, the hand-drawn image receiving side (second mobile phone 100B in FIG. 4) stores the hand-drawn image as history information in association with the frame of the corresponding moving image content, or overwrites and saves the history information. be able to. As a result, as shown in FIG. 4 (B-5), the third region 102C of the first mobile phone 100A and the third region 102C of the second mobile phone 100B display the same history image. be able to.

このように、本実施の形態に係るネットワークシステム1においては、第1の携帯電話100Aと第2の携帯電話100Bとが、手描き画像と、当該手描き画像が入力されたときに表示されている動画のフレーム(静止画像データ)と、を対応付けて履歴情報として記憶する。そのため、第1の携帯電話100Aと第2の携帯電話100Bとは、当該履歴情報を参照することによって、手描き画像を、当該手描き画像が入力されたときに表示されている動画のフレームとともに表示することができる。   Thus, in network system 1 according to the present embodiment, first mobile phone 100A and second mobile phone 100B display a hand-drawn image and a moving image displayed when the hand-drawn image is input. The frames (still image data) are associated with each other and stored as history information. Therefore, the first mobile phone 100A and the second mobile phone 100B display the hand-drawn image together with the frame of the moving image displayed when the hand-drawn image is input by referring to the history information. be able to.

特に、本実施の形態に係るネットワークシステム1においては、第1の携帯電話100Aと第2の携帯電話100Bとが、手描き画像と、当該手描き画像を消去する(リセットする)ための命令が入力されたときに表示されている動画のフレームと、を対応付けて履歴情報として記憶する。そのため、第1の携帯電話100Aと第2の携帯電話100Bとは、当該履歴情報を参照することによって、手描き画像を、当該手描き画像を消去する(リセットする)ための命令が入力されたときに表示されている動画のフレームとともに表示することができる。   In particular, in network system 1 according to the present embodiment, first mobile phone 100A and second mobile phone 100B receive a hand-drawn image and a command for erasing (resetting) the hand-drawn image. Are stored as history information in association with the frame of the moving image displayed at the time of recording. Therefore, the first mobile phone 100A and the second mobile phone 100B refer to the history information, and when a command for erasing (resetting) the hand-drawn image is input. It can be displayed with the frame of the moving image being displayed.

あるいは、本実施の形態に係るネットワークシステム1においては、手描き画像が表示されているときに動画のシーンが切り換わった場合に、第1の携帯電話100Aと第2の携帯電話100Bとが、当該手描き画像と、シーンが切り換わる直前の動画のフレームと、を対応付けて履歴情報として記憶する。そのため、第1の携帯電話100Aと第2の携帯電話100Bとは、当該履歴情報を参照することによって、手描き画像を、当該シーンが切り換わる直前の動画のフレームとともに表示することができる。   Alternatively, in network system 1 according to the present embodiment, when a scene of a moving image is switched while a hand-drawn image is displayed, first mobile phone 100A and second mobile phone 100B The hand-drawn image and the moving image frame immediately before the scene change are associated with each other and stored as history information. Therefore, the first mobile phone 100A and the second mobile phone 100B can display the hand-drawn image together with the frame of the moving image immediately before the scene changes by referring to the history information.

なお、本実施の形態においては、タッチパネル102の第1の領域102Aに再生中の動画と手描き画像とが重ねて表示されるともに、タッチパネル102の第2の領域102B(102C)にフレームと手描き画像とが重ねて表示されるものである。すなわち、再生中の動画と履歴画像とが、タッチパネル102上に、並べて、同時に、表示されるものである。   In the present embodiment, the moving image being played and the hand-drawn image are displayed in the first area 102A of the touch panel 102 so as to overlap each other, and the frame and the hand-drawn image are displayed in the second area 102B (102C) of the touch panel 102. And are displayed in an overlapping manner. That is, the moving image and the history image being reproduced are displayed side by side on the touch panel 102 at the same time.

しかしながら、表示装置は、ユーザからの切替命令に応じて、第1のモードと第2のモードとを切り替えてもよい。すなわち、表示装置は、第1のモードにおいて、タッチパネル102に再生中の動画と手描き画像とを重ねて表示させてもよい。表示装置は、第2のモードにおいて、タッチパネル102にフレームと手描き画像とを重ねて表示させてもよい。   However, the display device may switch between the first mode and the second mode in response to a switching command from the user. In other words, the display device may display the moving image being reproduced and the hand-drawn image on the touch panel 102 in the first mode. The display device may display a frame and a hand-drawn image on the touch panel 102 in the second mode.

以上のように、本実施の形態に係る表示装置においては、手描き画像を入力した際の画面(第1の領域102A)と、手描き画像を履歴として表示するための画面(第2の領域102B)との差異が小さくなる。その結果、手描き画像を入力したときのユーザの意図が、当該ユーザあるいは通信相手に、より的確に伝わるようになる。   As described above, in the display device according to the present embodiment, the screen when the hand-drawn image is input (first region 102A) and the screen for displaying the hand-drawn image as a history (second region 102B). And the difference is smaller. As a result, the intention of the user when inputting the hand-drawn image is more accurately transmitted to the user or the communication partner.

以下、このような機能を実現するためのネットワークシステム1の構成について詳述する。   Hereinafter, the configuration of the network system 1 for realizing such a function will be described in detail.

<携帯電話100のハードウェア構成>
本実施の形態に係る携帯電話100のハードウェア構成について説明する。図5は、本実施の形態に係る携帯電話100の外観を示すイメージ図である。図6は、本実施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。
<Hardware configuration of mobile phone 100>
A hardware configuration of mobile phone 100 according to the present embodiment will be described. FIG. 5 is an image diagram showing an appearance of mobile phone 100 according to the present embodiment. FIG. 6 is a block diagram showing a hardware configuration of mobile phone 100 according to the present embodiment.

図5および図6に示すように、本実施の形態に係る携帯電話100は、外部のネットワークとの間でデータを送受信する通信デバイス101と、テレビ放送を受信するTVアンテナ113と、プログラムや各種データベースを記憶するメモリ103と、CPU(Central Processing Unit)106と、ディスプレイ107と、外部音声が入力されるマイク108と、音声を出力するスピーカ109と、各種情報の入力を受け付ける各種ボタン110と、外部からの通信データや通話信号を受信した旨の音声を出力する第1の通知部111と、外部からの通信データや通話信号を受信した旨を表示する第2の通知部112とを含む。   As shown in FIGS. 5 and 6, the mobile phone 100 according to the present embodiment includes a communication device 101 that transmits / receives data to / from an external network, a TV antenna 113 that receives television broadcasts, programs, and various types of programs. A memory 103 for storing a database, a CPU (Central Processing Unit) 106, a display 107, a microphone 108 to which external audio is input, a speaker 109 for outputting audio, and various buttons 110 for receiving input of various types of information; It includes a first notification unit 111 that outputs a voice indicating that communication data or a call signal from the outside has been received, and a second notification unit 112 that displays that the communication data or call signal from the outside has been received.

本実施の形態に係るディスプレイ107は、液晶パネルやCRTから構成されるタッチパネル102を実現する。すなわち、本実施の形態に係る携帯電話100は、ディスプレイ107の上側(表側)にペンタブレット104が敷設されている。これによって、ユーザは、スタイラスペン120などを用いることによって、ペンタブレット104を介して、図形情報などをCPU106に手書き入力することができる。   Display 107 according to the present embodiment realizes touch panel 102 formed of a liquid crystal panel or a CRT. That is, in the mobile phone 100 according to the present embodiment, the pen tablet 104 is laid on the upper side (front side) of the display 107. Thereby, the user can input graphic information and the like into the CPU 106 by handwriting via the pen tablet 104 by using the stylus pen 120 or the like.

なお、ユーザは、以下の方法によっても、手書き入力を行うことが可能である。すなわち、赤外線や音波を出力する特殊なペンを利用することによって、そのペンから発信される赤外線や音波を受信する受信部によってペンの動きを割り出す。この場合、当該受信部を軌跡を記憶する装置に接続することによって、CPU106が当該装置から出力される軌跡を手書き入力として受信することができる。   Note that the user can also perform handwriting input by the following method. That is, by using a special pen that outputs infrared light and sound waves, the movement of the pen is determined by a receiving unit that receives infrared light and sound waves transmitted from the pen. In this case, by connecting the receiving unit to a device that stores the trajectory, the CPU 106 can receive the trajectory output from the device as handwritten input.

あるいは、ユーザは、静電パネルに対して、指、または、静電対応のペンを用いて手書き画像を書くことも可能である。   Alternatively, the user can write a handwritten image on the electrostatic panel using a finger or an electrostatic-compatible pen.

このようにして、ディスプレイ107(タッチパネル102)は、CPU106が出力したデータに基づいて、画像やテキストを表示する。たとえば、ディスプレイ107は、通信デバイス101やTVアンテナ113を介して受信した動画コンテンツを表示する。ディスプレイ107は、タブレット104を介して受け付けた手描き画像や、通信デバイス101を介して受け付けた手描き画像に基づいて、手書き画像を動画コンテンツに重畳させて表示する。   In this way, the display 107 (touch panel 102) displays an image or text based on the data output from the CPU 106. For example, the display 107 displays moving image content received via the communication device 101 or the TV antenna 113. The display 107 displays the handwritten image superimposed on the moving image content based on the hand-drawn image received via the tablet 104 or the hand-drawn image received via the communication device 101.

各種ボタン110は、キー入力操作などによってユーザから情報を受け付ける。たとえば、各種ボタン110は、通話を受け付けたり、通話を発したりするためのTELボタン110Aと、メールを受け付けたり、メールを発したりするためのメールボタン110Bと、P2P通信を受け付けたり、P2P通信を発したりするためのP2Pボタン110Cと、アドレス帳データを呼び出すアドレス帳ボタン110Dと、各種の処理を終了させるための終了ボタン110Eとを含む。すなわち、各種ボタン110は、通信デバイス101を介してP2P参加要請メールを受信したときに、ユーザから、チャットルームへ参加する命令や、メールの内容を表示させる命令などを選択可能に受け付ける。   Various buttons 110 receive information from the user by a key input operation or the like. For example, the various buttons 110 include a TEL button 110A for accepting a call or making a call, a mail button 110B for accepting a mail or sending a mail, accepting P2P communication, or performing P2P communication. P2P button 110C for issuing, address book button 110D for calling up address book data, and end button 110E for ending various processes. That is, when receiving the P2P participation request mail via the communication device 101, the various buttons 110 accept from the user an instruction to participate in the chat room, an instruction to display the contents of the mail, and the like.

また、各種ボタン110は、手書き入力を開始するための命令を受け付けるためのボタン、すなわち第1の入力を受け付けるためのボタンを含んでもよい。各種ボタン110は、手書き入力を終了するための命令を受け付けるためのボタン、すなわち第2の入力を受け付けるためのボタンを含んでもよい。   The various buttons 110 may include a button for receiving a command for starting handwritten input, that is, a button for receiving a first input. Various buttons 110 may include a button for receiving a command for ending handwriting input, that is, a button for receiving a second input.

第1の通知部111は、スピーカ109などを介して着信音を出力する。あるいは、第1の通知部111は、バイブレーション機能を有する。第1の通知部111は、着呼した際や、メールを受信した際や、P2P参加要請メールを受信した際に、音声を出力したり、携帯電話100を振動させたりする。   The first notification unit 111 outputs a ring tone through the speaker 109 or the like. Alternatively, the first notification unit 111 has a vibration function. The first notification unit 111 outputs a voice or vibrates the mobile phone 100 when an incoming call is received, a mail is received, or a P2P participation request mail is received.

第2の通知部112は、着信したときに点滅するTEL用LED(Light Emitting Diode)112Aと、メールを受信したときに点滅するメール用LED112Bと、P2P通信を受信したときに点滅するP2P用LED112Cを含む。   The second notification unit 112 includes a TEL LED (Light Emitting Diode) 112A that flashes when an incoming call is received, a mail LED 112B that flashes when a mail is received, and a P2P LED 112C that flashes when a P2P communication is received. including.

CPU106は、携帯電話100の各部を制御する。たとえば、CPU106は、タッチパネル102や各種ボタン110を介してユーザから各種命令を受け付けたり、当該命令に対応する処理を実行したり、通信デバイス101やネットワークを介して外部の表示装置とデータの送受信を行ったりする。   CPU 106 controls each unit of mobile phone 100. For example, the CPU 106 receives various commands from the user via the touch panel 102 and various buttons 110, executes processing corresponding to the commands, and transmits / receives data to / from an external display device via the communication device 101 or the network. To go.

通信デバイス101は、CPU106からの通信データを通信信号に変換し、その通信信号を外部へと発信する。通信デバイス101は、外部から受信した通信信号を通信データに変換し、その通信データをCPU106に入力する。   Communication device 101 converts communication data from CPU 106 into a communication signal and transmits the communication signal to the outside. The communication device 101 converts communication signals received from the outside into communication data, and inputs the communication data to the CPU 106.

メモリ103は、作業用メモリとして機能するRAM(Random Access Memory)や、制御プログラムなどを格納するROM(Read Only Memory)や、画像データなどを記憶するハードディスクなどによって実現される。図7(a)は、メモリ103を構成する各種のワークメモリ103Aのデータ構造を示すイメージ図である。図7(b)は、メモリ103が記憶するアドレス帳データ103Bを示すイメージ図である。図7(c)は、メモリ103が記憶する自端末データ103Cを示すイメージ図である。図7(d)は、メモリ103が記憶する自端末のIPアドレスデータ103Dと他端末のIPアドレスデータ103Eとを示すイメージ図である。   The memory 103 is realized by a RAM (Random Access Memory) that functions as a working memory, a ROM (Read Only Memory) that stores a control program, a hard disk that stores image data, and the like. FIG. 7A is an image diagram showing the data structure of various work memories 103 </ b> A that constitute the memory 103. FIG. 7B is an image diagram showing the address book data 103B stored in the memory 103. FIG. 7C is an image diagram showing the terminal data 103 </ b> C stored in the memory 103. FIG. 7D is an image diagram showing the IP address data 103D of the own terminal and the IP address data 103E of another terminal stored in the memory 103.

図7(a)に示すように、メモリ103のワークメモリ103Aは、発信者の電話番号を格納するRCVTELNO領域、受信メールに関する情報を格納するRCVMAIL領域、送信メールに関する情報を格納するSENDMAIL領域、選択されたアドレスのメモリNoを格納するSEL領域、生成されたルーム名を格納するROOMNAME領域などを含む。なお、ワークメモリ103Aは、電話番号を格納しなくてもよい。受信メールに関する情報は、MAIN領域に格納されるメール本文と、RCVMAILのFROM領域に格納されるメール送信元のメールアドレスを含む。送信メールに関する情報は、MAIN領域に格納されるメール本文と、RCVMAILのTO領域に格納されるメール送信先のメールアドレスとを含む。   As shown in FIG. 7A, the work memory 103A of the memory 103 includes an RCVTELNO area for storing a caller's telephone number, an RCVMAIL area for storing information about received mail, and a SENDMIL area for storing information about outgoing mail. A SEL area for storing the memory No. of the generated address, a ROOMNAME area for storing the generated room name, and the like. Note that the work memory 103A may not store a telephone number. The information related to the received mail includes the mail text stored in the MAIN area and the mail address of the mail transmission source stored in the RCVMAIL FROM area. The information regarding the outgoing mail includes the mail text stored in the MAIN area and the mail address of the mail destination stored in the TO area of RCVMAIL.

図7(b)に示すように、アドレス帳データ103Bは、宛先(他の表示装置)毎にメモリNoを対応付けている。そして、アドレス帳データ103Bは、宛先毎に、名前、電話番号、メールアドレスなどを互いに対応付けて格納する。   As shown in FIG. 7B, in the address book data 103B, a memory No. is associated with each destination (other display device). The address book data 103B stores a name, a telephone number, a mail address, and the like in association with each other for each destination.

図7(c)に示すように、自端末データ103Cは、自端末のユーザの名前、自端末の電話番号、自端末のメールアドレスなどを格納する。   As shown in FIG. 7C, the own terminal data 103C stores the name of the user of the own terminal, the telephone number of the own terminal, the mail address of the own terminal, and the like.

図7(d)に示すように、自端末のIPアドレスデータ103Dは、自端末のIPアドレスを格納する。他端末のIPアドレスデータ103Eは、他端末のIPアドレスを格納する。   As shown in FIG. 7D, the own terminal IP address data 103D stores the own terminal IP address. The IP address data 103E of the other terminal stores the IP address of the other terminal.

本実施の形態に係る携帯電話100の各々は、図7に示すデータを利用することによって、前述したような方法で(図1〜図3を参照。)、他の表示装置との間でデータを送受信することができる。   Each of the cellular phones 100 according to the present embodiment uses the data shown in FIG. 7 to transmit data to and from other display devices in the manner described above (see FIGS. 1 to 3). Can be sent and received.

<チャットサーバ400およびコンテンツサーバ600のハードウェア構成>
次に、本実施の形態に係るチャットサーバ400およびコンテンツサーバ600のハードウェア構成について説明する。以下では、まず、チャットサーバ400のハードウェア構成について説明する。
<Hardware Configuration of Chat Server 400 and Content Server 600>
Next, the hardware configuration of chat server 400 and content server 600 according to the present embodiment will be described. Below, the hardware configuration of the chat server 400 will be described first.

図8は、本実施の形態に係るチャットサーバ400のハードウェア構成を示すブロック図である。図8に示すように、本実施の形態に係るチャットサーバ400は、相互に内部バス408で接続されたCPU405と、メモリ406と、固定ディスク407と、サーバ通信デバイス409とを含む。   FIG. 8 is a block diagram showing a hardware configuration of chat server 400 according to the present embodiment. As shown in FIG. 8, chat server 400 according to the present embodiment includes CPU 405, memory 406, fixed disk 407, and server communication device 409 that are connected to each other via internal bus 408.

メモリ406は、各種の情報を記憶するものであって、たとえば、CPU405でのプログラムの実行に必要なデータを一時的に記憶する。固定ディスク407は、CPU405が実行するプログラムやデータベースを記憶する。CPU405は、チャットサーバ400の各要素を制御するものであって、各種の演算を実施する装置である。   The memory 406 stores various types of information. For example, the memory 406 temporarily stores data necessary for execution of a program by the CPU 405. The fixed disk 407 stores a program executed by the CPU 405 and a database. The CPU 405 controls each element of the chat server 400 and is a device that performs various calculations.

サーバ通信デバイス409は、CPU405が出力したデータを電気信号へと変換して外部へ送信し、外部から受信した電気信号をデータに変換してCPU405に入力する。具体的には、サーバ通信デバイス409は、CPU405からのデータを、インターネット500やキャリア網700などを介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器に送信する。そして、サーバ通信デバイス409は、インターネット500やキャリア網700を介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器から受信したデータを、CPU405に入力する。   The server communication device 409 converts the data output from the CPU 405 into an electrical signal and transmits it to the outside, and converts the electrical signal received from the outside into data and inputs it to the CPU 405. Specifically, the server communication device 409 transmits data from the CPU 405 to the mobile phone 100, the car navigation device 200, the personal computer 300, the game machine, the electronic dictionary, the electronic BOOK, etc. via the Internet 500, the carrier network 700, and the like. Send to devices that can be connected to other networks. Then, the server communication device 409 is received from the mobile phone 100, the car navigation device 200, the personal computer 300, a game machine, an electronic dictionary, an electronic BOOK, and other devices connectable to the network via the Internet 500 and the carrier network 700. Data is input to the CPU 405.

ここで、メモリ406あるいは固定ディスク407に記憶されるデータについて説明する。図9(a)は、チャットサーバ400のメモリ406あるいは固定ディスク407に記憶されるルーム管理テーブル406Aのデータ構造を示す第1のイメージ図であって、図9(b)は、チャットサーバ400のメモリ406あるいは固定ディスク407に記憶されるルーム管理テーブル406Aのデータ構造を示す第2のイメージ図である。   Here, data stored in the memory 406 or the fixed disk 407 will be described. FIG. 9A is a first image diagram showing the data structure of the room management table 406A stored in the memory 406 or the fixed disk 407 of the chat server 400. FIG. 9B shows the memory of the chat server 400. 406 or a second image diagram showing a data structure of a room management table 406A stored in the fixed disk 407. FIG.

図9(a)および図9(b)に示すように、ルーム管理テーブル406Aは、ルーム名とIPアドレスとを対応付けて格納する。たとえば、ある時点においては、図9(a)に示すように、チャットサーバ400にルーム名Rを有するチャットルーム、ルーム名Sを有するチャットルーム、ルーム名Tを有するチャットルームが生成されている。そして、ルーム名Rを有するチャットルームには、AというIPアドレスを有する表示装置と、CというIPアドレスを有する表示装置が入室している。ルーム名Sを有するチャットルームには、BというIPアドレスを有する表示装置が入室している。ルーム名Tを有するチャットルームには、DというIPアドレスを有する表示装置が入室している。   As shown in FIGS. 9A and 9B, the room management table 406A stores room names and IP addresses in association with each other. For example, at a certain point in time, as shown in FIG. 9A, a chat room having a room name R, a chat room having a room name S, and a chat room having a room name T are generated in the chat server 400. In the chat room having the room name R, a display device having an IP address of A and a display device having an IP address of C enter the room. In the chat room having the room name S, a display device having an IP address B is entered. In a chat room having a room name T, a display device having an IP address D is entered.

後述するように、ルーム名Rは、CPU406が、AというIPアドレスを有する表示装置のメールアドレスとBというIPアドレスを有する表示装置のメールアドレスに基づいて決定する。図9(a)に示す状態において、ルーム名Sを有するチャットルームに新たにEというIPアドレスを有する表示装置が入室すると、図9(b)に示すように、ルーム管理テーブル406Aはルーム名SとIPアドレスEとを対応付けて格納する。   As will be described later, the room name R is determined by the CPU 406 based on the mail address of the display device having the IP address A and the mail address of the display device having the IP address B. In the state shown in FIG. 9A, when a display device having an IP address E newly enters a chat room having the room name S, the room management table 406A stores the room name S as shown in FIG. 9B. And IP address E are stored in association with each other.

具体的には、チャットサーバ400においては、第1の携帯電話100Aが新たなチャットルームの生成を要求してきた際(図2におけるステップS0002)に、CPU405が、第1の携帯電話100Aのメールアドレスと第2の携帯電話100Bのメールアドレスとに基づいてルーム名を生成した上で、ルーム管理テーブル406Aに当該ルーム名と第1の携帯電話100AのIPアドレスとを対応付けて格納する。   Specifically, in chat server 400, when first mobile phone 100A requests generation of a new chat room (step S0002 in FIG. 2), CPU 405 determines the mail address of first mobile phone 100A. The room name is generated based on the mail address of the second mobile phone 100B and the room name is stored in the room management table 406A in association with the IP address of the first mobile phone 100A.

そして、第2の携帯電話100Bがチャットサーバ400にチャットルームへの参加を要求してきた際(図2におけるステップS0008)に、CPU405が、ルーム管理テーブル406Aに当該ルーム名と第2の携帯電話100BのIPアドレスとを対応付けて格納する。CPU406は、ルーム管理テーブル406Aから、当該ルーム名に対応する第1の携帯電話100AのIPアドレスを読み出す。CPU406は、第1の携帯電話100AのIPアドレスを第2の各表示装置に送信し、第2の携帯電話100BのIPアドレスを第1の携帯電話100Aに送信する。   When the second mobile phone 100B requests the chat server 400 to participate in the chat room (step S0008 in FIG. 2), the CPU 405 stores the room name and the second mobile phone 100B in the room management table 406A. Are stored in association with each other's IP address. CPU 406 reads the IP address of first mobile phone 100A corresponding to the room name from room management table 406A. CPU 406 transmits the IP address of first mobile phone 100A to each second display device, and transmits the IP address of second mobile phone 100B to first mobile phone 100A.

次に、コンテンツサーバ600のハードウェア構成について説明する。図8に示すように、本実施の形態に係るコンテンツサーバ600は、相互に内部バス608で接続されたCPU605と、メモリ606と、固定ディスク607と、サーバ通信デバイス609とを含む。   Next, the hardware configuration of the content server 600 will be described. As shown in FIG. 8, a content server 600 according to the present embodiment includes a CPU 605, a memory 606, a fixed disk 607, and a server communication device 609 that are mutually connected by an internal bus 608.

メモリ606は、各種の情報を記憶するものであって、たとえば、CPU605でのプログラムの実行に必要なデータを一時的に記憶する。固定ディスク607は、CPU605が実行するプログラムやデータベースを記憶する。CPU605は、コンテンツサーバ600の各要素を制御するものであって、各種の演算を実施する装置である。   The memory 606 stores various types of information. For example, the memory 606 temporarily stores data necessary for execution of a program by the CPU 605. The fixed disk 607 stores a program executed by the CPU 605 and a database. The CPU 605 controls each element of the content server 600 and is a device that performs various calculations.

サーバ通信デバイス609は、CPU605が出力したデータを電気信号へと変換して外部へ送信し、外部から受信した電気信号をデータに変換してCPU605に入力する。具体的には、サーバ通信デバイス609は、CPU605からのデータを、インターネット500やキャリア網700などを介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器に送信する。そして、サーバ通信デバイス609は、インターネット500やキャリア網700を介して、携帯電話100やカーナビゲーション装置200やパーソナルコンピュータ300やゲーム機や電子辞書や電子BOOKなどのネットワークに接続可能な機器から受信したデータを、CPU605に入力する。   The server communication device 609 converts the data output from the CPU 605 into an electrical signal and transmits it to the outside, and converts the electrical signal received from the outside into data and inputs it to the CPU 605. Specifically, the server communication device 609 transmits the data from the CPU 605 to the mobile phone 100, the car navigation device 200, the personal computer 300, the game machine, the electronic dictionary, the electronic BOOK, etc. via the Internet 500 or the carrier network 700. Send to devices that can be connected to other networks. Then, the server communication device 609 is received via the Internet 500 or the carrier network 700 from a device that can be connected to a network such as the mobile phone 100, the car navigation device 200, the personal computer 300, a game machine, an electronic dictionary, or an electronic book. Data is input to the CPU 605.

コンテンツサーバ600のメモリ606あるいは固定ディスク615は、動画コンテンツを記憶する。コンテンツサーバ600のCPU605は、サーバ通信デバイス609を介して、第1の携帯電話100Aおよび第2の携帯電話100Bからコンテンツの指定を受信する。コンテンツサーバ600のCPU605は、コンテンツの指定に基づいて、当該指定に対応する動画コンテンツをメモリ606から読み出して、サーバ通信デバイス609を介して当該コンテンツを第1の携帯電話100Aおよび第2の携帯電話100Bへ送信する。動画コンテンツは、ストリーミングデータなどであって、コンテンツサーバ600は、同じコンテンツを、略同時に、第1の携帯電話100Aおよび第2の携帯電話100Bへと配信する。   The memory 606 or the fixed disk 615 of the content server 600 stores moving image content. The CPU 605 of the content server 600 receives the content specification from the first mobile phone 100A and the second mobile phone 100B via the server communication device 609. Based on the content specification, the CPU 605 of the content server 600 reads out the moving image content corresponding to the specification from the memory 606, and the content is transmitted via the server communication device 609 to the first mobile phone 100A and the second mobile phone. To 100B. The moving image content is streaming data or the like, and the content server 600 distributes the same content to the first mobile phone 100A and the second mobile phone 100B almost simultaneously.

<ネットワークシステム1における通信処理>
次に、本実施の形態に係るネットワークシステム1におけるP2P通信処理について説明する。図10は、本実施の形態に係るネットワークシステム1におけるP2P通信処理の処理手順を示すフローチャートである。図11は、本実施の形態に係る送信データのデータ構造を示すイメージ図である。
<Communication processing in the network system 1>
Next, P2P communication processing in the network system 1 according to the present embodiment will be described. FIG. 10 is a flowchart showing the processing procedure of the P2P communication processing in the network system 1 according to the present embodiment. FIG. 11 is an image diagram showing a data structure of transmission data according to the present embodiment.

以下では、第1の携帯電話100Aが第2の携帯電話100Bへと手書きデータを送信する場合について説明する。なお、第1の携帯電話100Aと第2の携帯電話100Bとは、チャットルーム開設後、チャットサーバ400を介してデータを送受信してもよいし、チャットサーバ400を介さずにP2P通信によってデータを送受信してもよいものである。   Hereinafter, a case where the first mobile phone 100A transmits handwritten data to the second mobile phone 100B will be described. The first mobile phone 100A and the second mobile phone 100B may transmit / receive data via the chat server 400 after the chat room is established, or may transmit data via P2P communication without using the chat server 400. You may send and receive.

図10を参照して、まず、第1の携帯電話100A(送信側)のCPU106は、通信デバイス101を介して、チャットサーバ400からチャット通信に関するデータを取得する(ステップS002)。同様に、第2の携帯電話100B(受信側)のCPU106も、通信デバイス101を介して、チャットサーバ400からチャット通信に関するデータを取得する(ステップS004)。   Referring to FIG. 10, first, CPU 106 of first mobile phone 100A (transmission side) acquires data related to chat communication from chat server 400 via communication device 101 (step S002). Similarly, CPU 106 of second mobile phone 100B (reception side) also acquires data related to chat communication from chat server 400 via communication device 101 (step S004).

第1の携帯電話100AのCPU106は、通信デバイス101を介して、チャットサーバから動画コンテンツを特定するための動画情報(a)を取得する(ステップS006)。図11に示すように、動画情報(a)は、たとえば、TV番組を特定するための放送局コードや放送時間などを含む。あるいは、動画情報(a)は、動画の格納場所を示すURLなどを含む。本実施の形態においては、第1の携帯電話100Aおよび第2の携帯電話100Bの一方のCPU106が、通信デバイス101を介して、チャットサーバ400に、動画情報を送信する。   CPU 106 of first mobile phone 100A acquires video information (a) for specifying video content from the chat server via communication device 101 (step S006). As shown in FIG. 11, the moving image information (a) includes, for example, a broadcast station code and a broadcast time for specifying a TV program. Alternatively, the moving image information (a) includes a URL indicating a storage location of the moving image. In the present embodiment, one CPU 106 of first mobile phone 100 </ b> A and second mobile phone 100 </ b> B transmits moving image information to chat server 400 via communication device 101.

第1の携帯電話100Aと第2の携帯電話100Bの他方のCPU106が、通信デバイス101を介して、チャットサーバ400から動画情報を受信する(ステップS008)。なお、ここでは、第1の携帯電話100Aと第2の携帯電話100Bとが、チャット通信中に動画情報を取得する例を示したが、これに限られず、第1の携帯電話100Aと第2の携帯電話100Bとが、チャット通信前に、共通の動画情報を取得していてもよい。   The other CPU 106 of the first mobile phone 100A and the second mobile phone 100B receives the video information from the chat server 400 via the communication device 101 (step S008). Here, an example is shown in which the first mobile phone 100A and the second mobile phone 100B acquire moving image information during chat communication, but the present invention is not limited to this, and the first mobile phone 100A and the second mobile phone 100B Mobile phone 100B may acquire common video information before chat communication.

第1の携帯電話100AのCPU106は、タッチパネル102に、動画コンテンツを再生するためのウインドウを表示させる(ステップS010)。同様に、第2の携帯電話100BのCPU106は、タッチパネル102に、動画コンテンツを再生するためのウインドウを表示させる(ステップS012)。   CPU 106 of first mobile phone 100A causes touch panel 102 to display a window for reproducing moving image content (step S010). Similarly, CPU 106 of second mobile phone 100B causes touch panel 102 to display a window for reproducing moving image content (step S012).

第1の携帯電話100AのCPU106は、動画情報に基づいて、通信デバイス101あるいはTVアンテナ113を介して、動画コンテンツ(たとえば、TV番組)を受信する。CPU106は、タッチパネル102を介して、動画コンテンツを再生し始める(ステップS014)。CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。   CPU 106 of first mobile phone 100A receives moving image content (for example, a TV program) via communication device 101 or TV antenna 113 based on the moving image information. CPU 106 starts to reproduce the moving image content via touch panel 102 (step S014). The CPU 106 may output the sound of the moving image content via the speaker 109.

第2の携帯電話100BのCPU106は、動画情報に基づいて、通信デバイス101あるいはTVアンテナ113を介して、第1の携帯電話100Aと同じ動画コンテンツを受信する。CPU106は、タッチパネル102を介して、動画コンテンツを再生し始める(ステップS016)。CPU106は、スピーカ109を介して、動画コンテンツの音声を出力してもよい。   CPU 106 of second mobile phone 100B receives the same moving image content as that of first mobile phone 100A via communication device 101 or TV antenna 113 based on the moving image information. CPU 106 starts to reproduce the moving image content via touch panel 102 (step S016). The CPU 106 may output the sound of the moving image content via the speaker 109.

第1の携帯電話100Aと第2の携帯電話100Bとは、手描き画像の入力を待ち受ける。まず、第1の携帯電話100AのCPU106が、タッチパネル102を介して、ユーザからの手書き画像の入力を受け付けた場合について説明する。(ステップS018)。より詳細には、CPU106は、所定時間毎にタッチパネル102から接触座標データを順次受け付けることにより、タッチパネル102に対する接触位置の変化(軌跡)を取得する。   First mobile phone 100A and second mobile phone 100B wait for input of a hand-drawn image. First, a case where the CPU 106 of the first mobile phone 100A receives an input of a handwritten image from the user via the touch panel 102 will be described. (Step S018). More specifically, the CPU 106 sequentially receives contact coordinate data from the touch panel 102 every predetermined time, thereby acquiring a change (trajectory) of the contact position with respect to the touch panel 102.

図11に示すように、CPU106は、手書きクリア情報(b)と、接触位置の軌跡を示す情報(c)と、線の色を示す情報(d)と、線の幅を示す情報(e)と、入力タイミング情報(f)とを含む、送信データを作成する(ステップS020)。   As shown in FIG. 11, the CPU 106 clears handwritten clear information (b), information (c) indicating the locus of the contact position, information (d) indicating the color of the line, and information (e) indicating the width of the line. And transmission data including the input timing information (f) are created (step S020).

なお、入力タイミング情報(f)は、たとえば、手書き画像の入力を受け付けたときに対応する、番組開始からの時間(ms)、あるいは番組のシーン番号やフレーム番号などを含む。換言すれば、入力タイミング情報(f)は、第1の携帯電話100Aおよび第2の携帯電話100Bにおいて手書き画像とともに表示すべき動画コンテンツのシーンやフレームなどを特定するための情報を含む。   Note that the input timing information (f) includes, for example, a time (ms) from the start of a program, a scene number or a frame number of the program, etc., corresponding to when an input of a handwritten image is accepted. In other words, the input timing information (f) includes information for specifying a scene, a frame, and the like of the moving image content to be displayed together with the handwritten image on the first mobile phone 100A and the second mobile phone 100B.

手書きクリア情報(b)は、それまでに入力された手書きをクリアするための情報(true)または手書き入力を続行するための情報(false)を含む。   The handwriting clear information (b) includes information (true) for clearing the handwriting input so far or information (false) for continuing the handwriting input.

図4(A−1)に示すように、CPU106は、送信データに基づいて、ディスプレイ107に、動画コンテンツ上に(動画コンテンツに重畳させて)手書き画像を表示させる。   As shown in FIG. 4A-1, the CPU 106 displays a handwritten image on the moving image content (superimposed on the moving image content) on the display 107 based on the transmission data.

CPU106は、通信デバイス101を介して、第2の携帯電話100Bに、送信データを送信する(ステップS022)。第2の携帯電話100BのCPU106は、通信デバイス101を介して、第1の携帯電話100Aから送信データを受信する(ステップS024)。   CPU 106 transmits the transmission data to second mobile phone 100B via communication device 101 (step S022). CPU 106 of second mobile phone 100B receives the transmission data from first mobile phone 100A via communication device 101 (step S024).

なお、第1の携帯電話100Aは、送信データを、チャットサーバ400を介して、第2の携帯電話100Bへと送信してもよい。そして、チャットサーバ400は、第1の携帯電話100Aや第2の携帯電話100Bが送受信する送信データを蓄積してもよい。   Note that first mobile phone 100A may transmit the transmission data to second mobile phone 100B via chat server 400. Chat server 400 may accumulate transmission data transmitted and received by first mobile phone 100A and second mobile phone 100B.

第2の携帯電話100BのCPU106は、送信データを解析する(ステップS026)。図4(B−1)に示すように、CPU106は、送信データに基づいて、ディスプレイ107に動画コンテンツ上に(動画コンテンツに重畳させて)手書き画像を表示させる(ステップS028)。   CPU 106 of second mobile phone 100B analyzes the transmission data (step S026). As shown in FIG. 4B-1, the CPU 106 displays a handwritten image on the moving image content (superimposed on the moving image content) on the display 107 based on the transmission data (step S028).

次に、第2の携帯電話100BのCPU106が、タッチパネル102を介して、ユーザからの手書き画像の入力を受け付けた場合について説明する。(ステップS030)。より詳細には、CPU106は、所定時間毎にタッチパネル102から接触座標データを順次受け付けることにより、タッチパネル102に対する接触位置の変化(軌跡)を取得する。   Next, a case where the CPU 106 of the second mobile phone 100B receives an input of a handwritten image from the user via the touch panel 102 will be described. (Step S030). More specifically, the CPU 106 sequentially receives contact coordinate data from the touch panel 102 every predetermined time, thereby acquiring a change (trajectory) of the contact position with respect to the touch panel 102.

図11に示すように、CPU106は、手書きクリア情報(b)と、接触位置の軌跡を示す情報(c)と、線の色を示す情報(d)と、線の幅を示す情報(e)とを含む、送信データを作成する(ステップS032)。手書きクリア情報(b)は、それまでに入力された手書きをクリアするための情報(true)または手書き入力を続行するための情報(false)を含む。   As shown in FIG. 11, the CPU 106 clears handwritten clear information (b), information (c) indicating the locus of the contact position, information (d) indicating the color of the line, and information (e) indicating the width of the line. The transmission data including these is created (step S032). The handwriting clear information (b) includes information (true) for clearing the handwriting input so far or information (false) for continuing the handwriting input.

図4(B−3)に示すように、CPU106は、送信データに基づいて、ディスプレイ107に、動画コンテンツ上に(動画コンテンツに重畳させて)手書き画像を表示させる。   As shown in FIG. 4B-3, the CPU 106 causes the display 107 to display a handwritten image on the moving image content (superimposed on the moving image content) based on the transmission data.

CPU106は、通信デバイス101を介して、第1の携帯電話100Aに、送信データを送信する(ステップS034)。第1の携帯電話100AのCPU106は、通信デバイス101を介して、第2の携帯電話100Bから送信データを受信する(ステップS036)。   CPU 106 transmits transmission data to first mobile phone 100A through communication device 101 (step S034). CPU 106 of first mobile phone 100A receives transmission data from second mobile phone 100B through communication device 101 (step S036).

第1の携帯電話100AのCPU106は、送信データを解析する(ステップS038)。図4(A−3)に示すように、CPU106は、送信データに基づいて、ディスプレイ107に動画コンテンツ上に(動画コンテンツに重畳させて)手書き画像を表示させる(ステップS040)。   CPU 106 of first mobile phone 100A analyzes the transmission data (step S038). As shown in FIG. 4A-3, the CPU 106 displays a handwritten image on the moving image content (superimposed on the moving image content) on the display 107 based on the transmission data (step S040).

第1の携帯電話100AのCPU106は、動画情報で特定される動画コンテンツの再生が終了すると、動画コンテンツ用のウインドウを閉じる(ステップS042)。第2の携帯電話100BのCPU106は、動画情報で特定される動画コンテンツの再生が終了すると、動画コンテンツ用のウインドウを閉じる(ステップS044)。   When the reproduction of the moving image content specified by the moving image information ends, CPU 106 of first mobile phone 100A closes the moving image content window (step S042). When the reproduction of the moving image content specified by the moving image information ends, CPU 106 of second mobile phone 100B closes the moving image content window (step S044).

<携帯電話100における入力処理>
次に、本実施の形態に係る携帯電話100における入力処理について説明する。図12は、本実施の形態に係る携帯電話100における入力処理の処理手順を示すフローチャートである。
<Input processing in mobile phone 100>
Next, input processing in mobile phone 100 according to the present embodiment will be described. FIG. 12 is a flowchart showing a processing procedure of input processing in mobile phone 100 according to the present embodiment.

図12を参照して、CPU106は、まず、携帯電話100への入力が開始された際に、ペン情報の設定処理(ステップS200)を実行する。なお、ペン情報の設定処理(ステップS200)については後述する。   Referring to FIG. 12, CPU 106 first executes pen information setting processing (step S <b> 200) when input to mobile phone 100 is started. The pen information setting process (step S200) will be described later.

CPU106は、ペン情報の設定処理(ステップS200)が終了すると、データ(b)がtrueであるか否かを判断する(ステップS102)。データ(b)がtrueである場合(ステップS102にてYESである場合)、すなわちユーザが手描き画像をクリアするための命令を入力した場合、CPU106は、データ(b)をメモリ103に格納する(ステップS104)。CPU106は、入力処理を終了する。   When the pen information setting process (step S200) ends, the CPU 106 determines whether the data (b) is true (step S102). If the data (b) is true (YES in step S102), that is, if the user inputs a command for clearing the hand-drawn image, the CPU 106 stores the data (b) in the memory 103 ( Step S104). The CPU 106 ends the input process.

データ(b)がtrueでない場合(ステップS102にてNOである場合)、すなわちユーザがクリアするための命令以外の命令を入力した場合、CPU106は、スタイラスペン120がタッチパネル102に接触したか否かを判断する(ステップS106)。すなわち、CPU106は、ペンダウンを検出したか否かを判断する。   If data (b) is not true (NO in step S102), that is, if the user inputs a command other than a command for clearing, CPU 106 determines whether stylus pen 120 has touched touch panel 102 or not. Is determined (step S106). That is, the CPU 106 determines whether pen-down has been detected.

ペンダウンを検出しなかった場合(ステップS106にてNOである場合)、CPU106は、スタイラスペン120のタッチパネル102に対する接触位置が変化したか否かを判断する(ステップS108)。すなわち、CPU106は、ペンドラッグを検出したか否かを判断する。CPU106は、ペンドラッグを検出しなかった場合(ステップS108にてNOである場合)、入力処理を終了する。   If pen-down is not detected (NO in step S106), CPU 106 determines whether or not the contact position of stylus pen 120 with respect to touch panel 102 has changed (step S108). That is, the CPU 106 determines whether or not pen drag has been detected. If CPU 106 does not detect a pen drag (NO in step S108), CPU 106 ends the input process.

CPU106は、ペンダウンを検出した場合(ステップS106にてYESである場合)、あるいは、ペンドラッグを検出した場合(ステップS108にてYESである場合)、データ(b)に「false」を設定する(ステップS110)。CPU106は、手書き処理(ステップS300)を実行する。手書き処理(ステップS300)については後述する。   CPU 106 sets “false” to data (b) when pen-down is detected (YES in step S 106) or pen drag is detected (YES in step S 108) ( Step S110). CPU 106 executes a handwriting process (step S300). The handwriting process (step S300) will be described later.

CPU106は、手書き処理(ステップS300)を終了すると、データ(b)、(c)、(d)、(e)、(f)をメモリ103に格納する(ステップS112)。CPU106は、入力処理を終了する。   When the CPU 106 finishes the handwriting process (step S300), it stores the data (b), (c), (d), (e), and (f) in the memory 103 (step S112). The CPU 106 ends the input process.

<携帯電話100におけるペン情報の設定処理>
次に、本実施の形態に係る携帯電話100におけるペン情報の設定処理について説明する。図13は、本実施の形態に係る携帯電話100におけるペン情報の設定処理の処理手順を示すフローチャートである。
<Pen information setting process in mobile phone 100>
Next, pen information setting processing in mobile phone 100 according to the present embodiment will be described. FIG. 13 is a flowchart showing a processing procedure of pen information setting processing in mobile phone 100 according to the present embodiment.

図13を参照して、CPU106は、タッチパネル102を介して、ユーザから手書き画像をクリアする(消去する、あるいはリセットする)ための命令を受け付けたか否かを判断する(ステップS202)。CPU106は、ユーザから手書き画像をクリアするための命令を受け付けた場合(ステップS202にてYESである場合)、データ(b)に「true」を設定する(ステップS204)。CPU106は、ステップS208からの処理を実行する。   Referring to FIG. 13, CPU 106 determines whether an instruction for clearing (erasing or resetting) the handwritten image from the user is received via touch panel 102 (step S202). When CPU 106 receives a command for clearing the handwritten image from the user (YES in step S202), CPU 106 sets “true” in data (b) (step S204). CPU 106 executes the processing from step S208.

CPU106は、ユーザから手書き画像をクリアするための命令を受け付けなかった場合(ステップS202にてNOである場合)、データ(b)に「false」を設定する(ステップS206)。ただし、ここでは、CPU106が「false」の設定を行わなくてもよい。   If the CPU 106 does not accept an instruction for clearing the handwritten image from the user (NO in step S202), the CPU 106 sets “false” in the data (b) (step S206). However, the CPU 106 does not have to set “false” here.

CPU106は、タッチパネル102を介して、ユーザからペンの色を変更するための命令を受け付けたか否かを判断する(ステップS208)。CPU106は、ユーザからペンの色を変更するための命令を受け付けなかった場合(ステップS208にてNOである場合)、ステップS212からの処理を実行する。   CPU 106 determines whether an instruction for changing the pen color is received from the user via touch panel 102 (step S208). When CPU 106 has not received a command for changing the pen color from the user (NO in step S208), CPU 106 executes the processing from step S212.

CPU106は、ユーザからペンの色を変更するための命令を受け付けた場合(ステップS208にてYESである場合)、データ(d)に変更後のペンの色を設定する(ステップS210)。CPU106は、タッチパネル102を介して、ユーザからペンの幅を変更するための命令を受け付けたか否かを判断する(ステップS212)。CPU106は、ユーザからペンの幅を変更するための命令を受け付けなかった場合(ステップS212にてNOである場合)、ペン情報の設定処理を終了する。   When CPU 106 receives a command for changing the pen color from the user (YES in step S208), CPU 106 sets the changed pen color in data (d) (step S210). CPU 106 determines whether or not a command for changing the pen width has been received from the user via touch panel 102 (step S212). If CPU 106 has not received a command to change the pen width from the user (NO in step S212), CPU 106 ends the pen information setting process.

CPU106は、ユーザからペンの幅を変更するための命令を受け付けた場合(ステップS212にてYESである場合)、データ(e)に変更後のペンの幅を設定する(ステップS214)。CPU106は、ペン情報の設定処理を終了する。   When CPU 106 receives a command for changing the pen width from the user (YES in step S212), CPU 106 sets the changed pen width in data (e) (step S214). The CPU 106 ends the pen information setting process.

<携帯電話100における手書き処理>
次に、本実施の形態に係る携帯電話100における手書き処理について説明する。図14は、本実施の形態に係る携帯電話100における手書き処理の処理手順を示すフローチャートである。
<Handwriting process in mobile phone 100>
Next, the handwriting process in the mobile phone 100 according to the present embodiment will be described. FIG. 14 is a flowchart showing a processing procedure of handwriting processing in mobile phone 100 according to the present embodiment.

図14を参照して、CPU106は、図示しない時計を参照して、あるいは動画コンテンツを参照して、動画コンテンツが開始されてからの時間を取得する(ステップS302)。CPU106は、データ(f)に当該動画コンテンツが開始されてからの時間を設定する(ステップS304)。   Referring to FIG. 14, CPU 106 refers to a clock (not shown) or refers to moving image content, and acquires the time from when the moving image content is started (step S <b> 302). CPU 106 sets the time from the start of the moving image content to data (f) (step S304).

CPU106は、タッチパネル102を介して、スタイラスペン120や指によるタッチパネル102に対する現在の接触座標(X,Y)を取得する(ステップS306)。CPU106は、データ(c)に「X,Y」を設定する(ステップS308)。   The CPU 106 acquires the current contact coordinates (X, Y) with respect to the touch panel 102 by the stylus pen 120 or the finger via the touch panel 102 (step S306). The CPU 106 sets “X, Y” in the data (c) (step S308).

CPU106は、前回の座標の取得時(ステップS308)から所定時間が経過しているか否かを判断する(ステップS310)。CPU106は、所定時間が経過していない場合(ステップS310にてNOである場合)、ステップS310からの処理を繰り返す。CPU106は、所定時間が経過していた場合(ステップS310にてYESである場合)、タッチパネル102を介して、ペンドラッグを検出したか否かを判断する(ステップS312)。   CPU 106 determines whether or not a predetermined time has elapsed since the previous acquisition of coordinates (step S308) (step S310). CPU 106 repeats the processing from step S310 if the predetermined time has not elapsed (NO in step S310). If the predetermined time has elapsed (YES in step S310), CPU 106 determines whether pen drag has been detected via touch panel 102 (step S312).

CPU106は、ペンドラッグを検出した場合(ステップS312にてYESである場合)、タッチパネル102を介して、スタイラスペン120や指によるタッチパネル102に対する接触位置座標(X,Y)を取得する(ステップS316)。CPU106は、データ(c)に「:X,Y」を追加する(ステップS318)。CPU106は、手書き処理を終了する。   When CPU 106 detects a pen drag (YES in step S312), CPU 106 obtains contact position coordinates (X, Y) with respect to touch panel 102 by stylus pen 120 or a finger via touch panel 102 (step S316). . The CPU 106 adds “: X, Y” to the data (c) (step S318). The CPU 106 ends the handwriting process.

CPU106は、ペンドラッグを検出しなかった場合(ステップS312にてNOである場合)、ペンアップを検出したか否かを判断する(ステップS314)。CPU106は、ペンアップを検出しなかった場合(ステップS314にてNOである場合)、ステップS310からの処理を繰り返す。   If the CPU 106 has not detected a pen drag (NO in step S312), CPU 106 determines whether a pen-up has been detected (step S314). CPU 106 repeats the processing from step S310 when pen-up is not detected (NO in step S314).

CPU106は、ペンアップを検出した場合(ステップS314にてYESである場合)、タッチパネル102を介して、ペンアップ時におけるスタイラスペンのタッチパネル102に対する接触座標(X,Y)を取得する(ステップS316)。CPU106は、データ(c)に「:X,Y」を追加する(ステップS318)。CPU106は、手書き処理を終了する。   When CPU 106 detects pen-up (YES in step S314), CPU 106 acquires contact coordinates (X, Y) of stylus pen with respect to touch panel 102 at the time of pen-up via touch panel 102 (step S316). . The CPU 106 adds “: X, Y” to the data (c) (step S318). The CPU 106 ends the handwriting process.

ここで、本実施の形態に係る手描き画像を示すデータ(c)について説明する。図15は、本実施の形態に係る手描き画像を示すデータ(c)を示すイメージ図である。   Here, data (c) indicating a hand-drawn image according to the present embodiment will be described. FIG. 15 is an image diagram showing data (c) indicating a hand-drawn image according to the present embodiment.

図14および図15を参照して、本実施の形態に係る表示装置は、1つの手描きストロークを示す情報として、複数の連続する所定期間毎のドラッグ開始座標とドラッグ終了座標とを送信する。すなわち、スタイラスペン120のタッチパネル102に対する一回のドラッグ操作(スライド操作)は、所定時間毎のスタイラスペン120のタッチパネル102に対する接触座標のグループとして表わされる。   Referring to FIGS. 14 and 15, the display device according to the present embodiment transmits a drag start coordinate and a drag end coordinate for a plurality of consecutive predetermined periods as information indicating one hand-drawn stroke. That is, one drag operation (slide operation) on the touch panel 102 of the stylus pen 120 is represented as a group of contact coordinates on the touch panel 102 of the stylus pen 120 every predetermined time.

たとえば、1回のドラッグ操作に関する接触座標が、(Cx1,Cy1)→(Cx2,Cy2)→(Cx3,Cy3)→(Cx4,Cy4)→(Cx5,Cy5)と変化する場合、第1の携帯電話100AのCPU106は以下のように動作する。CPU106は、最初の所定期間が経過した際、すなわち座標(Cx2,Cy2)を取得した際、通信デバイス101を用いて、送信データ(c)として(Cx1,Cy1:Cx2,Cy2)を第2の携帯電話100Bに送信する。さらに、所定期間が経過した際、CPU106は、すなわち座標(Cx3,Cy3)を取得した際、通信デバイス101を用いて、送信データ(c)として(Cx2,Cy2:Cx3,Cy3)を第2の携帯電話100Bに送信する。さらに、所定期間が経過した際、CPU106は、すなわち座標(Cx4,Cy4)を取得した際、通信デバイス101を用いて、送信データ(c)として(Cx3,Cy3:Cx4,Cy4)を第2の携帯電話100Bに送信する。さらに、所定期間が経過した際、CPU106は、すなわち座標(Cx5,Cy5)を取得した際、通信デバイス101を用いて、送信データ(c)として(Cx4,Cy4:Cx5,Cy5)を第2の携帯電話100Bに送信する。   For example, when the contact coordinates relating to one drag operation change from (Cx1, Cy1) → (Cx2, Cy2) → (Cx3, Cy3) → (Cx4, Cy4) → (Cx5, Cy5), the first mobile phone The CPU 106 of the telephone 100A operates as follows. When the first predetermined period has elapsed, that is, when the coordinates (Cx2, Cy2) are acquired, the CPU 106 uses the communication device 101 to set (Cx1, Cy1: Cx2, Cy2) as the second transmission data (c). Transmit to mobile phone 100B. Further, when the predetermined period has elapsed, when the CPU 106 acquires the coordinates (Cx3, Cy3), the communication device 101 is used to set (Cx2, Cy2: Cx3, Cy3) as the second transmission data (c). Transmit to mobile phone 100B. Further, when the predetermined period has elapsed, when the CPU 106 acquires the coordinates (Cx4, Cy4), it uses the communication device 101 to set (Cx3, Cy3: Cx4, Cy4) as the second transmission data (c). Transmit to mobile phone 100B. Further, when the predetermined period has elapsed, when the CPU 106 acquires the coordinates (Cx5, Cy5), the communication device 101 is used to set (Cx4, Cy4: Cx5, Cy5) as the second transmission data (c). Transmit to mobile phone 100B.

<携帯電話100における表示処理>
次に、本実施の形態に係る携帯電話100における表示処理について説明する。図16は、本実施の形態に係る携帯電話100における表示処理の処理手順を示すフローチャートである。
<Display processing in mobile phone 100>
Next, display processing in mobile phone 100 according to the present embodiment will be described. FIG. 16 is a flowchart showing a processing procedure of display processing in mobile phone 100 according to the present embodiment.

図16を参照して、CPU106は、動画コンテンツの再生が終了したか否かを判断する(ステップS402)。CPU106は、動画コンテンツの再生が終了した場合(ステップS402にてYESである場合)、表示処理を終了する。   Referring to FIG. 16, CPU 106 determines whether or not the reproduction of the moving image content has ended (step S402). CPU 106 ends the display process when the reproduction of the moving image content ends (YES in step S402).

CPU106は、動画コンテンツの再生が終了していない場合(ステップS402にてNOである場合)、クリア情報clear(データ(b))を取得する(ステップS404)。CPU106は、クリア情報clearがtrueであるか否かを判断する(ステップS406)。CPU106は、クリア情報clearがtrueである場合(ステップS406にてYESである場合)、履歴作成処理(ステップS600)を実行する。履歴作成処理(ステップS600)については、後述する。   CPU 106 obtains clear information clear (data (b)) when reproduction of moving image content has not ended (NO in step S402) (step S404). The CPU 106 determines whether or not the clear information clear is true (step S406). If the clear information clear is true (YES in step S406), the CPU 106 executes a history creation process (step S600). The history creation process (step S600) will be described later.

CPU106は、履歴作成処理(ステップS600)が終了すると、タッチパネル102を用いて、それまでに表示されていた手書き画像を非表示にする(ステップS408)。CPU106は、表示処理を終了する。   When the history creation process (step S600) ends, the CPU 106 uses the touch panel 102 to hide the handwritten image that has been displayed so far (step S408). The CPU 106 ends the display process.

CPU106は、クリア情報clearがtrueでない場合(ステップS406にてNOである場合)、ペンの色(データ(d))を取得する(ステップS410)。CPU106は、ペンの色を設定し直す(ステップS412)。CPU106は、ペンの幅(データ(e))を取得する(ステップS414)。CPU106は、ペンの幅を設定し直す(ステップS416)。   If the clear information clear is not true (NO in step S406), the CPU 106 acquires the pen color (data (d)) (step S410). The CPU 106 resets the pen color (step S412). The CPU 106 acquires the pen width (data (e)) (step S414). The CPU 106 resets the pen width (step S416).

CPU106は、手書き画像表示処理(ステップS500)を実行する。手書き画像表示処理(ステップS500)については後述する。CPU106は、手書き画像表示処理(ステップS500)が終了すると、表示処理を終了する。   CPU 106 executes a handwritten image display process (step S500). The handwritten image display process (step S500) will be described later. When the handwritten image display process (step S500) ends, the CPU 106 ends the display process.

<携帯電話100における表示処理の応用例>
次に、本実施の形態に係る携帯電話100における表示処理の応用例について説明する。図17は、本実施の形態に係る携帯電話100における表示処理の応用例の処理手順を示すフローチャートである。この応用例においては、携帯電話100は、クリア情報だけでなくシーンが切り換わった際にも、それまでに表示されている手書き画像をクリア(消去あるいはリセット)するものである。
<Application Example of Display Processing in Mobile Phone 100>
Next, an application example of display processing in mobile phone 100 according to the present embodiment will be described. FIG. 17 is a flowchart showing a processing procedure of an application example of display processing in mobile phone 100 according to the present embodiment. In this application example, the mobile phone 100 clears (deletes or resets) a handwritten image displayed so far not only when clear information but also when a scene is switched.

図17を参照して、CPU106は、動画コンテンツの再生が終了したか否かを判断する(ステップS452)。CPU106は、動画コンテンツの再生が終了した場合(ステップS452にてYESである場合)、表示処理を終了する。   Referring to FIG. 17, CPU 106 determines whether or not the reproduction of the moving image content has ended (step S452). CPU 106 ends the display process when the reproduction of the moving image content ends (YES in step S452).

CPU106は、動画コンテンツの再生が終了していない場合(ステップS452にてNOである場合)、動画コンテンツのシーンが切り換わったか否かを判断する(ステップS454)。CPU106は、動画コンテンツのシーンが切り換わっていない場合(ステップS454にてNOである場合)、ステップS458からの処理を実行する。   If the reproduction of the moving image content has not ended (NO in step S452), CPU 106 determines whether the scene of the moving image content has been switched (step S454). If the scene of the moving image content has not been switched (NO in step S454), CPU 106 executes the processing from step S458.

CPU106は、動画コンテンツのシーンが切り換わった場合(ステップS454にてYESである場合)、履歴作成処理(ステップS600)を実行する。CPU106は、タッチパネル102を用いて、それまでに表示されていた手書き画像を非表示にする(ステップS456)。CPU106は、クリア情報clear(データ(b))を取得する(ステップS458)。   When the scene of the moving image content is switched (YES in step S454), CPU 106 executes a history creation process (step S600). CPU 106 uses touch panel 102 to hide the handwritten image displayed so far (step S456). The CPU 106 acquires clear information clear (data (b)) (step S458).

CPU106は、クリア情報clearがtrueであるか否かを判断する(ステップS460)。CPU106は、クリア情報clearがtrueである場合(ステップS460にてYESである場合)、履歴作成処理(ステップS600)を実行する。CPU106は、タッチパネル102を用いて、それまでに表示されていた手書き画像を非表示にする(ステップS462)。CPU106は、表示処理を終了する。   The CPU 106 determines whether or not the clear information clear is true (step S460). If the clear information clear is true (YES in step S460), the CPU 106 executes a history creation process (step S600). CPU 106 uses touch panel 102 to hide the handwritten image that has been displayed so far (step S462). The CPU 106 ends the display process.

CPU106は、クリア情報clearがtrueでない場合(ステップS460にてNOである場合)、ペンの色(データ(d))を取得する(ステップS464)。CPU106は、ペンの色を設定し直す(ステップS466)。CPU106は、ペンの幅(データ(e))を取得する(ステップS468)。CPU106は、ペンの幅を設定し直す(ステップS470)。   If the clear information clear is not true (NO in step S460), the CPU 106 acquires the pen color (data (d)) (step S464). The CPU 106 resets the pen color (step S466). The CPU 106 acquires the pen width (data (e)) (step S468). CPU 106 resets the pen width (step S470).

CPU106は、手書き画像表示処理(ステップS500)を実行する。手書き画像表示処理(ステップS500)については後述する。CPU106は、表示処理を終了する。   CPU 106 executes a handwritten image display process (step S500). The handwritten image display process (step S500) will be described later. The CPU 106 ends the display process.

<携帯電話100における手書き画像表示処理>
次に、本実施の形態に係る携帯電話100における手書き画像表示処理について説明する。図18は、本実施の形態に係る携帯電話100における手書き画像表示処理の処理手順を示すフローチャートである。
<Handwritten image display processing in mobile phone 100>
Next, the handwritten image display process in the mobile phone 100 according to the present embodiment will be described. FIG. 18 is a flowchart showing a processing procedure of handwritten image display processing in mobile phone 100 according to the present embodiment.

図18を参照して、CPU106は、動画コンテンツの再生開始からのデータ送信時までの再生時間time(データ(f))を取得する(ステップS502)。CPU106は、所定時間毎に、手書きストロークの頂点の座標(データ(c))、すなわち(Cx1,Cy1)および(Cx2,Cy2)を取得する(ステップS504)。   Referring to FIG. 18, CPU 106 obtains reproduction time time (data (f)) from the start of reproduction of moving image content to the time of data transmission (step S502). The CPU 106 acquires the coordinates (data (c)) of the handwritten stroke, that is, (Cx1, Cy1) and (Cx2, Cy2), every predetermined time (step S504).

再生時間timeから現在までの間に動画コンテンツのシーンがチェンジしたか否かを判断する(ステップS506)。動画コンテンツのシーンがチェンジしなかった場合(ステップS506においてNOである場合)、CPU106は、座標(Cx1,Cy1)と座標(Cx2,Cy2)とを線で繋ぐことによって、動画コンテンツの表示領域(第1の領域102A)に手書きストロークを描画する(ステップS508)。CPU106は、手描き画像表示処理を終了する。   It is determined whether or not the scene of the moving image content has changed between the reproduction time time and the present time (step S506). If the scene of the video content has not changed (NO in step S506), the CPU 106 connects the coordinates (Cx1, Cy1) and the coordinates (Cx2, Cy2) with a line, thereby displaying the video content display area ( A handwritten stroke is drawn in the first area 102A) (step S508). The CPU 106 ends the hand drawn image display process.

動画コンテンツのシーンがチェンジした場合(ステップS506においてYESである場合)、CPU106は、受信した手描きデータに対する再生時間timeよりも後の履歴作成時刻(データ(g))を有する履歴データのうちで、最も古い履歴データを検索する(ステップS510)。CPU106は、座標(Cx1,Cy1)と座標(Cx2,Cy2)とを線で繋ぐことによって、当該履歴作成時刻(データ(g))に対応する履歴データに手書きストロークの情報を追加する(ステップS512)。   If the scene of the video content has changed (YES in step S506), the CPU 106, among the history data having a history creation time (data (g)) later than the playback time time for the received hand-drawn data, The oldest history data is searched (step S510). The CPU 106 connects the coordinates (Cx1, Cy1) and the coordinates (Cx2, Cy2) with a line to add handwritten stroke information to the history data corresponding to the history creation time (data (g)) (step S512). ).

CPU106は、タッチパネル102に表示されている当該履歴画像を更新する(ステップS514)。CPU106は、手描き画像表示処理を終了する。   CPU 106 updates the history image displayed on touch panel 102 (step S514). The CPU 106 ends the hand drawn image display process.

<携帯電話100における第1の履歴作成処理>
次に、本実施の形態に係る携帯電話100における第1の履歴作成処理について説明する。図19は、本実施の形態に係る携帯電話100における第1の履歴作成処理の処理手順を示すフローチャートである。図20は、第1の履歴作成処理に係る履歴データを示すイメージ図である。図21は、第1の履歴作成処理に係る履歴情報のデータ構造を示す図である。
<First History Creation Processing in Mobile Phone 100>
Next, the first history creation process in mobile phone 100 according to the present embodiment will be described. FIG. 19 is a flowchart showing a processing procedure of first history creation processing in mobile phone 100 according to the present embodiment. FIG. 20 is an image diagram showing history data related to the first history creation processing. FIG. 21 is a diagram illustrating a data structure of history information according to the first history creation process.

図19を参照して、CPU106は、動画コンテンツの表示領域(第1の領域102A)に、手描き画像が表示されているか否かを判断する(ステップS622)。手描き画像が表示されていない場合(ステップS622においてNOである場合)、CPU106は、第1の履歴作成処理を終了する。   Referring to FIG. 19, CPU 106 determines whether or not a hand-drawn image is displayed in the moving image content display area (first area 102 </ b> A) (step S <b> 622). If the hand-drawn image is not displayed (NO in step S622), CPU 106 ends the first history creation process.

図20(a)に示すように、手描き画像が表示されている場合(ステップS622においてYESである場合)、CPU106は、データ(g)に動画開始からの現時点までの時間を設定する(ステップS624)。図20(b)および(c)に示すように、CPU106は、動画コンテンツを構成するフレームのうち、現時点の直前のフレーム(静止画像)と表示中の手描き画像とを重ね合わせた履歴画像J(ペイントデータj)を作成する(ステップS626)。   As shown in FIG. 20A, when a hand-drawn image is displayed (YES in step S622), CPU 106 sets the time from the start of the moving image to the current time in data (g) (step S624). ). As shown in FIGS. 20B and 20C, the CPU 106, among the frames constituting the moving image content, stores a history image J () in which a frame (still image) immediately before the current time and a displayed hand-drawn image are superimposed. Paint data j) is created (step S626).

CPU106は、作成した画像をメモリ103に格納する(ステップS628)。より詳細には、図21に示すように、CPU106は、履歴データを作成した時刻(データ(g))と、履歴画像J(ペイントデータj)とを対応付けて、履歴情報としてメモリ103に格納する。なお、履歴データを作成した時刻は、履歴画像Jがメモリ103に記憶された時刻を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から、履歴画像となるフレームが表示されるまで、のコンテンツ再生時間(コンテンツのスタート時点を基準とした時間軸上の時刻)を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から手描き画像をクリアするための命令が入力されるまでの時間、あるいは動画コンテンツの最初から今回シーンが切り換わるまでの時間を含む。   The CPU 106 stores the created image in the memory 103 (step S628). More specifically, as shown in FIG. 21, the CPU 106 associates the history data creation time (data (g)) with the history image J (paint data j) and stores it in the memory 103 as history information. To do. Note that the time when the history data is created includes the time when the history image J is stored in the memory 103. Alternatively, the time when the history data is created includes the content playback time (the time on the time axis with respect to the start time of the content) from the beginning of the moving image content until the frame serving as the history image is displayed. Alternatively, the time when the history data is created includes the time from the beginning of the moving image content until a command for clearing the hand-drawn image is input, or the time from the beginning of the moving image content until the current scene is switched.

CPU106は、メモリ103の画像Jに基づいて、画像Jを縮小する(ステップS630)。   The CPU 106 reduces the image J based on the image J in the memory 103 (step S630).

図20(d)に示すように、CPU106は、縮小された画像を、タッチパネル102の履歴領域(第2の領域102B)に表示させる(ステップS632)。CPU106は、第1の履歴作成処理を終了する。   As shown in FIG. 20D, the CPU 106 displays the reduced image in the history area (second area 102B) of the touch panel 102 (step S632). The CPU 106 ends the first history creation process.

<携帯電話100における第2の履歴作成処理>
次に、本実施の形態に係る携帯電話100における第2の履歴作成処理について説明する。図22は、本実施の形態に係る携帯電話100における第2の履歴作成処理の処理手順を示すフローチャートである。図23は、第2の履歴作成処理に係る履歴データを示すイメージ図である。図24は、第2の履歴作成処理に係る履歴情報のデータ構造を示す図である。
<Second History Creation Processing in Mobile Phone 100>
Next, the second history creation process in mobile phone 100 according to the present embodiment will be described. FIG. 22 is a flowchart showing a processing procedure of second history creation processing in mobile phone 100 according to the present embodiment. FIG. 23 is an image diagram showing history data related to the second history creation processing. FIG. 24 is a diagram illustrating a data structure of history information related to the second history creation process.

図22を参照して、CPU106は、動画コンテンツの表示領域(第1の領域102A)に、手描き画像が表示されているか否かを判断する(ステップS642)。手描き画像が表示されていない場合(ステップS642においてNOである場合)、CPU106は、第2の履歴作成処理を終了する。   Referring to FIG. 22, CPU 106 determines whether or not a hand-drawn image is displayed in the moving image content display area (first area 102 </ b> A) (step S <b> 642). If a hand-drawn image is not displayed (NO in step S642), CPU 106 ends the second history creation process.

図23(a)に示すように、手描き画像が表示されている場合(ステップS642においてYESである場合)、CPU106は、データ(g)に動画開始からの現時点までの時間を設定する(ステップS644)。図23(b)および(d)に示すように、CPU106は、動画コンテンツを構成するフレームのうちの現時点の直前のフレーム(画像H)を作成する(ステップS646)。図23(b)および(c)に示すように、CPU106は、手描きレイヤに基づいて、たとえば、白を透過色として設定することによって、表示中の手描き画像Iを作成する(ステップS648)。   As shown in FIG. 23A, when a hand-drawn image is displayed (YES in step S642), CPU 106 sets the time from the start of the moving image to the current time in data (g) (step S644). ). As shown in FIGS. 23B and 23D, the CPU 106 creates a frame (image H) immediately before the current time out of the frames constituting the moving image content (step S646). As shown in FIGS. 23B and 23C, the CPU 106 creates a hand-drawn image I being displayed by setting white as a transparent color based on the hand-drawn layer (step S648).

CPU106は、作成した動画コンテンツの画像Hと手描き画像Iとをメモリ103に格納する(ステップS650)。より詳細には、図24に示すように、CPU106は、履歴データを作成した時刻(データ(g))と、動画コンテンツの画像H(ペイントデータh)と、手描き画像I(ペイントデータi)とを対応付けて、履歴情報としてメモリ103に格納する。なお、履歴データを作成した時刻は、履歴画像Jがメモリ103に記憶された時刻を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から、履歴画像となるフレームが表示されるまで、のコンテンツ再生時間(コンテンツのスタート時点を基準とした時間軸上の時刻)を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から手描き画像をクリアするための命令が入力されるまでの時間、あるいは動画コンテンツの最初から今回シーンが切り換わるまでの時間を含む。   The CPU 106 stores the created moving image content image H and hand-drawn image I in the memory 103 (step S650). More specifically, as shown in FIG. 24, the CPU 106 creates the history data creation time (data (g)), the video content image H (paint data h), and the hand-drawn image I (paint data i). Are stored in the memory 103 as history information. Note that the time when the history data is created includes the time when the history image J is stored in the memory 103. Alternatively, the time when the history data is created includes the content playback time (the time on the time axis with respect to the start time of the content) from the beginning of the moving image content until the frame serving as the history image is displayed. Alternatively, the time when the history data is created includes the time from the beginning of the moving image content until a command for clearing the hand-drawn image is input, or the time from the beginning of the moving image content until the current scene is switched.

図23(e)に示すように、CPU106は、メモリ103の動画コンテンツの画像Hと画像Iとを合成して、画像Jを作成する(ステップS652)。CPU106は、画像Jを縮小する(ステップS654)。   As shown in FIG. 23E, the CPU 106 combines the image H and the image I of the moving image content in the memory 103 to create an image J (step S652). The CPU 106 reduces the image J (step S654).

図23(f)に示すように、CPU106は、縮小された画像を、タッチパネル102の履歴領域(第2の領域)に表示させる(ステップS656)。CPU106は、第2の履歴作成処理を終了する。   As shown in FIG. 23F, the CPU 106 displays the reduced image in the history area (second area) of the touch panel 102 (step S656). The CPU 106 ends the second history creation process.

<携帯電話100における第3の履歴作成処理>
次に、本実施の形態に係る携帯電話100における第3の履歴作成処理について説明する。図25は、本実施の形態に係る携帯電話100における第3の履歴作成処理の処理手順を示すフローチャートである。図26は、第3の履歴作成処理に係る履歴データを示すイメージ図である。図27は、第3の履歴作成処理に係る履歴情報のデータ構造を示す図である。
<Third History Creation Processing in Mobile Phone 100>
Next, the third history creation process in mobile phone 100 according to the present embodiment will be described. FIG. 25 is a flowchart showing a processing procedure of third history creation processing in mobile phone 100 according to the present embodiment. FIG. 26 is an image diagram showing history data related to the third history creation processing. FIG. 27 is a diagram illustrating a data structure of history information according to the third history creating process.

図25を参照して、CPU106は、動画コンテンツの表示領域(第1の領域102A)に、手描き画像が表示されているか否かを判断する(ステップS662)。手描き画像が表示されていない場合(ステップS662においてNOである場合)、CPU106は、第3の履歴作成処理を終了する。   Referring to FIG. 25, CPU 106 determines whether or not a hand-drawn image is displayed in the moving image content display area (first area 102A) (step S662). If the hand-drawn image is not displayed (NO in step S662), CPU 106 ends the third history creation process.

図26(a)に示すように、手描き画像が表示されている場合(ステップS662においてYESである場合)、CPU106は、データ(g)に動画開始からの現時点までの時間を設定する(ステップS664)。図26(b)および(c)に示すように、CPU106は、動画コンテンツを構成するフレームのうちの現時点の直前のフレーム(画像H)を作成する(ステップS666)。CPU106は、表示中の手描き画像を表わすドローデータ(データ(c)〜(f)の組み合わせ)を作成する(ステップS668)。   As shown in FIG. 26A, when a hand-drawn image is displayed (YES in step S662), CPU 106 sets the time from the start of the moving image to the current time in data (g) (step S664). ). As shown in FIGS. 26B and 26C, the CPU 106 creates a frame (image H) immediately before the current time among the frames constituting the moving image content (step S666). CPU 106 creates draw data (a combination of data (c) to (f)) representing the hand-drawn image being displayed (step S668).

CPU106は、作成した動画コンテンツの画像Hとドローデータとをメモリ103に格納する(ステップS670)。より詳細には、図27に示すように、CPU106は、履歴データを作成した時刻(データ(g))と、動画コンテンツの画像H(ペイントデータh)と、ドローデータ(複数のデータ群(c)〜(f)のセット)とを対応付けて、メモリ103に格納する。なお、履歴データを作成した時刻は、履歴画像Jがメモリ103に記憶された時刻を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から、履歴画像となるフレームが表示されるまで、のコンテンツ再生時間(コンテンツのスタート時点を基準とした時間軸上の時刻)を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から手描き画像をクリアするための命令が入力されるまでの時間、あるいは動画コンテンツの最初から今回シーンが切り換わるまでの時間を含む。   The CPU 106 stores the created moving image content image H and draw data in the memory 103 (step S670). More specifically, as shown in FIG. 27, the CPU 106 creates the history data at the time (data (g)), the video content image H (paint data h), and the draw data (a plurality of data groups (c ) To (f)) are stored in the memory 103 in association with each other. Note that the time when the history data is created includes the time when the history image J is stored in the memory 103. Alternatively, the time when the history data is created includes the content playback time (the time on the time axis with respect to the start time of the content) from the beginning of the moving image content until the frame serving as the history image is displayed. Alternatively, the time when the history data is created includes the time from the beginning of the moving image content until a command for clearing the hand-drawn image is input, or the time from the beginning of the moving image content until the current scene is switched.

CPU106は、メモリ103の手描き画像を削除する(ステップS672)。図26(d)に示すように、CPU106は、ドローデータ(k)から手描き画像Iを作成し、メモリ103の動画コンテンツの画像Hと手描き画像Iとを合成することによって、画像Jを作成する(ステップS674)。CPU106は、画像Jを縮小する(ステップS676)。   CPU 106 deletes the hand-drawn image in memory 103 (step S672). As shown in FIG. 26D, the CPU 106 creates a hand-drawn image I from the draw data (k), and creates an image J by combining the image H of the moving image content in the memory 103 and the hand-drawn image I. (Step S674). CPU 106 reduces image J (step S676).

図26(e)に示すように、CPU106は、縮小された画像を、タッチパネル102の履歴領域(第2の領域102B)に表示させる(ステップS678)。CPU106は、第3の履歴作成処理を終了する。   As shown in FIG. 26E, the CPU 106 displays the reduced image in the history area (second area 102B) of the touch panel 102 (step S678). The CPU 106 ends the third history creation process.

[実施の形態2]
次に、本発明の実施の形態2について説明する。上述の実施の形態1に係るネットワークシステム1では、表示装置の各々が、手描き画像が入力されたときに表示されているシーンあるいは手書き画像を受信したときに表示されているシーンに関する履歴情報のみを記憶するものであった。換言すれば、表示装置は、手描き画像が入力されず、かつ、手描き画像を受信しなかったシーンに関する動画のフレームを、当該シーンが終了するときに削除していた。
[Embodiment 2]
Next, a second embodiment of the present invention will be described. In the network system 1 according to the first embodiment described above, each of the display devices only stores history information related to a scene displayed when a hand-drawn image is input or a scene displayed when a hand-written image is received. It was something to remember. In other words, the display device deletes a frame of a moving image related to a scene in which a hand-drawn image is not input and a hand-drawn image is not received when the scene ends.

これは、手描き画像が入力されていないにもかかわらずシーン毎に全ての動画フレームを記憶すると、多量のメモリが必要になるからである。また、全ての動画フレームを表示することまでは、ユーザから求められていないからである。また、全ての動画フレームを表示したり記憶したりすると、ユーザや表示装置にとって、ユーザが実際に必要とする履歴情報を見つけ出すことが困難になるからである。   This is because a large amount of memory is required if all moving image frames are stored for each scene even though a hand-drawn image is not input. Moreover, it is because it is not calculated | required by the user until all the moving image frames are displayed. Further, if all the moving image frames are displayed or stored, it is difficult for the user or the display device to find the history information that the user actually needs.

しかしながら、動画フレームが表示装置から削除された後に、当該表示装置が他の表示装置から当該動画フレームに対応するシーン中に入力された手書き画像を受信する可能性がある。この場合、表示装置は、もはや、当該手描き画像と当該動画フレームとを重畳させて表示させることができない。このような不具合は、たとえば、表示装置間のネットワークに障害が生じたときや、当該ネットワークが混雑しているときに、発生し易い。   However, after the moving image frame is deleted from the display device, the display device may receive a handwritten image input in a scene corresponding to the moving image frame from another display device. In this case, the display device can no longer display the hand-drawn image and the moving image frame superimposed on each other. Such a problem is likely to occur, for example, when a failure occurs in a network between display devices or when the network is congested.

本実施の形態に係るネットワークシステム1では、表示装置の各々が、シーンの表示中に、当該表示装置に手描き画像が入力されなくとも、また当該表示装置が手書き画像を受信しなくとも、それぞれのシーンの最後のフレームを表す画像データを一時的に記憶する。たとえば、表示装置の各々は、10シーン分の最終フレームを表わす画像データを一時情報としてメモリ103に記憶する。そして、表示装置の各々は、各々のシーンの最終フレームを表わす画像データを、当該シーンの10シーン後までに当該シーンに対応する手描き画像を他の表示装置から受信しなかった場合に、削除する。   In the network system 1 according to the present embodiment, each of the display devices can display each scene even if a hand-drawn image is not input to the display device and the display device does not receive a handwritten image while the scene is displayed. Image data representing the last frame of the scene is temporarily stored. For example, each display device stores image data representing the last frame of 10 scenes in the memory 103 as temporary information. Each display device deletes image data representing the final frame of each scene when a hand-drawn image corresponding to the scene is not received from another display device by 10 scenes after the scene. .

なお、実施の形態1に係るネットワークシステム1と同様の構成については、説明を繰り返さない。たとえば、図1のネットワークシステム1の全体構成や、図2および3のネットワークシステム1の全体的な動作概要や、図4の手書きデータの送受信に関する動作概要、図5〜7の携帯電話100のハードウェア構成や、図8および9のチャットサーバ400およびコンテンツサーバ600のハードウェア構成、図10のネットワークシステム1におけるP2P通信処理、図11の送信データのデータ構造、図12の携帯電話における入力処理、図13のペン情報の設定処理、図14の手書き処理、図15の手描き画像を示すデータ、図16の表示処理、図17の表示処理の応用例などは、本実施の形態に係るそれらと同様であるため、ここでは説明を繰り返さない。   The description of the same configuration as that of network system 1 according to Embodiment 1 will not be repeated. For example, the overall configuration of the network system 1 in FIG. 1, the overall operation overview of the network system 1 in FIGS. 2 and 3, the operation overview regarding transmission / reception of handwritten data in FIG. 4, and the hardware of the mobile phone 100 in FIGS. Hardware configuration of chat server 400 and content server 600 in FIGS. 8 and 9, P2P communication processing in network system 1 in FIG. 10, data structure of transmission data in FIG. 11, input processing in mobile phone in FIG. The pen information setting process of FIG. 13, the handwriting process of FIG. 14, the data indicating the hand-drawn image of FIG. 15, the display process of FIG. 16, the application example of the display process of FIG. Therefore, the description will not be repeated here.

ただし、図4に関しては、本実施の形態は、以下のような特徴を有する。本実施の形態においては、(B−3)に示すように第2の携帯電話100Bに手描き画像が入力されず、ネットワーク障害が生じている間に(A−4)に示すように第1の携帯電話100Aに手描き画像が入力されたとしても、第2の携帯電話100Bは、(B−5)に示すように、第1の携帯電話100Aに入力された手書き画像を履歴情報として表示することができる。   However, with respect to FIG. 4, the present embodiment has the following characteristics. In the present embodiment, as shown in (B-3), a hand-drawn image is not input to the second mobile phone 100B, and the first mobile phone 100B as shown in (A-4) while a network failure occurs. Even if the hand-drawn image is input to the mobile phone 100A, the second mobile phone 100B displays the handwritten image input to the first mobile phone 100A as history information as shown in (B-5). Can do.

本実施の形態においては、第2の携帯電話100Bは、(B−3)に示すようにシーン中に第2の携帯電話100Bに手描き画像が入力されなくても、当該シーンの最終フレームを一時情報として記憶している。そのため、(B−5)に示すように次のシーンへと切り換わった後に、第1の携帯電話100Aからの手描き画像を受信したとしても、当該一時情報と当該手書き画像とに基づいて、当該前のシーンの最終フレームと当該手描き画像とを履歴情報として記憶したり、表示したりすることができる。   In the present embodiment, as shown in (B-3), second mobile phone 100B temporarily displays the last frame of the scene even if no hand-drawn image is input to second mobile phone 100B during the scene. It is stored as information. Therefore, even if a hand-drawn image from the first mobile phone 100A is received after switching to the next scene, as shown in (B-5), based on the temporary information and the hand-written image, The last frame of the previous scene and the hand-drawn image can be stored or displayed as history information.

<携帯電話100における手書き画像表示処理>
次に、本実施の形態に係る携帯電話100における手書き画像表示処理について説明する。図28は、本実施の形態に係る携帯電話100における手書き画像表示処理の処理手順を示すフローチャートである。
<Handwritten image display processing in mobile phone 100>
Next, the handwritten image display process in the mobile phone 100 according to the present embodiment will be described. FIG. 28 is a flowchart showing a processing procedure of handwritten image display processing in mobile phone 100 according to the present embodiment.

図28を参照して、CPU106は、動画コンテンツの再生開始からのデータ送信時までの再生時間time(データ(f))を取得する(ステップS702)。CPU106は、所定時間毎に、手書きストロークの頂点の座標(データ(c))、すなわち(Cx1,Cy1)および(Cx2,Cy2)を取得する(ステップS704)。   Referring to FIG. 28, CPU 106 obtains reproduction time time (data (f)) from the start of reproduction of moving image content to the time of data transmission (step S702). The CPU 106 acquires the coordinates (data (c)) of the handwritten stroke, that is, (Cx1, Cy1) and (Cx2, Cy2), every predetermined time (step S704).

再生時間timeから現在までの間に動画コンテンツのシーンがチェンジしたか否かを判断する(ステップS706)。動画コンテンツのシーンがチェンジしなかった場合(ステップS706においてNOである場合)、CPU106は、座標(Cx1,Cy1)と座標(Cx2,Cy2)とを線で繋ぐことによって、動画コンテンツの表示領域(第1の領域102A)に手書きストロークを描画する(ステップS708)。CPU106は、手描き画像表示処理を終了する。   It is determined whether or not the scene of the moving image content has changed between the reproduction time “time” and the present time (step S706). If the scene of the video content has not changed (NO in step S706), the CPU 106 connects the coordinates (Cx1, Cy1) and the coordinates (Cx2, Cy2) with a line, thereby displaying the video content display area ( A handwritten stroke is drawn in the first area 102A) (step S708). The CPU 106 ends the hand drawn image display process.

動画コンテンツのシーンがチェンジした場合(ステップS706においてYESである場合)、CPU106は、受信した手描きデータに対する再生時間timeよりも後の履歴作成時刻(データ(g))を有する履歴データのうちで、最も新しい履歴データを検索する(ステップS710)。当該最も新しい履歴データが存在する場合(ステップS712においてYESである場合)、CPU106は、座標(Cx1,Cy1)と座標(Cx2,Cy2)とを線で繋ぐことによって、当該履歴データに手書きストロークの情報を追加する(ステップS724)。   When the scene of the moving image content is changed (YES in step S706), the CPU 106 includes history data having a history creation time (data (g)) later than the reproduction time time for the received hand-drawn data. The latest history data is searched (step S710). If the latest history data exists (YES in step S712), the CPU 106 connects the coordinates (Cx1, Cy1) and the coordinates (Cx2, Cy2) with a line, thereby adding a handwritten stroke to the history data. Information is added (step S724).

当該最も新しい履歴データが存在しない場合(ステップS712においてNOである場合)、CPU106は、受信した手描きデータに対する再生時間timeよりも後の履歴作成時刻(データ(g))を有するテンポラリ履歴データのうちで、最も新しいテンポラリ履歴データを検索する(ステップS716)。当該テンポラリ履歴データが存在しない場合(ステップS718においてNOである場合)、CPU106は、履歴作成時刻をtimeとした白紙の履歴データを作成する(ステップS720)。CPU106は、ステップS722の処理を実行する。   If the newest history data does not exist (NO in step S712), the CPU 106 selects temporary history data having a history creation time (data (g)) later than the reproduction time time for the received hand-drawn data. Thus, the newest temporary history data is searched (step S716). If the temporary history data does not exist (NO in step S718), the CPU 106 creates blank history data with the history creation time as time (step S720). CPU 106 executes the process of step S722.

当該テンポラリ履歴データが存在する場合(ステップS718においてYESである場合)、当該テンポラリ履歴データを新たな履歴データとして、既存の履歴データに追加する(ステップS722)。CPU106は、座標(Cx1,Cy1)と座標(Cx2,Cy2)とを線で繋ぐことによって、当該新たな履歴データに手書きストロークの情報を追加する(ステップS724)。   If the temporary history data exists (YES in step S718), the temporary history data is added as new history data to the existing history data (step S722). The CPU 106 adds the handwritten stroke information to the new history data by connecting the coordinates (Cx1, Cy1) and the coordinates (Cx2, Cy2) with a line (step S724).

CPU106は、当該新たな履歴データと先の履歴データとに基づいて、履歴画像をタッチパネル102に表示させる(ステップS726)。CPU106は、手描き画像表示処理を終了する。   CPU 106 displays a history image on touch panel 102 based on the new history data and the previous history data (step S726). The CPU 106 ends the hand drawn image display process.

<携帯電話100における第1の履歴作成処理>
次に、本実施の形態に係る携帯電話100における第1の履歴作成処理について説明する。図29は、本実施の形態に係る携帯電話100における第1の履歴作成処理の処理手順を示すフローチャートである。
<First History Creation Processing in Mobile Phone 100>
Next, the first history creation process in mobile phone 100 according to the present embodiment will be described. FIG. 29 is a flowchart showing a processing procedure of first history creation processing in mobile phone 100 according to the present embodiment.

図29と図20(a)とに示すように、CPU106は、データ(g)に動画開始からの現時点までの時間を設定する(ステップS822)。図20(b)および(c)に示すように、CPU106は、動画コンテンツを構成するフレームのうち、現時点の直前のフレーム(静止画像)と表示中の手描き画像とを重ね合わせた履歴画像J(ペイントデータj)を作成する(ステップS824)。   As shown in FIGS. 29 and 20A, the CPU 106 sets the time from the start of the moving image to the current time in the data (g) (step S822). As shown in FIGS. 20B and 20C, the CPU 106, among the frames constituting the moving image content, stores a history image J () in which a frame (still image) immediately before the current time and a displayed hand-drawn image are superimposed. Paint data j) is created (step S824).

CPU106は、作成した画像を、メモリ103に格納する(ステップS826)。より詳細には、図21に示すように、CPU106は、履歴データを作成した時刻(データ(g))と、履歴画像J(ペイントデータj)とを対応付けて、履歴情報としてメモリ103に格納する。なお、履歴データを作成した時刻は、履歴画像Jがメモリ103に記憶された時刻を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から、履歴画像となるフレームが表示されるまで、のコンテンツ再生時間(コンテンツのスタート時点を基準とした時間軸上の時刻)を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から手描き画像をクリアするための命令が入力されるまでの時間、あるいは動画コンテンツの最初から今回シーンが切り換わるまでの時間を含む。   The CPU 106 stores the created image in the memory 103 (step S826). More specifically, as shown in FIG. 21, the CPU 106 associates the history data creation time (data (g)) with the history image J (paint data j) and stores it in the memory 103 as history information. To do. Note that the time when the history data is created includes the time when the history image J is stored in the memory 103. Alternatively, the time when the history data is created includes the content playback time (the time on the time axis with respect to the start time of the content) from the beginning of the moving image content until the frame serving as the history image is displayed. Alternatively, the time when the history data is created includes the time from the beginning of the moving image content until a command for clearing the hand-drawn image is input, or the time from the beginning of the moving image content until the current scene is switched.

CPU106は、画像Jに手描き画像が含まれるか否かを判断する(ステップS828)。画像Jに手描き画像が含まれる場合(ステップS828においてYESである場合)、図20(d)に示すように、CPU106は、メモリ103の画像Jに基づいて、画像Jを縮小する(ステップS830)。CPU106は、縮小された画像を、履歴データとして、メモリ103に格納する。   CPU 106 determines whether or not a hand-drawn image is included in image J (step S828). When a hand-drawn image is included in image J (YES in step S828), as shown in FIG. 20D, CPU 106 reduces image J based on image J in memory 103 (step S830). . The CPU 106 stores the reduced image in the memory 103 as history data.

図20(e)に示すように、CPU106は、縮小された画像を、タッチパネル102の履歴領域(第2の領域102B)に表示させる(ステップS832)。CPU106は、第1の履歴作成処理を終了する。   As shown in FIG. 20E, the CPU 106 displays the reduced image in the history area (second area 102B) of the touch panel 102 (step S832). The CPU 106 ends the first history creation process.

画像Jに手描き画像が含まれない場合(ステップS828においてNOである場合)、CPU106は、テンポラリ履歴データの個数が規定数以上であるか否かを判断する(ステップS834)。CPU106は、テンポラリ履歴データの個数が規定数以上である場合(ステップS834においてYESである場合)、メモリ103から最も古いテンポラリ履歴データを削除して(ステップS836)、作成した画像をテンポラリ履歴データに追加する(ステップS838)。CPU106は、第1の履歴作成処理を終了する。   When the image J does not include a hand-drawn image (NO in step S828), CPU 106 determines whether or not the number of temporary history data is greater than or equal to a specified number (step S834). CPU 106 deletes the oldest temporary history data from memory 103 (step S836) when the number of temporary history data is equal to or greater than the prescribed number (YES in step S834), and creates the created image as temporary history data. It adds (step S838). The CPU 106 ends the first history creation process.

CPU106は、テンポラリ履歴データの個数が規定数未満である場合(ステップS834においてNOである場合)、作成した画像をテンポラリ履歴データに追加する(ステップS838)。CPU106は、第1の履歴作成処理を終了する。   If the number of temporary history data is less than the specified number (NO in step S834), CPU 106 adds the created image to temporary history data (step S838). The CPU 106 ends the first history creation process.

<携帯電話100における第2の履歴作成処理>
次に、本実施の形態に係る携帯電話100における第2の履歴作成処理について説明する。図30は、本実施の形態に係る携帯電話100における第2の履歴作成処理の処理手順を示すフローチャートである。
<Second History Creation Processing in Mobile Phone 100>
Next, the second history creation process in mobile phone 100 according to the present embodiment will be described. FIG. 30 is a flowchart showing a processing procedure of second history creation processing in mobile phone 100 according to the present embodiment.

図30および図23(a)に示すように、CPU106は、データ(g)に動画開始からの現時点までの時間を設定する(ステップS842)。図23(b)および(d)に示すように、CPU106は、動画コンテンツを構成するフレームのうちの現時点の直前のフレーム(画像H)を作成する(ステップS844)。   As shown in FIGS. 30 and 23A, the CPU 106 sets the time from the start of the moving image to the current time in the data (g) (step S842). As shown in FIGS. 23B and 23D, the CPU 106 creates a frame (image H) immediately before the current time out of the frames constituting the moving image content (step S844).

CPU106は、作成した動画コンテンツの画像Hを、メモリ103に格納する(ステップS846)。より詳細には、CPU106は、動画コンテンツの画像Hを作成した時刻(データ(g))と、動画コンテンツの画像H(ペイントデータh)とを対応付けて、メモリ103に格納する。   CPU 106 stores image H of the created moving image content in memory 103 (step S846). More specifically, the CPU 106 associates the time (data (g)) when the image H of the moving image content is created with the image H (paint data h) of the moving image content, and stores them in the memory 103.

CPU106は、動画上に手描き画像が存在するか否かを判断する(ステップS848)。動画上に手描き画像が存在する場合(ステップS848においてYESである場合)、図23(b)および(c)に示すように、CPU106は、手描きレイヤに基づいて、たとえば、白を透過色として設定することによって、表示中の手描き画像Iを作成する(ステップS850)。   CPU 106 determines whether or not a hand-drawn image exists on the moving image (step S848). If a hand-drawn image exists on the moving image (YES in step S848), as shown in FIGS. 23B and 23C, CPU 106 sets, for example, white as a transparent color based on the hand-drawn layer. As a result, the hand-drawn image I being displayed is created (step S850).

CPU106は、作成した動画コンテンツの画像Hと手描き画像Iとを対応付けてメモリ103に格納する(ステップS852)。より詳細には、図24に示すように、CPU106は、履歴データを作成した時刻(データ(g))と、動画コンテンツの画像H(ペイントデータh)と、手描き画像I(ペイントデータi)とを対応付けて、履歴情報としてメモリ103に格納する。なお、履歴データを作成した時刻は、履歴画像Jがメモリ103に記憶された時刻を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から、履歴画像となるフレームが表示されるまで、のコンテンツ再生時間(コンテンツのスタート時点を基準とした時間軸上の時刻)を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から手描き画像をクリアするための命令が入力されるまでの時間、あるいは動画コンテンツの最初から今回シーンが切り換わるまでの時間を含む。   The CPU 106 associates the created moving image content image H with the hand-drawn image I and stores them in the memory 103 (step S852). More specifically, as shown in FIG. 24, the CPU 106 creates the history data creation time (data (g)), the video content image H (paint data h), and the hand-drawn image I (paint data i). Are stored in the memory 103 as history information. Note that the time when the history data is created includes the time when the history image J is stored in the memory 103. Alternatively, the time when the history data is created includes the content playback time (the time on the time axis with respect to the start time of the content) from the beginning of the moving image content until the frame serving as the history image is displayed. Alternatively, the time when the history data is created includes the time from the beginning of the moving image content until a command for clearing the hand-drawn image is input, or the time from the beginning of the moving image content until the current scene is switched.

図23(e)に示すように、CPU106は、メモリ103の動画コンテンツの画像Hと画像Iとを合成して、画像Jを作成する(ステップS854)。CPU106は、画像Jを縮小する(ステップS856)。   As shown in FIG. 23E, the CPU 106 combines the image H and the image I of the moving image content in the memory 103 to create an image J (step S854). CPU 106 reduces image J (step S856).

図23(f)に示すように、CPU106は、縮小された画像を、タッチパネル102の履歴領域(第2の領域)に表示させる(ステップS858)。CPU106は、第2の履歴作成処理を終了する。   As shown in FIG. 23F, the CPU 106 displays the reduced image in the history area (second area) of the touch panel 102 (step S858). The CPU 106 ends the second history creation process.

一方、動画上に手描き画像が存在しない場合(ステップS848においてNOである場合)、CPU106は、テンポラリ履歴データの個数が規定数以上であるか否かを判断する(ステップS860)。CPU106は、テンポラリ履歴データの個数が規定数以上である場合(ステップS860においてYESである場合)、メモリ103から最も古いテンポラリ履歴データを削除して(ステップS862)、作成した画像をテンポラリ履歴データに追加する(ステップS864)。CPU106は、第2の履歴作成処理を終了する。   On the other hand, when a hand-drawn image does not exist on the moving image (NO in step S848), CPU 106 determines whether or not the number of temporary history data is greater than or equal to a specified number (step S860). If the number of temporary history data is equal to or greater than the prescribed number (YES in step S860), CPU 106 deletes the oldest temporary history data from memory 103 (step S862), and creates the created image as temporary history data. It adds (step S864). The CPU 106 ends the second history creation process.

CPU106は、テンポラリ履歴データの個数が規定数未満である場合(ステップS860においてNOである場合)、作成した画像をテンポラリ履歴データに追加する(ステップS864)。CPU106は、第2の履歴作成処理を終了する。   If the number of temporary history data is less than the specified number (NO in step S860), CPU 106 adds the created image to temporary history data (step S864). The CPU 106 ends the second history creation process.

<携帯電話100における第3の履歴作成処理>
次に、本実施の形態に係る携帯電話100における第3の履歴作成処理について説明する。図31は、本実施の形態に係る携帯電話100における第3の履歴作成処理の処理手順を示すフローチャートである。
<Third History Creation Processing in Mobile Phone 100>
Next, the third history creation process in mobile phone 100 according to the present embodiment will be described. FIG. 31 is a flowchart showing a processing procedure of third history creation processing in mobile phone 100 according to the present embodiment.

図31および図26(a)に示すように、CPU106は、データ(g)に動画開始からの現時点までの時間を設定する(ステップS872)。図26(b)および(c)に示すように、CPU106は、動画コンテンツを構成するフレームのうちの現時点の直前のフレーム(画像H)を作成する(ステップS874)。   As shown in FIGS. 31 and 26A, the CPU 106 sets the time from the start of the moving image to the current time in the data (g) (step S872). As shown in FIGS. 26B and 26C, the CPU 106 creates a frame (image H) immediately before the current time out of the frames constituting the moving image content (step S874).

CPU106は、作成した動画コンテンツの画像Hを、メモリ103に格納する(ステップS876)。より詳細には、CPU106は、動画コンテンツの画像Hを作成した時刻(データ(g))と、動画コンテンツの画像H(ペイントデータh)とを対応付けて、メモリ103に格納する。   The CPU 106 stores the created moving image content image H in the memory 103 (step S876). More specifically, the CPU 106 associates the time (data (g)) when the image H of the moving image content is created with the image H (paint data h) of the moving image content, and stores them in the memory 103.

CPU106は、動画上に手描き画像が存在するか否かを判断する(ステップS878)。動画上に手描き画像が存在する場合(ステップS878においてYESである場合)、CPU106は、表示中の手描き画像を表わすドローデータ(データ(c)〜(f)の組み合わせ)を作成する(ステップS880)。   CPU 106 determines whether or not a hand-drawn image exists on the moving image (step S878). If a hand-drawn image exists on the moving image (YES in step S878), CPU 106 creates draw data (a combination of data (c) to (f)) representing the displayed hand-drawn image (step S880). .

CPU106は、作成した動画コンテンツの画像Hとドローデータとをメモリ103に格納する(ステップS882)。より詳細には、図27に示すように、CPU106は、履歴データを作成した時刻(データ(g))と、動画コンテンツの画像H(ペイントデータh)と、ドローデータ(複数のデータ群(c)〜(f)のセット)とを対応付けて、メモリ103に格納する。なお、履歴データを作成した時刻は、履歴画像Jがメモリ103に記憶された時刻を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から、履歴画像となるフレームが表示されるまで、のコンテンツ再生時間(コンテンツのスタート時点を基準とした時間軸上の時刻)を含む。あるいは、履歴データを作成した時刻は、動画コンテンツの最初から手描き画像をクリアするための命令が入力されるまでの時間、あるいは動画コンテンツの最初から今回シーンが切り換わるまでの時間を含む。   The CPU 106 stores the created moving image content image H and draw data in the memory 103 (step S882). More specifically, as shown in FIG. 27, the CPU 106 creates the history data at the time (data (g)), the video content image H (paint data h), and the draw data (a plurality of data groups (c ) To (f)) are stored in the memory 103 in association with each other. Note that the time when the history data is created includes the time when the history image J is stored in the memory 103. Alternatively, the time when the history data is created includes the content playback time (the time on the time axis with respect to the start time of the content) from the beginning of the moving image content until the frame serving as the history image is displayed. Alternatively, the time when the history data is created includes the time from the beginning of the moving image content until a command for clearing the hand-drawn image is input, or the time from the beginning of the moving image content until the current scene is switched.

CPU106は、メモリ103の手描き画像を削除する(ステップS884)。図26(d)に示すように、CPU106は、ドローデータ(k)から手描き画像Iを作成し、メモリ103の動画コンテンツの画像Hと手描き画像Iとを合成することによって、画像Jを作成する(ステップS886)。CPU106は、画像Jを縮小する(ステップS888)。   CPU 106 deletes the hand-drawn image in memory 103 (step S884). As shown in FIG. 26D, the CPU 106 creates a hand-drawn image I from the draw data (k), and creates an image J by combining the image H of the moving image content in the memory 103 and the hand-drawn image I. (Step S886). CPU 106 reduces image J (step S888).

図26(e)に示すように、CPU106は、縮小された画像を、タッチパネル102の履歴領域(第2の領域102B)に表示させる(ステップS890)。CPU106は、第3の履歴作成処理を終了する。   As shown in FIG. 26E, the CPU 106 displays the reduced image in the history area (second area 102B) of the touch panel 102 (step S890). The CPU 106 ends the third history creation process.

一方、動画上に手描き画像が存在しない場合(ステップS878においてNOである場合)、CPU106は、テンポラリ履歴データの個数が規定数以上であるか否かを判断する(ステップS892)。CPU106は、テンポラリ履歴データの個数が規定数以上である場合(ステップS892においてYESである場合)、メモリ103から最も古いテンポラリ履歴データを削除して(ステップS894)、作成した画像をテンポラリ履歴データに追加する(ステップS896)。CPU106は、第3の履歴作成処理を終了する。   On the other hand, when a hand-drawn image does not exist on the moving image (NO in step S878), CPU 106 determines whether or not the number of temporary history data is greater than or equal to a specified number (step S892). If the number of temporary history data is equal to or greater than the prescribed number (YES in step S892), CPU 106 deletes the oldest temporary history data from memory 103 (step S894), and creates the created image as temporary history data. It adds (step S896). The CPU 106 ends the third history creation process.

CPU106は、テンポラリ履歴データの個数が規定数未満である場合(ステップS892においてNOである場合)、作成した画像をテンポラリ履歴データに追加する(ステップS896)。CPU106は、第3の履歴作成処理を終了する。   If the number of temporary history data is less than the specified number (NO in step S892), CPU 106 adds the created image to temporary history data (step S896). The CPU 106 ends the third history creation process.

<本実施の形態に係るネットワークシステム1のその他の適用例>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
<Other application examples of network system 1 according to the present embodiment>
It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード(ICメモリカード)、ROM(マスクROM、フラッシュEEPROMなど)などを用いることができる。   As a storage medium for supplying the program code, for example, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card (IC memory card), ROM (mask ROM, flash) EEPROM, etc.) can be used.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 ネットワークシステム、100,100A,100B,100C 携帯電話、101 通信デバイス、102 タッチパネル、102A 第1の領域、102B 第2の領域、103 メモリ、103A ワークメモリ、103B アドレス帳データ、103C 自端末データ、103D アドレスデータ、103E アドレスデータ、104 ペンタブレット、106 CPU、107 ディスプレイ、108 マイク、109 スピーカ、110 各種ボタン、111 第1の通知部、112 第2の通知部、113 TVアンテナ、120 スタイラスペン、200 カーナビゲーション装置、250 車両、300 パーソナルコンピュータ、400 チャットサーバ、406 メモリ、406A ルーム管理テーブル、407 固定ディスク、408 内部バス、409 サーバ通信デバイス、500 インターネット、600 コンテンツサーバ、606 メモリ、607 固定ディスク、608 内部バス、609 サーバ通信デバイス、615 固定ディスク、700 キャリア網。   1 network system, 100, 100A, 100B, 100C mobile phone, 101 communication device, 102 touch panel, 102A first area, 102B second area, 103 memory, 103A work memory, 103B address book data, 103C own terminal data, 103D address data, 103E address data, 104 pen tablet, 106 CPU, 107 display, 108 microphone, 109 speaker, 110 various buttons, 111 first notification unit, 112 second notification unit, 113 TV antenna, 120 stylus pen, 200 Car navigation device, 250 vehicle, 300 personal computer, 400 chat server, 406 memory, 406A room management table, 407 fixed disk, 40 8 Internal bus, 409 Server communication device, 500 Internet, 600 Content server, 606 Memory, 607 Fixed disk, 608 Internal bus, 609 Server communication device, 615 Fixed disk, 700 Carrier network.

Claims (10)

メモリと、
背景画像を表示するためのタッチパネルと、
前記タッチパネルを介して手描き画像の入力を受け付けて、前記タッチパネルに前記背景画像と前記手描き画像とを重ねて表示させるためのプロセッサとを備え、
前記プロセッサは、
前記背景画像に重畳された前記手描き画像を消去するための命令の入力を受け付け、
前記命令が入力されたときに前記タッチパネルに表示されていた前記背景画像と前記手描き画像とを履歴情報として前記メモリに記憶させ
前記履歴情報に基づいて、前記タッチパネルに前記背景画像と前記手描き画像とを重ねて表示させ
前記タッチパネルは、動画を表示し、
前記背景画像は、動画のフレームを含み、
前記プロセッサは、
前記タッチパネルに表示されている前記動画のシーンが切り換わったときに、当該切り換わりの直前に前記タッチパネルに表示されていた前記動画のフレームと前記手描き画像とを前記履歴情報として前記メモリに記憶させ、
前記動画のシーンが切り換わったときに、前記動画上の前記手描き画像を消去する、電子機器。
Memory,
A touch panel for displaying a background image;
A processor for accepting an input of a hand-drawn image via the touch panel and displaying the background image and the hand-drawn image on the touch panel,
The processor is
Receiving an input of a command for erasing the hand-drawn image superimposed on the background image;
The background image and the hand-drawn image displayed on the touch panel when the command is input are stored in the memory as history information,
Based on the history information, the background image and the hand-drawn image are displayed on the touch panel in an overlapping manner ,
The touch panel displays a video,
The background image includes a moving image frame;
The processor is
When the moving image scene displayed on the touch panel is switched, the moving image frame and the hand-drawn image displayed on the touch panel immediately before the switching are stored in the memory as the history information. ,
An electronic device that erases the hand-drawn image on the moving image when a scene of the moving image is switched .
前記プロセッサは、前記命令に応じて、前記背景画像上の前記手描き画像を消去する、請求項に記載の電子機器。 The electronic device according to claim 1 , wherein the processor erases the hand-drawn image on the background image in response to the instruction. 前記プロセッサは、
前記タッチパネルの第1の領域に、前記背景画像を表示させながら、当該背景画像に重ねて前記手描き画像を表示させ、
前記タッチパネルの第2の領域に、前記履歴情報に基づいて、前記背景画像と前記手描き画像と重ねて表示させる、請求項1または2に記載の電子機器。
The processor is
While displaying the background image in the first area of the touch panel, the hand-drawn image is displayed over the background image,
3. The electronic device according to claim 1, wherein the background image and the hand-drawn image are overlapped and displayed on the second area of the touch panel based on the history information.
前記背景画像を外部から受信するためのアンテナをさらに備える、請求項1からのいずれかに記載の電子機器。 The background image further comprising an antenna for receiving from the outside, the electronic device according to any one of claims 1 to 3. ネットワークを介して他の電子機器と通信するための通信インターフェイスをさらに備え、
前記プロセッサは、
前記通信インターフェイスを介して、前記タッチパネルを介して入力された前記手描き画像を前記他の電子機器へと送信し、前記他の電子機器からの手描き画像を受信し、
前記タッチパネルに、前記背景画像に重ねて、前記タッチパネルを介して入力された前記手描き画像と前記他の電子機器からの手描き画像とを表示させ、
前記タッチパネルを介して入力された前記手描き画像とともに、前記他の電子機器からの前記手描き画像を前記履歴情報として前記メモリに記憶させる、請求項1からのいずれかに記載の電子機器。
A communication interface for communicating with other electronic devices via a network;
The processor is
Sending the hand-drawn image input via the touch panel to the other electronic device via the communication interface, receiving the hand-drawn image from the other electronic device,
Over the background image on the touch panel, the hand-drawn image input via the touch panel and the hand-drawn image from the other electronic device are displayed,
Together with the hand-drawn image that is input through the touch panel, the hand-drawn image Ru is the stored in the memory as the historical information, the electronic device according to any of claims 1 to 4 from the other electronic apparatus.
前記プロセッサは、
前記手描き画像と前記背景画像とが合成されたペイントデータを前記履歴情報として前記メモリに記憶させる、請求項1からのいずれかに記載の電子機器。
The processor is
The painted image and the Ru is stored background image and the Paint data combined in the memory as the historical information, the electronic device according to any of claims 1 to 5.
前記プロセッサは、
前記手描き画像を示すペイントデータと前記背景画像を示すペイントデータとを関連付けて前記履歴情報として前記メモリに記憶させる、請求項1からのいずれかに記載の電子機器。
The processor is
The painted image the Ru is stored in memory as the history information in association with paint data indicating a paint data the background image showing the electronic device according to any one of claims 1 to 5.
前記プロセッサは、
前記手描き画像を示すドローデータと前記背景画像を示すペイントデータとを関連付けて前記履歴情報として前記メモリに記憶させる、請求項1からのいずれかに記載の電子機器。
The processor is
The hand drawn images Ru is stored in the memory as the history information in association with paint data indicating the background image and draw data indicating the electronic device according to any one of claims 1 to 5.
メモリとタッチパネルとプロセッサとを含むコンピュータにおける表示方法であって、
前記プロセッサが、前記タッチパネルに、背景画像を表示させるステップと、
前記プロセッサが、前記タッチパネルを介して、手描き画像の入力を受け付けるステップと、
前記プロセッサが、前記タッチパネルに、前記背景画像と前記手描き画像とを重ねて表示させるステップと、
前記プロセッサが、前記背景画像に重畳された前記手描き画像を消去するための命令の入力を受け付けるステップと、
前記プロセッサが、前記命令が入力されたときに前記タッチパネルに表示されていた前記背景画像と前記手描き画像とを履歴情報として前記メモリに記憶させるステップと、
前記プロセッサが、前記履歴情報に基づいて、前記タッチパネルに、前記背景画像と前記手描き画像とを重ねて表示させるステップとを備え
前記タッチパネルは、動画を表示し、
前記背景画像は、動画のフレームを含み、
前記表示方法は、
前記プロセッサが、前記タッチパネルに表示されている前記動画のシーンが切り換わったときに、当該切り換わりの直前に前記タッチパネルに表示されていた前記動画のフレームと前記手描き画像とを前記履歴情報として前記メモリに記憶させるステップと、
前記プロセッサが、前記動画のシーンが切り換わったときに、前記動画上の前記手描き画像を消去するステップとをさらに備える、表示方法。
A display method in a computer including a memory, a touch panel, and a processor,
The processor causing the touch panel to display a background image;
The processor accepting an input of a hand-drawn image via the touch panel;
The processor causing the touch panel to display the background image and the hand-drawn image superimposed on each other;
The processor accepting an input of a command for erasing the hand-drawn image superimposed on the background image;
Wherein the processor, the steps of said said background image displayed on the touch panel and the hand-drawn image as history information Ru is stored in the memory when the command is input,
The processor comprises the step of displaying the background image and the hand-drawn image on the touch panel based on the history information ,
The touch panel displays a video,
The background image includes a moving image frame;
The display method is:
When the processor switches the moving image scene displayed on the touch panel, the moving image frame and the hand-drawn image displayed on the touch panel immediately before the switching are used as the history information. Storing in memory;
And a step of erasing the hand-drawn image on the moving image when the scene of the moving image is switched .
メモリとタッチパネルとプロセッサとを含むコンピュータに画像を表示させるための表示プログラムであって、
前記タッチパネルに、背景画像を表示させるステップと、
前記タッチパネルを介して、手描き画像の入力を受け付けるステップと、
前記タッチパネルに、前記背景画像と前記手描き画像とを重ねて表示させるステップと、
前記背景画像に重畳された前記手描き画像を消去するための命令の入力を受け付けるステップと、
前記命令が入力されたときに前記タッチパネルに表示されていた前記背景画像と前記手描き画像とを履歴情報として前記メモリに記憶させるステップと、
前記履歴情報に基づいて、前記タッチパネルに前記背景画像と前記手描き画像とを重ねて表示させるステップとを、前記プロセッサに実行させ
前記タッチパネルは、動画を表示し、
前記背景画像は、動画のフレームを含み、
前記表示プログラムは、
前記タッチパネルに表示されている前記動画のシーンが切り換わったときに、当該切り換わりの直前に前記タッチパネルに表示されていた前記動画のフレームと前記手描き画像とを前記履歴情報として前記メモリに記憶させるステップと、
前記動画のシーンが切り換わったときに、前記動画上の前記手描き画像を消去するステップとを、前記プロセッサにさらに実行させる、表示プログラム。
A display program for displaying an image on a computer including a memory, a touch panel, and a processor,
Displaying a background image on the touch panel;
Receiving an input of a hand-drawn image via the touch panel;
Displaying the background image and the hand-drawn image superimposed on the touch panel;
Receiving an input of a command for erasing the hand-drawn image superimposed on the background image;
A step of Ru said to memory storing said background image displayed on the touch panel and the hand-drawn image as history information when the command is input,
Based on the history information, causing the processor to execute the step of displaying the background image and the hand-drawn image superimposed on the touch panel ,
The touch panel displays a video,
The background image includes a moving image frame;
The display program is
When the moving image scene displayed on the touch panel is switched, the moving image frame and the hand-drawn image displayed on the touch panel immediately before the switching are stored in the memory as the history information. Steps,
A display program for causing the processor to further execute a step of erasing the hand-drawn image on the moving image when a scene of the moving image is switched .
JP2010098534A 2010-04-22 2010-04-22 Electronic device, display method, and display program Expired - Fee Related JP5781275B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010098534A JP5781275B2 (en) 2010-04-22 2010-04-22 Electronic device, display method, and display program
PCT/JP2011/055381 WO2011132472A1 (en) 2010-04-22 2011-03-08 Electronic apparatus, display method, and computer readable storage medium storing display program
CN2011800202351A CN102859485A (en) 2010-04-22 2011-03-08 Electronic apparatus, display method, and computer readable storage medium storing display program
US13/637,312 US20130016058A1 (en) 2010-04-22 2011-03-08 Electronic device, display method and computer-readable recording medium storing display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010098534A JP5781275B2 (en) 2010-04-22 2010-04-22 Electronic device, display method, and display program

Publications (2)

Publication Number Publication Date
JP2011227800A JP2011227800A (en) 2011-11-10
JP5781275B2 true JP5781275B2 (en) 2015-09-16

Family

ID=45043051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010098534A Expired - Fee Related JP5781275B2 (en) 2010-04-22 2010-04-22 Electronic device, display method, and display program

Country Status (1)

Country Link
JP (1) JP5781275B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6070116B2 (en) * 2012-11-28 2017-02-01 株式会社リコー Image processing apparatus, image processing system, image processing method, and program
JP6361206B2 (en) * 2013-12-02 2018-07-25 セイコーエプソン株式会社 Projector, projector control method, and display device
JP5877263B2 (en) * 2015-06-09 2016-03-02 グリー株式会社 Image distribution method, image distribution server device, and chat system
JP7314719B2 (en) * 2019-08-28 2023-07-26 株式会社リコー Display device, display method, program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778052A (en) * 1993-06-21 1995-03-20 Casio Comput Co Ltd Handwritten input device
JPH0844764A (en) * 1994-08-03 1996-02-16 Matsushita Electric Ind Co Ltd Operation state retrieval device
JP2001034775A (en) * 1999-05-17 2001-02-09 Fuji Photo Film Co Ltd History image display method
JP2002185923A (en) * 2000-12-12 2002-06-28 Sharp Corp Moving picture recording method and moving picture reproducing method, and moving picture recording device and moving picture recording and reproducing device
JP4492124B2 (en) * 2004-01-05 2010-06-30 富士ゼロックス株式会社 Writing analysis apparatus, method, and program
JP4942922B2 (en) * 2004-09-15 2012-05-30 株式会社リコー Electronic conference system and electronic conference method
JP2006113630A (en) * 2004-10-12 2006-04-27 Seiko Epson Corp Information display
JP4820627B2 (en) * 2005-11-16 2011-11-24 パナソニック株式会社 Association device
JP2007173952A (en) * 2005-12-19 2007-07-05 Sony Corp Content reproduction system, reproducing unit and method, providing device and providing method, program, and recording medium
JP5133678B2 (en) * 2007-12-28 2013-01-30 株式会社ベネッセコーポレーション Video playback system and control method thereof
JP2009218868A (en) * 2008-03-11 2009-09-24 Hitachi Information Systems Ltd Handwriting information sharing system and handwriting information sharing method
JP5086189B2 (en) * 2008-06-20 2012-11-28 ヤフー株式会社 Server, method and program for generating digest video of video content

Also Published As

Publication number Publication date
JP2011227800A (en) 2011-11-10

Similar Documents

Publication Publication Date Title
WO2011132472A1 (en) Electronic apparatus, display method, and computer readable storage medium storing display program
JP6954402B2 (en) Transmission terminal, transmission method, transmission program and transmission system
JP6369101B2 (en) Transmission terminal, program, image display method, transmission system
JP7521568B2 (en) Transmission terminal, display method, and program
JP5903835B2 (en) Transmission terminal, image display control method, image display control program, recording medium, and transmission system
JP2015015698A (en) Transmission terminal, program, image display method, and transmission system
JP6672588B2 (en) Transmission system, method, program and system
JP6103076B6 (en) Information processing apparatus, program, and transmission system
JP5781275B2 (en) Electronic device, display method, and display program
JP5755843B2 (en) Electronic device, display method, and display program
JP2015084511A (en) Information processing device, system and program
WO2011122266A1 (en) Network system, communication method, and communication terminal
WO2011122267A1 (en) Network system, communication method, and communication terminal
JP6361728B2 (en) Transmission control system, transmission system, transmission control method, and recording medium
JP2019193279A (en) Transmission management system, transmission system, program, program providing system, and maintenance system
JP5621516B2 (en) Remote communication terminal and remote communication program
JP2017027561A (en) Terminal, communication system, communication method, and program
JP6565430B2 (en) Terminal, communication system, communication method, and program
JP6269781B2 (en) Transmission system
JP2018041990A (en) Communication terminal, communication system, display control method, and program
JP5523973B2 (en) Network system and communication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150715

R150 Certificate of patent or registration of utility model

Ref document number: 5781275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees