JP2012108899A - Electronic equipment, network system and content edition method - Google Patents

Electronic equipment, network system and content edition method Download PDF

Info

Publication number
JP2012108899A
JP2012108899A JP2011234801A JP2011234801A JP2012108899A JP 2012108899 A JP2012108899 A JP 2012108899A JP 2011234801 A JP2011234801 A JP 2011234801A JP 2011234801 A JP2011234801 A JP 2011234801A JP 2012108899 A JP2012108899 A JP 2012108899A
Authority
JP
Japan
Prior art keywords
content
cpu
related information
display
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011234801A
Other languages
Japanese (ja)
Inventor
Junji Suetsugu
純二 末次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011234801A priority Critical patent/JP2012108899A/en
Publication of JP2012108899A publication Critical patent/JP2012108899A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide electronic equipment with which relevant information explaining objects can be automatically associated with contents including text, image or sound voice.SOLUTION: Electronic equipment 100 has a database 121 in which each of a plurality of objects is stored in association with relevant information of the objects, and a processor 110 for extracting at least one of the objects from the obtained contents, reading the relevant information corresponding to at least one object from the database, editing the contents by associating the at least one object with the relevant information, and outputting the contents edited.

Description

本発明は、テキスト、画像、または音声などのコンテンツを編集するための電子機器、ネットワークシステム、およびコンテンツ編集方法に関する。   The present invention relates to an electronic device, a network system, and a content editing method for editing content such as text, images, or sound.

ユーザがテキストなどのコンテンツに含まれる単語を選択すると、当該単語の説明を表示するシステムが知れられている。   There is known a system that displays a description of a word when a user selects a word included in content such as text.

たとえば、特開2003−16088号公報(特許文献1)には、プレゼンテーション中に表示される文章の不明語に基づく理解不足を解消するための電子会議システムが開示されている。特開2003−16088号公報(特許文献1)によると、会議用共通ディスプレイと、主処理装置と、副処理装置、端末用ディスプレイ、端末用デジタイザ、操作ペンからなる複数の手元端末により構成される電子会議システムによるプレゼンテーションにおいて、聴衆者が理解できないキーワード(不明語)を指示することにより、主処理装置内のデータベースを検索し、キーワードに対応した説明文を手元端末に表示する。   For example, Japanese Patent Laid-Open No. 2003-16088 (Patent Document 1) discloses an electronic conference system for resolving lack of understanding based on unknown words in sentences displayed during a presentation. According to Japanese Patent Laying-Open No. 2003-16088 (Patent Document 1), a common display for a conference, a main processing device, a sub-processing device, a terminal display, a terminal digitizer, and a plurality of hand terminals including an operation pen are configured. In a presentation by the electronic conference system, a keyword (unknown word) that cannot be understood by the audience is designated, the database in the main processing device is searched, and an explanation corresponding to the keyword is displayed on the hand terminal.

特開2003−16088号公報JP 2003-16088 A

しかしながら、当該システムにおいては、管理者やユーザが予めテキストに含まれる単語に当該単語を説明するための情報のURLや当該情報自体を紐付けしておく必要があった。つまり、管理者やユーザは、新たなテキストを作成するたびに、当該テキストに含まれる単語に当該単語を説明するための情報のURLや当該情報自体を紐付けする必要がある。   However, in this system, it is necessary for an administrator or a user to associate a URL of information for explaining the word with the word included in the text in advance or the information itself. That is, whenever a manager or a user creates a new text, it is necessary to associate a URL of information for explaining the word with the word included in the text or the information itself.

本発明は、かかる問題を解決するためになされたものであり、その目的は、テキスト、画像または音声などを含むコンテンツに自動でオブジェクトを説明するための関連情報を紐付けしてくれる電子機器、ネットワークシステム、およびコンテンツ編集方法を提供することである。   The present invention has been made to solve such a problem, and an object of the present invention is to provide an electronic device that associates related information for automatically explaining an object with content including text, images, or audio, A network system and a content editing method are provided.

この発明のある局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、取得したコンテンツから少なくとも1つのオブジェクトを抽出し、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出し、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集し、編集されたコンテンツを出力するためのプロセッサとを備える、電子機器が提供される。   According to one aspect of the present invention, a database that stores each of a plurality of objects in association with related information of the object, and at least one object is extracted from the acquired content, and a relationship that corresponds to at least one object from the database An electronic device is provided that includes a processor for reading information, editing content by associating at least one object with related information, and outputting the edited content.

好ましくは、電子機器は、外部の端末からコンテンツを受信するための通信インターフェイスをさらに備える。プロセッサは、通信インターフェイスを介して、編集されたコンテンツを端末に送信する。   Preferably, the electronic device further includes a communication interface for receiving content from an external terminal. The processor transmits the edited content to the terminal via the communication interface.

好ましくは、電子機器は、ディスプレイをさらに備える。プロセッサは、編集されたコンテンツをディスプレイに表示させる。   Preferably, the electronic device further includes a display. The processor causes the edited content to be displayed on the display.

好ましくは、電子機器は、コンテンツから関連情報が紐付けられた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備える。プロセッサは、選択された第1のオブジェクトに紐付けされた関連情報に基づいて、第1のオブジェクトを説明するための第1の情報をディスプレイに表示する。   Preferably, the electronic device further includes an input device for receiving a command for selecting the first object associated with the related information from the content. The processor displays first information for describing the first object on the display based on the related information linked to the selected first object.

好ましくは、入力デバイスは、コンテンツから関連情報が紐付けられていない第2のオブジェクトを選択するための命令を受け付ける。プロセッサは、選択された第2のオブジェクトを説明するための第2の情報の入力を受け付けて、第2のオブジェクトと第2の情報とを対応付けてデータベースに登録する。   Preferably, the input device receives a command for selecting a second object that is not associated with related information from the content. The processor accepts input of second information for explaining the selected second object, and registers the second object and the second information in association with each other in the database.

好ましくは、関連情報は、オブジェクトを説明する情報の格納場所を示すアドレスを含む。   Preferably, the related information includes an address indicating a storage location of information describing the object.

好ましくは、関連情報は、オブジェクトを説明する情報を含む。
好ましくは、コンテンツは、テキストを含む。オブジェクトは、テキストに含まれる単語である。
Preferably, the related information includes information describing the object.
Preferably, the content includes text. An object is a word contained in text.

好ましくは、コンテンツは、画像を含む。オブジェクトは、画像の一部である。
好ましくは、コンテンツは、音声を含む。オブジェクトは、音声の一部である。
Preferably, the content includes an image. An object is a part of an image.
Preferably, the content includes sound. An object is a part of speech.

この発明の別の局面に従うと、電子機器と端末とを備えるネットワークシステムが提供される。電子機器は、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、端末からコンテンツを受信するための第1の通信インターフェイスと、コンテンツから少なくとも1つのオブジェクトを抽出し、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出し、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集し、編集されたコンテンツを出力するための第1のプロセッサとを含む。端末は、ディスプレイと、コンテンツを電子機器へ送信し、編集されたコンテンツを電子機器から受信するための第2の通信インターフェイスと、編集されたコンテンツをディスプレイに表示させるための第2のプロセッサとを含む。   If another situation of this invention is followed, a network system provided with an electronic device and a terminal will be provided. An electronic device extracts a database that stores each of a plurality of objects in association with related information of the object, a first communication interface for receiving content from a terminal, and at least one object from the content, And a first processor for reading the related information corresponding to the at least one object, editing the content by associating the at least one object with the related information, and outputting the edited content. The terminal includes a display, a second communication interface for transmitting content to the electronic device and receiving the edited content from the electronic device, and a second processor for displaying the edited content on the display. Including.

好ましくは、端末は、コンテンツから、関連情報が紐付けされた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備える。第2のプロセッサは、選択された第1のオブジェクトに紐付けされた関連情報に基づいて、第1のオブジェクトを説明するための第1の情報をディスプレイに表示する。   Preferably, the terminal further includes an input device for receiving a command for selecting the first object associated with the related information from the content. The second processor displays the first information for describing the first object on the display based on the related information linked to the selected first object.

好ましくは、入力デバイスは、コンテンツから関連情報が紐付けられていない第2のオブジェクトを選択するための命令を受け付ける。第2のプロセッサは、選択された第2のオブジェクトを説明するための第2の情報の入力を受け付けて、第2の通信インターフェイスを介して第2のオブジェクトと第2の情報とを電子機器へ送信する。第1のプロセッサは、第2のオブジェクトと第2の情報とを対応付けてデータベースに登録する。   Preferably, the input device receives a command for selecting a second object that is not associated with related information from the content. The second processor receives input of second information for describing the selected second object, and sends the second object and the second information to the electronic device via the second communication interface. Send. The first processor associates the second object and the second information and registers them in the database.

この発明の別の局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースとプロセッサとを含む電子機器におけるコンテンツ編集方法が提供される。コンテンツ編集方法は、プロセッサが、コンテンツを取得するステップと、プロセッサが、コンテンツから少なくとも1つのオブジェクトを抽出するステップと、プロセッサが、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、プロセッサが、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集するステップと、プロセッサが、編集されたコンテンツを出力するステップとを備える。   If another situation of this invention is followed, the content edit method in the electronic device containing the database and processor which each memorize | store and associate each of several objects with the relevant information of the said object will be provided. The content editing method includes: a processor acquiring content; a processor extracting at least one object from the content; a processor reading related information corresponding to the at least one object from a database; Comprises editing the content by associating at least one object with the related information, and the processor outputting the edited content.

この発明の別の局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースを有する電子機器と端末とを含むネットワークシステムにおけるコンテンツ編集方法が提供される。コンテンツ編集方法は、端末が、コンテンツを電子機器に送信するステップと、電子機器が、コンテンツから少なくとも1つのオブジェクトを抽出するステップと、電子機器が、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、電子機器が、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集するステップと、電子機器が、編集されたコンテンツを出力するステップと備える。   If another situation of this invention is followed, the content editing method in the network system containing the electronic device and terminal which have a database which matches and memorize | stores each of several objects with the relevant information of the said object will be provided. In the content editing method, the terminal transmits the content to the electronic device, the electronic device extracts at least one object from the content, and the electronic device obtains related information corresponding to the at least one object from the database. A step of reading, a step in which the electronic device edits content by associating at least one object with related information, and a step in which the electronic device outputs the edited content.

以上のように、本発明によって、テキスト、画像または音声などを含むコンテンツに自動でオブジェクトを説明するための関連情報を紐付けしてくれる電子機器、ネットワークシステム、およびコンテンツ編集方法が提供される。   As described above, according to the present invention, there are provided an electronic device, a network system, and a content editing method that automatically associates related information for describing an object with content including text, images, or audio.

本実施の形態に係るネットワークシステム1の全体構成と動作概要とを示すイメージ図である。It is an image figure which shows the whole structure and the operation | movement outline | summary of the network system 1 which concern on this Embodiment. 本実施の形態に係るサーバ100のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the server 100 which concerns on this Embodiment. 本実施の形態に係る携帯電話200のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the mobile telephone 200 which concerns on this Embodiment. 本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the edit process of the content containing the text data in the server 100 which concerns on this Embodiment. 本実施の形態に係るネットワークシステム1における説明取得処理の動作概要を示すフローチャートである。It is a flowchart which shows the operation | movement outline | summary of the description acquisition process in the network system 1 which concerns on this Embodiment. 本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の変形例の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the modification of the edit process of the content containing the text data in the server 100 which concerns on this Embodiment. 本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要を示すフローチャートである。It is a flowchart which shows the operation | movement outline | summary of the related information registration process in the network system 1 which concerns on this Embodiment. 本実施の形態に係るデータベース121が更新された後のネットワークシステム1の動作概要とを示すイメージ図である。It is an image figure which shows the operation | movement outline | summary of the network system 1 after the database 121 which concerns on this Embodiment is updated. 本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the edit process of the content containing the 1st image data in the server 100 which concerns on this Embodiment. 本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the edit process of the content containing the 2nd image data in the server 100 which concerns on this Embodiment. 本実施の形態に係るサーバ100における音声データを含むコンテンツの編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the edit process of the content containing the audio | voice data in the server 100 which concerns on this Embodiment. 本実施の形態に係る携帯電話200が編集パラメータをサーバ100に送信する場合における、ネットワークシステム1の動作概要を説明するための図である。FIG. 6 is a diagram for explaining an outline of operation of the network system 1 when the mobile phone 200 according to the present embodiment transmits editing parameters to the server 100.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<ネットワークシステム1の動作概要>
まず、本実施の形態に係るネットワークシステム1の動作概要について説明する。図1は、本実施の形態に係るネットワークシステム1の全体構成と動作概要とを示すイメージ図である。以下では、サーバ100を「電子機器」の代表例として説明する。携帯電話200を「端末」の代表例として説明する。
<Operation overview of network system 1>
First, an outline of the operation of the network system 1 according to the present embodiment will be described. FIG. 1 is an image diagram showing an overall configuration and an operation outline of a network system 1 according to the present embodiment. Hereinafter, the server 100 will be described as a representative example of “electronic device”. The mobile phone 200 will be described as a representative example of “terminal”.

図1を参照して、本実施の形態に係るネットワークシステム1は、サーバ100と、携帯電話200とを含む。サーバ100と、携帯電話200とは、インターネットなどのネットワーク300を介して接続可能である。   Referring to FIG. 1, network system 1 according to the present embodiment includes a server 100 and a mobile phone 200. The server 100 and the mobile phone 200 can be connected via a network 300 such as the Internet.

まず、携帯電話200が、コンテンツの入力を受け付ける(ステップS002)。コンテンツは、テキストデータ、画像データ、および/または音声データを含む。携帯電話200は、外部の装置あるいは記録媒体からコンテンツを受信してもよいし、ユーザからコンテンツの入力を受け付けてもよい。携帯電話200は、取得したコンテンツをディスプレイ230に表示する。   First, the mobile phone 200 accepts content input (step S002). The content includes text data, image data, and / or audio data. The mobile phone 200 may receive content from an external device or a recording medium, or may receive content input from a user. The mobile phone 200 displays the acquired content on the display 230.

携帯電話200は、ユーザからの命令(検索命令あるいは紐付け命令)に基づいて、ネットワーク300を介して当該コンテンツをサーバ100に送信する(ステップS004)。ただし、携帯電話200は、コンテンツを取得した際に自動的にサーバ100に送信しても良い。   The mobile phone 200 transmits the content to the server 100 via the network 300 based on a command (search command or linking command) from the user (step S004). However, the mobile phone 200 may automatically transmit the content to the server 100 when the content is acquired.

サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。たとえば、コンテンツがテキストデータである場合、サーバ100は、テキストを形態素解析することによって、テキストに含まれる単語(オブジェクト)を抽出する。コンテンツが画像データである場合、サーバ100は、エッジ検出によって画像から所定の条件を満たすエリア(オブジェクト)を抽出する。コンテンツが音声データである場合、サーバ100は、音声の特徴的な部分(オブジェクト)を切り出す。   The server 100 analyzes the content based on the received content (step S006). For example, when the content is text data, the server 100 extracts words (objects) included in the text by performing morphological analysis on the text. When the content is image data, the server 100 extracts an area (object) that satisfies a predetermined condition from the image by edge detection. When the content is audio data, the server 100 cuts out a characteristic portion (object) of the audio.

サーバ100は、データベース121を参照して、当該オブジェクトを検索する(ステップS008)。より詳細には、サーバ100は、データベース121から、当該オブジェクトに対応する関連情報を読み出す。   The server 100 refers to the database 121 and searches for the object (step S008). More specifically, the server 100 reads related information corresponding to the object from the database 121.

サーバ100は、コンテンツを編集する(ステップS010)。より詳細には、受信したコンテンツのオブジェクトに、当該関連情報を紐付ける。たとえば、サーバ100は、オブジェクトとしての、単語、画像、画像の一部または音声に、当該単語の説明文を取得できるURLや当該単語の説明文自体を関連情報として紐付ける。   The server 100 edits the content (step S010). More specifically, the related information is associated with the received content object. For example, the server 100 associates, as related information, a word, an image, a part of an image, or a sound as an object with a URL at which an explanation of the word can be acquired or an explanation of the word itself.

サーバ100は、オブジェクトに関連情報が紐付けされたコンテンツ(編集されたコンテンツ)を携帯電話200に送信する(ステップS012)。   The server 100 transmits content in which related information is associated with the object (edited content) to the mobile phone 200 (step S012).

携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。携帯電話200は、関連情報が紐付けられたオブジェクト(「アクセスポイント」という単語)を、他のオブジェクトとは異なる形態で表示する。たとえば、携帯電話200は、関連情報が紐付けられた単語の色を他の文字と異ならせたり、当該単語に下線を付したりする。これによって、ユーザは、どのオブジェクトが関連情報を閲覧することができるのかを認識することができる。   The mobile phone 200 displays the received content on the display 230 (step S014). The mobile phone 200 displays an object (word “access point”) associated with related information in a form different from other objects. For example, the mobile phone 200 changes the color of a word associated with related information from other characters or underlines the word. Thereby, the user can recognize which object can browse related information.

携帯電話200は、ユーザから、コンテンツに含まれるオブジェクトの選択命令を受け付ける。(ステップS016)。携帯電話200は、選択されたオブジェクトを説明する文章や画像を表示する(ステップS018)。たとえば、携帯電話200は、関連情報(URL)に基づいて、他のサーバから、オブジェクトを説明する文章や画像を受信する。あるいは、携帯電話200は、関連情報に含まれる選択されたオブジェクトを説明する文章や画像に基づいて、選択されたオブジェクトを説明する文章や画像を表示する。   The mobile phone 200 receives a selection command for an object included in the content from the user. (Step S016). The mobile phone 200 displays a sentence or an image describing the selected object (step S018). For example, the mobile phone 200 receives texts and images describing the object from another server based on the related information (URL). Alternatively, the mobile phone 200 displays a sentence or an image explaining the selected object based on a sentence or an image explaining the selected object included in the related information.

本実施の形態に係るネットワークシステム1は、上記のように構成されているため、サーバ100は、自動で、コンテンツに含まれるテキスト、画像および/または音声に、当該テキスト、画像および/または音声を説明するための情報のURLや当該情報自体を紐付けしてくれる。以下、本実施の形態に係るネットワークシステム1の具体的な構成について詳述する。   Since the network system 1 according to the present embodiment is configured as described above, the server 100 automatically adds the text, image, and / or sound to the text, image, and / or sound included in the content. The URL of the information for explanation and the information itself are linked. Hereinafter, a specific configuration of the network system 1 according to the present embodiment will be described in detail.

<サーバ100のハードウェア構成>
本実施の形態に係るサーバ100のハードウェア構成の一態様について説明する。図2は、本実施の形態に係るサーバ100のハードウェア構成を表わすブロック図である。
<Hardware Configuration of Server 100>
One aspect of the hardware configuration of the server 100 according to the present embodiment will be described. FIG. 2 is a block diagram showing a hardware configuration of server 100 according to the present embodiment.

サーバ100は、CPU(Central Processing Unit)110と、メモリ120と、ディスプレイ130と、入力デバイス140、メモリインターフェイス160、通信インターフェイス170と、スピーカ190とを含む。   The server 100 includes a CPU (Central Processing Unit) 110, a memory 120, a display 130, an input device 140, a memory interface 160, a communication interface 170, and a speaker 190.

メモリ120は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ120は、CPU110によって実行される制御プログラムと、データベース121とを記憶する。   The memory 120 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), and / or a hard disk. The memory 120 stores a control program executed by the CPU 110 and a database 121.

データベース121は、オブジェクトと当該オブジェクトを説明する情報のURL(関連情報)とを対応付けて格納する。あるいは、データベース121は、オブジェクトと当該オブジェクトを説明する情報自体(関連情報)を格納する。たとえば、データベースは、複数の単語の各々を単語の説明文に対応付けて記憶する。あるいは、データベースは、複数の画像とその画像の説明文に対応付けて記憶する。あるいは、データベースは、音声とその音声の説明文とを対応付けて記憶する。   The database 121 stores an object and a URL (related information) of information describing the object in association with each other. Alternatively, the database 121 stores an object and information itself (related information) describing the object. For example, the database stores each of a plurality of words in association with a description of the word. Alternatively, the database stores a plurality of images in association with descriptions of the images. Alternatively, the database stores the voice and the explanatory text of the voice in association with each other.

入力デバイス140は、タブレットやキーボードやマウスなどによって実現される。入力デバイスは、管理者(ユーザ)からの命令をCPU110に入力する。たとえば、CPU110は、入力デバイス140を介して、ユーザから、コンテンツに含まれるオブジェクトの選択と、オブジェクトを説明する情報とを受け付ける。   The input device 140 is realized by a tablet, a keyboard, a mouse, or the like. The input device inputs a command from an administrator (user) to the CPU 110. For example, the CPU 110 receives selection of an object included in the content and information describing the object from the user via the input device 140.

ディスプレイ130は、CPU110に制御されることによって、様々な情報を表示する。たとえば、CPU110は、コンテンツをディスプレイ130に表示させる。なお、ディスプレイ130と入力デバイス140としてのタブレットとがタッチパネルを構成してもよい。   The display 130 displays various information under the control of the CPU 110. For example, the CPU 110 displays content on the display 130. The display 130 and the tablet as the input device 140 may constitute a touch panel.

メモリインターフェイス160は、外部の記憶媒体161から情報を読み出す。換言すれば、CPU110は、メモリインターフェイス160を介して外部の記憶媒体161に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体161に格納する。   The memory interface 160 reads information from the external storage medium 161. In other words, the CPU 110 reads data stored in the external storage medium 161 via the memory interface 160 and stores the data in the memory 120. Conversely, the CPU 110 reads data from the memory 120 and stores the data in the external storage medium 161 via the memory interface 160.

なお、記憶媒体161としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。   The storage medium 161 includes a CD-ROM (Compact Disc-Read Only Memory), a DVD-ROM (Digital Versatile Disk-Read Only Memory), a USB (Universal Serial Bus) memory, a memory card, an FD (Flexible Disk), Hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only) A medium for storing the program in a nonvolatile manner such as Memory).

通信インターフェイス170は、ネットワーク300を介して携帯電話200とデータを送受信する。たとえば、通信インターフェイス170は、携帯電話200から、編集対象のコンテンツを受信する。通信インターフェイス170は、CPU110からの命令に基づいて、携帯電話200に編集されたコンテンツを送信する。通信インターフェイス170は、携帯電話200から、選択されたオブジェクトおよび当該オブジェクトの説明文を受信する。   The communication interface 170 transmits / receives data to / from the mobile phone 200 via the network 300. For example, the communication interface 170 receives content to be edited from the mobile phone 200. Communication interface 170 transmits the edited content to mobile phone 200 based on a command from CPU 110. The communication interface 170 receives the selected object and a description of the object from the mobile phone 200.

スピーカ190は、CPU110からの命令に基づいて、音声を出力する。たとえば、CPU110は、音声データに基づいて、スピーカ190に音声を出力させる。   The speaker 190 outputs sound based on a command from the CPU 110. For example, CPU 110 causes speaker 190 to output sound based on the sound data.

CPU110は、メモリ120に記憶されている各種のプログラムを実行する。サーバ100における機能および処理(図6,9,10,11などを参照。)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ120に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。   The CPU 110 executes various programs stored in the memory 120. The functions and processing (see FIGS. 6, 9, 10, and 11) in the server 100 are realized by each hardware and software executed by the CPU 110. Such software may be stored in the memory 120 in advance. The software may be stored in the above-described storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet.

<携帯電話200のハードウェア構成>
本実施の形態に係る携帯電話200のハードウェア構成の一態様について説明する。図3は、本実施の形態に係る携帯電話200のハードウェア構成を表わすブロック図である。
<Hardware configuration of mobile phone 200>
One aspect of the hardware configuration of mobile phone 200 according to the present embodiment will be described. FIG. 3 is a block diagram showing a hardware configuration of mobile phone 200 according to the present embodiment.

携帯電話200は、CPU210と、メモリ220と、ディスプレイ230と、入力デバイス240、メモリインターフェイス260、通信インターフェイス270と、スピーカ290とを含む。   The mobile phone 200 includes a CPU 210, a memory 220, a display 230, an input device 240, a memory interface 260, a communication interface 270, and a speaker 290.

メモリ220は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ220は、CPU210によって実行される制御プログラムと、コンテンツとを記憶する。   The memory 220 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), and / or a hard disk. The memory 220 stores a control program executed by the CPU 210 and content.

ディスプレイ230は、CPU210に制御されることによって、様々な情報を表示する。たとえば、CPU210は、コンテンツをディスプレイ230に表示させる。   The display 230 displays various information by being controlled by the CPU 210. For example, the CPU 210 causes the display 230 to display the content.

入力デバイス240は、タブレットやキーボードやマウスなどによって実現される。入力デバイスは、ユーザからの命令を受け付けて、CPU210に入力する。たとえば、CPU210は、入力デバイス240を介して、ユーザから、コンテンツに含まれるオブジェクトの選択と、オブジェクトを説明する情報とを受け付ける。   The input device 240 is realized by a tablet, a keyboard, a mouse, or the like. The input device receives a command from the user and inputs it to the CPU 210. For example, the CPU 210 receives selection of an object included in the content and information describing the object from the user via the input device 240.

本実施の形態においては、ディスプレイ230の表面にタブレット(入力デバイス240)が敷設されている。すなわち、本実施の形態においては、ディスプレイ230とタブレットとがタッチパネル250を構成する。ただし、携帯電話200は、タブレットを有していなくとも良い。   In the present embodiment, a tablet (input device 240) is laid on the surface of display 230. That is, in this embodiment, display 230 and tablet constitute touch panel 250. However, the mobile phone 200 may not have a tablet.

メモリインターフェイス260は、外部の記憶媒体261から情報を読み出す。CPU210は、メモリインターフェイス260を介して外部の記憶媒体261に格納されているデータを読み出して、当該データをメモリ220に格納する。逆に、CPU210は、メモリ220からデータを読み出して、メモリインターフェイス260を介して当該データを外部の記憶媒体261に格納する。   The memory interface 260 reads information from the external storage medium 261. The CPU 210 reads data stored in the external storage medium 261 via the memory interface 260 and stores the data in the memory 220. Conversely, the CPU 210 reads data from the memory 220 and stores the data in the external storage medium 261 via the memory interface 260.

なお、記憶媒体261としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。   The storage medium 261 includes a CD-ROM (Compact Disc-Read Only Memory), a DVD-ROM (Digital Versatile Disk-Read Only Memory), a USB (Universal Serial Bus) memory, a memory card, an FD (Flexible Disk), Hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only) A medium for storing the program in a nonvolatile manner such as Memory).

通信インターフェイス270は、ネットワーク300を介してサーバ100とデータを送受信する。たとえば、通信インターフェイス270は、CPU210からの命令に基づいて、サーバ100に、コンテンツを送信する。通信インターフェイス270は、CPU210からの命令に基づいて、サーバ100に、選択されたオブジェクトおよび当該オブジェクトの説明文を送信する。通信インターフェイス270は、サーバ100からの編集されたコンテンツをCPU210に入力する。   The communication interface 270 transmits / receives data to / from the server 100 via the network 300. For example, the communication interface 270 transmits content to the server 100 based on a command from the CPU 210. The communication interface 270 transmits the selected object and a description of the object to the server 100 based on a command from the CPU 210. The communication interface 270 inputs the edited content from the server 100 to the CPU 210.

スピーカ290は、CPU210からの命令に基づいて、音声を出力する。たとえば、CPU210は、音声データに基づいて、スピーカ290に音声を出力させる。   The speaker 290 outputs sound based on a command from the CPU 210. For example, the CPU 210 causes the speaker 290 to output sound based on the sound data.

CPU210は、メモリ220に記憶されている各種のプログラムを実行する。携帯電話200における機能および処理は、各ハードウェアおよびCPU210により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ220に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。   The CPU 210 executes various programs stored in the memory 220. Functions and processing in the mobile phone 200 are realized by software executed by each hardware and the CPU 210. Such software may be stored in the memory 220 in advance. The software may be stored in the above-described storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet.

<サーバ100におけるテキストデータを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100におけるコンテンツ編集処理について説明する。ここでは、テキストデータを含むコンテンツの編集処理について説明する。図4は、本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語を説明する情報の格納場所を示すURLを紐付ける。
<Edit processing of content including text data in server 100>
Next, content editing processing in the server 100 according to the present embodiment will be described. Here, editing processing of content including text data will be described. FIG. 4 is a flowchart showing a processing procedure of content editing processing including text data in server 100 according to the present embodiment. Here, by referring to the database 121, the CPU 110 associates a URL indicating a storage location of information describing the word with a word included in the text.

図4を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS102)。たとえば、CPU110は、受信したデータからテキストデータD102を取得する。   Referring to FIG. 4, CPU 110 receives content from mobile phone 200 via communication interface 170 (step S102). For example, the CPU 110 acquires the text data D102 from the received data.

CPU110は、テキストデータD102の解析処理を実行する(ステップS104)。たとえば、CPU110は、テキストの形態素解析を行う。CPU110は、形態素(単語)に分割されたテキストデータD104を取得する。   CPU110 performs the analysis process of the text data D102 (step S104). For example, the CPU 110 performs morphological analysis of text. CPU110 acquires the text data D104 divided | segmented into the morpheme (word).

CPU110は、各単語をデータベース121で検索する(ステップS106)。CPU110は、単語(たとえば、「アクセスポイント」という単語)に、当該単語に対応する関連情報(アクセスポイントの説明文を取得するためのURL)を紐付けることによって、コンテンツを編集する。   CPU110 searches each word in the database 121 (step S106). CPU 110 edits the content by associating a word (for example, the word “access point”) with related information (URL for acquiring an explanation of the access point) corresponding to the word.

CPU110は、テキストデータD106を含む、編集されたコンテンツを携帯電話200に送信する(ステップS108)。   CPU 110 transmits the edited content including text data D106 to mobile phone 200 (step S108).

これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、関連情報に紐付けされた単語のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。たとえば、携帯電話200のCPU210は、関連情報に紐付けされた単語の色を青に設定し、他の単語の色を黒に設定する。あるいは、携帯電話200のCPU210は、関連情報に紐付けされた単語に下線を付し、他の単語には下線を付さない。   As a result, the CPU 210 of the mobile phone 200 displays the edited content on the display 230. The CPU 210 of the mobile phone 200 displays the content on the display 230 in a state where the font of the word linked to the related information is different from the font of the other words. For example, the CPU 210 of the mobile phone 200 sets the color of the word associated with the related information to blue, and sets the color of other words to black. Alternatively, the CPU 210 of the mobile phone 200 adds an underline to the word associated with the related information and does not underline other words.

なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS102において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS108において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。   Note that the server 100 may complete the processing alone. That is, the server 100 may display the edited content. More specifically, in step S102, the CPU 110 receives content from an external device or a recording medium. Alternatively, the CPU 110 receives content from the user via the input device 140. In step S108, CPU 110 causes display 130 to display the edited content.

<ネットワークシステム1における説明取得処理の動作概要>
次に、本実施の形態に係るネットワークシステム1における説明取得処理の動作概要について説明する。図5は、本実施の形態に係るネットワークシステム1における説明取得処理の動作概要を示すフローチャートである。
<Outline of operation of explanation acquisition processing in network system 1>
Next, an outline of the operation of the explanation acquisition process in the network system 1 according to the present embodiment will be described. FIG. 5 is a flowchart showing an operation outline of the explanation acquisition process in the network system 1 according to the present embodiment.

図5を参照して、携帯電話200のCPU210は、ユーザから、関連情報が紐付けされた単語(第1のオブジェクト)の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されているアクセスポイントという単語にタッチする。   Referring to FIG. 5, CPU 210 of mobile phone 200 receives a selection command for a word (first object) associated with related information from a user. For example, the user touches the word “access point” displayed on the touch panel 250.

CPU210は、選択された単語に紐付けられているURLに基づいて、通信インターフェイス270を介して、サーバ100に当該単語を説明するための情報を要求する。選択された単語に紐付けられているURLが他のサーバ400に属するものであってもいよい。   The CPU 210 requests information for explaining the word from the server 100 via the communication interface 270 based on the URL associated with the selected word. The URL associated with the selected word may belong to another server 400.

CPU210は、通信インターフェイス270を介して、サーバ100から、選択された単語を説明する情報を受信する。CPU210は、選択された単語を説明する情報をディスプレイ230に表示する。たとえば、CPU210は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ230に表示させる。   CPU 210 receives information describing the selected word from server 100 via communication interface 270. The CPU 210 displays information describing the selected word on the display 230. For example, CPU 210 causes display 230 to display text and an image that explain the word access point.

なお、サーバ100で処理が完結する場合には、サーバ100のCPU110は、入力デバイス140を介して、管理者(ユーザ)から、関連情報が紐付けされた単語(第1のオブジェクト)の選択命令を受け付ける。CPU110は、選択された単語に紐付けられているURLに基づいて、当該単語を説明するための情報を取得する。CPU110は、選択された単語を説明する情報をディスプレイ130に表示する。たとえば、CPU110は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ130に表示させる。   When the processing is completed in the server 100, the CPU 110 of the server 100 selects a word (first object) associated with related information from the administrator (user) via the input device 140. Accept. CPU110 acquires the information for explaining the said word based on URL linked | related with the selected word. CPU 110 displays information describing the selected word on display 130. For example, CPU 110 causes display 130 to display text and an image that explain the word access point.

<サーバ100におけるテキストデータを含むコンテンツの編集処理の変形例>
次に、テキストデータを含むコンテンツの編集処理の変形例について説明する。図6は、本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の変形例の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語を説明する情報を格納するファイルの識別情報と紐付けし、コンテンツに当該ファイルを追加する。あるいは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語の説明文自体を紐付ける。
<Modification of Editing Process of Content Including Text Data in Server 100>
Next, a modified example of editing processing of content including text data will be described. FIG. 6 is a flowchart showing a processing procedure of a modified example of editing processing of content including text data in server 100 according to the present embodiment. Here, by referring to the database 121, the CPU 110 associates a word included in the text with identification information of a file that stores information describing the word, and adds the file to the content. Alternatively, the CPU 110 refers to the database 121 and associates the explanatory text of the word with the word included in the text.

図6を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS102)。たとえば、CPU110は、受信したデータからテキストデータD102を取得する。   Referring to FIG. 6, CPU 110 receives content from mobile phone 200 via communication interface 170 (step S102). For example, the CPU 110 acquires the text data D102 from the received data.

CPU110は、テキストデータD102の解析処理を実行する(ステップS104)。たとえば、CPU110は、テキストの形態素解析を行う。CPU110は、形態素(単語)に分割されたテキストデータD104を取得する。   CPU110 performs the analysis process of the text data D102 (step S104). For example, the CPU 110 performs morphological analysis of text. CPU110 acquires the text data D104 divided | segmented into the morpheme (word).

CPU110は、各単語をデータベース121で検索する(ステップS116)。CPU110は、単語(たとえば、「アクセスポイント」という単語)に、当該単語に対応する関連情報(アクセスポイントの説明文を格納するファイルの識別情報)を紐付けて、当該ファイルをコンテンツに追加することによって、コンテンツを編集する。あるいは、CPU110は、単語に、当該単語に対応する関連情報(説明文自体)を紐付けることによって、コンテンツを編集する。   CPU 110 searches each word in database 121 (step S116). CPU 110 associates a word (for example, the word “access point”) with related information corresponding to the word (identification information of a file storing an explanatory text of the access point), and adds the file to the content. To edit the content. Alternatively, the CPU 110 edits the content by associating the word with related information (explanatory text itself) corresponding to the word.

CPU110は、テキストデータD116を含む、編集されたコンテンツを携帯電話200に送信する(ステップS118)。   CPU 110 transmits the edited content including text data D116 to mobile phone 200 (step S118).

これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、関連情報に紐付けされた単語のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。たとえば、携帯電話200のCPU210は、関連情報に紐付けされた単語の色を青に設定し、他の単語の色を黒に設定する。あるいは、携帯電話200のCPU210は、関連情報に紐付けされた単語に下線を付し、他の単語には下線を付さない。   As a result, the CPU 210 of the mobile phone 200 displays the edited content on the display 230. The CPU 210 of the mobile phone 200 displays the content on the display 230 in a state where the font of the word linked to the related information is different from the font of the other words. For example, the CPU 210 of the mobile phone 200 sets the color of the word associated with the related information to blue, and sets the color of other words to black. Alternatively, the CPU 210 of the mobile phone 200 adds an underline to the word associated with the related information and does not underline other words.

携帯電話200のCPU210は、ユーザから、単語の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されているアクセスポイントという単語にタッチする。   CPU 210 of mobile phone 200 accepts a word selection command from the user. For example, the user touches the word “access point” displayed on the touch panel 250.

CPU210は、選択された単語(アクセスポイント)に紐付けられている関連情報に基づいて、選択された単語を説明する情報をディスプレイ230に表示する。たとえば、CPU210は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ230に表示する。   The CPU 210 displays information describing the selected word on the display 230 based on related information associated with the selected word (access point). For example, the CPU 210 displays a text and an image explaining the word “access point” on the display 230.

なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS102において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS118において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。   Note that the server 100 may complete the processing alone. That is, the server 100 may display the edited content. More specifically, in step S102, the CPU 110 receives content from an external device or a recording medium. Alternatively, the CPU 110 receives content from the user via the input device 140. In step S118, CPU 110 causes display 130 to display the edited content.

そして、サーバ100のCPU110は、入力デバイス140を介して、管理者(ユーザ)から、関連情報が紐付けされている単語(第1のオブジェクト)の選択命令を受け付ける。CPU110は、選択された単語(アクセスポイント)に紐付けられている関連情報に基づいて、選択された単語を説明する情報をディスプレイ130に表示する。たとえば、CPU110は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ130に表示する。   Then, the CPU 110 of the server 100 receives an instruction for selecting a word (first object) associated with related information from the administrator (user) via the input device 140. CPU110 displays the information explaining the selected word on the display 130 based on the relevant information linked | related with the selected word (access point). For example, the CPU 110 displays text and an image explaining the word “access point” on the display 130.

<ネットワークシステム1における関連情報登録処理の動作概要>
次に、本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要について説明する。図7は、本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要を示すフローチャートである。
<Operation Overview of Related Information Registration Processing in Network System 1>
Next, an outline of the operation of the related information registration process in the network system 1 according to the present embodiment will be described. FIG. 7 is a flowchart showing an outline of the operation of the related information registration process in the network system 1 according to the present embodiment.

図7(A)を参照して、携帯電話200のCPU210は、ユーザから、関連情報が紐付けられていない単語(第2のオブジェクト)の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されている「電子機器」という単語の上で指をスライドさせる。   Referring to FIG. 7A, CPU 210 of mobile phone 200 accepts a command for selecting a word (second object) that is not associated with related information from the user. For example, the user slides a finger on the word “electronic device” displayed on the touch panel 250.

図7(B)を参照して、CPU210は、入力デバイス240(タッチパネル250)を介して、ユーザから、選択された単語の説明文の入力を受け付ける。CPU210は、ユーザがOKボタンにタッチしたことを検知して、通信インターフェイス270を介して、サーバ100に当該単語と当該説明文とを送信する。   Referring to FIG. 7B, CPU 210 accepts input of an explanatory text of the selected word from the user via input device 240 (touch panel 250). The CPU 210 detects that the user has touched the OK button, and transmits the word and the explanatory text to the server 100 via the communication interface 270.

サーバ100のCPU110は、通信インターフェイス170を介して、携帯電話200から当該単語と当該説明文とを受信する。CPU110は、当該単語と当該説明文とをデータベース121に登録する。   The CPU 110 of the server 100 receives the word and the explanatory text from the mobile phone 200 via the communication interface 170. CPU 110 registers the word and the explanatory text in database 121.

本実施の形態においては、携帯電話200のCPU210は、ユーザがOKボタンにタッチしたことを検知して、通信インターフェイス270を介して、サーバ100に当該コンテンツも送信する。サーバ100のCPU110は、更新後のデータベースを参照して、コンテンツを編集する。CPU110は、通信インターフェイス170を介して、編集されたコンテンツを携帯電話200に送信する。   In the present embodiment, CPU 210 of mobile phone 200 detects that the user has touched the OK button, and also transmits the content to server 100 via communication interface 270. The CPU 110 of the server 100 edits the content with reference to the updated database. CPU 110 transmits the edited content to mobile phone 200 via communication interface 170.

図7(C)に示すように、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。すなわち、CPU210は、関連情報に紐付けされた単語(「電子機器」と「アクセスポイント」)のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。   As shown in FIG. 7C, the CPU 210 of the mobile phone 200 displays the edited content on the display 230. That is, the CPU 210 displays the content on the display 230 in a state where the fonts of the words (“electronic device” and “access point”) associated with the related information are different from the fonts of the other words.

なお、サーバ100が管理者(ユーザ)から新たな関連情報の入力を受け付けてもよい。より詳細には、サーバ100のCPU110が、入力デバイス140を介して、管理者(ユーザ)から、単語の選択命令を受け付ける。CPU110は、入力デバイス140を介して、管理者(ユーザ)から、選択された単語の説明文の入力を受け付ける。CPU110は、管理者(ユーザ)がOKボタンにタッチしたことを検知して、当該単語と当該説明文とをデータベース121に登録する。   Note that the server 100 may accept input of new related information from the administrator (user). More specifically, the CPU 110 of the server 100 receives a word selection command from an administrator (user) via the input device 140. CPU 110 accepts an input of an explanatory note of the selected word from the administrator (user) via input device 140. The CPU 110 detects that the administrator (user) has touched the OK button, and registers the word and the explanatory text in the database 121.

なお、サーバ100は、関連情報に紐付けされている単語の関連情報を更新してもよいし、関連情報に紐付けされていない新たな単語の関連情報をデータベース121に登録してもよい。   Note that the server 100 may update the related information of the word linked to the related information, or may register the related information of the new word not linked to the related information in the database 121.

CPU110は、更新後のデータベース121を参照して、ディスプレイ130に表示されているコンテンツを編集する。CPU110は、ディスプレイ130に編集されたコンテンツを表示する。すなわち、CPU110は、関連情報に紐付けされた単語(「電子機器」と「アクセスポイント」)のフォントが他の単語のフォントを異なる状態で、ディスプレイ130にコンテンツを表示する。   The CPU 110 edits the content displayed on the display 130 with reference to the updated database 121. CPU 110 displays the edited content on display 130. That is, CPU 110 displays the content on display 130 in a state where the fonts of the words (“electronic device” and “access point”) associated with the related information are different from the fonts of the other words.

<更新後のネットワークシステム1の動作概要>
データベース121が更新された後のネットワークシステム1の動作概要は以下のようになる。図8は、本実施の形態に係るデータベース121が更新された後のネットワークシステム1の動作概要とを示すイメージ図である。
<Operation overview of network system 1 after update>
The outline of the operation of the network system 1 after the database 121 is updated is as follows. FIG. 8 is an image diagram showing an operation outline of the network system 1 after the database 121 according to the present embodiment is updated.

図8を参照して、携帯電話200が、新たなコンテンツの入力を受け付ける(ステップS002)。携帯電話200は、ユーザからの命令(検索命令あるいは紐付け命令)に基づいて、ネットワーク300を介して当該コンテンツをサーバ100に送信する(ステップS004)。   Referring to FIG. 8, mobile phone 200 accepts input of new content (step S002). The mobile phone 200 transmits the content to the server 100 via the network 300 based on a command (search command or linking command) from the user (step S004).

サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。サーバ100は、更新後のデータベース121を参照して、当該オブジェクトを検索する(ステップS008)。より詳細には、サーバ100は、更新されたデータベース121から、当該オブジェクトに対応する関連情報を読み出す。   The server 100 analyzes the content based on the received content (step S006). The server 100 refers to the updated database 121 and searches for the object (step S008). More specifically, the server 100 reads related information corresponding to the object from the updated database 121.

サーバ100は、コンテンツを編集する(ステップS010)。サーバ100は、関連情報を有するコンテンツを携帯電話200に送信する(ステップS012)。携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。携帯電話200は、関連情報が紐付けられたオブジェクト(「アクセスポイント」と言う単語と「電子機器」という単語)を、他のオブジェクトとは異なる形態で表示する。   The server 100 edits the content (step S010). The server 100 transmits content having related information to the mobile phone 200 (step S012). The mobile phone 200 displays the received content on the display 230 (step S014). The mobile phone 200 displays objects associated with related information (a word “access point” and a word “electronic device”) in a form different from other objects.

携帯電話200は、ユーザから、コンテンツに含まれるオブジェクトの選択命令を受け付ける。(ステップS016)。携帯電話200は、選択されたオブジェクトを説明するための情報を表示する(ステップS018)。   The mobile phone 200 receives a selection command for an object included in the content from the user. (Step S016). The mobile phone 200 displays information for explaining the selected object (step S018).

<サーバ100における第1の画像データを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理について説明する。図9は、本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。
<Edit processing of content including first image data in server 100>
Next, content editing processing including first image data in server 100 according to the present embodiment will be described. FIG. 9 is a flowchart showing a processing procedure for editing content including the first image data in the server 100 according to the present embodiment.

ここでは、画像データが、楽譜の画像を示す場合について説明する。メモリ120は、複数の音符の形状を記憶する。データベース121では、五線と音符とを含む複数の画像の各々が、当該画像に対応する音階を示す情報に対応付けられている。   Here, a case where the image data indicates a score image will be described. The memory 120 stores a plurality of note shapes. In the database 121, each of a plurality of images including a staff and musical notes is associated with information indicating a musical scale corresponding to the image.

図9を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS202)。たとえば、CPU110は、受信したデータから画像データD202を取得する。   Referring to FIG. 9, CPU 110 receives content from mobile phone 200 via communication interface 170 (step S202). For example, the CPU 110 acquires the image data D202 from the received data.

CPU110は、画像データD202の解析処理を実行する(ステップS204)。たとえば、CPU110は、画像データD202に横のフィルタを適用することによって、五線の画像を示す画像データD204を取得する。   CPU110 performs the analysis process of image data D202 (step S204). For example, the CPU 110 applies the horizontal filter to the image data D202 to obtain the image data D204 indicating the staff image.

CPU110は、画像データD202と画像データD204との差分から、五線を除いた画像(画像データD206)を抽出する(ステップS206)。   The CPU 110 extracts an image (image data D206) excluding the staff from the difference between the image data D202 and the image data D204 (step S206).

CPU110は、画像データD206に含まれる画像の各々と、メモリ120に記憶されている音符の形状とをマッチングする(ステップS208)。CPU110は、音符の形状にマッチした画像と五線の画像とを重ねた画像(画像データD208)を作成する。   CPU 110 matches each of the images included in image data D206 with the shape of the note stored in memory 120 (step S208). The CPU 110 creates an image (image data D208) in which an image that matches the shape of a note and an image of a staff are superimposed.

CPU110は、音符と五線との画像(オブジェクト)をデータベース121で検索する(ステップS210)。CPU110は、音符と五線との画像(オブジェクト)の下方に関連情報(音階を示す情報)を付加する(紐付ける)ことによって、コンテンツを編集する。   CPU110 searches the database 121 for the image (object) of a note and a staff (step S210). The CPU 110 edits the content by adding (linking) related information (information indicating the scale) below the image (object) of the note and the staff.

CPU110は、画像データD210を含む、編集されたコンテンツを携帯電話200に送信する(ステップS212)。   CPU 110 transmits the edited content including image data D210 to mobile phone 200 (step S212).

これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、音符の下に音階が表示された状態で、ディスプレイ230にコンテンツを表示する。   As a result, the CPU 210 of the mobile phone 200 displays the edited content on the display 230. The CPU 210 of the mobile phone 200 displays the content on the display 230 in a state where the scale is displayed under the musical note.

なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS202において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS212において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。   Note that the server 100 may complete the processing alone. That is, the server 100 may display the edited content. More specifically, in step S202, CPU 110 receives content from an external device or recording medium. Alternatively, the CPU 110 receives content from the user via the input device 140. In step S212, CPU 110 causes edited content to be displayed on display 130.

<サーバ100における第2の画像データを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理について説明する。図10は、本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。
<Edit processing of content including second image data in server 100>
Next, content editing processing including second image data in server 100 according to the present embodiment will be described. FIG. 10 is a flowchart showing a processing procedure of content editing processing including the second image data in the server 100 according to the present embodiment.

ここでは、画像データが、人物の画像を表わす場合について説明する。データベース121では、人物の画像の各々が、当該人物を説明する情報を示す関連情報に対応付けられている。   Here, a case where the image data represents an image of a person will be described. In the database 121, each person image is associated with related information indicating information describing the person.

図10を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS302)。たとえば、CPU110は、受信したデータから画像データD302を取得する。   Referring to FIG. 10, CPU 110 receives content from mobile phone 200 via communication interface 170 (step S302). For example, the CPU 110 acquires the image data D302 from the received data.

CPU110は、画像データD302の解析処理を実行する(ステップS304)。たとえば、CPU110は、画像からエッジを検出することによって、画像データD302から顔画像(オブジェクト)毎に顔画像データD304を抽出する。   CPU110 performs the analysis process of image data D302 (step S304). For example, the CPU 110 extracts face image data D304 for each face image (object) from the image data D302 by detecting an edge from the image.

CPU110は、顔画像データD304をデータベース121で検索する(ステップS306)。CPU110は、顔画像に対応する関連情報(人物の説明文を示す情報)をコンテンツのマッピング情報D306として作成する。   CPU 110 searches face image data D304 in database 121 (step S306). The CPU 110 creates related information (information indicating a person's explanatory text) corresponding to the face image as content mapping information D306.

CPU110は、画像データD302とマッピング情報D306とをアーカイブすることによって、コンテンツを編集する(ステップS308)。   CPU 110 edits the content by archiving image data D302 and mapping information D306 (step S308).

CPU110は、編集されたコンテンツデータD308を携帯電話200に送信する(ステップS310)。   CPU 110 transmits edited content data D308 to mobile phone 200 (step S310).

これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、画像と、関連情報に紐付けされた顔画像を示すマーカ230Aとを、ディスプレイ230に表示する。ユーザがタッチパネル250の人物にタッチすると、すなわちCPU210が入力デバイス240を介して人物の選択命令を受け付けると、CPU210は、マッピング情報に基づいて当該人物の説明文をディスプレイ230に表示させる。   As a result, the CPU 210 of the mobile phone 200 displays the edited content on the display 230. The CPU 210 of the mobile phone 200 displays an image and a marker 230 </ b> A indicating a face image associated with the related information on the display 230. When the user touches a person on the touch panel 250, that is, when the CPU 210 accepts a person selection command via the input device 240, the CPU 210 causes the display 230 to display a description of the person based on the mapping information.

なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS302において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS310において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。   Note that the server 100 may complete the processing alone. That is, the server 100 may display the edited content. More specifically, in step S302, CPU 110 receives content from an external device or recording medium. Alternatively, the CPU 110 receives content from the user via the input device 140. In step S310, CPU 110 causes display 130 to display the edited content.

サーバ100のCPU110は、画像と、関連情報に紐付けされた顔画像を示すマーカとを、ディスプレイ130に表示する。CPU110は、入力デバイス140を介して、ユーザによる人物の選択命令を受け付けると、マッピング情報に基づいて当該人物の説明文をディスプレイ130に表示させる。   The CPU 110 of the server 100 displays an image and a marker indicating a face image associated with the related information on the display 130. When the CPU 110 accepts a person selection command from the user via the input device 140, the CPU 110 causes the display 130 to display a description of the person based on the mapping information.

<サーバ100における音声データを含むコンテンツの編集処理>
次に、音声データを含むコンテンツの編集処理について説明する。図11は、本実施の形態に係るサーバ100における音声データを含むコンテンツの編集処理の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、音声データに、当該音声を説明する情報の格納場所を示すURLを関連付ける(紐付ける)。
<Edit processing of content including audio data in server 100>
Next, content editing processing including audio data will be described. FIG. 11 is a flowchart showing a processing procedure of content editing processing including audio data in server 100 according to the present embodiment. Here, by referring to the database 121, the CPU 110 associates (links) the voice data with a URL indicating a storage location of information describing the voice.

図11を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS402)。たとえば、CPU110は、index.htmlと音声データとを含むコンテンツD402を取得する。   Referring to FIG. 11, CPU 110 receives content from mobile phone 200 via communication interface 170 (step S402). For example, the CPU 110 acquires content D402 including index.html and audio data.

CPU110は、コンテンツD402の解析処理を実行する(ステップS404)。CPU110は、音声データをデータベース121で検索する(ステップS404)。   CPU110 performs the analysis process of the content D402 (step S404). The CPU 110 searches the database 121 for audio data (step S404).

CPU110は、index.fileに音声データの関連情報(音声データの説明文を取得するためのURL)を追加して(紐付けして)、関連情報を表示するためのアイコンの画像データをコンテンツに追加することによって、コンテンツを編集する(ステップS406)。   The CPU 110 adds (links) related information of audio data (URL for acquiring a description of the audio data) to the index.file, and adds image data of an icon for displaying the related information to the content. By adding, the content is edited (step S406).

CPU110は、編集されたコンテンツデータD406を携帯電話200に送信する(ステップS408)。   CPU 110 transmits edited content data D406 to mobile phone 200 (step S408).

これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、index.htmlに基づいてテキストや画像を表示した状態で、音声データに基づいてスピーカ290から音声を出力し、関連情報を取得するためのアイコン230Bをディスプレイ230に表示する。ユーザがタッチパネル250のアイコン230Bにタッチすると、すなわちCPU210が入力デバイス240を介してユーザからアイコン230Bの選択命令を受け付けると、CPU210は当該音声の説明文をディスプレイ230に表示させる。   As a result, the CPU 210 of the mobile phone 200 displays the edited content on the display 230. The CPU 210 of the mobile phone 200 outputs a sound from the speaker 290 based on the sound data and displays an icon 230B for acquiring related information on the display 230 in a state where the text and the image are displayed based on the index.html. . When the user touches icon 230 </ b> B on touch panel 250, that is, when CPU 210 accepts a selection command for icon 230 </ b> B from the user via input device 240, CPU 210 causes display 230 to display an explanatory note of the sound.

なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS402において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS408において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。   Note that the server 100 may complete the processing alone. That is, the server 100 may display the edited content. More specifically, in step S402, CPU 110 receives content from an external device or recording medium. Alternatively, the CPU 110 receives content from the user via the input device 140. In step S408, CPU 110 causes edited content to be displayed on display 130.

サーバ100のCPU110は、index.htmlに基づいてテキストや画像を表示した状態で、音声データに基づいてスピーカ190から音声を出力し、関連情報を取得するためのアイコンをディスプレイ130に表示する。CPU110は、入力デバイス140を介してアイコンの選択命令を受け付けると、当該音声の説明文をディスプレイ130に表示させる。   The CPU 110 of the server 100 outputs a sound from the speaker 190 based on the sound data and displays an icon for acquiring related information on the display 130 in a state where the text or image is displayed based on the index.html. When the CPU 110 receives an icon selection command via the input device 140, the CPU 110 causes the display 130 to display the audio description.

<編集パラメータの利用>
次に、クライアントである携帯電話200が、コンテンツとともに編集パラメータをサーバ100に送信する構成について説明する。図12は、携帯電話200が編集パラメータをサーバ100に送信する場合における、ネットワークシステム1の動作概要を説明するための図である。
<Use of editing parameters>
Next, a configuration in which the mobile phone 200 as a client transmits editing parameters to the server 100 together with content will be described. FIG. 12 is a diagram for explaining an outline of the operation of the network system 1 when the mobile phone 200 transmits editing parameters to the server 100.

図12を参照して、携帯電話200は、編集パラメータを予め記憶している。携帯電話200は、コンテンツの入力を受け付ける(ステップS002)。上述したように、携帯電話200は、外部の装置あるいは記録媒体からコンテンツを受信してもよいし、ユーザからコンテンツの入力を受け付けてもよい。携帯電話200は、取得したコンテンツをディスプレイ230に表示する。   Referring to FIG. 12, mobile phone 200 stores editing parameters in advance. The mobile phone 200 accepts content input (step S002). As described above, the mobile phone 200 may receive content from an external device or a recording medium, or may receive content input from a user. The mobile phone 200 displays the acquired content on the display 230.

携帯電話200は、ユーザからの命令に基づいて、ネットワーク300を介して当該コンテンツおよび当該編集パラメータをサーバ100に送信する(ステップS004)。ただし、携帯電話200は、コンテンツを取得した際に自動的にサーバ100に送信しても良い。   The mobile phone 200 transmits the content and the editing parameter to the server 100 via the network 300 based on a command from the user (step S004). However, the mobile phone 200 may automatically transmit the content to the server 100 when the content is acquired.

サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。次いで、サーバ100は、データベース121を参照して、当該オブジェクトを検索する(ステップS008)。サーバ100は、受信した編集パラメータに基づいて、コンテンツを編集する(ステップS010)。つまり、サーバ100は、編集パラメータに応じてコンテンツの編集内容を変える。サーバ100は、編集されたコンテンツを携帯電話200に送信する(ステップS012)。携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。その他の処理(S016、S018等)は、図1等で説明した内容と同じであるので、ここでは説明を繰り返えさない。   The server 100 analyzes the content based on the received content (step S006). Next, the server 100 refers to the database 121 and searches for the object (step S008). The server 100 edits the content based on the received editing parameter (step S010). That is, the server 100 changes the content editing content according to the editing parameter. Server 100 transmits the edited content to mobile phone 200 (step S012). The mobile phone 200 displays the received content on the display 230 (step S014). Other processes (S016, S018, etc.) are the same as those described with reference to FIG. 1 and the like, and therefore description thereof will not be repeated here.

編集パラメータとしては、たとえば、以下のような3つの例が挙げられる。
(第1の例)
編集パラメータは、画面サイズなどの端末固有の情報である。携帯電話かタブレット端末かで、表示パネルのサイズが異なる。そこで、編集パラメータに表示パネルのサイズの情報を含めることにより、端末が携帯電話であれば文字だけの解説を端末に表示させ、端末が携帯電話よりも表示パネルのサイズが大きいタブレット端末であれば文字と画像との解説を端末に表示させるように、サーバ100における編集内容を変えることが可能となる。
Examples of editing parameters include the following three examples.
(First example)
The editing parameter is terminal-specific information such as a screen size. The size of the display panel differs depending on whether it is a mobile phone or a tablet device. Therefore, by including information about the size of the display panel in the editing parameters, if the terminal is a mobile phone, an explanation of only characters is displayed on the terminal, and if the terminal is a tablet terminal having a display panel size larger than that of the mobile phone, Editing contents in the server 100 can be changed so that explanations of characters and images are displayed on the terminal.

(第2の例)
編集パラメータは、ユーザが設定した情報である。なお、この場合、クライアント側の端末に編集パラメータを入力する手段が必要となる。
(Second example)
The edit parameter is information set by the user. In this case, a means for inputting editing parameters to the client side terminal is required.

初心者(たとえば、端末の各種設定処理に慣れていない者)と、上級者(端末の各種設定処理に習熟している者)とでは、解説の必要性や解説すべき事項が異なる。このため、たとえば、編集パラメータにユーザのレベルを示した情報を含めることにより、ユーザのレベルに応じた解説を端末に表示させることができる。また、たとえば、編集パラメータに管理者か一般社員かを示した情報を含めることにより、ユーザの地位(権限)に応じた表示内容を端末に表示させることができる。以上のように、編集パラメータを利用することによって、解説の詳細度合を調整可能となる。   Necessity of explanation and matters to be explained differ between beginners (for example, those who are not used to various terminal setting processes) and advanced persons (persons who are familiar with various terminal setting processes). For this reason, for example, by including information indicating the user level in the editing parameter, it is possible to display a comment according to the user level on the terminal. In addition, for example, by including information indicating whether it is an administrator or a general employee in the editing parameter, it is possible to display on the terminal display contents corresponding to the user's status (authority). As described above, it is possible to adjust the detail level of the explanation by using the editing parameter.

(第3の例)
編集パラメータは、ユーザの操作情報を元に端末が決定した情報である。なお、この場合、クライアント側である端末に編集パラメータを自動的に作成する手段が必要となる。
(Third example)
The editing parameter is information determined by the terminal based on user operation information. In this case, means for automatically creating editing parameters is required in the terminal on the client side.

ユーザによって興味がある事柄(嗜好)は異なる。そこで、編集パラメータにユーザの嗜好を示した情報を含めることにより、当該嗜好にあった解説を端末に表示させることが可能となる。   Matters (preferences) that interest users vary. Therefore, by including information indicating the user's preference in the editing parameters, it is possible to display an explanation that matches the preference on the terminal.

<その他の実施の形態>
本発明は、ホームコントローラや家電や携帯電話にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、本発明の効果を享受することが可能となる。
<Other embodiments>
Needless to say, the present invention can also be applied to a case where the program is achieved by supplying a program to a home controller, a home appliance, or a mobile phone. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 ネットワークシステム、100 サーバ、110 CPU、120 メモリ、121 データベース、130 ディスプレイ、140 入力デバイス、160 メモリインターフェイス、161 記憶媒体、170 通信インターフェイス、190 スピーカ、200 携帯電話、210 CPU、220 メモリ、230 ディスプレイ、230B アイコン、240 入力デバイス、250 タッチパネル、260 メモリインターフェイス、261 記憶媒体、270 通信インターフェイス、300 ネットワーク、400 サーバ。   1 network system, 100 server, 110 CPU, 120 memory, 121 database, 130 display, 140 input device, 160 memory interface, 161 storage medium, 170 communication interface, 190 speaker, 200 mobile phone, 210 CPU, 220 memory, 230 display , 230B icon, 240 input device, 250 touch panel, 260 memory interface, 261 storage medium, 270 communication interface, 300 network, 400 server.

Claims (7)

複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、
取得したコンテンツから少なくとも1つのオブジェクトを抽出し、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出し、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集し、編集された前記コンテンツを出力するためのプロセッサとを備える、電子機器。
A database that stores each of the plurality of objects in association with related information of the object;
Extracting at least one object from the acquired content, reading related information corresponding to the at least one object from the database, editing the content by associating the at least one object with the related information, An electronic device comprising: a processor for outputting the edited content.
ディスプレイをさらに備え、
前記プロセッサは、編集された前記コンテンツを前記ディスプレイに表示させる、請求項1に記載の電子機器。
A display,
The electronic device according to claim 1, wherein the processor displays the edited content on the display.
前記コンテンツから前記関連情報が紐付けられた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備え、
前記プロセッサは、選択された前記第1のオブジェクトに紐付けされた前記関連情報に基づいて、前記第1のオブジェクトを説明するための第1の情報を前記ディスプレイに表示する、請求項2に記載の電子機器。
An input device for receiving a command for selecting a first object associated with the related information from the content;
The said processor displays the 1st information for describing the said 1st object on the said display based on the said relevant information linked | related with the selected said 1st object. Electronic equipment.
前記プロセッサは、前記コンテンツを編集するためのパラメータをさらに取得し、当該パラメータに基づいて前記コンテンツを編集する、請求項1から3のいずれか1項に記載の電子機器。   The electronic device according to claim 1, wherein the processor further acquires a parameter for editing the content, and edits the content based on the parameter. 電子機器と端末とを備えるネットワークシステムであって、
前記電子機器は、
複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、
前記端末からコンテンツを受信するための第1の通信インターフェイスと、
前記コンテンツから少なくとも1つのオブジェクトを抽出し、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出し、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集し、編集された前記コンテンツを出力するための第1のプロセッサとを含み、
前記端末は、
ディスプレイと、
前記コンテンツを前記電子機器へ送信し、編集された前記コンテンツを前記電子機器から受信するための第2の通信インターフェイスと、
編集された前記コンテンツを前記ディスプレイに表示させるための第2のプロセッサとを含む、ネットワークシステム。
A network system including an electronic device and a terminal,
The electronic device is
A database that stores each of the plurality of objects in association with related information of the object;
A first communication interface for receiving content from the terminal;
Extracting at least one object from the content, reading related information corresponding to the at least one object from the database, editing the content by associating the at least one object with the related information, and editing A first processor for outputting said content that has been
The terminal
Display,
A second communication interface for transmitting the content to the electronic device and receiving the edited content from the electronic device;
And a second processor for causing the display to display the edited content.
複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースとプロセッサとを含む電子機器におけるコンテンツ編集方法であって、
前記プロセッサが、コンテンツを取得するステップと、
前記プロセッサが、前記コンテンツから少なくとも1つのオブジェクトを抽出するステップと、
前記プロセッサが、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、
前記プロセッサが、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集するステップと、
前記プロセッサが、編集された前記コンテンツを出力するステップとを備えるコンテンツ編集方法。
A content editing method in an electronic device including a database and a processor for storing each of a plurality of objects in association with related information of the objects,
The processor obtaining content;
The processor extracting at least one object from the content;
The processor reads related information corresponding to the at least one object from the database;
The processor editing the content by associating the at least one object with the related information;
A content editing method comprising: the processor outputting the edited content;
複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースを有する電子機器と端末とを含むネットワークシステムにおけるコンテンツ編集方法であって、
前記端末が、コンテンツを前記電子機器に送信するステップと、
前記電子機器が、前記コンテンツから少なくとも1つのオブジェクトを抽出するステップと、
前記電子機器が、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、
前記電子機器が、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集するステップと、
前記電子機器が、編集された前記コンテンツを出力するステップと備える、コンテンツ編集方法。
A content editing method in a network system including an electronic device and a terminal having a database that stores each of a plurality of objects in association with related information of the object,
The terminal transmitting content to the electronic device;
The electronic device extracting at least one object from the content;
The electronic device reading related information corresponding to the at least one object from the database;
The electronic device editing the content by associating the at least one object with the related information;
A content editing method, comprising: the electronic device outputting the edited content.
JP2011234801A 2010-10-28 2011-10-26 Electronic equipment, network system and content edition method Pending JP2012108899A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011234801A JP2012108899A (en) 2010-10-28 2011-10-26 Electronic equipment, network system and content edition method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010241935 2010-10-28
JP2010241935 2010-10-28
JP2011234801A JP2012108899A (en) 2010-10-28 2011-10-26 Electronic equipment, network system and content edition method

Publications (1)

Publication Number Publication Date
JP2012108899A true JP2012108899A (en) 2012-06-07

Family

ID=46494403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011234801A Pending JP2012108899A (en) 2010-10-28 2011-10-26 Electronic equipment, network system and content edition method

Country Status (1)

Country Link
JP (1) JP2012108899A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029684A (en) * 2012-06-28 2014-02-13 Canon Marketing Japan Inc Electronic book terminal, information processing method, and program
CN111753814A (en) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 Sample generation method, device and equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175299A (en) * 2000-09-29 2002-06-21 Ricoh Co Ltd Information providing method, information providing device, and storage medium for storing information providing program
JP2003208384A (en) * 2002-01-11 2003-07-25 Ricoh Co Ltd Method and device for providing information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175299A (en) * 2000-09-29 2002-06-21 Ricoh Co Ltd Information providing method, information providing device, and storage medium for storing information providing program
JP2003208384A (en) * 2002-01-11 2003-07-25 Ricoh Co Ltd Method and device for providing information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015047587; Microsoft▲R▼ Word 98 for Windows▲R▼ 活用ガイド 初版第5刷, 19980530, 317頁, マイクロソフト株式会社 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029684A (en) * 2012-06-28 2014-02-13 Canon Marketing Japan Inc Electronic book terminal, information processing method, and program
CN111753814A (en) * 2019-03-26 2020-10-09 杭州海康威视数字技术股份有限公司 Sample generation method, device and equipment
CN111753814B (en) * 2019-03-26 2023-07-25 杭州海康威视数字技术股份有限公司 Sample generation method, device and equipment

Similar Documents

Publication Publication Date Title
CN101998107B (en) Information processing apparatus, conference system and information processing method
JP4935658B2 (en) Browser program and information processing apparatus
JP2011100355A (en) Comment recording apparatus, comment recording method, program and recording medium
JP2005174026A (en) Information processor, its control method, and program
JP5437340B2 (en) Viewer device, server device, display control method, electronic comic editing method and program
JP6206202B2 (en) Information processing apparatus and information processing program
JP5002283B2 (en) Information processing apparatus and information processing method
KR100874289B1 (en) Electronic pen-computer multimedia interactive system
JP2012108899A (en) Electronic equipment, network system and content edition method
JP2019101739A (en) Information processor, information processing system and program
JP2017102939A (en) Authoring device, authoring method, and program
JP2006276912A (en) Device, method, and program for editing document
JP5008248B2 (en) Display processing apparatus, display processing method, display processing program, and recording medium
JP5612975B2 (en) Serif data generation apparatus, serif data generation method, and program
JP6458358B2 (en) Image processing apparatus and program
JP6112239B2 (en) INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM
JP6580927B2 (en) Karaoke control device and program
JP2000194532A (en) Object selection processor and storage medium
CN110390241B (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP6979738B1 (en) Servers and animation recommendation systems, animation recommendation methods, programs
JP6874235B2 (en) Product information management device, product information management method, and program
JPH1091701A (en) Form document system
JP2007004429A (en) Document processor
JP2002278874A (en) Electronic message board system and message board program
KR100847943B1 (en) Creating responses for an electronic pen-computer multimedia interactive system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151201