JP2012108899A - Electronic equipment, network system and content edition method - Google Patents
Electronic equipment, network system and content edition method Download PDFInfo
- Publication number
- JP2012108899A JP2012108899A JP2011234801A JP2011234801A JP2012108899A JP 2012108899 A JP2012108899 A JP 2012108899A JP 2011234801 A JP2011234801 A JP 2011234801A JP 2011234801 A JP2011234801 A JP 2011234801A JP 2012108899 A JP2012108899 A JP 2012108899A
- Authority
- JP
- Japan
- Prior art keywords
- content
- cpu
- related information
- display
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
本発明は、テキスト、画像、または音声などのコンテンツを編集するための電子機器、ネットワークシステム、およびコンテンツ編集方法に関する。 The present invention relates to an electronic device, a network system, and a content editing method for editing content such as text, images, or sound.
ユーザがテキストなどのコンテンツに含まれる単語を選択すると、当該単語の説明を表示するシステムが知れられている。 There is known a system that displays a description of a word when a user selects a word included in content such as text.
たとえば、特開2003−16088号公報(特許文献1)には、プレゼンテーション中に表示される文章の不明語に基づく理解不足を解消するための電子会議システムが開示されている。特開2003−16088号公報(特許文献1)によると、会議用共通ディスプレイと、主処理装置と、副処理装置、端末用ディスプレイ、端末用デジタイザ、操作ペンからなる複数の手元端末により構成される電子会議システムによるプレゼンテーションにおいて、聴衆者が理解できないキーワード(不明語)を指示することにより、主処理装置内のデータベースを検索し、キーワードに対応した説明文を手元端末に表示する。 For example, Japanese Patent Laid-Open No. 2003-16088 (Patent Document 1) discloses an electronic conference system for resolving lack of understanding based on unknown words in sentences displayed during a presentation. According to Japanese Patent Laying-Open No. 2003-16088 (Patent Document 1), a common display for a conference, a main processing device, a sub-processing device, a terminal display, a terminal digitizer, and a plurality of hand terminals including an operation pen are configured. In a presentation by the electronic conference system, a keyword (unknown word) that cannot be understood by the audience is designated, the database in the main processing device is searched, and an explanation corresponding to the keyword is displayed on the hand terminal.
しかしながら、当該システムにおいては、管理者やユーザが予めテキストに含まれる単語に当該単語を説明するための情報のURLや当該情報自体を紐付けしておく必要があった。つまり、管理者やユーザは、新たなテキストを作成するたびに、当該テキストに含まれる単語に当該単語を説明するための情報のURLや当該情報自体を紐付けする必要がある。 However, in this system, it is necessary for an administrator or a user to associate a URL of information for explaining the word with the word included in the text in advance or the information itself. That is, whenever a manager or a user creates a new text, it is necessary to associate a URL of information for explaining the word with the word included in the text or the information itself.
本発明は、かかる問題を解決するためになされたものであり、その目的は、テキスト、画像または音声などを含むコンテンツに自動でオブジェクトを説明するための関連情報を紐付けしてくれる電子機器、ネットワークシステム、およびコンテンツ編集方法を提供することである。 The present invention has been made to solve such a problem, and an object of the present invention is to provide an electronic device that associates related information for automatically explaining an object with content including text, images, or audio, A network system and a content editing method are provided.
この発明のある局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、取得したコンテンツから少なくとも1つのオブジェクトを抽出し、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出し、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集し、編集されたコンテンツを出力するためのプロセッサとを備える、電子機器が提供される。 According to one aspect of the present invention, a database that stores each of a plurality of objects in association with related information of the object, and at least one object is extracted from the acquired content, and a relationship that corresponds to at least one object from the database An electronic device is provided that includes a processor for reading information, editing content by associating at least one object with related information, and outputting the edited content.
好ましくは、電子機器は、外部の端末からコンテンツを受信するための通信インターフェイスをさらに備える。プロセッサは、通信インターフェイスを介して、編集されたコンテンツを端末に送信する。 Preferably, the electronic device further includes a communication interface for receiving content from an external terminal. The processor transmits the edited content to the terminal via the communication interface.
好ましくは、電子機器は、ディスプレイをさらに備える。プロセッサは、編集されたコンテンツをディスプレイに表示させる。 Preferably, the electronic device further includes a display. The processor causes the edited content to be displayed on the display.
好ましくは、電子機器は、コンテンツから関連情報が紐付けられた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備える。プロセッサは、選択された第1のオブジェクトに紐付けされた関連情報に基づいて、第1のオブジェクトを説明するための第1の情報をディスプレイに表示する。 Preferably, the electronic device further includes an input device for receiving a command for selecting the first object associated with the related information from the content. The processor displays first information for describing the first object on the display based on the related information linked to the selected first object.
好ましくは、入力デバイスは、コンテンツから関連情報が紐付けられていない第2のオブジェクトを選択するための命令を受け付ける。プロセッサは、選択された第2のオブジェクトを説明するための第2の情報の入力を受け付けて、第2のオブジェクトと第2の情報とを対応付けてデータベースに登録する。 Preferably, the input device receives a command for selecting a second object that is not associated with related information from the content. The processor accepts input of second information for explaining the selected second object, and registers the second object and the second information in association with each other in the database.
好ましくは、関連情報は、オブジェクトを説明する情報の格納場所を示すアドレスを含む。 Preferably, the related information includes an address indicating a storage location of information describing the object.
好ましくは、関連情報は、オブジェクトを説明する情報を含む。
好ましくは、コンテンツは、テキストを含む。オブジェクトは、テキストに含まれる単語である。
Preferably, the related information includes information describing the object.
Preferably, the content includes text. An object is a word contained in text.
好ましくは、コンテンツは、画像を含む。オブジェクトは、画像の一部である。
好ましくは、コンテンツは、音声を含む。オブジェクトは、音声の一部である。
Preferably, the content includes an image. An object is a part of an image.
Preferably, the content includes sound. An object is a part of speech.
この発明の別の局面に従うと、電子機器と端末とを備えるネットワークシステムが提供される。電子機器は、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、端末からコンテンツを受信するための第1の通信インターフェイスと、コンテンツから少なくとも1つのオブジェクトを抽出し、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出し、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集し、編集されたコンテンツを出力するための第1のプロセッサとを含む。端末は、ディスプレイと、コンテンツを電子機器へ送信し、編集されたコンテンツを電子機器から受信するための第2の通信インターフェイスと、編集されたコンテンツをディスプレイに表示させるための第2のプロセッサとを含む。 If another situation of this invention is followed, a network system provided with an electronic device and a terminal will be provided. An electronic device extracts a database that stores each of a plurality of objects in association with related information of the object, a first communication interface for receiving content from a terminal, and at least one object from the content, And a first processor for reading the related information corresponding to the at least one object, editing the content by associating the at least one object with the related information, and outputting the edited content. The terminal includes a display, a second communication interface for transmitting content to the electronic device and receiving the edited content from the electronic device, and a second processor for displaying the edited content on the display. Including.
好ましくは、端末は、コンテンツから、関連情報が紐付けされた第1のオブジェクトを選択するための命令を受け付けるための入力デバイスをさらに備える。第2のプロセッサは、選択された第1のオブジェクトに紐付けされた関連情報に基づいて、第1のオブジェクトを説明するための第1の情報をディスプレイに表示する。 Preferably, the terminal further includes an input device for receiving a command for selecting the first object associated with the related information from the content. The second processor displays the first information for describing the first object on the display based on the related information linked to the selected first object.
好ましくは、入力デバイスは、コンテンツから関連情報が紐付けられていない第2のオブジェクトを選択するための命令を受け付ける。第2のプロセッサは、選択された第2のオブジェクトを説明するための第2の情報の入力を受け付けて、第2の通信インターフェイスを介して第2のオブジェクトと第2の情報とを電子機器へ送信する。第1のプロセッサは、第2のオブジェクトと第2の情報とを対応付けてデータベースに登録する。 Preferably, the input device receives a command for selecting a second object that is not associated with related information from the content. The second processor receives input of second information for describing the selected second object, and sends the second object and the second information to the electronic device via the second communication interface. Send. The first processor associates the second object and the second information and registers them in the database.
この発明の別の局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースとプロセッサとを含む電子機器におけるコンテンツ編集方法が提供される。コンテンツ編集方法は、プロセッサが、コンテンツを取得するステップと、プロセッサが、コンテンツから少なくとも1つのオブジェクトを抽出するステップと、プロセッサが、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、プロセッサが、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集するステップと、プロセッサが、編集されたコンテンツを出力するステップとを備える。 If another situation of this invention is followed, the content edit method in the electronic device containing the database and processor which each memorize | store and associate each of several objects with the relevant information of the said object will be provided. The content editing method includes: a processor acquiring content; a processor extracting at least one object from the content; a processor reading related information corresponding to the at least one object from a database; Comprises editing the content by associating at least one object with the related information, and the processor outputting the edited content.
この発明の別の局面に従うと、複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースを有する電子機器と端末とを含むネットワークシステムにおけるコンテンツ編集方法が提供される。コンテンツ編集方法は、端末が、コンテンツを電子機器に送信するステップと、電子機器が、コンテンツから少なくとも1つのオブジェクトを抽出するステップと、電子機器が、データベースから少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、電子機器が、少なくとも1つのオブジェクトと関連情報とを紐付けすることによってコンテンツを編集するステップと、電子機器が、編集されたコンテンツを出力するステップと備える。 If another situation of this invention is followed, the content editing method in the network system containing the electronic device and terminal which have a database which matches and memorize | stores each of several objects with the relevant information of the said object will be provided. In the content editing method, the terminal transmits the content to the electronic device, the electronic device extracts at least one object from the content, and the electronic device obtains related information corresponding to the at least one object from the database. A step of reading, a step in which the electronic device edits content by associating at least one object with related information, and a step in which the electronic device outputs the edited content.
以上のように、本発明によって、テキスト、画像または音声などを含むコンテンツに自動でオブジェクトを説明するための関連情報を紐付けしてくれる電子機器、ネットワークシステム、およびコンテンツ編集方法が提供される。 As described above, according to the present invention, there are provided an electronic device, a network system, and a content editing method that automatically associates related information for describing an object with content including text, images, or audio.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<ネットワークシステム1の動作概要>
まず、本実施の形態に係るネットワークシステム1の動作概要について説明する。図1は、本実施の形態に係るネットワークシステム1の全体構成と動作概要とを示すイメージ図である。以下では、サーバ100を「電子機器」の代表例として説明する。携帯電話200を「端末」の代表例として説明する。
<Operation overview of network system 1>
First, an outline of the operation of the network system 1 according to the present embodiment will be described. FIG. 1 is an image diagram showing an overall configuration and an operation outline of a network system 1 according to the present embodiment. Hereinafter, the
図1を参照して、本実施の形態に係るネットワークシステム1は、サーバ100と、携帯電話200とを含む。サーバ100と、携帯電話200とは、インターネットなどのネットワーク300を介して接続可能である。
Referring to FIG. 1, network system 1 according to the present embodiment includes a
まず、携帯電話200が、コンテンツの入力を受け付ける(ステップS002)。コンテンツは、テキストデータ、画像データ、および/または音声データを含む。携帯電話200は、外部の装置あるいは記録媒体からコンテンツを受信してもよいし、ユーザからコンテンツの入力を受け付けてもよい。携帯電話200は、取得したコンテンツをディスプレイ230に表示する。
First, the
携帯電話200は、ユーザからの命令(検索命令あるいは紐付け命令)に基づいて、ネットワーク300を介して当該コンテンツをサーバ100に送信する(ステップS004)。ただし、携帯電話200は、コンテンツを取得した際に自動的にサーバ100に送信しても良い。
The
サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。たとえば、コンテンツがテキストデータである場合、サーバ100は、テキストを形態素解析することによって、テキストに含まれる単語(オブジェクト)を抽出する。コンテンツが画像データである場合、サーバ100は、エッジ検出によって画像から所定の条件を満たすエリア(オブジェクト)を抽出する。コンテンツが音声データである場合、サーバ100は、音声の特徴的な部分(オブジェクト)を切り出す。
The
サーバ100は、データベース121を参照して、当該オブジェクトを検索する(ステップS008)。より詳細には、サーバ100は、データベース121から、当該オブジェクトに対応する関連情報を読み出す。
The
サーバ100は、コンテンツを編集する(ステップS010)。より詳細には、受信したコンテンツのオブジェクトに、当該関連情報を紐付ける。たとえば、サーバ100は、オブジェクトとしての、単語、画像、画像の一部または音声に、当該単語の説明文を取得できるURLや当該単語の説明文自体を関連情報として紐付ける。
The
サーバ100は、オブジェクトに関連情報が紐付けされたコンテンツ(編集されたコンテンツ)を携帯電話200に送信する(ステップS012)。
The
携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。携帯電話200は、関連情報が紐付けられたオブジェクト(「アクセスポイント」という単語)を、他のオブジェクトとは異なる形態で表示する。たとえば、携帯電話200は、関連情報が紐付けられた単語の色を他の文字と異ならせたり、当該単語に下線を付したりする。これによって、ユーザは、どのオブジェクトが関連情報を閲覧することができるのかを認識することができる。
The
携帯電話200は、ユーザから、コンテンツに含まれるオブジェクトの選択命令を受け付ける。(ステップS016)。携帯電話200は、選択されたオブジェクトを説明する文章や画像を表示する(ステップS018)。たとえば、携帯電話200は、関連情報(URL)に基づいて、他のサーバから、オブジェクトを説明する文章や画像を受信する。あるいは、携帯電話200は、関連情報に含まれる選択されたオブジェクトを説明する文章や画像に基づいて、選択されたオブジェクトを説明する文章や画像を表示する。
The
本実施の形態に係るネットワークシステム1は、上記のように構成されているため、サーバ100は、自動で、コンテンツに含まれるテキスト、画像および/または音声に、当該テキスト、画像および/または音声を説明するための情報のURLや当該情報自体を紐付けしてくれる。以下、本実施の形態に係るネットワークシステム1の具体的な構成について詳述する。
Since the network system 1 according to the present embodiment is configured as described above, the
<サーバ100のハードウェア構成>
本実施の形態に係るサーバ100のハードウェア構成の一態様について説明する。図2は、本実施の形態に係るサーバ100のハードウェア構成を表わすブロック図である。
<Hardware Configuration of
One aspect of the hardware configuration of the
サーバ100は、CPU(Central Processing Unit)110と、メモリ120と、ディスプレイ130と、入力デバイス140、メモリインターフェイス160、通信インターフェイス170と、スピーカ190とを含む。
The
メモリ120は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ120は、CPU110によって実行される制御プログラムと、データベース121とを記憶する。
The
データベース121は、オブジェクトと当該オブジェクトを説明する情報のURL(関連情報)とを対応付けて格納する。あるいは、データベース121は、オブジェクトと当該オブジェクトを説明する情報自体(関連情報)を格納する。たとえば、データベースは、複数の単語の各々を単語の説明文に対応付けて記憶する。あるいは、データベースは、複数の画像とその画像の説明文に対応付けて記憶する。あるいは、データベースは、音声とその音声の説明文とを対応付けて記憶する。
The
入力デバイス140は、タブレットやキーボードやマウスなどによって実現される。入力デバイスは、管理者(ユーザ)からの命令をCPU110に入力する。たとえば、CPU110は、入力デバイス140を介して、ユーザから、コンテンツに含まれるオブジェクトの選択と、オブジェクトを説明する情報とを受け付ける。
The
ディスプレイ130は、CPU110に制御されることによって、様々な情報を表示する。たとえば、CPU110は、コンテンツをディスプレイ130に表示させる。なお、ディスプレイ130と入力デバイス140としてのタブレットとがタッチパネルを構成してもよい。
The
メモリインターフェイス160は、外部の記憶媒体161から情報を読み出す。換言すれば、CPU110は、メモリインターフェイス160を介して外部の記憶媒体161に格納されているデータを読み出して、当該データをメモリ120に格納する。逆に、CPU110は、メモリ120からデータを読み出して、メモリインターフェイス160を介して当該データを外部の記憶媒体161に格納する。
The
なお、記憶媒体161としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
The
通信インターフェイス170は、ネットワーク300を介して携帯電話200とデータを送受信する。たとえば、通信インターフェイス170は、携帯電話200から、編集対象のコンテンツを受信する。通信インターフェイス170は、CPU110からの命令に基づいて、携帯電話200に編集されたコンテンツを送信する。通信インターフェイス170は、携帯電話200から、選択されたオブジェクトおよび当該オブジェクトの説明文を受信する。
The
スピーカ190は、CPU110からの命令に基づいて、音声を出力する。たとえば、CPU110は、音声データに基づいて、スピーカ190に音声を出力させる。
The
CPU110は、メモリ120に記憶されている各種のプログラムを実行する。サーバ100における機能および処理(図6,9,10,11などを参照。)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ120に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
The
<携帯電話200のハードウェア構成>
本実施の形態に係る携帯電話200のハードウェア構成の一態様について説明する。図3は、本実施の形態に係る携帯電話200のハードウェア構成を表わすブロック図である。
<Hardware configuration of
One aspect of the hardware configuration of
携帯電話200は、CPU210と、メモリ220と、ディスプレイ230と、入力デバイス240、メモリインターフェイス260、通信インターフェイス270と、スピーカ290とを含む。
The
メモリ220は、各種のRAM(Random Access Memory)、ROM(Read-Only Memory)および/またはハードディスクなどによって実現される。メモリ220は、CPU210によって実行される制御プログラムと、コンテンツとを記憶する。
The
ディスプレイ230は、CPU210に制御されることによって、様々な情報を表示する。たとえば、CPU210は、コンテンツをディスプレイ230に表示させる。
The
入力デバイス240は、タブレットやキーボードやマウスなどによって実現される。入力デバイスは、ユーザからの命令を受け付けて、CPU210に入力する。たとえば、CPU210は、入力デバイス240を介して、ユーザから、コンテンツに含まれるオブジェクトの選択と、オブジェクトを説明する情報とを受け付ける。
The
本実施の形態においては、ディスプレイ230の表面にタブレット(入力デバイス240)が敷設されている。すなわち、本実施の形態においては、ディスプレイ230とタブレットとがタッチパネル250を構成する。ただし、携帯電話200は、タブレットを有していなくとも良い。
In the present embodiment, a tablet (input device 240) is laid on the surface of
メモリインターフェイス260は、外部の記憶媒体261から情報を読み出す。CPU210は、メモリインターフェイス260を介して外部の記憶媒体261に格納されているデータを読み出して、当該データをメモリ220に格納する。逆に、CPU210は、メモリ220からデータを読み出して、メモリインターフェイス260を介して当該データを外部の記憶媒体261に格納する。
The
なお、記憶媒体261としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
The
通信インターフェイス270は、ネットワーク300を介してサーバ100とデータを送受信する。たとえば、通信インターフェイス270は、CPU210からの命令に基づいて、サーバ100に、コンテンツを送信する。通信インターフェイス270は、CPU210からの命令に基づいて、サーバ100に、選択されたオブジェクトおよび当該オブジェクトの説明文を送信する。通信インターフェイス270は、サーバ100からの編集されたコンテンツをCPU210に入力する。
The
スピーカ290は、CPU210からの命令に基づいて、音声を出力する。たとえば、CPU210は、音声データに基づいて、スピーカ290に音声を出力させる。
The
CPU210は、メモリ220に記憶されている各種のプログラムを実行する。携帯電話200における機能および処理は、各ハードウェアおよびCPU210により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ220に予め記憶されている場合がある。また、ソフトウェアは、上述した記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
The
<サーバ100におけるテキストデータを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100におけるコンテンツ編集処理について説明する。ここでは、テキストデータを含むコンテンツの編集処理について説明する。図4は、本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語を説明する情報の格納場所を示すURLを紐付ける。
<Edit processing of content including text data in
Next, content editing processing in the
図4を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS102)。たとえば、CPU110は、受信したデータからテキストデータD102を取得する。
Referring to FIG. 4,
CPU110は、テキストデータD102の解析処理を実行する(ステップS104)。たとえば、CPU110は、テキストの形態素解析を行う。CPU110は、形態素(単語)に分割されたテキストデータD104を取得する。
CPU110 performs the analysis process of the text data D102 (step S104). For example, the
CPU110は、各単語をデータベース121で検索する(ステップS106)。CPU110は、単語(たとえば、「アクセスポイント」という単語)に、当該単語に対応する関連情報(アクセスポイントの説明文を取得するためのURL)を紐付けることによって、コンテンツを編集する。
CPU110 searches each word in the database 121 (step S106).
CPU110は、テキストデータD106を含む、編集されたコンテンツを携帯電話200に送信する(ステップS108)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、関連情報に紐付けされた単語のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。たとえば、携帯電話200のCPU210は、関連情報に紐付けされた単語の色を青に設定し、他の単語の色を黒に設定する。あるいは、携帯電話200のCPU210は、関連情報に紐付けされた単語に下線を付し、他の単語には下線を付さない。
As a result, the
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS102において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS108において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
Note that the
<ネットワークシステム1における説明取得処理の動作概要>
次に、本実施の形態に係るネットワークシステム1における説明取得処理の動作概要について説明する。図5は、本実施の形態に係るネットワークシステム1における説明取得処理の動作概要を示すフローチャートである。
<Outline of operation of explanation acquisition processing in network system 1>
Next, an outline of the operation of the explanation acquisition process in the network system 1 according to the present embodiment will be described. FIG. 5 is a flowchart showing an operation outline of the explanation acquisition process in the network system 1 according to the present embodiment.
図5を参照して、携帯電話200のCPU210は、ユーザから、関連情報が紐付けされた単語(第1のオブジェクト)の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されているアクセスポイントという単語にタッチする。
Referring to FIG. 5,
CPU210は、選択された単語に紐付けられているURLに基づいて、通信インターフェイス270を介して、サーバ100に当該単語を説明するための情報を要求する。選択された単語に紐付けられているURLが他のサーバ400に属するものであってもいよい。
The
CPU210は、通信インターフェイス270を介して、サーバ100から、選択された単語を説明する情報を受信する。CPU210は、選択された単語を説明する情報をディスプレイ230に表示する。たとえば、CPU210は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ230に表示させる。
なお、サーバ100で処理が完結する場合には、サーバ100のCPU110は、入力デバイス140を介して、管理者(ユーザ)から、関連情報が紐付けされた単語(第1のオブジェクト)の選択命令を受け付ける。CPU110は、選択された単語に紐付けられているURLに基づいて、当該単語を説明するための情報を取得する。CPU110は、選択された単語を説明する情報をディスプレイ130に表示する。たとえば、CPU110は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ130に表示させる。
When the processing is completed in the
<サーバ100におけるテキストデータを含むコンテンツの編集処理の変形例>
次に、テキストデータを含むコンテンツの編集処理の変形例について説明する。図6は、本実施の形態に係るサーバ100におけるテキストデータを含むコンテンツの編集処理の変形例の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語を説明する情報を格納するファイルの識別情報と紐付けし、コンテンツに当該ファイルを追加する。あるいは、CPU110が、データベース121を参照することによって、テキストに含まれる単語に、当該単語の説明文自体を紐付ける。
<Modification of Editing Process of Content Including Text Data in
Next, a modified example of editing processing of content including text data will be described. FIG. 6 is a flowchart showing a processing procedure of a modified example of editing processing of content including text data in
図6を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS102)。たとえば、CPU110は、受信したデータからテキストデータD102を取得する。
Referring to FIG. 6,
CPU110は、テキストデータD102の解析処理を実行する(ステップS104)。たとえば、CPU110は、テキストの形態素解析を行う。CPU110は、形態素(単語)に分割されたテキストデータD104を取得する。
CPU110 performs the analysis process of the text data D102 (step S104). For example, the
CPU110は、各単語をデータベース121で検索する(ステップS116)。CPU110は、単語(たとえば、「アクセスポイント」という単語)に、当該単語に対応する関連情報(アクセスポイントの説明文を格納するファイルの識別情報)を紐付けて、当該ファイルをコンテンツに追加することによって、コンテンツを編集する。あるいは、CPU110は、単語に、当該単語に対応する関連情報(説明文自体)を紐付けることによって、コンテンツを編集する。
CPU110は、テキストデータD116を含む、編集されたコンテンツを携帯電話200に送信する(ステップS118)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、関連情報に紐付けされた単語のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。たとえば、携帯電話200のCPU210は、関連情報に紐付けされた単語の色を青に設定し、他の単語の色を黒に設定する。あるいは、携帯電話200のCPU210は、関連情報に紐付けされた単語に下線を付し、他の単語には下線を付さない。
As a result, the
携帯電話200のCPU210は、ユーザから、単語の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されているアクセスポイントという単語にタッチする。
CPU210は、選択された単語(アクセスポイント)に紐付けられている関連情報に基づいて、選択された単語を説明する情報をディスプレイ230に表示する。たとえば、CPU210は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ230に表示する。
The
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS102において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS118において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
Note that the
そして、サーバ100のCPU110は、入力デバイス140を介して、管理者(ユーザ)から、関連情報が紐付けされている単語(第1のオブジェクト)の選択命令を受け付ける。CPU110は、選択された単語(アクセスポイント)に紐付けられている関連情報に基づいて、選択された単語を説明する情報をディスプレイ130に表示する。たとえば、CPU110は、アクセスポイントという単語を説明するテキストと画像とをディスプレイ130に表示する。
Then, the
<ネットワークシステム1における関連情報登録処理の動作概要>
次に、本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要について説明する。図7は、本実施の形態に係るネットワークシステム1における関連情報登録処理の動作概要を示すフローチャートである。
<Operation Overview of Related Information Registration Processing in Network System 1>
Next, an outline of the operation of the related information registration process in the network system 1 according to the present embodiment will be described. FIG. 7 is a flowchart showing an outline of the operation of the related information registration process in the network system 1 according to the present embodiment.
図7(A)を参照して、携帯電話200のCPU210は、ユーザから、関連情報が紐付けられていない単語(第2のオブジェクト)の選択命令を受け付ける。たとえば、ユーザが、タッチパネル250に表示されている「電子機器」という単語の上で指をスライドさせる。
Referring to FIG. 7A,
図7(B)を参照して、CPU210は、入力デバイス240(タッチパネル250)を介して、ユーザから、選択された単語の説明文の入力を受け付ける。CPU210は、ユーザがOKボタンにタッチしたことを検知して、通信インターフェイス270を介して、サーバ100に当該単語と当該説明文とを送信する。
Referring to FIG. 7B,
サーバ100のCPU110は、通信インターフェイス170を介して、携帯電話200から当該単語と当該説明文とを受信する。CPU110は、当該単語と当該説明文とをデータベース121に登録する。
The
本実施の形態においては、携帯電話200のCPU210は、ユーザがOKボタンにタッチしたことを検知して、通信インターフェイス270を介して、サーバ100に当該コンテンツも送信する。サーバ100のCPU110は、更新後のデータベースを参照して、コンテンツを編集する。CPU110は、通信インターフェイス170を介して、編集されたコンテンツを携帯電話200に送信する。
In the present embodiment,
図7(C)に示すように、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。すなわち、CPU210は、関連情報に紐付けされた単語(「電子機器」と「アクセスポイント」)のフォントが他の単語のフォントを異なる状態で、ディスプレイ230にコンテンツを表示する。
As shown in FIG. 7C, the
なお、サーバ100が管理者(ユーザ)から新たな関連情報の入力を受け付けてもよい。より詳細には、サーバ100のCPU110が、入力デバイス140を介して、管理者(ユーザ)から、単語の選択命令を受け付ける。CPU110は、入力デバイス140を介して、管理者(ユーザ)から、選択された単語の説明文の入力を受け付ける。CPU110は、管理者(ユーザ)がOKボタンにタッチしたことを検知して、当該単語と当該説明文とをデータベース121に登録する。
Note that the
なお、サーバ100は、関連情報に紐付けされている単語の関連情報を更新してもよいし、関連情報に紐付けされていない新たな単語の関連情報をデータベース121に登録してもよい。
Note that the
CPU110は、更新後のデータベース121を参照して、ディスプレイ130に表示されているコンテンツを編集する。CPU110は、ディスプレイ130に編集されたコンテンツを表示する。すなわち、CPU110は、関連情報に紐付けされた単語(「電子機器」と「アクセスポイント」)のフォントが他の単語のフォントを異なる状態で、ディスプレイ130にコンテンツを表示する。
The
<更新後のネットワークシステム1の動作概要>
データベース121が更新された後のネットワークシステム1の動作概要は以下のようになる。図8は、本実施の形態に係るデータベース121が更新された後のネットワークシステム1の動作概要とを示すイメージ図である。
<Operation overview of network system 1 after update>
The outline of the operation of the network system 1 after the
図8を参照して、携帯電話200が、新たなコンテンツの入力を受け付ける(ステップS002)。携帯電話200は、ユーザからの命令(検索命令あるいは紐付け命令)に基づいて、ネットワーク300を介して当該コンテンツをサーバ100に送信する(ステップS004)。
Referring to FIG. 8,
サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。サーバ100は、更新後のデータベース121を参照して、当該オブジェクトを検索する(ステップS008)。より詳細には、サーバ100は、更新されたデータベース121から、当該オブジェクトに対応する関連情報を読み出す。
The
サーバ100は、コンテンツを編集する(ステップS010)。サーバ100は、関連情報を有するコンテンツを携帯電話200に送信する(ステップS012)。携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。携帯電話200は、関連情報が紐付けられたオブジェクト(「アクセスポイント」と言う単語と「電子機器」という単語)を、他のオブジェクトとは異なる形態で表示する。
The
携帯電話200は、ユーザから、コンテンツに含まれるオブジェクトの選択命令を受け付ける。(ステップS016)。携帯電話200は、選択されたオブジェクトを説明するための情報を表示する(ステップS018)。
The
<サーバ100における第1の画像データを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理について説明する。図9は、本実施の形態に係るサーバ100における第1の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。
<Edit processing of content including first image data in
Next, content editing processing including first image data in
ここでは、画像データが、楽譜の画像を示す場合について説明する。メモリ120は、複数の音符の形状を記憶する。データベース121では、五線と音符とを含む複数の画像の各々が、当該画像に対応する音階を示す情報に対応付けられている。
Here, a case where the image data indicates a score image will be described. The
図9を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS202)。たとえば、CPU110は、受信したデータから画像データD202を取得する。
Referring to FIG. 9,
CPU110は、画像データD202の解析処理を実行する(ステップS204)。たとえば、CPU110は、画像データD202に横のフィルタを適用することによって、五線の画像を示す画像データD204を取得する。
CPU110 performs the analysis process of image data D202 (step S204). For example, the
CPU110は、画像データD202と画像データD204との差分から、五線を除いた画像(画像データD206)を抽出する(ステップS206)。
The
CPU110は、画像データD206に含まれる画像の各々と、メモリ120に記憶されている音符の形状とをマッチングする(ステップS208)。CPU110は、音符の形状にマッチした画像と五線の画像とを重ねた画像(画像データD208)を作成する。
CPU110は、音符と五線との画像(オブジェクト)をデータベース121で検索する(ステップS210)。CPU110は、音符と五線との画像(オブジェクト)の下方に関連情報(音階を示す情報)を付加する(紐付ける)ことによって、コンテンツを編集する。
CPU110 searches the
CPU110は、画像データD210を含む、編集されたコンテンツを携帯電話200に送信する(ステップS212)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、音符の下に音階が表示された状態で、ディスプレイ230にコンテンツを表示する。
As a result, the
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS202において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS212において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
Note that the
<サーバ100における第2の画像データを含むコンテンツの編集処理>
次に、本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理について説明する。図10は、本実施の形態に係るサーバ100における第2の画像データを含むコンテンツの編集処理の処理手順を示すフローチャートである。
<Edit processing of content including second image data in
Next, content editing processing including second image data in
ここでは、画像データが、人物の画像を表わす場合について説明する。データベース121では、人物の画像の各々が、当該人物を説明する情報を示す関連情報に対応付けられている。
Here, a case where the image data represents an image of a person will be described. In the
図10を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS302)。たとえば、CPU110は、受信したデータから画像データD302を取得する。
Referring to FIG. 10,
CPU110は、画像データD302の解析処理を実行する(ステップS304)。たとえば、CPU110は、画像からエッジを検出することによって、画像データD302から顔画像(オブジェクト)毎に顔画像データD304を抽出する。
CPU110 performs the analysis process of image data D302 (step S304). For example, the
CPU110は、顔画像データD304をデータベース121で検索する(ステップS306)。CPU110は、顔画像に対応する関連情報(人物の説明文を示す情報)をコンテンツのマッピング情報D306として作成する。
CPU110は、画像データD302とマッピング情報D306とをアーカイブすることによって、コンテンツを編集する(ステップS308)。
CPU110は、編集されたコンテンツデータD308を携帯電話200に送信する(ステップS310)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、画像と、関連情報に紐付けされた顔画像を示すマーカ230Aとを、ディスプレイ230に表示する。ユーザがタッチパネル250の人物にタッチすると、すなわちCPU210が入力デバイス240を介して人物の選択命令を受け付けると、CPU210は、マッピング情報に基づいて当該人物の説明文をディスプレイ230に表示させる。
As a result, the
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS302において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS310において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
Note that the
サーバ100のCPU110は、画像と、関連情報に紐付けされた顔画像を示すマーカとを、ディスプレイ130に表示する。CPU110は、入力デバイス140を介して、ユーザによる人物の選択命令を受け付けると、マッピング情報に基づいて当該人物の説明文をディスプレイ130に表示させる。
The
<サーバ100における音声データを含むコンテンツの編集処理>
次に、音声データを含むコンテンツの編集処理について説明する。図11は、本実施の形態に係るサーバ100における音声データを含むコンテンツの編集処理の処理手順を示すフローチャートである。ここでは、CPU110が、データベース121を参照することによって、音声データに、当該音声を説明する情報の格納場所を示すURLを関連付ける(紐付ける)。
<Edit processing of content including audio data in
Next, content editing processing including audio data will be described. FIG. 11 is a flowchart showing a processing procedure of content editing processing including audio data in
図11を参照して、CPU110は、通信インターフェイス170を介して携帯電話200からコンテンツを受信する(ステップS402)。たとえば、CPU110は、index.htmlと音声データとを含むコンテンツD402を取得する。
Referring to FIG. 11,
CPU110は、コンテンツD402の解析処理を実行する(ステップS404)。CPU110は、音声データをデータベース121で検索する(ステップS404)。
CPU110 performs the analysis process of the content D402 (step S404). The
CPU110は、index.fileに音声データの関連情報(音声データの説明文を取得するためのURL)を追加して(紐付けして)、関連情報を表示するためのアイコンの画像データをコンテンツに追加することによって、コンテンツを編集する(ステップS406)。
The
CPU110は、編集されたコンテンツデータD406を携帯電話200に送信する(ステップS408)。
これによって、携帯電話200のCPU210は、ディスプレイ230に編集されたコンテンツを表示する。携帯電話200のCPU210は、index.htmlに基づいてテキストや画像を表示した状態で、音声データに基づいてスピーカ290から音声を出力し、関連情報を取得するためのアイコン230Bをディスプレイ230に表示する。ユーザがタッチパネル250のアイコン230Bにタッチすると、すなわちCPU210が入力デバイス240を介してユーザからアイコン230Bの選択命令を受け付けると、CPU210は当該音声の説明文をディスプレイ230に表示させる。
As a result, the
なお、サーバ100が、単体で処理を完結してもよい。すなわち、サーバ100が、編集されたコンテンツを表示してもよい。より詳細には、ステップS402において、CPU110が、外部の装置あるいは記録媒体からコンテンツを受信する。あるいは、CPU110が、入力デバイス140を介して、ユーザからコンテンツを受け付ける。そして、ステップS408において、CPU110が、編集されたコンテンツをディスプレイ130に表示させる。
Note that the
サーバ100のCPU110は、index.htmlに基づいてテキストや画像を表示した状態で、音声データに基づいてスピーカ190から音声を出力し、関連情報を取得するためのアイコンをディスプレイ130に表示する。CPU110は、入力デバイス140を介してアイコンの選択命令を受け付けると、当該音声の説明文をディスプレイ130に表示させる。
The
<編集パラメータの利用>
次に、クライアントである携帯電話200が、コンテンツとともに編集パラメータをサーバ100に送信する構成について説明する。図12は、携帯電話200が編集パラメータをサーバ100に送信する場合における、ネットワークシステム1の動作概要を説明するための図である。
<Use of editing parameters>
Next, a configuration in which the
図12を参照して、携帯電話200は、編集パラメータを予め記憶している。携帯電話200は、コンテンツの入力を受け付ける(ステップS002)。上述したように、携帯電話200は、外部の装置あるいは記録媒体からコンテンツを受信してもよいし、ユーザからコンテンツの入力を受け付けてもよい。携帯電話200は、取得したコンテンツをディスプレイ230に表示する。
Referring to FIG. 12,
携帯電話200は、ユーザからの命令に基づいて、ネットワーク300を介して当該コンテンツおよび当該編集パラメータをサーバ100に送信する(ステップS004)。ただし、携帯電話200は、コンテンツを取得した際に自動的にサーバ100に送信しても良い。
The
サーバ100は、受信したコンテンツに基づいて、コンテンツを解析する(ステップS006)。次いで、サーバ100は、データベース121を参照して、当該オブジェクトを検索する(ステップS008)。サーバ100は、受信した編集パラメータに基づいて、コンテンツを編集する(ステップS010)。つまり、サーバ100は、編集パラメータに応じてコンテンツの編集内容を変える。サーバ100は、編集されたコンテンツを携帯電話200に送信する(ステップS012)。携帯電話200は、受信したコンテンツをディスプレイ230に表示する(ステップS014)。その他の処理(S016、S018等)は、図1等で説明した内容と同じであるので、ここでは説明を繰り返えさない。
The
編集パラメータとしては、たとえば、以下のような3つの例が挙げられる。
(第1の例)
編集パラメータは、画面サイズなどの端末固有の情報である。携帯電話かタブレット端末かで、表示パネルのサイズが異なる。そこで、編集パラメータに表示パネルのサイズの情報を含めることにより、端末が携帯電話であれば文字だけの解説を端末に表示させ、端末が携帯電話よりも表示パネルのサイズが大きいタブレット端末であれば文字と画像との解説を端末に表示させるように、サーバ100における編集内容を変えることが可能となる。
Examples of editing parameters include the following three examples.
(First example)
The editing parameter is terminal-specific information such as a screen size. The size of the display panel differs depending on whether it is a mobile phone or a tablet device. Therefore, by including information about the size of the display panel in the editing parameters, if the terminal is a mobile phone, an explanation of only characters is displayed on the terminal, and if the terminal is a tablet terminal having a display panel size larger than that of the mobile phone, Editing contents in the
(第2の例)
編集パラメータは、ユーザが設定した情報である。なお、この場合、クライアント側の端末に編集パラメータを入力する手段が必要となる。
(Second example)
The edit parameter is information set by the user. In this case, a means for inputting editing parameters to the client side terminal is required.
初心者(たとえば、端末の各種設定処理に慣れていない者)と、上級者(端末の各種設定処理に習熟している者)とでは、解説の必要性や解説すべき事項が異なる。このため、たとえば、編集パラメータにユーザのレベルを示した情報を含めることにより、ユーザのレベルに応じた解説を端末に表示させることができる。また、たとえば、編集パラメータに管理者か一般社員かを示した情報を含めることにより、ユーザの地位(権限)に応じた表示内容を端末に表示させることができる。以上のように、編集パラメータを利用することによって、解説の詳細度合を調整可能となる。 Necessity of explanation and matters to be explained differ between beginners (for example, those who are not used to various terminal setting processes) and advanced persons (persons who are familiar with various terminal setting processes). For this reason, for example, by including information indicating the user level in the editing parameter, it is possible to display a comment according to the user level on the terminal. In addition, for example, by including information indicating whether it is an administrator or a general employee in the editing parameter, it is possible to display on the terminal display contents corresponding to the user's status (authority). As described above, it is possible to adjust the detail level of the explanation by using the editing parameter.
(第3の例)
編集パラメータは、ユーザの操作情報を元に端末が決定した情報である。なお、この場合、クライアント側である端末に編集パラメータを自動的に作成する手段が必要となる。
(Third example)
The editing parameter is information determined by the terminal based on user operation information. In this case, means for automatically creating editing parameters is required in the terminal on the client side.
ユーザによって興味がある事柄(嗜好)は異なる。そこで、編集パラメータにユーザの嗜好を示した情報を含めることにより、当該嗜好にあった解説を端末に表示させることが可能となる。 Matters (preferences) that interest users vary. Therefore, by including information indicating the user's preference in the editing parameters, it is possible to display an explanation that matches the preference on the terminal.
<その他の実施の形態>
本発明は、ホームコントローラや家電や携帯電話にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、本発明の効果を享受することが可能となる。
<Other embodiments>
Needless to say, the present invention can also be applied to a case where the program is achieved by supplying a program to a home controller, a home appliance, or a mobile phone. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。 Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 ネットワークシステム、100 サーバ、110 CPU、120 メモリ、121 データベース、130 ディスプレイ、140 入力デバイス、160 メモリインターフェイス、161 記憶媒体、170 通信インターフェイス、190 スピーカ、200 携帯電話、210 CPU、220 メモリ、230 ディスプレイ、230B アイコン、240 入力デバイス、250 タッチパネル、260 メモリインターフェイス、261 記憶媒体、270 通信インターフェイス、300 ネットワーク、400 サーバ。 1 network system, 100 server, 110 CPU, 120 memory, 121 database, 130 display, 140 input device, 160 memory interface, 161 storage medium, 170 communication interface, 190 speaker, 200 mobile phone, 210 CPU, 220 memory, 230 display , 230B icon, 240 input device, 250 touch panel, 260 memory interface, 261 storage medium, 270 communication interface, 300 network, 400 server.
Claims (7)
取得したコンテンツから少なくとも1つのオブジェクトを抽出し、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出し、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集し、編集された前記コンテンツを出力するためのプロセッサとを備える、電子機器。 A database that stores each of the plurality of objects in association with related information of the object;
Extracting at least one object from the acquired content, reading related information corresponding to the at least one object from the database, editing the content by associating the at least one object with the related information, An electronic device comprising: a processor for outputting the edited content.
前記プロセッサは、編集された前記コンテンツを前記ディスプレイに表示させる、請求項1に記載の電子機器。 A display,
The electronic device according to claim 1, wherein the processor displays the edited content on the display.
前記プロセッサは、選択された前記第1のオブジェクトに紐付けされた前記関連情報に基づいて、前記第1のオブジェクトを説明するための第1の情報を前記ディスプレイに表示する、請求項2に記載の電子機器。 An input device for receiving a command for selecting a first object associated with the related information from the content;
The said processor displays the 1st information for describing the said 1st object on the said display based on the said relevant information linked | related with the selected said 1st object. Electronic equipment.
前記電子機器は、
複数のオブジェクトの各々を当該オブジェクトの関連情報と対応付けて記憶するデータベースと、
前記端末からコンテンツを受信するための第1の通信インターフェイスと、
前記コンテンツから少なくとも1つのオブジェクトを抽出し、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出し、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集し、編集された前記コンテンツを出力するための第1のプロセッサとを含み、
前記端末は、
ディスプレイと、
前記コンテンツを前記電子機器へ送信し、編集された前記コンテンツを前記電子機器から受信するための第2の通信インターフェイスと、
編集された前記コンテンツを前記ディスプレイに表示させるための第2のプロセッサとを含む、ネットワークシステム。 A network system including an electronic device and a terminal,
The electronic device is
A database that stores each of the plurality of objects in association with related information of the object;
A first communication interface for receiving content from the terminal;
Extracting at least one object from the content, reading related information corresponding to the at least one object from the database, editing the content by associating the at least one object with the related information, and editing A first processor for outputting said content that has been
The terminal
Display,
A second communication interface for transmitting the content to the electronic device and receiving the edited content from the electronic device;
And a second processor for causing the display to display the edited content.
前記プロセッサが、コンテンツを取得するステップと、
前記プロセッサが、前記コンテンツから少なくとも1つのオブジェクトを抽出するステップと、
前記プロセッサが、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、
前記プロセッサが、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集するステップと、
前記プロセッサが、編集された前記コンテンツを出力するステップとを備えるコンテンツ編集方法。 A content editing method in an electronic device including a database and a processor for storing each of a plurality of objects in association with related information of the objects,
The processor obtaining content;
The processor extracting at least one object from the content;
The processor reads related information corresponding to the at least one object from the database;
The processor editing the content by associating the at least one object with the related information;
A content editing method comprising: the processor outputting the edited content;
前記端末が、コンテンツを前記電子機器に送信するステップと、
前記電子機器が、前記コンテンツから少なくとも1つのオブジェクトを抽出するステップと、
前記電子機器が、前記データベースから前記少なくとも1つのオブジェクトに対応する関連情報を読み出すステップと、
前記電子機器が、前記少なくとも1つのオブジェクトと前記関連情報とを紐付けすることによって前記コンテンツを編集するステップと、
前記電子機器が、編集された前記コンテンツを出力するステップと備える、コンテンツ編集方法。 A content editing method in a network system including an electronic device and a terminal having a database that stores each of a plurality of objects in association with related information of the object,
The terminal transmitting content to the electronic device;
The electronic device extracting at least one object from the content;
The electronic device reading related information corresponding to the at least one object from the database;
The electronic device editing the content by associating the at least one object with the related information;
A content editing method, comprising: the electronic device outputting the edited content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011234801A JP2012108899A (en) | 2010-10-28 | 2011-10-26 | Electronic equipment, network system and content edition method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010241935 | 2010-10-28 | ||
JP2010241935 | 2010-10-28 | ||
JP2011234801A JP2012108899A (en) | 2010-10-28 | 2011-10-26 | Electronic equipment, network system and content edition method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012108899A true JP2012108899A (en) | 2012-06-07 |
Family
ID=46494403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011234801A Pending JP2012108899A (en) | 2010-10-28 | 2011-10-26 | Electronic equipment, network system and content edition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012108899A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014029684A (en) * | 2012-06-28 | 2014-02-13 | Canon Marketing Japan Inc | Electronic book terminal, information processing method, and program |
CN111753814A (en) * | 2019-03-26 | 2020-10-09 | 杭州海康威视数字技术股份有限公司 | Sample generation method, device and equipment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175299A (en) * | 2000-09-29 | 2002-06-21 | Ricoh Co Ltd | Information providing method, information providing device, and storage medium for storing information providing program |
JP2003208384A (en) * | 2002-01-11 | 2003-07-25 | Ricoh Co Ltd | Method and device for providing information |
-
2011
- 2011-10-26 JP JP2011234801A patent/JP2012108899A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002175299A (en) * | 2000-09-29 | 2002-06-21 | Ricoh Co Ltd | Information providing method, information providing device, and storage medium for storing information providing program |
JP2003208384A (en) * | 2002-01-11 | 2003-07-25 | Ricoh Co Ltd | Method and device for providing information |
Non-Patent Citations (1)
Title |
---|
JPN6015047587; Microsoft▲R▼ Word 98 for Windows▲R▼ 活用ガイド 初版第5刷, 19980530, 317頁, マイクロソフト株式会社 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014029684A (en) * | 2012-06-28 | 2014-02-13 | Canon Marketing Japan Inc | Electronic book terminal, information processing method, and program |
CN111753814A (en) * | 2019-03-26 | 2020-10-09 | 杭州海康威视数字技术股份有限公司 | Sample generation method, device and equipment |
CN111753814B (en) * | 2019-03-26 | 2023-07-25 | 杭州海康威视数字技术股份有限公司 | Sample generation method, device and equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101998107B (en) | Information processing apparatus, conference system and information processing method | |
JP4935658B2 (en) | Browser program and information processing apparatus | |
JP2011100355A (en) | Comment recording apparatus, comment recording method, program and recording medium | |
JP2005174026A (en) | Information processor, its control method, and program | |
JP5437340B2 (en) | Viewer device, server device, display control method, electronic comic editing method and program | |
JP6206202B2 (en) | Information processing apparatus and information processing program | |
JP5002283B2 (en) | Information processing apparatus and information processing method | |
KR100874289B1 (en) | Electronic pen-computer multimedia interactive system | |
JP2012108899A (en) | Electronic equipment, network system and content edition method | |
JP2019101739A (en) | Information processor, information processing system and program | |
JP2017102939A (en) | Authoring device, authoring method, and program | |
JP2006276912A (en) | Device, method, and program for editing document | |
JP5008248B2 (en) | Display processing apparatus, display processing method, display processing program, and recording medium | |
JP5612975B2 (en) | Serif data generation apparatus, serif data generation method, and program | |
JP6458358B2 (en) | Image processing apparatus and program | |
JP6112239B2 (en) | INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM | |
JP6580927B2 (en) | Karaoke control device and program | |
JP2000194532A (en) | Object selection processor and storage medium | |
CN110390241B (en) | Information processing apparatus, information processing method, and computer-readable recording medium | |
JP6979738B1 (en) | Servers and animation recommendation systems, animation recommendation methods, programs | |
JP6874235B2 (en) | Product information management device, product information management method, and program | |
JPH1091701A (en) | Form document system | |
JP2007004429A (en) | Document processor | |
JP2002278874A (en) | Electronic message board system and message board program | |
KR100847943B1 (en) | Creating responses for an electronic pen-computer multimedia interactive system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150804 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151201 |