JP5205658B2 - 電子機器、制御プログラム、記録媒体および制御方法 - Google Patents

電子機器、制御プログラム、記録媒体および制御方法 Download PDF

Info

Publication number
JP5205658B2
JP5205658B2 JP2007295558A JP2007295558A JP5205658B2 JP 5205658 B2 JP5205658 B2 JP 5205658B2 JP 2007295558 A JP2007295558 A JP 2007295558A JP 2007295558 A JP2007295558 A JP 2007295558A JP 5205658 B2 JP5205658 B2 JP 5205658B2
Authority
JP
Japan
Prior art keywords
image
information
display
search
headword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007295558A
Other languages
English (en)
Other versions
JP2009122355A (ja
Inventor
晋 風岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007295558A priority Critical patent/JP5205658B2/ja
Priority to CN2008801159959A priority patent/CN101855660B/zh
Priority to KR1020107012851A priority patent/KR101185667B1/ko
Priority to EP08850367.7A priority patent/EP2216766A4/en
Priority to US12/742,681 priority patent/US9153140B2/en
Priority to PCT/JP2008/070569 priority patent/WO2009063893A1/ja
Publication of JP2009122355A publication Critical patent/JP2009122355A/ja
Application granted granted Critical
Publication of JP5205658B2 publication Critical patent/JP5205658B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet

Description

本発明は、電子機器、制御プログラム、記録媒体および制御方法に関し、特に、コンテンツの再生を行なうための処理を行なう電子機器、制御プログラム、記録媒体および制御方法に関する。
近年、テレビ番組等の映像コンテンツを録画する機能を有する様々な装置(以下、録画再生装置ともいう)において、多種多様な情報を検索して表示する機能が搭載されつつある。そのため、従来から、多種多様な情報を検索するための多くの技術が開示されている。
たとえば、特開平9−294253号公報(特許文献1)には、ユーザが視聴している番組に関する補足的な情報を検索するための技術(以下、第1の先行技術ともいう)が開示されている。
また、特開2004−215094号公報(特許文献2)には、テレビ放送の内容に関する情報を抽出し、抽出した情報を利用して、テレビ放送に関連する情報を検索するための技術(以下、第2の先行技術ともいう)が開示されている。
特開平9−294253号公報 特開2004−215094号公報
多種多様な情報を検索する機会が多くなると、意味がわからない単語(以下、不明単語ともいう)に遭遇する場面も多くなる。ユーザは、不明単語に遭遇した場合、たとえば、電子辞書等の翻訳装置において、不明単語の入力操作をすることにより、はじめて、不明単語の意味を知ることができる。人間は、反復して不明単語に遭遇することで、不明単語を学習するのが一般的である。そのため、不明単語を学習するためには、ユーザは、不明単語に遭遇したコンテンツ(たとえば、Webページ、テレビ番組等)を、たとえば、紙等にメモしたりする必要があり効率がよくないという問題点があった。
本発明は、上述の問題点を解決するためになされたものであって、その目的は、学習対象となる単語を、効率よく学習することが可能な電子機器、制御プログラム、記録媒体および制御方法を提供することである。
上述の課題を解決するために、この発明のある局面に従う電子機器は、入力を受付ける受付け手段と、受付け手段により受付けられた入力に基づく見出し語の詳細情報を検索する検索処理を行なう検索手段と、画像を表示する表示手段と、情報を記憶する記憶手段と、表示手段が画像を表示しているときに、検索手段により検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示手段が表示している画像を特定する画像情報とを対応づけて記憶手段に記憶させる記憶処理を行なう格納手段と、記憶手段に記憶された画像情報により特定される画像を、表示手段が表示する場合、画像情報に対応づけられた見出し語を、表示手段にさらに表示させる表示制御手段とを備える。
好ましくは、記憶手段は、複数の見出し語にそれぞれ対応付けられた複数の詳細情報を記憶し、検索手段は、受付け手段により受付けられた入力に基づく見出し語に対応づけられた詳細情報を、記憶手段に記憶された複数の詳細情報から検索する。
好ましくは、ネットワークとデータ通信する通信手段をさらに備え、検索手段は、受付け手段により受付けられた入力に基づく見出し語の詳細情報を、通信手段を利用して、ネットワークから検索する。
好ましくは、表示制御手段は、検索処理により検索された詳細情報を表示手段に表示させ、格納手段は、記憶処理を行なう際に、さらに、検索処理により検索された詳細情報が表示手段により表示された時間である検索情報表示時間と、画像情報とを対応づけて記憶手段に記憶させ、記憶手段に記憶された画像情報により特定される画像を、表示手段が表示する場合において、表示手段が画像情報により特定される画像を表示してからの経過時間を測定する測定手段をさらに備え、表示制御手段は、測定手段により測定されている経過時間が、所定の時間条件を満たした時間となった場合、画像情報に対応づけられた見出し語を、表示手段に表示させる。
好ましくは、所定の時間条件を満たした時間は、記憶手段に記憶された検索情報表示時間を含む所定期間内の時間である。
好ましくは、表示制御手段は、見出し語を、表示手段に表示させる場合、表示手段に表示させる見出し語の詳細情報の取得元を特定するための情報も、表示手段に表示させる。
好ましくは、検索処理により検索された詳細情報は、対応する見出し語の意味、説明および翻訳語のいずれかである。
この発明の他の局面に従うと、画像を表示する表示部と、情報を記憶する記憶部とを備える電子機器により実行される制御プログラムは、入力を受付けるステップと、受付けられた入力に基づく見出し語の詳細情報を検索する検索処理を行なうステップと、表示部が画像を表示しているときに、検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示部が表示している画像を特定する画像情報とを対応づけて記憶部に記憶させる記憶処理を行なうステップと、記憶部に記憶された画像情報により特定される画像を、表示部が表示する場合、画像情報に対応づけられた見出し語を、表示部にさらに表示させるステップとを備える。
この発明のさらに他の局面に従う記録媒体は、制御プログラムを記録した、コンピュータ読取り可能な媒体である。
この発明のさらに他の局面に従うと、画像を表示する表示部と、情報を記憶する記憶部とを備える電子機器により実行される制御方法は、入力を受付けるステップと、受付けられた入力に基づく見出し語の詳細情報を検索する検索処理を行なうステップと、表示部が画像を表示しているときに、検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示部が表示している画像を特定する画像情報とを対応づけて記憶部に記憶させる記憶処理を行なうステップと、記憶部に記憶された画像情報により特定される画像を、表示部が表示する場合、画像情報に対応づけられた見出し語を、表示部にさらに表示させるステップとを備える。
本発明に係る電子機器は、画像を表示しているときに、受付けられた入力に基づく見出し語の詳細情報を検索する検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示している画像を特定する画像情報とを対応づけて記憶させる。画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語をさらに表示させる。
すなわち、画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語が表示される。表示される見出し語は、受付けられた入力に基づく見出し語である。また、表示される見出し語は、当該見出し語の詳細情報が検索された見出し語である。詳細情報が検索された見出し語は、受付けられた入力に基づく見出し語であり、ユーザの学習対象となる単語である。したがって、学習対象となる単語を、効率よく学習することができるという効果を奏する。
本発明に係る制御プログラムは、画像を表示しているときに、受付けられた入力に基づく見出し語の詳細情報を検索する検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示している画像を特定する画像情報とを対応づけて記憶させる。画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語をさらに表示させる。
すなわち、画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語が表示される。表示される見出し語は、受付けられた入力に基づく見出し語である。また、表示される見出し語は、当該見出し語の詳細情報が検索された見出し語である。詳細情報が検索された見出し語は、受付けられた入力に基づく見出し語であり、ユーザの学習対象となる単語である。したがって、学習対象となる単語を、効率よく学習することができるという効果を奏する。
本発明に係る記録媒体は、制御プログラムを記録する。制御プログラムは、画像を表示しているときに、受付けられた入力に基づく見出し語の詳細情報を検索する検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示している画像を特定する画像情報とを対応づけて記憶させる。画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語をさらに表示させる。
すなわち、画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語が表示される。表示される見出し語は、受付けられた入力に基づく見出し語である。また、表示される見出し語は、当該見出し語の詳細情報が検索された見出し語である。詳細情報が検索された見出し語は、受付けられた入力に基づく見出し語であり、ユーザの学習対象となる単語である。したがって、学習対象となる単語を、効率よく学習することができるという効果を奏する。
本発明に係る制御方法は、画像を表示しているときに、受付けられた入力に基づく見出し語の詳細情報を検索する検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示している画像を特定する画像情報とを対応づけて記憶させる。画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語をさらに表示させる。
すなわち、画像情報により特定される画像を表示する場合、画像情報に対応づけられた見出し語が表示される。表示される見出し語は、受付けられた入力に基づく見出し語である。また、表示される見出し語は、当該見出し語の詳細情報が検索された見出し語である。詳細情報が検索された見出し語は、受付けられた入力に基づく見出し語であり、ユーザの学習対象となる単語である。したがって、学習対象となる単語を、効率よく学習することができるという効果を奏する。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
本発明における電子機器は、携帯可能な翻訳装置であるとする。なお、本発明における電子機器は、翻訳装置に限定されることなく、たとえば、携帯可能な装置であればどのような装置(たとえば、PDA(Personal Digital Assistance)、PC(Personal Computer))でもよい。
翻訳装置は、入力された言語(以下、入力言語ともいう)を、入力言語以外の言語(以下、翻訳言語ともいう)に翻訳する機能を有する。ここで、入力言語は、一例として、日本語であるとする。なお、入力言語は、日本語に限定されることなく、他の言語であってもよい。また、翻訳言語は、たとえば、英語、中国語、ドイツ語等であるとする。
また、翻訳装置は、入力された単語(以下、入力単語ともいう)の意味、説明、翻訳語等を表示する機能を有する。
<第1の実施の形態>
(翻訳装置の外観)
図1は、本実施の形態における翻訳装置500の外観を示す図である。図1を参照して、翻訳装置500は、表示部530と、入力部540とを備える。
表示部530は、文字や画像等を表示する機能を有する。表示部530は、LCDパネル(Liquid Crystal Display Panel)を使用した装置である。なお、表示部530は、上記以外の表示方式のパネルを使用した装置であってもよい。表示部530の解像度は、横640(ドット)×縦480(ドット)である。なお、表示部530の解像度は、横640(ドット)×縦480(ドット)に限定されることなく、他の解像度であってもよい。
また、表示部530は、ユーザが、画面に直接触れることで、情報入力可能なタッチパネル機能を有する。表示部530は、ユーザが画面にタッチした位置情報を、後述する制御部510へ送信する。制御部510は、受信した位置情報に基づいて、所定の処理を行なう。
入力部540は、ボタン群542と、方向ボタン群544と、ボタン群546とを含む。ボタン群542は、数字、文字等を入力するための複数のボタンを含む。以下においては、ボタン群542に含まれる、数字を入力するためのボタンを数字ボタンともいう。また、ボタン群542に含まれる、文字を入力するためのボタンを文字ボタンともいう。方向ボタン群544は、複数の方向ボタンを含む。複数の方向ボタンの各々は、押下されることにより、表示部530に画像が表示されている場合、画像内の移動させる対象となる物(たとえば、カーソル等)を、設定された方向(たとえば、上、下、左または右)に移動させるためのボタンである。
ボタン群546は、複数の機能ボタンを含む。複数の機能ボタンの各々は、押下されることにより、割り当てられた処理をするためのボタンである。以下においては、ユーザによる、入力部540に含まれる複数のボタンのいずれかのボタンの短時間(たとえば、1秒未満)の押下操作を、短押操作ともいう。また、ユーザによる、入力部540に含まれる複数のボタンのいずれかのボタンの長時間(たとえば、一秒以上)の押下操作を、長押操作ともいう。
入力部540は、入力部540に含まれる複数のボタンのうち、短押操作または長押操作されたボタンに対応するボタン信号を、後述する制御部510へ送信する。すなわち、入力部540は、ユーザが翻訳装置500を操作するためのインターフェースである。以下においては、ユーザによる、入力部540の操作または表示部530に対するタッチ操作を、インターフェース操作Mともいう。
翻訳装置500は、辞書モードと、テレビモードと、マルチモードとを有する。辞書モードは、インターフェース操作Mにより入力された文字列(たとえば、単語)に対応付けられた、意味、説明、翻訳語等を、表示部530に表示するためのモードである。テレビモードは、受信した放送信号に基づく画像(以下、TV画像ともいう)を、表示部530に表示するためのモードである。マルチモードは、表示部530にTV画像を表示させた状態で、さらに、インターフェース操作Mにより入力された文字列(たとえば、単語)に対応付けられた、意味、説明、翻訳語等を、表示部530に表示するためのモードである。
翻訳装置500は、さらに、記録媒体挿入部550Aと、アンテナ502とを備える。記録媒体挿入部550Aは、翻訳装置500に後述する記録媒体を挿入する部分である。アンテナ502は、放送信号を受信するためのものである。
(翻訳装置の内部構成)
図2は、翻訳装置500の内部構成を示したブロック図である。なお、図2には、説明のために、記録媒体555も示している。記録媒体555には、後述するプログラム180が記録されている。すなわち、プログラム180は、媒体等に記録されてプログラム製品として流通される。また、記録媒体555もプログラム製品として流通される。
図2を参照して、翻訳装置500は、さらに、制御部510と、一時記憶部522と、記憶部520とを備える。
記憶部520は、データを不揮発的に記憶する機能を有する。記憶部520は、制御部510によってデータアクセスされる。記憶部520は、電源を供給されなくてもデータを不揮発的に保持可能な媒体(たとえば、フラッシュメモリ)である。記憶部520には、プログラム180、後述する録画データ、複数種類の辞書データ、その他の各種データ等が記憶されている。複数種類の辞書データは、たとえば、日本語を英語に翻訳する辞書データ、英語を日本語に翻訳する辞書データ、日本語をドイツ語に翻訳する辞書データ、日本語のある単語の説明文を日本語で表示する辞書データ等である。複数種類の辞書データの各々は、複数の見出し語と、当該複数の見出し語にそれぞれ対応づけられた複数の詳細情報を含む。ここで、詳細情報は、対応する見出し語の意味、説明、翻訳語等の情報である。
制御部510は、記憶部520に記憶されたプログラム180に従って、翻訳装置500内の各部に対する各種処理や、演算処理等を行なう機能を有する。制御部510は、CPU(Central Processing Unit)である。なお、制御部510は、CPUに限定されることなく、演算機能を有するその他の回路であってもよい。
一時記憶部522は、制御部510によってデータアクセスされ、一時的にデータを記憶するワークメモリとして使用される。一時記憶部522は、DRAM(Dynamic Random Access Memory)である。なお、一時記憶部522は、DRAMに限定されることなく、データを揮発的に記憶可能なその他の回路であってもよい。
翻訳装置500は、さらに、アンテナ502と、チューナ505と、データ処理部507とを備える。
前述したアンテナ502は、チューナ505と接続されている。チューナ505は、制御部510により指示された周波数の放送信号を、アンテナ502を介して受信する。チューナ505は、ディジタル放送およびアナログ放送に基づく放送信号を受信する機能を有する。以下においては、チューナ505が受信した放送信号に基づく画像を、TV画像ともいう。
放送信号は、画像データ、音声データ、テキストデータ、EPG(登録商標)(Electric Program Guide)データを含む。なお、放送信号が、ディジタル放送に基づく信号である場合、放送信号は、さらに、BML(Broadcast Markup Language)データ等が含まれる。EPG(登録商標)データは、複数の番組情報を示すデータである。BMLデータは、画像データ、音声データおよびテキストデータの各々の配置位置や、動作などの制御を行なうためのデータである。チューナ505は、受信した放送信号を、データ処理部507へ送信する。
データ処理部507は、受信した放送信号を復調し、復調データとする。受信した放送信号が、アナログ放送に基づく信号である場合、データ処理部507は、以下の処理を行なう。まず、データ処理部507は、復調データを、デコード処理し、画像データ、音声データを得るとともに、放送信号の垂直帰線区間(VBI:Vertical Blanking Interval)から、テキストデータ、EPG(登録商標)データを得る。
そして、データ処理部507は、制御部510から、表示部530に画像を表示させるための表示指示を受信すると、画像データを、後述するVDP(Video Display Processor)532へ送信する。VDP532は、画像データを受信すると、表示部530に画像データに基づく画像(動画像または静止画像)を表示させる。
また、データ処理部507は、制御部510から、録画処理を行なうための録画指示を受信すると、画像データおよび音声データを圧縮して、録画データとして、記憶部520に記憶させる。この場合の録画データを、以下においては、コンテンツともいう。録画データは、H.264形式で圧縮されたデータである。なお、録画データは、H.264形式で圧縮されたデータに限定されることなく、他の形式で圧縮されたデータであってもよい。ここで、他の形式とは、たとえば、MPEG(Moving Picture Experts Group)1、MPEG2等の形式である。
また、受信した放送信号が、ディジタル放送に基づく信号である場合、データ処理部507は、以下の処理を行なう。まず、データ処理部507は、復調データを、ディジタル放送のプロトコルに基づいてデコード処理し、デコードデータにする。デコードデータには、画像データ、音声データ、テキストデータ、EPG(登録商標)データ、BMLデータが含まれる。デコードデータに含まれる、画像データおよび音声データは、H.264形式で圧縮されたデータである。なお、デコードデータに含まれる、画像データおよび音声データは、H.264形式で圧縮されたデータに限定されることなく、他の形式で圧縮されたデータであってもよい。ここで、他の形式とは、たとえば、MPEG1、MPEG2等の形式である。
そして、データ処理部507は、制御部510から、表示部530に画像を表示させるための表示指示を受信すると、表示指示により指定されたチャンネルのデコードデータに含まれる画像データを、後述するVDP532へ送信する。VDP532は、画像データを受信すると、表示部530に画像データに基づく画像(動画像または静止画像)を表示させる。
また、データ処理部507は、制御部510から、録画処理を行なうための録画指示を受信すると、録画指示により指定されたチャンネルのデコードデータを、録画データとして、記憶部520に記憶させる。この場合の録画データを、以下においては、コンテンツともいう。この場合、録画データには、画像データ、音声データ、テキストデータおよびBMLデータが含まれる。
また、データ処理部507は、制御部510から、テキストデータまたはEPG(登録商標)データ等の要求指示を受信すると、要求されたテキストデータまたはEPG(登録商標)データを、制御部510へ送信する。
翻訳装置500は、さらに、VDP532と、VRAM(Video Random Access Memory)536とを備える。
VRAM536は、画像データを一時的に記憶する機能を有する。
制御部510は、記憶部520に記憶されたプログラム180に従って、VDP532に対し、描画指示を出す。描画指示とは、画像を生成し、当該画像を表示部530に表示させる指示である。
VDP532は表示部530と接続されている。VDP532は、制御部510からの描画指示に応じて、記憶部520内の後述するプログラム180からフォントデータ、図形データ等を読出し、VRAM536を利用して画像を生成する。そして、VDP532は、VRAM536に記憶された画像データを読出し、表示部530に、当該画像データに基づく画像を表示させる。
翻訳装置500は、さらに、入力部540と、記録媒体アクセス部550とを備える。
制御部510は、入力部540に含まれる、前述した複数のボタンのうち、短押操作または長押操作があったボタンに対応するボタン信号を、入力部540から受信する。制御部510は、受信したボタン信号に応じた処理を行なう。
記録媒体アクセス部550は、記録媒体555が、前述の記録媒体挿入部550Aから翻訳装置500に挿入(装着)されると、記録媒体555にデータアクセス可能となる。これにより、記録媒体アクセス部550は、プログラム180が記録された記録媒体555から、プログラム180を読出すことが可能となる。
記録媒体555に記憶されているプログラム180は、制御部510のインストール処理により、記録媒体アクセス部550により読み出され、制御部510が、プログラム180を、記憶部520に記憶させる。このインストール処理用プログラムは、予め、記憶部520に格納されており、インストール処理は、制御部510が、インストール処理用プログラムに基づいて行なう。
なお、記憶部520には、プログラム180がインストールされていなくてもよい。この場合、制御部510は、記録媒体アクセス部550を介して、記録媒体555に記憶されたプログラム180を読み出して、プログラム180に基づいた所定の処理を行なう。記録媒体555には、さらに、コンテンツデータ等も記録されている。コンテンツデータは、たとえば、辞書データ、音楽データ、動画像データ等である。
記録媒体555は、SD(Secure Digital)メモリーカードである。なお、記録媒体555は、SDメモリーカードに限定されることなく、データを不揮発的に記録可能なその他の媒体であってもよい。
翻訳装置500は、さらに、通信部560と、通信部562を備える。
通信部560は、制御部510とデータの送受信を行なう。また、通信部560は、他の装置と有線または無線で、データの送受信を行なう機能を有する。
通信部560は、USB(登録商標)(Universal Serial Bus)2.0の規格に基づく、通信用インターフェースの機能を有する。なお、通信用インターフェースの規格は、USB(登録商標)2.0に限定されることなく他の規格であってもよい。
また、通信部560は、さらに、無線データ通信機能を有する。無線データ通信機能は、Bluetooth(登録商標)を使用して、無線でデータ通信を行なう機能を有する。なお、無線データ通信は、Bluetooth(登録商標)を使用した方式に限定されることなく、たとえば、赤外線等を使用した他の通信方式であってもよい。通信部560は、制御部510からの制御指示に応じて、他の装置と無線でデータ通信を行なう。
通信部562は、制御部510と、データの送受信を行なう。通信部562は、無線LANの規格である、IEEE802.11gに基づく無線技術を利用してデータ通信を行なう機能を有する。なお、無線技術は、IEEE802.11gに基づく技術に限定されることはなく、その他の無線技術であってもよい。したがって、通信部562は、無線により、ネットワーク70とデータ通信を行なうことができる。ネットワーク70は、インターネットなどの外部のネットワークである。
また、通信部562は、さらに、イーサネット(登録商標)を利用した通信用インターフェースの機能を有する。したがって、通信部562は、たとえば、LANケーブルを介して、ネットワーク70とデータ通信を行なうことができる。
コンピュータ500は、制御部510および通信部562の処理により、ネットワーク70からプログラムのダウンロード処理を行ない、記憶部520に格納することもできる。この場合、当該ダウンロードしたプログラムは、プログラム180である。
制御部510は、ネットワーク70からダウンロードしたプログラム(プログラム180)に従って、所定の処理を行なう。このダウンロード用プログラムは、予め、記憶部520に格納されており、ダウンロード処理は、制御部510が、ダウンロード用プログラムに基づいて行なう。
翻訳装置500は、さらに、通信部566とを備える。通信部566は、GPS(Global Positioning System)機能を有する。GPS機能とは、人口衛星と通信して、翻訳装置500の位置(緯度、経度、高度等に基づく位置)の情報(以下、GPS位置情報ともいう)を取得する機能である。通信部566は、制御部510からの制御指示に応じて、GPS位置情報を取得し、制御部510へ送信する。
翻訳装置500は、さらに、音声出力部572と、音声入力部574とを備える。
音声出力部572は、制御部510で行なわれる処理に対応した音声を出力する機能を有する。音声出力部572には、音声を出力するスピーカが含まれる。音声出力部572は、制御部510から受信した音声データに基づく音声をスピーカから出力する。
音声入力部574は、音声を入力する機能を有する。音声入力部574には、音声を入力するマイクが含まれる。音声入力部574は、マイクにより取得した音声を音声データに変換して、音声データを、制御部510へ送信する。たとえば、ユーザが音声入力部574に含まれるマイクに対して音声を発すると、音声入力部574は、マイクにより取得した音声を音声データに変換して、音声データを、制御部510へ送信する。
(録画処理)
次に、翻訳装置500において行なわれる録画処理について説明する。録画処理は、チューナ505が受信した放送信号に基づくTV画像を、録画するための処理である。録画処理は、インターフェース操作Mにより録画予約された番組を録画するための処理、または、表示部530に表示されているTV画像を録画するためのインターフェース操作Mがあった場合に行なわれる処理である。
なお、録画処理は、番組等を録画する処理に限定されることなく、たとえば、インターネットから、ストリーミング配信される映像コンテンツを、記憶部520に記憶させるための処理であってもよい。以下においては、録画処理により、録画の対象となる映像コンテンツを、録画対象コンテンツともいう。
ここで、タイトルが「英会話講座AA」である番組が、翻訳装置500において、事前に、インターフェース操作Mにより録画予約されているとする。以下においては、録画予約されている番組を、録画予約番組ともいう。この場合、録画予約番組は、タイトルが「英会話講座ABC」である番組となる。なお、番組のタイトルは、EPG(登録商標)データ等から取得される。
次に、現在の時刻が、録画予約番組の録画予約時刻になったことにより、翻訳装置500で行なわれる録画処理について説明する。この場合、録画予約番組が、録画対象コンテンツである。なお、録画処理は、表示部530に表示されているTV画像を録画するためのインターフェース操作Mがあった場合に行なわれてもよい。ここで、翻訳装置500は、マルチモードであるとする。
図3は、録画処理のフローチャートである。図3を参照して、録画処理では、まず、ステップS110の処理が行なわれる。
ステップS110では、制御部510が、録画記憶処理および経過時間測定処理を実行する。録画記憶処理および経過時間測定処理の各々は、他の処理とは、独立して行なわれる処理である。そして、ステップS111の処理が行なわれる。
録画記憶処理では、制御部510が、録画対象コンテンツを、記憶部520に記憶させる処理を行なう。経過時間測定処理は、録画記憶処理の経過時間を測定するための処理である。
ステップS111では、TV画像の表示が行なわれる。具体的には、制御部510が、VDP532を利用して、録画対象コンテンツの画像(以下、TV画像ともいう)を、表示部530に表示させる。この場合、表示部530には、以下の検索画像MG100が表示される。すなわち、録画記憶処理により録画対象コンテンツを記憶部520に記憶させるとともに、録画対象コンテンツのTV画像を、表示部530に表示させる。そして、ステップS111の処理は終了する。
図4は、一例としての検索画像MG100を示す図である。図4を参照して、検索画像MG100には、TV画像MG110が表示される。TV画像MG110は、ステップS111の処理により表示されるTV画像である。なお、TV画像MG110は、動画像である。ここで、TV画像MG110は、タイトルが「英会話講座AA」である番組の動画像である。
また、検索画像MG100には、検索文字入力枠MG150が配置される。検索文字入力枠MG150は、インターフェース操作Mにより、文字を入力するための枠である。以下においては、インターフェース操作Mにより、検索文字入力枠MG150に入力された文字を、検索対象文字ともいう。
再び、図3を参照して、ステップS111の処理の後、ステップS112に進む。
ステップS112では、制御部510が、文字入力操作があるか否かを判定する。文字入力操作は、検索文字入力枠MG150に文字を入力するためのインターフェース操作Mである。ステップS112において、YESならば、ステップS113に進む。一方、ステップS112において、NOならば、後述するステップS128に進む。ここでは、文字入力操作があったとして、ステップS113に進む。
ここで、文字入力操作により、検索文字入力枠MG150に入力された検索対象文字は、一例として、英単語の“sleep”であるとする。なお、文字入力操作により、検索文字入力枠MG150に入力された検索対象文字は、一例として、表示部530に表示されているTV画像の視聴において、ユーザが遭遇した、意味が分からない単語であるとする。すなわち、検索対象文字は、ユーザの学習対象となる単語である。
ステップS113では、制御部510が、検索操作があるか否かを判定する。検索操作は、検索対象文字の詳細情報を取得するための情報(以下、詳細取得情報ともいう)を検索するためのインターフェース操作Mである。ステップS113において、YESならば、ステップS114に進む。一方、ステップS113において、NOならば、再度、ステップS113の処理が行なわれる。ここでは、検索操作があったとして、ステップS114に進む。
ステップS114では、検索処理が行なわれる。検索処理では、ローカル検索処理が行なわれる。ローカル検索処理では、制御部510が、検索対象文字を見出し語として含む辞書データと、検索対象文字を含む見出し語を含む辞書データとを、記憶部520に記憶されている複数種類の辞書データから検索する。ここでは、検索対象文字を見出し語として含む複数の辞書データと、検索対象文字を含む見出し語を含む複数の辞書データとが検索されたとする。この場合、検索された辞書データの名称が、詳細取得情報である。
また、検索処理では、ネットワーク検索処理が行なわれる。ネットワーク検索処理では、制御部510が、検索対象文字の詳細情報を取得するための詳細取得情報を、ネットワーク70から検索する。以下においては、ネットワーク70から検索される詳細取得情報を、ネット詳細取得情報ともいう。ここで、ネット詳細取得情報は、検索対象文字の詳細情報を取得するためのURL(Uniform Resource Locator)であるとする。なお、ネット詳細取得情報は、URLに限定されることない。ネット詳細取得情報は、たとえば、URLと、検索対象文字を含む文字列とを含む情報であってもよい。
ここで、ネットワーク70には、検索サーバが接続されているとする。検索サーバは、検索情報としての検索対象文字を受信すると、受信した検索対象文字の詳細情報を取得するためのネット詳細取得情報を検索するサーバである。
ネットワーク検索処理では、具体的には、制御部510が、通信部562を利用して、ネットワーク70を介して、検索サーバへ、検索対象文字を送信するための処理を行なう。検索サーバは、受信した検索対象文字の詳細情報を取得するためのネット詳細取得情報を記憶している場合、翻訳装置500へ、ネット詳細取得情報を送信する。
この処理により、制御部510は、検索サーバから、検索対象文字を取得するためのネット詳細取得情報を受信する。ここでは、検索サーバから、検索対象文字を取得するための複数のネット詳細取得情報を受信したとする。そして、ステップS115に進む。
ステップS115では、検索結果表示処理が行なわれる。検索結果表示処理では、制御部510が、VDP532を利用して、検索結果表示画像を生成し、生成した検索結果表示画像を、TV画像とともに、表示部530に表示する。検索結果表示画像は、ローカル検索処理の結果およびネットワーク検索処理の結果を表示した画像である。
ここで、ローカル検索処理により、検索対象文字を見出し語として含む複数の辞書データと、検索対象文字を含む見出し語を含む複数の辞書データとが検索されたとする。また、ネットワーク検索処理により、複数のネット詳細取得情報が受信されたとする。この場合、表示部530には、TV画像に加えて、以下の検索結果表示画像MG160が表示された、以下の検索画像MG100Aが表示される。検索結果表示画像MG160は、ローカル検索処理により検索された辞書データの名称と、ネットワーク検索処理により受信されたネット詳細取得情報とを表示した画像である。そして、ステップS115の処理は終了する。
図5は、一例としての検索画像MG100Aを示す図である。図5を参照して、検索画像MG100Aは、図4の検索画像MG100と比較して、TV画像MG110の表示領域が小さくなった点と、検索結果表示画像MG160がさらに配置される点と、検索文字入力枠MG150に検索対象文字“sleep”が入力されている点と異なる。それ以外は、検索画像MG100と同様なので詳細な説明は繰り返さない。
検索結果表示画像MG160には、複数の見出し語データが表示される。検索結果表示画像MG160において、「番号」とは、複数の見出し語データのいずかを特定するための番号である。「辞書名/URL」の項目の列には、ローカル検索処理により検索された辞書データの名称、または、ネットワーク検索処理により受信されたネット詳細取得情報(URL)が表示される。検索結果表示画像MG160において、「見出し語」とは、対応する辞書データ、または、対応するネット詳細取得情報(URL)を検索するのに使用された、検索対象文字、検索対象文字を含む見出し語、検索対象文字を含む文字列等である。
たとえば、番号“1”の見出し語データは、見出し語“sleep”を含む辞書データの名称“英和A”を示す。また、番号“7”の見出し語データは、見出し語“sleep” の詳細情報を取得するためのネット詳細取得情報(URL)を示す。なお、検索結果表示画像MG160に表示される複数の見出し語データの各々は、ボタン群542に含まれる数字ボタンの押下操作により選択可能となっている。
再び、図3を参照して、ステップS115の処理の後、ステップS116に進む。
ステップS116では、制御部510が、詳細フラグをオフに設定する。詳細フラグは、後述する処理により、詳細情報が表示中であるか否を示すフラグである。詳細フラグがオンであれば、詳細情報が表示中であることを示す。一方、詳細フラグがオフであれば、詳細情報が表示中でないことを示す。詳細フラグは、予め記憶部520に記憶されている。なお、詳細フラグは、初期状態ではオフに設定されている。そして、ステップS121に進む。
ステップS121では、制御部510が、詳細検索操作があるか否かを判定する。詳細検索操作は、見出し語の詳細情報を検索するためのインターフェース操作Mである。詳細検索操作は、一例として、検索結果表示画像MG160に表示される番号を入力するための、ボタン群542に含まれる数字ボタンの押下操作である。すなわち、詳細検索操作は、検索結果表示画像MG160に表示される複数の見出し語データのいずかを選択するための操作である。ステップS121において、YESならば、ステップS124に進む。一方、ステップS121において、NOならば、後述するステップS128に進む。ここでは、詳細検索操作があったとして、ステップS124に進む。ここで、詳細検索操作は、数字“1”を入力するための数字ボタンの押下操作であるとする。
ステップS124では、詳細検索処理が行なわれる。詳細検索処理では、制御部510が、詳細検索操作により選択された見出し語データに示される見出し語の詳細情報を検索する。ここで、詳細検索操作により選択された見出し語データは、一例として、番号“1”の見出し語データであるとする。
この場合、制御部510は、番号“1”の見出し語データに示される“英和A”の名称の辞書データから、見出し語“sleep”の詳細情報を検索する。なお、詳細検索操作により選択された見出し語データが、たとえば、番号“7”の見出し語データである場合、制御部510は、通信部562を利用して、URLが“http://www.bb.com/”のWebサイトにアクセスし、見出し語“sleep”の詳細情報を検索し、取得する。そして、ステップS125に進む。
ステップS125では、詳細表示処理が行なわれる。詳細表示処理では、制御部510が、VDP532を利用して、詳細表示画像を生成し、生成した詳細表示画像を、TV画像とともに、表示部530に表示する。詳細表示画像は、選択された見出し語データに示される見出し語の詳細情報を示す画像である。ここで、選択された見出し語データは、一例として、検索結果表示画像MG160に示される番号“1”の見出し語データであるとする。この場合、表示部530には、TV画像に加えて、以下の詳細表示画像MG160Aが表示された、以下の検索画像MG100Bが表示される。
図6は、一例としての検索画像MG100Bを示す図である。図6を参照して、検索画像MG100Bは、図5の検索画像MG100Aと比較して、検索結果表示画像MG160の代わりに詳細表示画像MG160Aが配置される点が異なる。それ以外は、検索画像MG100Aと同様なので詳細な説明は繰り返さない。
詳細表示画像MG160Aには、選択された番号“1”の見出し語データに示される辞書データの名称“英和A”と、番号“1”の見出し語データに示される見出し語“sleep”と、見出し語“sleep”の詳細情報とが表示される。前述したように、詳細情報は、対応する見出し語の意味、説明、翻訳語等の情報である。
なお、選択された見出し語データが、たとえば、番号“7”の見出し語データである場合、詳細表示画像MG160Aには、番号“7”の見出し語データに示されるネット詳細取得情報(URL“http://www.bb.com/”)と、番号“7”の見出し語データに示される見出し語“sleep”と、URLが“http://www.bb.com/”のWebサイトから得られた、見出し語“sleep”の詳細情報とが表示される。
以下においては、詳細情報が検索され、検索された詳細情報が表示部530に表示されたときに、表示部530に表示されているTV画像を、詳細情報検索時TV画像ともいう。したがって、TV画像MG110は、詳細情報検索時TV画像である。
再び、図3を参照して、ステップS125の詳細表示処理では、制御部510が、経過時間測定処理により測定されている現在の時間(以下、検索情報表示時間ともいう)を、一時記憶部522に記憶させる。検索情報表示時間は、動画像であるTV画像の表示中において、検索された詳細情報が表示された時間である。なお、既に、一時記憶部522に検索情報表示時間が記憶されている場合は、最新の検索情報表示時間を、上書き記憶させる。
検索情報表示時間は、一例として、“8分22秒”であるとする。この場合、検索情報表示時間は、録画記憶処理が開始されてから、“8分22秒”が経過したことを示す。すなわち、検索情報表示時間“8分22秒”は、録画対象コンテンツの最初から“8分22秒”が経過した箇所において、検索された詳細情報が表示されたことを示す。そして、ステップS125Nに進む。
ステップS125Nでは、制御部510が、詳細フラグをオンに設定する。詳細フラグは、詳細情報が表示中であるか否を示すフラグである。詳細フラグがオンであれば、詳細情報が表示中であることを示す。一方、詳細フラグがオフであれば、詳細情報が表示中でないことを示す。詳細フラグは、予め記憶部520に記憶されている。そして、ステップS126に進む。
ステップS126では、見出し語記憶処理が行なわれる。見出し語記憶処理では、制御部510が、詳細情報検索時TV画像のタイトルと、検索された詳細情報(以下、検索詳細情報ともいう)に対応する見出し語と、検索詳細情報の取得元を特定するための情報と、一時記憶部522に記憶されている検索情報表示時間とを対応づけた見出し語関連データを、一時記憶部522に記憶させる。
ここで、詳細情報検索時TV画像のタイトルは、「英会話講座AA」であるとする。また、検索詳細情報に対応する見出し語は、“sleep”であるとする。また、詳細情報の取得元は、名称が“英和A”の辞書データであるとする。この場合、詳細情報の取得元を特定するための情報は、辞書データの名称“英和A”となる。また、一時記憶部522に記憶されている検索情報表示時間は、“8分22秒”であるとする。この場合、一時記憶部522には、以下の見出し語関連データD100が記憶される。
なお、詳細情報検索時TV画像のタイトルを示す見出し語関連データが一時記憶部522に記憶されている場合、制御部510は、当該見出し語関連データに、検索詳細情報に対応する見出し語と、検索詳細情報の取得元を特定するための情報と、一時記憶部522に記憶されている検索情報表示時間とを対応づけたデータを追記する。そして、ステップS126の処理は終了する。
図7は、一例としての見出し語関連データD100を示す図である。図7を参照して、「タイトル」とは、詳細情報検索時TV画像のタイトルである。「見出し語」とは、検索詳細情報に対応する見出し語である。「情報取得元」とは、詳細情報の取得元を特定するための情報である。なお、詳細情報が、インターネット等のネットワークから取得された場合、詳細情報の取得元を特定するための情報は、取得された詳細情報が表示されているWebサイト(Webページ)のURLになる。「検索情報表示時間」は、前述したので詳細な説明は繰り返さない。
再び、図3を参照して、ステップS126の処理の後、ステップS127に進む。
ステップS127では、情報取得元記憶処理が行なわれる。情報取得元記憶処理は、ステップS125の詳細表示処理により表示された詳細情報の取得元を特定するための情報を記憶するための処理である。
情報取得元記憶処理では、制御部510が、詳細情報検索時TV画像のタイトルと、詳細情報の取得元を特定するための情報とを対応づけた情報取得元特定データを、一時記憶部522に記憶させる。ここで、詳細情報検索時TV画像のタイトルは、「英会話講座AA」であるとする。また、詳細情報の取得元は、名称が、“英和A”の辞書データであるとする。この場合、詳細情報の取得元を特定するための情報は、辞書データの名称“英和A”となる。この場合、一時記憶部522には、以下の情報取得元特定データD110が記憶される。
なお、詳細情報検索時TV画像のタイトルを示す情報取得元特定データが一時記憶部522に記憶されており、かつ、当該情報取得元特定データに、詳細情報の取得元を特定するための情報が表示されていない場合、制御部510は、当該情報取得元特定データに、詳細情報の取得元を特定するための情報を追記する。そして、ステップS127の処理は終了する。
図8は、一例としての情報取得元特定データD110を示す図である。図8を参照して、情報取得元特定データD110は、図7の見出し語関連データD100と比較して、「見出し語」および「検索情報表示時間」の項目がない点が異なる。それ以外は、見出し語関連データD100と同様なので詳細な説明は繰り返さない。
再び、図3を参照して、ステップS127の処理の後、ステップS128に進む。
ステップS128では、制御部510が、入力文字変更操作があるか否かを判定する。入力文字変更操作は、検索文字入力枠MG150に入力されている文字を変更するためのインターフェース操作Mである。なお、ステップS112でNOと判定されて、ステップS128の処理が行なわれる場合、入力文字変更操作は、検索文字入力枠MG150に文字が入力されてない状態で、検索文字入力枠MG150に文字を入力するためのインターフェース操作Mとなる。
ステップS128において、YESならば、再度、ステップS113の処理が行なわれる。一方、ステップS128において、NOならば、後述するステップS130に進む。ここでは、入力文字変更操作があったとして、ステップS113に進む。ここで、入力文字変更操作により、検索文字入力枠MG150に入力された検索対象文字は、一例として、英単語の“meet”であるとする。なお、文字入力操作により、検索文字入力枠MG150に入力された検索対象文字は、一例として、表示部530に表示されているTV画像の視聴において、ユーザが遭遇した、意味が分からない単語であるとする。すなわち、検索対象文字は、ユーザの学習対象となる単語である。
そして、ステップS113〜S115、ステップS121〜S127の処理が、前述したのと同様に行なわれたとする。
そして、ステップS128において、NOと判定されたとする。この場合、ステップS130に進む。
ステップS130では、制御部510が、録画終了条件が満たされたか否かを判定する。ここで、録画終了条件は、現在の時刻が、録画予約の終了予定時刻であるという条件である。なお、録画終了条件は、上記条件に限定されることなく、たとえば、録画を終了するためのインターフェース操作Mが行なわれたという条件であってもよい。ステップS130において、YESならば、ステップS131に進む。一方、ステップS130において、NOならば、ステップS140に進む。ここでは、録画終了条件が満たされていないとして、ステップS140に進む。
ステップS140では、制御部510が、詳細フラグがオフであるか否かを判定する。ステップS140において、YESならば、ステップS141に進む。一方、ステップS140において、NOならば、再度、ステップS128の処理が行なわれる。
ステップS141では、制御部510が、ステップS115の検索結果表示処理により、表示部530において、検索結果が表示中であるか否かを判定する。ステップS141において、YESならば、再度、ステップS121の処理が行なわれる。一方、ステップS141において、NOならば、再度、ステップS112の処理が行なわれる。
ここで、ステップS130でYESと判定されるまでに、ステップS114、S115、ステップS124〜S127の処理が、所定回数(たとえば、2回)行なわれたとする。
この場合、一時記憶部522に記憶されている見出し語関連データは、以下の見出し語関連データD100Aになったとする。また、一時記憶部522に記憶されている情報取得元特定データは、以下の情報取得元特定データD110Aになったとする。
図9は、一例としての見出し語関連データD100Aを示す図である。
図10は、一例としての情報取得元特定データD110Aを示す図である。
再び、図3を参照して、ステップS130でYESと判定されると、制御部510は、前述した録画記憶処理および経過時間測定処理を終了し、ステップS131に進む。
ステップS131では、記憶対象データがあるか否かが判定される。具体的には、制御部510が、一時記憶部522に、見出し語関連データおよび情報取得元特定データが記憶されているか否かを判定する。ステップS131において、YESならば、ステップS132に進む。一方、ステップS131において、NOならば、この録画処理は終了する。ここでは、一時記憶部522に、見出し語関連データおよび情報取得元特定データが記憶されているとして、ステップS132に進む。
ステップS132では、データ記憶処理が行なわれる。データ記憶処理では、見出し語関連データと、録画記憶処理により記憶部520に記憶された録画対象コンテンツの再生時間とを対応づけた、見出し語関連データを、記憶部520に記憶させる。そして、制御部510は、一時記憶部522に記憶されている見出し語関連データを消去する。
ここで、一時記憶部522には、見出し語関連データD100Aが記憶されているとする。また、録画対象コンテンツの再生時間は、一例として、30分であるとする。この場合、制御部510は、見出し語関連データD100Aと、録画記憶処理により記憶部520に記憶された録画対象コンテンツの再生時間とを対応づけた、以下の見出し語関連データD100Bを、記憶部520に記憶させる。
図11は、一例としての見出し語関連データD100Bを示す図である。
再び、図3を参照して、ステップS132のデータ記憶処理では、制御部510が、一時記憶部522に記憶されている情報取得元特定データを、記憶部520に記憶させる。そして、制御部510は、一時記憶部522に記憶されている情報取得元特定データを消去する。
ここで、一時記憶部522には、情報取得元特定データD110Aが記憶されているとする。この場合、記憶部520に情報取得元特定データD110Aが記憶される。そして、この録画処理は終了する。
(再生処理)
次に、録画処理により、記憶部520に記憶された録画対象コンテンツ(以下、録画コンテンツともいう)を、再生するための処理(以下、再生処理ともいう)について説明する。ここで、図3の録画処理が複数回行なわれることにより、記憶部520には、複数の録画コンテンツが記憶されているとする。また、記憶部520には、複数の録画コンテンツにそれぞれ対応する複数の見出し語関連データが記憶されているとする。また、記憶部520には、複数の録画コンテンツにそれぞれ対応する複数の情報取得元特定データが記憶されているとする。
図12は、再生処理のフローチャートを示す図である。図12を参照して、再生処理では、まず、ステップS211の処理が行なわれる。
ステップS211では、制御部510が、リスト表示操作があるか否かを判定する。ここで、リスト表示操作は、記憶部520に記憶されている複数の録画コンテンツにそれぞれ対応する複数のタイトルのリストを、表示部530に表示させるためのインターフェース操作Mである。ステップS211において、YESならば、ステップS212に進む。一方、ステップS211において、NOならば、再度、ステップS211の処理が行なわれる。ここでは、リスト表示操作があったとして、ステップS212に進む。
ステップS212では、リスト画像表示処理が行なわれる。リスト画像表示処理では、制御部510が、VDP532を利用して、複数の見出し語関連データに基づいて、以下のリスト画像MG200Nを生成し、リスト画像MG200Nを、表示部530に表示させる。リスト画像MG200Nは、記憶部520に記憶されている複数の録画コンテンツにそれぞれ対応する複数の見出し語関連データに示される「タイトル」に基づいて生成される。そして、ステップS212の処理は終了する。
図13は、一例としてのリスト画像MG200Nを示す図である。図13を参照して、リスト画像MG200Nには、録画リスト画像MG210Nが配置される。録画リスト画像MG210Nには、複数のタイトルデータが表示される。複数のタイトルデータは、記憶部520に記憶されている複数の録画コンテンツのタイトルを示すデータである。録画リスト画像MG210Nにおいて、「番号」とは、複数の録画コンテンツのタイトルのいずかを特定するための番号である。
再び、図12を参照して、ステップS212の処理の後、ステップS213に進む。
ステップS213では、制御部510が、再生操作があるか否かを判定する。ここで、再生操作は、一例として、録画リスト画像MG210Nに表示される番号を入力するための、ボタン群542に含まれる数字ボタンの押下操作である。すなわち、再生操作は、録画リスト画像MG210Nに表示される複数のタイトルデータのいずかを選択するための操作である。ステップS213において、YESならば、ステップS214に進む。一方、ステップS213において、NOならば、再度、ステップS213の処理が行なわれる。ここでは、再生操作があったとして、ステップS214に進む。ここで、再生操作は、数字“1”を入力するための数字ボタンの押下操作であるとする。
ステップS214では、制御部510が、再生表示処理および経過時間測定処理Pを実行する。再生表示処理および経過時間測定処理Pの各々は、他の処理とは、独立して行なわれる処理である。そして、ステップS214の処理は終了する。
再生表示処理では、制御部510が、再生操作により選択されたタイトルデータが示すタイトルの録画コンテンツを、記憶部520から読出しながら、録画コンテンツを再生し、再生している録画コンテンツの画像(以下、再生画像ともいう)を、VDP532を利用して、表示部530に表示させる。ここで、再生操作が、数字“1”を入力するための数字ボタンの押下操作である場合、再生される録画コンテンツは、タイトルが「英会話講座AA」のコンテンツとなる。この場合、表示部530には、以下の再生時画像MG200が表示される。
経過時間測定処理Pは、再生表示処理の経過時間を測定するための処理である。すなわち、経過時間測定処理Pにより測定される経過時間は、再生操作により選択されたタイトルデータが示すタイトルの録画コンテンツの画像である再生画像が、表示部530に表示されてからの経過時間である。
図14は、一例としての再生時画像MG200を示す図である。図14を参照して、再生時画像MG200には、再生画像MG210が表示される。再生画像MG210は、再生表示処理により表示される再生画像である。また、再生画像MG210には、検索文字入力枠MG250が配置される。検索文字入力枠MG250は、インターフェース操作Mにより、文字を入力するための枠である。以下においては、インターフェース操作Mにより、検索文字入力枠MG250に入力された文字を、検索対象文字ともいう。
再び、図12を参照して、ステップS214の処理の後、ステップS215に進む。
ステップS215では、制御部510が、読出し対象データが記憶部520に記憶されているか否かを判定する。ここで、読出し対象データは、再生表示処理により再生されている録画コンテンツのタイトルを示す見出し語関連データである。ステップS215において、YESならば、ステップS216に進む。一方、ステップS215において、NOならば、後述するステップS228に進む。ここでは、読出し対象データとしての図11の見出し語関連データD100Bが記憶部520に記憶されているとして、ステップS216に進む。
ステップS216では、データ読出し処理が行なわれる。データ読出し処理では、制御部510が、再生表示処理により再生されている録画コンテンツに対応する見出し語関連データを、記憶部520から読み出す。ここで、再生表示処理により再生されている録画コンテンツは、タイトルが「英会話講座AA」のコンテンツであるとする。この場合、制御部510により、図11の見出し語関連データD100Bが読み出される。そして、ステップS217に進む。
ステップS217では、検索情報表示処理が行なわれる。検索情報表示処理は、検索情報を表示するための処理である。ここで、検索情報は、録画期間または再生期間において、検索された情報である。録画期間は、再生表示処理により表示部530に表示されている録画コンテンツを、図3のステップS110で実行される録画記憶処理により録画していた期間である。再生期間は、ステップS214により実行された再生表示処理により、録画コンテンツが再生されている期間である。
具体的には、検索情報表示処理では、制御部510が、VDP532を利用して、ステップS216の処理により読み出された見出し語関連データに基づいて検索情報表示画像を生成し、生成した検索情報表示画像を、再生画像とともに、表示部530に表示する。検索情報表示画像は、読み出した見出し語関連データに示される、見出し語および情報取得元の情報を表示した画像である。
ここで、見出し語関連データは、図11の見出し語関連データD100Bであるとする。この場合、検索情報表示画像は、以下の検索情報表示画像MG260となる。この場合、表示部530には、再生画像に加えて、以下の検索情報表示画像MG260が表示された、以下の再生時画像MG200Aが表示される。そして、ステップS217の処理は終了する。
図15は、一例としての再生時画像MG200Aを示す図である。図15を参照して、再生時画像MG200Aは、図14の再生時画像MG200と比較して、再生画像MG210の表示領域が小さくなった点と、検索情報表示画像MG260がさらに配置される点が異なる。それ以外は、再生時画像MG200と同様なので詳細な説明は繰り返さない。
検索情報表示画像MG260には、複数の検索情報データが表示される。検索情報表示画像MG260において、「番号」とは、複数の検索情報データのいずかを特定するための番号である。複数の検索情報データの各々は、見出し語関連データD100Bに示される、見出し語と、当該見出し語に対応する情報取得元を含む。情報取得元は、前述したように、詳細情報の取得元を特定するための情報である。
なお、検索情報表示画像MG260に表示される複数の検索情報データの各々は、ボタン群542に含まれる数字ボタンの押下操作により選択可能となっている。
再び、図12を参照して、ステップS217の処理の後、ステップS221に進む。
ステップS221では、詳細検索操作Pがあるか否かを判定する。詳細検索操作Pは、見出し語の詳細情報を検索するためのインターフェース操作Mである。詳細検索操作Pは、一例として、検索情報表示画像MG260に表示される番号を入力するための、ボタン群542に含まれる数字ボタンの押下操作である。すなわち、詳細検索操作は、検索情報表示画像MG260に表示される複数の検索情報データのいずかを選択するための操作である。
ステップS221において、YESならば、ステップS224に進む。一方、ステップS221において、NOならば、後述するステップS228に進む。ここでは、詳細検索操作Pがあったとして、ステップS224に進む。ここで、詳細検索操作Pは、数字“1”を入力するための数字ボタンの押下操作であるとする。
ステップS224では、詳細検索処理Pが行なわれる。詳細検索処理Pでは、制御部510が、詳細検索操作Pにより選択された検索情報データに示される見出し語の詳細情報を、選択された検索情報データに示される情報取得元から検索する。ここで、詳細検索処理Pにより選択された検索情報データは、一例として、検索情報表示画像MG260に表示される番号“1”の検索情報データであるとする。
この場合、制御部510は、番号“1”の検索情報データに示される情報取得元である“英和A”の名称の辞書データから、見出し語“sleep”の詳細情報を検索する。なお、詳細検索操作Pにより選択された検索情報データが、たとえば、検索情報表示画像MG260に表示される番号“3”の検索情報データである場合、制御部510は、通信部562を利用して、URLが“http://www.cc.com/”のWebサイトにアクセスし、見出し語“memory”の詳細情報を検索し、取得する。そして、ステップS225に進む。
ステップS225では、詳細表示処理Pが行なわれる。詳細表示処理Pでは、制御部510が、VDP532を利用して、詳細表示画像を生成し、生成した詳細表示画像を、再生画像とともに、表示部530に表示する。詳細表示画像は、選択された検索情報データに示される見出し語の詳細情報を示す画像である。ここで、選択された検索情報データは、一例として、検索情報表示画像MG260に示される番号“1”の検索情報データであるとする。この場合、表示部530には、再生画像に加えて、以下の詳細表示画像MG260Aが表示された、以下の再生時画像MG200Bが表示される。
図16は、一例としての再生時画像MG200Bを示す図である。図16を参照して、再生時画像MG200Bは、図15の再生時画像MG200Aと比較して、検索情報表示画像MG260の代わりに詳細表示画像MG260Aが配置される点が異なる。それ以外は、再生時画像MG200Aと同様なので詳細な説明は繰り返さない。
詳細表示画像MG260Aに表示される情報は、図6の詳細表示画像MG160Aに表示される情報と同じなので詳細な説明は繰り返さない。
なお、選択された検索情報データが、たとえば、検索情報表示画像MG260に表示される番号“3”の検索情報データである場合、詳細表示画像MG260Aには、番号“3”の検索情報データに示される情報取得元(URL“http://www.cc.com/”)と、番号“3”の検索情報データに示される見出し語“memory”と、URLが“http://www.cc.com/”のWebサイトから得られた、見出し語“memory”の詳細情報とが表示される。
再び、図12を参照して、ステップS225の詳細表示処理Pでは、制御部510が、経過時間測定処理Pにより測定されている現在の時間(以下、検索情報表示時間Pともいう)を、一時記憶部522に記憶させる。検索情報表示時間Pは、動画像である再生画像の表示中において、検索された詳細情報が表示された時間である。なお、既に、一時記憶部522に検索情報表示時間Pが記憶されている場合は、最新の検索情報表示時間Pを、上書き記憶させる。
検索情報表示時間Pは、一例として、16分50秒であるとする。この場合、検索情報表示時間Pは、再生表示処理が開始されてから、16分50秒が経過したことを示す。すなわち、検索情報表示時間P“16分50秒”は、再生表示処理により再生されている録画コンテンツの最初から16分50秒が経過した箇所において、検索された詳細情報が表示されたことを示す。そして、ステップS225Nに進む。
ステップS225Nでは、制御部510が、詳細フラグPをオンに設定する。詳細フラグPは、詳細表示処理Pにより詳細情報が表示中であるか否を示すフラグである。詳細フラグPがオンであれば、詳細表示処理Pにより詳細情報が表示中であることを示す。一方、詳細フラグPがオフであれば、詳細表示処理Pにより詳細情報が表示中でないことを示す。詳細フラグPは、予め記憶部520に記憶されている。そして、ステップS226に進む。
ステップS226では、見出し語記憶処理Pが行なわれる。見出し語記憶処理Pでは、制御部510が、再生表示処理により再生されている録画コンテンツのタイトルと、検索された詳細情報(以下、検索詳細情報ともいう)に対応する見出し語と、検索詳細情報の取得元を特定するための情報と、一時記憶部522に記憶されている検索情報表示時間Pとを対応づけた見出し語関連データを、記憶部520に記憶させる。
なお、再生表示処理により再生されている録画コンテンツのタイトルを示す見出し語関連データが記憶部520に記憶されており、かつ、当該見出し語関連データに、検索詳細情報に対応する見出し語が表示されていない場合、制御部510は、当該見出し語関連データに、検索詳細情報に対応する見出し語と、検索詳細情報の取得元を特定するための情報と、一時記憶部522に記憶されている検索情報表示時間Pとを対応づけたデータを追記する。
ここで、記憶部520には、再生表示処理により再生されている録画コンテンツのタイトル「英会話講座AA」を示す図11の見出し語関連データD100Bが記憶されているとする。また、検索詳細情報に対応する見出し語は、“sleep”であるとする。この場合、見出し語関連データD100Bには、検索詳細情報に対応する見出し語“sleep”が表示されている。そのため、見出し語関連データD100Bに、検索詳細情報に対応する見出し語と、検索詳細情報の取得元を特定するための情報と、一時記憶部522に記憶されている検索情報表示時間Pとを対応づけたデータは追記されない。そして、ステップS227に進む。
ステップS227では、情報取得元記憶処理Pが行なわれる。情報取得元記憶処理Pは、ステップS225の詳細表示処理Pにより表示された詳細情報の取得元を特定するための情報を記憶するための処理である。
情報取得元記憶処理Pでは、制御部510が、再生表示処理により再生されている録画コンテンツのタイトルと、詳細情報の取得元を特定するための情報とを対応づけた情報取得元特定データを、記憶部520に記憶させる。なお、再生表示処理により再生されている録画コンテンツのタイトルを示す情報取得元特定データが記憶部520に記憶されており、かつ、当該情報取得元特定データに、詳細情報の取得元を特定するための情報が表示されていない場合、制御部510は、当該情報取得元特定データに、詳細情報の取得元を特定するための情報を追記する。
ここで、記憶部520には、再生表示処理により再生されている録画コンテンツのタイトル「英会話講座AA」を示す図10の情報取得元特定データD110Aが記憶されているとする。また、詳細情報の取得元を特定するための情報は、辞書データの名称“英和A”であるとする。この場合、情報取得元特定データD110Aには、詳細情報の取得元を特定するための情報として、辞書データの名称“英和A”が表示されている。そのため、情報取得元特定データD110Aに、詳細情報の取得元を特定するための情報は追記されない。そして、ステップS228に進む。
ステップS228では、制御部510が、文字入力操作Pがあるか否かを判定する。文字入力操作Pは、検索文字入力枠MG250に文字を入力するためのインターフェース操作Mである。なお、検索文字入力枠MG250に文字が入力されている場合、文字入力操作Pは、検索文字入力枠MG250に入力されている文字を変更するためのインターフェース操作Mとなる。ステップS228において、YESならば、ステップS233に進む。一方、ステップS228において、NOならば、後述するステップS250に進む。ここでは、文字入力操作Pがあったとして、ステップS233に進む。
ここで、文字入力操作Pにより、検索文字入力枠MG250に入力された検索対象文字は、一例として、英単語の“come”であるとする。なお、文字入力操作により、検索文字入力枠MG250に入力された検索対象文字は、一例として、表示部530に表示されている再生画像の視聴において、ユーザが遭遇した、意味が分からない単語であるとする。すなわち、検索対象文字は、ユーザの学習対象となる単語である。
ステップS233では、制御部510が、検索操作があったか否かを判定する。検索操作は、検索対象文字の詳細情報を取得するための情報(以下、詳細取得情報ともいう)を検索するためのインターフェース操作Mである。ステップS233において、YESならば、ステップS234に進む。一方、ステップS233において、NOならば、再度、ステップS233の処理が行なわれる。ここでは、検索操作があったとして、ステップS234に進む。
ステップS234では、検索処理が行なわれる。検索処理は、図3のステップS114の処理と同様に、ローカル検索処理およびネットワーク検索処理が行なわれるので詳細な説明は繰り返さない。この処理により、検索対象文字を見出し語として含む複数の辞書データと、検索対象文字を含む見出し語を含む複数の辞書データとが検索されたとする。また、検索サーバから、検索対象文字を取得するための複数のネット詳細取得情報を受信したとする。そして、ステップS235に進む。
ステップS235では、検索結果表示処理Pが行なわれる。検索結果表示処理Pでは、制御部510が、VDP532を利用して、検索結果表示画像を生成し、生成した検索結果表示画像を、再生画像とともに、表示部530に表示する。検索結果表示画像は、ローカル検索処理の結果およびネットワーク検索処理の結果を表示した画像である。
ここで、ローカル検索処理により、検索対象文字を見出し語として含む複数の辞書データと、検索対象文字を含む見出し語を含む複数の辞書データとが検索されたとする。また、ネットワーク検索処理により、複数のネット詳細取得情報が受信されたとする。この場合、表示部530には、再生画像に加えて、以下の検索結果表示画像MG260Cが表示された、以下の再生時画像MG200Cが表示される。検索結果表示画像MG260Cは、ローカル検索処理により検索された辞書データの名称と、ネットワーク検索処理により受信されたネット詳細取得情報とを表示した画像である。そして、ステップS235の処理は終了する。
図17は、一例としての再生時画像MG200Cを示す図である。図17を参照して、再生時画像MG200Cは、図16の再生時画像MG200Bと比較して、詳細表示画像MG260Aの代わりに検索結果表示画像MG260Cが配置される点と、検索文字入力枠MG250に検索対象文字“come”が入力されている点とが異なる。それ以外は、再生時画像MG200Bと同様なので詳細な説明は繰り返さない。
検索結果表示画像MG260Cに表示される情報、データは、図5の検索結果表示画像MG160において説明したのと同様なので詳細な説明は繰り返さない。なお、検索結果表示画像MG260Cに表示される複数の見出し語データの各々は、ボタン群542に含まれる数字ボタンの押下操作により選択可能となっている。
再び、図12を参照して、ステップS235の処理の後、ステップS236に進む。
ステップS236では、制御部510が、前述した詳細フラグPをオフに設定する。また、制御部510が、詳細フラグPNをオフに設定する。詳細フラグPNは、後述する詳細表示処理PNにより詳細情報が表示中であるか否を示すフラグである。詳細フラグPNがオンであれば、詳細表示処理PNにより詳細情報が表示中であることを示す。一方、詳細フラグPNがオフであれば、詳細表示処理PNにより詳細情報が表示中でないことを示す。詳細フラグPNは、予め記憶部520に記憶されている。そして、ステップS241に進む。
ステップS241では、制御部510が、詳細検索操作があるか否かを判定する。詳細検索操作は、見出し語の詳細情報を検索するためのインターフェース操作Mである。詳細検索操作は、一例として、検索結果表示画像MG260Cに表示される番号を入力するための、ボタン群542に含まれる数字ボタンの押下操作である。すなわち、詳細検索操作は、検索結果表示画像MG260Cに表示される複数の見出し語データのいずかを選択するための操作である。ステップS241において、YESならば、ステップS244に進む。一方、ステップS241において、NOならば、再度、ステップS228の処理が行なわれる。ここでは、詳細検索操作があったとして、ステップS244に進む。ここで、詳細検索操作は、数字“1”を入力するための数字ボタンの押下操作であるとする。
ステップS244では、詳細検索処理が行なわれる。詳細検索処理は、図3のステップS124の処理と同様なので詳細な説明は繰り返さない。そして、ステップS245に進む。
ステップS245では、詳細表示処理PNが行なわれる。詳細表示処理PNでは、制御部510が、VDP532を利用して、詳細表示画像を生成し、生成した詳細表示画像を、再生画像とともに、表示部530に表示する。詳細表示画像は、選択された見出し語データに示される見出し語の詳細情報を示す画像である。ここで、選択された見出し語データは、一例として、検索結果表示画像MG260Cに示される番号“1”の見出し語データであるとする。この場合、表示部530には、再生画像に加えて、以下の詳細表示画像MG260Dが表示された、以下の再生時画像MG200Dが表示される。
図18は、一例としての再生時画像MG200Dを示す図である。図18を参照して、再生時画像MG200Dは、図17の再生時画像MG200Cと比較して、検索結果表示画像MG260Cの代わりに詳細表示画像MG260Dが配置される点が異なる。それ以外は、再生時画像MG200Cと同様なので詳細な説明は繰り返さない。
詳細表示画像MG260Dに表示される情報は、図6の詳細表示画像MG160Aにおいて説明したのと同様なので詳細な説明は繰り返さない。
再び、図12を参照して、ステップS245の詳細表示処理PNでは、制御部510が、経過時間測定処理Pにより測定されている現在の時間(以下、検索情報表示時間Pともいう)を、一時記憶部522に記憶させる。検索情報表示時間Pは、動画像である再生画像の表示中において、検索された詳細情報が表示された時間である。なお、既に、一時記憶部522に検索情報表示時間Pが記憶されている場合は、最新の検索情報表示時間Pを、上書き記憶させる。
検索情報表示時間Pは、一例として、“16分50秒”であるとする。この場合、検索情報表示時間Pは、再生表示処理が開始されてから、“16分50秒”が経過したことを示す。すなわち、検索情報表示時間P“16分50秒”は、再生表示処理により再生されている録画コンテンツの最初から16分50秒が経過した箇所において、検索された詳細情報が表示されたことを示す。そして、ステップS245Nに進む。
ステップS245Nでは、制御部510が、詳細フラグPNをオンに設定する。詳細フラグPNは、詳細表示処理PNにより詳細情報が表示中であるか否を示すフラグである。詳細フラグPNがオンであれば、詳細表示処理PNにより詳細情報が表示中であることを示す。一方、詳細フラグPNがオフであれば、詳細表示処理PNにより詳細情報が表示中でないことを示す。そして、ステップS246に進む。
ステップS246では、見出し語記憶処理Pが行なわれる。ステップS246の見出し語記憶処理Pは、ステップS226の見出し語記憶処理Pと同様な処理なので詳細な説明は繰り返さない。
ここで、記憶部520には、再生表示処理により再生されている録画コンテンツのタイトル「英会話講座AA」を示す図11の見出し語関連データD100Bが記憶されているとする。また、検索詳細情報に対応する見出し語は、“come”であるとする。この場合、見出し語関連データD100Bには、検索詳細情報に対応する見出し語“come”が表示されていない。そのため、制御部510は、見出し語関連データD100Bに、検索詳細情報に対応する見出し語と、検索詳細情報の取得元を特定するための情報と、一時記憶部522に記憶されている検索情報表示時間Pとを対応づけたデータを追記する。この場合、記憶部520に記憶されている見出し語関連データD100Bは、以下の見出し語関連データD100Cとなる。そして、ステップS246の処理は終了する。
図19は、一例としての見出し語関連データD100Cを示す図である。図19を参照して、ステップS246の処理によりデータが追記される場合、見出し語関連データD100Cに示される検索情報表示時間が、順に長くなる箇所に、データが追記される。
再び、図12を参照して、ステップS246の処理の後、ステップS247に進む。
ステップS247では、情報取得元記憶処理Pが行なわれる。ステップS247の情報取得元記憶処理Pは、ステップS227の情報取得元記憶処理Pと同様な処理なので詳細な説明は繰り返さない。
ここで、記憶部520には、再生表示処理により再生されている録画コンテンツのタイトル「英会話講座AA」を示す図10の情報取得元特定データD110Aが記憶されているとする。また、詳細情報の取得元を特定するための情報は、辞書データの名称“英和D”であるとする。この場合、情報取得元特定データD110Aには、詳細情報の取得元を特定するための情報として、辞書データの名称“英和D”は表示されていない。そのため、制御部510は、情報取得元特定データD110Aに、詳細情報の取得元を特定するための情報は追記する。この場合、記憶部520に記憶されている情報取得元特定データD110Aは、以下の情報取得元特定データD110Cとなる。そして、ステップS247の処理は終了する。
図20は、一例としての情報取得元特定データD110Cを示す図である。
再び、図12を参照して、ステップS247の処理の後、再度、ステップS228の処理が行なわれる。
ここで、ステップS228でNOと判定され、ステップS250に進むとする。
ステップS250では、制御部510が、再生終了条件が満たされたか否かを判定する。ここで、再生終了条件は、再生表示処理により再生されている録画コンテンツの再生が終了したという条件である。なお、再生終了条件は、上記条件に限定されることなく、たとえば、録画コンテンツの再生を終了するためのインターフェース操作Mが行なわれたという条件であってもよい。ステップS250において、YESならば、制御部510は、前述した再生表示処理および経過時間測定処理Pを終了し、この再生処理は終了する。一方、ステップS250において、NOならば、ステップS251に進む。ここでは、再生終了条件が満たされてないとして、ステップS251に進む。
ステップS251では、制御部510が、詳細フラグPがオフであるか否かを判定する。ステップS251において、YESならば、ステップS252に進む。一方、ステップS251において、NOならば、再度、ステップS228の処理が行なわれる。
ステップS252では、制御部510が、前述した詳細フラグPNがオフであるか否かを判定する。ステップS252において、YESならば、ステップS253に進む。一方、ステップS252において、NOならば、再度、ステップS228の処理が行なわれる。
ステップS253では、制御部510が、ステップS217の検索情報表示処理により、表示部530において、検索情報が表示中であるか否かを判定する。ステップS253において、YESならば、再度、ステップS221の処理が行なわれる。一方、ステップS253において、NOならば、ステップS254に進む。
ステップS254では、制御部510が、ステップS235の検索結果表示処理Pにより、表示部530において、検索結果が表示中であるか否かを判定する。ステップS254において、YESならば、再度、ステップS241の処理が行なわれる。一方、ステップS254において、NOならば、再度、ステップS228の処理が行なわれる。
(再生期間にのみ検索された見出し語の表示)
次に、録画期間において、詳細情報の検索が行なわれなかった場合の処理について説明する。すなわち、この場合は、図3の録画処理において、ステップS130でYESと判定されるまで、ステップS112、S128でNOと判定され続けた場合である。この場合、図3の録画処理の終了時において、記憶部520には、録画対象コンテンツの見出し語関連データおよび情報取得元特定データは記憶されてない。
そして、図12の再生処理において、対応する見出し語関連データおよび情報取得元特定データが記憶されていない録画コンテンツの再生中において、詳細情報の検索処理が行なわれたとする。この場合、図12の再生処理のステップS226、S227、S246、S247等の処理が行なわれることにより、再生中の録画コンテンツに対応する見出し語関連データおよび情報取得元特定データが記憶部520に記憶される。
その後、再度、図12の再生処理において、録画コンテンツを再生することで、録画期間において、詳細情報の検索が行なわれなかった場合においても、録画コンテンツの再生中に、詳細情報が検索された見出し語を表示させることができる。
(見出し語の表示)
次に、詳細情報を表示させた見出し語のリストを表示させるための処理(以下、リスト表示処理ともいう)について説明する。リスト表示処理は、詳細情報を表示させた見出し語のリストを表示させるためインターフェース操作Mがあった場合に行なわれる処理である。ここで、記憶部520には、複数の録画コンテンツにそれぞれ対応する複数の見出し語関連データが記憶されているとする。また、記憶部520には、複数の録画コンテンツにそれぞれ対応する複数の情報取得元特定データが記憶されているとする。
図21は、一例としてのリスト表示処理を示す図である。図21を参照して、リスト表示処理では、まず、ステップS311の処理が行なわれる。
ステップS311では、リスト画像表示処理Cが行なわれる。リスト画像表示処理Cでは、制御部510が、VDP532を利用して、複数の見出し語関連データに基づいて、以下のリスト画像MG400を生成し、リスト画像MG400を、表示部530に表示させる。リスト画像MG400は、記憶部520に記憶されている複数の録画コンテンツにそれぞれ対応する複数の見出し語関連データに示される「タイトル」に基づいて生成される。そして、ステップS311の処理は終了する。
図22は、一例としてのリスト画像MG400を示す図である。図22を参照して、リスト画像MG400には、表示見出し語選択画像MG410が配置される。表示見出し語選択画像MG410には、複数の番号にそれぞれ対応づけられた複数の見出し語関連データに示される「タイトル」が表示される。なお、番号“0”は、記憶部520に記憶されている全ての見出し語関連データに示される、全ての見出し語を表示するための番号である。
再び、図21を参照して、ステップS311の処理の後、ステップS312に進む。
ステップS312では、制御部510が、選択操作があるか否かを判定する。選択操作は、一例として、表示見出し語選択画像MG410に表示される番号を入力するための、ボタン群542に含まれる数字ボタンの押下操作である。ステップS312において、YESならば、ステップS313に進む。一方、ステップS312において、NOならば、再度、ステップS312の処理が行なわれる。ここでは、選択操作があったとして、ステップS313に進む。ここで、選択操作は、数字“1”を入力するための数字ボタンの押下操作であるとする。
ステップS313では、見出し語表示処理が行なわれる。見出し語表示処理では、選択操作に基づいた見出し語のリストが表示される。ここでは、選択操作は、数字“1”を入力するための数字ボタンの押下操作であるとする。この場合、制御部510が、VDP532を利用して、タイトルが「英会話講座AA」を示す見出し語関連データに表示されている、全ての見出し語を表示したリスト画像を生成し、リスト画像を、表示部530に表示させる。ここで、「英会話講座AA」を示す見出し語関連データは、図19の見出し語関連データD100Cであるとする。この場合、表示部530には、以下のリスト画像MG400Aが表示される。そして、ステップS313の処理は終了する。
図23は、一例としてのリスト画像MG400Aを示す図である。図23を参照して、リスト画像MG400Aには、見出し語リスト画像MG410Aが配置される。見出し語リスト画像MG410Aは、タイトルが「英会話講座AA」のコンテンツの録画期間または再生期間において、詳細情報が検索された複数の見出し語を示す。なお、リスト画像MG400Aが表示されているときに、見出し語に対応する数字が入力されると、対応語する見出し語の詳細情報が表示される。また、リスト画像MG400Aの表示中に、初期画像に戻るためのインターフェース操作Mがあると、再度、ステップS311の処理が行なわれる。
なお、ステップS313の見出し語表示処理において、数字“0”を入力するための選択操作に基づく処理は、以下のようになる。具体的には、制御部510が、記憶部520に記憶されている全ての見出し語関連データに示される、全ての見出し語を表示したリスト画像MG400Bを生成し、リスト画像MG400Bを、表示部530に表示させる。
図24は、一例としてのリスト画像MG400Bを示す図である。図24を参照して、リスト画像MG400Bには、見出し語リスト画像MG410B配置される。
見出し語リスト画像MG410Bは、コンテンツの録画期間または再生期間において、詳細情報が検索された複数の見出し語を示す。見出し語リスト画像MG410Bに示されるように、見出し語は、英単語だけでなく、日本語等もある。日本語が見出し語になる場合は、たとえば、日本語の見出し語により、日本語以外の言語(たとえば、フランス語)等の翻訳語を検索した場合である。また、日本語が見出し語になる場合は、たとえば、日本語の見出し語の説明等を検索した場合である。
なお、リスト画像MG400Bが表示されているときに、見出し語に対応する数字が入力されると、対応語する見出し語の詳細情報が表示される。また、リスト画像MG400Bの表示中に、初期画像に戻るためのインターフェース操作Mがあると、再度、ステップS311の処理が行なわれる。
再び、図21を参照して、ステップS313の処理の後、ステップS314に進む。
ステップS314では、制御部510が、終了操作があるか否かを判定する。ここで、終了操作は、リスト表示処理を終了するためのインターフェース操作Mである。ステップS314において、YESならば、このリスト表示処理は終了する。一方、ステップS314において、NOならば、再度、ステップS314の処理が行なわれる。
以上説明したように、本実施の形態では、録画期間および再生期間の少なくとも一方において、詳細情報を検索した場合、検索された詳細情報に対応する見出し語と、詳細情報を検索した期間(録画期間または再生期間)に表示部530に表示されている映像コンテンツを特定する画像情報(たとえば、タイトル)とが対応づけて、記憶部520に記憶される。
そして、記憶部520に記憶された画像情報(たとえば、タイトル)により特定される録画コンテンツが再生されると、録画コンテンツの再生期間中に、当該録画コンテンツの録画期間および再生期間の少なくとも一方において詳細情報が検索された見出し語を表示部530に表示する。なお、表示される見出し語は、ユーザによるインターフェース操作に基づく見出し語である。
したがって、録画コンテンツを再生することにより、当該録画コンテンツの録画期間および再生期間の少なくとも一方において詳細情報が検索された見出し語を、容易に確認することができる。詳細情報が検索された見出し語は、ユーザによるインターフェース操作に基づく見出し語であり、ユーザの学習対象となる単語である。すなわち、学習対象となる単語を、効率よく学習することができるという効果を奏する。
<第2の実施の形態>
(再生中の見出し語の切替え)
次に、録画コンテンツの再生中において、表示する見出し語を、経過時間に応じて、切替えるための処理(以下、再生処理Aともいう)について説明する。
本実施の形態における翻訳装置500の構成は、第1の実施の形態において説明した構成と同様なので詳細な説明は繰り返さない。ここで、記憶部520には、図3の録画処理および図12の再生処理が行なわれることにより、図19の見出し語関連データD100Cと、図20の情報取得元特定データD110Cと、見出し語関連データD100Cに示されるタイトル「英会話講座AA」の録画コンテンツが記憶されているとする。なお、タイトル「英会話講座AA」の録画コンテンツの再生時間は、見出し語関連データD100Cに示されるように、30分である。
ここで、録画コンテンツの再生時間は、一例として、3つの期間に分けられるとする。なお、分けられる期間は、3つに限定されることはない。以下においては、3つの期間を、それぞれ、第1、第2および第3の期間という。第1の期間は、録画コンテンツの再生開始の時間から、録画コンテンツが再生されてから“10分00秒”の時間までの期間であるとする。第2の期間は、録画コンテンツが再生されてから“10分01秒”の時間から、録画コンテンツが再生されてから“20分00秒”の時間までの期間であるとする。第3の期間は、録画コンテンツが再生されてから“20分01秒”の時間から、録画コンテンツが再生されてから“30分00秒”の時間までの期間であるとする。なお、第1、第2および第3の期間は、上記のような期間に限定されることなく、たとえば、第1、第2および第3の期間の各々の長さは、互いに異なってもよい。
図25は、再生処理Aのフローチャートを示す図である。再生処理Aにおいて、図12の再生処理と同じステップ番号の処理は、図12で説明した処理と同様な処理が行なわれるので詳細な説明は繰り返さない。以下においては、図12の処理と異なる処理を主に説明する。
図25を参照して、ステップS211、S212、S213の処理により、タイトル「英会話講座AA」の録画コンテンツが再生されたとする。そして、ステップS214の処理の後、ステップS215Aに進む。
ステップS215Aでは、制御部510が、経過時間測定処理Pにより測定されている経過時間(以下、測定経過時間ともいう)が、第nの期間内の時間であるか否かを判定する。ステップS215Aにおいて、YESならば、ステップS215Bに進む。一方、ステップS215Aにおいて、NOならば、ステップS228に進む。
ここで、nは、測定経過時間により変化する。測定経過時間が、前述した第1の期間内の時間である場合は、nは“1”となる。すなわち、測定経過時間が、録画コンテンツが再生されてから“10分00秒”の時間までの期間内の時間である場合は、nは“1”となる。同様に、測定経過時間が、前述した第2の期間内の時間である場合は、nは“2”となる。すなわち、測定経過時間が、録画コンテンツが再生されてから“10分01秒”の時間から、録画コンテンツが再生されてから“20分00秒”の時間までの期間内の時間である場合は、nは“2”となる。
ここで、測定経過時間は、一例として、“2分00秒”であるとする。この場合、制御部510は、測定経過時間が、第1の期間内の時間であるか否かを判定する。この場合、ステップS215Aにおいて、YESと判定され、ステップS215Bに進む。なお、第1の期間は、図19の見出し語関連データD100Cに示される、検索情報表示時間“8分22秒”を含む期間である。
ステップS215Bでは、制御部510が、読出し対象データTが記憶部520に記憶されているか否かを判定する。ここで、読出し対象データTは、再生表示処理により再生されている録画コンテンツのタイトルを示す見出し語関連データであって、かつ、第nの期間に含まれる検索情報表示時間を示す見出し語関連データである。ステップS215Bにおいて、YESならば、ステップS216Aに進む。一方、ステップS215Bにおいて、NOならば、ステップS228に進む。
ここで、第nの期間は、第1の期間であるとする。この場合、記憶部520に記憶されている、検索情報表示時間“8分22秒”を示す図19の見出し語関連データD100Cが、読出し対象データTとなる。この場合、ステップS215Bにおいて、YESと判定されて、ステップS216Aに進む。
ステップS216Aでは、データ読出し処理Aが行なわれる。データ読出し処理Aでは、制御部510が、読出し対象データTを、記憶部520から読み出す。ここで、読出し対象データTは、見出し語関連データD100Cであるとする。したがって、見出し語関連データD100Cが読み出される。そして、ステップS217Aに進む。
ステップS217Aでは、検索情報表示処理Aが行なわれる。検索情報表示処理Aは、検索情報Tを表示するための処理である。ここで、検索情報Tは、前述した録画期間または前述した再生期間のうちの第nの期間において、検索された情報である。
具体的には、検索情報表示処理Aでは、制御部510が、VDP532を利用して、ステップS216Aの処理により読み出された見出し語関連データに基づいて検索情報表示画像を生成し、生成した検索情報表示画像を、再生画像とともに、表示部530に表示する。検索情報表示画像は、読み出した見出し語関連データに示される、第nの期間に含まれる検索情報表示時間に対応する見出し語と、当該見出し語の情報取得元の情報とを表示した画像である。
ここで、見出し語関連データは、読出し対象データTとしての見出し語関連データD100Cであるとする。第nの期間は、前述した第1の期間であるとする。この場合、検索情報表示画像は、以下の検索情報表示画像MG260Tとなる。この場合、表示部530には、再生画像に加えて、以下の検索情報表示画像MG260Tが表示された、以下の再生時画像MG200Tが表示される。そして、ステップS217Aの処理は終了する。
図26は、一例としての再生時画像MG200Tを示す図である。図26を参照して、再生時画像MG200Tは、図15の再生時画像MG200Aと比較して、検索情報表示画像MG260の代わりに検索情報表示画像MG260Tが配置される点が異なる。それ以外は、再生時画像MG200Aと同様なので詳細な説明は繰り返さない。
検索情報表示画像MG260Tには、検索情報データが表示される。検索情報表示画像MG260Tにおいて、「番号」とは、検索情報データを特定するための番号である。検索情報表示画像MG260Tに表示される検索情報データは、第1の期間に含まれる検索情報表示時間“8分22秒”に対応する見出し語“sleep”と、当該見出し語に対応する情報取得元を含む。情報取得元は、前述したように、詳細情報の取得元を特定するための情報である。
なお、検索情報表示画像MG260Tに表示される検索情報データは、ボタン群542に含まれる数字ボタンの押下操作により選択可能となっている。
再び、図25を参照して、ステップS217Aの処理の後、ステップS221に進む。
ステップS221以降の処理は、第1の実施の形態において説明した処理と同様なので詳細な説明は繰り返さない。
なお、ステップS215Aの処理が行なわれる時点において、測定経過時間が、たとえば、“10分01秒”である場合、表示部530には、ステップS215A、S215B、S216A、S217Aの処理により、見出し語関連データD100Cに示される、第2の期間に含まれる検索情報表示時間“16分50秒”に対応する見出し語“come”と、見出し語“come”の情報取得元の情報とを表示した検索情報表示画像が表示される。
なお、測定経過時間に基づいて、対応する見出し語と、当該見出し語の情報取得元の情報とを表示する処理は、本実施の形態の上記処理に限定されない。たとえば、測定経過時間が、見出し語に対応する検索情報表示時間になったときに、当該見出し語と、当該見出し語の情報取得元の情報とを表示してもよい。また、たとえば、測定経過時間が、見出し語に対応する検索情報表示時間から所定時間(たとえば、1分)前の時間になったときに、当該見出し語と、当該見出し語の情報取得元の情報とを表示してもよい。
以上説明したように、本実施の形態では、経過時間測定処理Pにより測定されている測定経過時間が、所定の時間条件を満たした時間となった場合、再生中の録画コンテンツのタイトルに対応づけられた見出し語であって、かつ、当該見出し語に対応づけられた検索情報表示時間が第nの期間内の時間である見出し語と、当該見出し語に対応する情報取得元とを、再生画像とともに、表示部530に表示させる。ここで、所定の時間条件を満たした時間とは、記憶部520に記憶された、読出し対象データTとしての見出し語関連データに示される検索情報表示時間を含む第nの期間内の時間である。
すなわち、録画コンテンツの再生期間中に、当該録画コンテンツの録画期間および再生期間の少なくとも一方において詳細情報が検索され、表示された見出し語の検索情報表示時間を含む所定期間内においてのみ、当該検索情報表示時間に対応する見出し語のみを表示する。すなわち、見出し語の詳細情報が表示された時間に近い時間において、当該見出し語が表示される。なお、表示される見出し語は、ユーザによるインターフェース操作に基づく見出し語である。
したがって、本実施の形態では、第1の実施の形態よりも、詳細情報が検索された見出し語のみを、さらに、容易に確認することができる。詳細情報が検索された見出し語は、ユーザによるインターフェース操作に基づく見出し語であり、ユーザの学習対象となる単語である。すなわち、学習対象となる単語を、効率よく学習することができるという効果を奏する。
(機能ブロック図)
図27は、第1の実施の形態および第2の実施の形態における、制御部510の機能ブロック図である。図27を参照して、制御部510は、受付け部511と、検索部512と、格納部513と、表示制御部514とを含む。
受付け部511は、入力を受付ける。検索部512は、受付け部511により受付けられた入力に基づく見出し語の詳細情報を検索する検索処理を行なう。格納部513は、表示部530が画像を表示しているときに、検索部512により検索処理が行なわれた場合、検索処理により検索された詳細情報に対応する見出し語と、表示部530が表示している画像を特定する画像情報とを対応づけて記憶部520に記憶させる記憶処理を行なう。
表示制御部514は、記憶部520に記憶された画像情報により特定される画像を、表示部530が表示する場合、画像情報に対応づけられた見出し語を、表示部530にさらに表示させる。
なお、制御部510に含まれる、受付け部511、検索部512、格納部513および表示制御部514の全てまたは一部は、ハードウエアで構成されてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本実施の形態における翻訳装置の外観を示す図である。 翻訳装置の内部構成を示したブロック図である。 録画処理のフローチャートである。 一例としての検索画像を示す図である。 一例としての検索画像を示す図である。 一例としての検索画像を示す図である。 一例としての見出し語関連データを示す図である。 一例としての情報取得元特定データを示す図である。 一例としての見出し語関連データを示す図である。 一例としての情報取得元特定データを示す図である。 一例としての見出し語関連データを示す図である。 再生処理のフローチャートを示す図である。 一例としてのリスト画像を示す図である。 一例としての再生時画像を示す図である。 一例としての再生時画像を示す図である。 一例としての再生時画像を示す図である。 一例としての再生時画像を示す図である。 一例としての再生時画像を示す図である。 一例としての見出し語関連データを示す図である。 一例としての情報取得元特定データを示す図である。 一例としてのリスト表示処理を示す図である。 一例としてのリスト画像を示す図である。 一例としてのリスト画像を示す図である。 一例としてのリスト画像を示す図である。 再生処理Aのフローチャートを示す図である。 一例としての再生時画像を示す図である。 第1の実施の形態および第2の実施の形態における、制御部の機能ブロック図である。
符号の説明
70 ネットワーク、180 プログラム、500 翻訳装置、510 制御部、520 記憶部、530 表示部、540 入力部、555 記録媒体。

Claims (10)

  1. 入力を受付ける受付け手段と、
    前記受付け手段により受付けられた前記入力に基づく見出し語の詳細情報を検索する検索処理を行なう検索手段と、
    画像を表示する表示手段と、
    情報を記憶する記憶手段と、
    前記表示手段が画像を表示しているときに、前記検索手段により前記検索処理が行なわれた場合、前記検索処理により検索された詳細情報に対応する見出し語と、前記表示手段が表示している画像を特定する画像情報とを対応づけて前記記憶手段に記憶させる記憶処理を行なう格納手段と、
    前記記憶手段に記憶された前記画像情報により特定される画像を、前記表示手段が表示する場合、前記画像情報に対応づけられた見出し語を、前記表示手段にさらに表示させる表示制御手段とを備える、電子機器。
  2. 前記記憶手段は、複数の見出し語にそれぞれ対応付けられた複数の詳細情報を記憶し、
    前記検索手段は、前記受付け手段により受付けられた前記入力に基づく見出し語に対応づけられた詳細情報を、前記記憶手段に記憶された前記複数の詳細情報から検索する、請求項1に記載の電子機器。
  3. ネットワークとデータ通信する通信手段をさらに備え、
    前記検索手段は、前記受付け手段により受付けられた前記入力に基づく見出し語の詳細情報を、前記通信手段を利用して、前記ネットワークから検索する、請求項1または2に記載の電子機器。
  4. 前記表示制御手段は、前記検索処理により検索された詳細情報を前記表示手段に表示させ、
    前記格納手段は、前記記憶処理を行なう際に、さらに、前記検索処理により検索された詳細情報が前記表示手段により表示された時間である検索情報表示時間と、前記画像情報とを対応づけて前記記憶手段に記憶させ、
    前記記憶手段に記憶された前記画像情報により特定される画像を、前記表示手段が表示する場合において、前記表示手段が前記画像情報により特定される画像を表示してからの経過時間を測定する測定手段をさらに備え、
    前記表示制御手段は、前記測定手段により測定されている経過時間が、所定の時間条件を満たした時間となった場合、前記画像情報に対応づけられた見出し語を、前記表示手段に表示させる、請求項1〜3のいずれかに記載の電子機器。
  5. 前記所定の時間条件を満たした時間は、前記記憶手段に記憶された前記検索情報表示時間を含む所定期間内の時間である、請求項4に記載の電子機器。
  6. 前記表示制御手段は、見出し語を、前記表示手段に表示させる場合、前記表示手段に表示させる見出し語の詳細情報の取得元を特定するための情報も、前記表示手段に表示させる、請求項1〜5のいずれかに記載の電子機器。
  7. 前記検索処理により検索された詳細情報は、対応する見出し語の意味、説明および翻訳語のいずれかである、請求項1〜6のいずれかに記載の電子機器。
  8. 画像を表示する表示部と、情報を記憶する記憶部とを備える電子機器により実行される制御プログラムであって、
    入力を受付けるステップと、
    受付けられた前記入力に基づく見出し語の詳細情報を検索する検索処理を行なうステップと、
    前記表示部が画像を表示しているときに、前記検索処理が行なわれた場合、前記検索処理により検索された詳細情報に対応する見出し語と、前記表示部が表示している画像を特定する画像情報とを対応づけて前記記憶部に記憶させる記憶処理を行なうステップと、
    前記記憶部に記憶された前記画像情報により特定される画像を、前記表示部が表示する場合、前記画像情報に対応づけられた見出し語を、前記表示部にさらに表示させるステップとを備える、制御プログラム。
  9. 請求項8に記載の制御プログラムを記録した、コンピュータ読取り可能な記録媒体。
  10. 画像を表示する表示部と、情報を記憶する記憶部とを備える電子機器により実行される制御方法であって、
    入力を受付けるステップと、
    受付けられた前記入力に基づく見出し語の詳細情報を検索する検索処理を行なうステップと、
    前記表示部が画像を表示しているときに、前記検索処理が行なわれた場合、前記検索処理により検索された詳細情報に対応する見出し語と、前記表示部が表示している画像を特定する画像情報とを対応づけて前記記憶部に記憶させる記憶処理を行なうステップと、
    前記記憶部に記憶された前記画像情報により特定される画像を、前記表示部が表示する場合、前記画像情報に対応づけられた見出し語を、前記表示部にさらに表示させるステップとを備える、制御方法。
JP2007295558A 2007-11-14 2007-11-14 電子機器、制御プログラム、記録媒体および制御方法 Expired - Fee Related JP5205658B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2007295558A JP5205658B2 (ja) 2007-11-14 2007-11-14 電子機器、制御プログラム、記録媒体および制御方法
CN2008801159959A CN101855660B (zh) 2007-11-14 2008-11-12 电子设备以及控制方法
KR1020107012851A KR101185667B1 (ko) 2007-11-14 2008-11-12 전자 기기, 기록 매체 및 제어 방법
EP08850367.7A EP2216766A4 (en) 2007-11-14 2008-11-12 ELECTRONIC DEVICE, CONTROL PROGRAM, RECORDING MEDIUM, AND CONTROL METHOD
US12/742,681 US9153140B2 (en) 2007-11-14 2008-11-12 Electronic device, control program, recording medium, and control method
PCT/JP2008/070569 WO2009063893A1 (ja) 2007-11-14 2008-11-12 電子機器、制御プログラム、記録媒体および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007295558A JP5205658B2 (ja) 2007-11-14 2007-11-14 電子機器、制御プログラム、記録媒体および制御方法

Publications (2)

Publication Number Publication Date
JP2009122355A JP2009122355A (ja) 2009-06-04
JP5205658B2 true JP5205658B2 (ja) 2013-06-05

Family

ID=40638742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007295558A Expired - Fee Related JP5205658B2 (ja) 2007-11-14 2007-11-14 電子機器、制御プログラム、記録媒体および制御方法

Country Status (6)

Country Link
US (1) US9153140B2 (ja)
EP (1) EP2216766A4 (ja)
JP (1) JP5205658B2 (ja)
KR (1) KR101185667B1 (ja)
CN (1) CN101855660B (ja)
WO (1) WO2009063893A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5605083B2 (ja) * 2010-08-25 2014-10-15 富士ゼロックス株式会社 映像再生装置及び映像再生プログラム
US9298703B2 (en) 2013-02-08 2016-03-29 Machine Zone, Inc. Systems and methods for incentivizing user feedback for translation processing
US10650103B2 (en) 2013-02-08 2020-05-12 Mz Ip Holdings, Llc Systems and methods for incentivizing user feedback for translation processing
US8996353B2 (en) * 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for multi-user multi-lingual communications
US9031829B2 (en) 2013-02-08 2015-05-12 Machine Zone, Inc. Systems and methods for multi-user multi-lingual communications
US9600473B2 (en) 2013-02-08 2017-03-21 Machine Zone, Inc. Systems and methods for multi-user multi-lingual communications
US8996352B2 (en) 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for correcting translations in multi-user multi-lingual communications
US9231898B2 (en) 2013-02-08 2016-01-05 Machine Zone, Inc. Systems and methods for multi-user multi-lingual communications
US8996355B2 (en) 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for reviewing histories of text messages from multi-user multi-lingual communications
US8990068B2 (en) 2013-02-08 2015-03-24 Machine Zone, Inc. Systems and methods for multi-user multi-lingual communications
US10162811B2 (en) 2014-10-17 2018-12-25 Mz Ip Holdings, Llc Systems and methods for language detection
US9372848B2 (en) 2014-10-17 2016-06-21 Machine Zone, Inc. Systems and methods for language detection
US10765956B2 (en) 2016-01-07 2020-09-08 Machine Zone Inc. Named entity recognition on chat data
US10769387B2 (en) 2017-09-21 2020-09-08 Mz Ip Holdings, Llc System and method for translating chat messages
JP7298638B2 (ja) * 2021-03-24 2023-06-27 カシオ計算機株式会社 サーバ装置、学習支援方法およびプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US654913A (en) 1899-12-06 1900-07-31 John G Mcilwraith Packing-box for tin-plate.
JPS58114166A (ja) 1981-12-26 1983-07-07 Casio Comput Co Ltd 画像表示機能付電子翻訳機
US4695975A (en) * 1984-10-23 1987-09-22 Profit Technology, Inc. Multi-image communications system
JPH07295466A (ja) 1994-03-02 1995-11-10 N I S:Kk 英会話学習方法及び学習装置
US5809471A (en) 1996-03-07 1998-09-15 Ibm Corporation Retrieval of additional information not found in interactive TV or telephony signal by application using dynamically extracted vocabulary
JPH1184997A (ja) 1997-09-01 1999-03-30 Shin Caterpillar Mitsubishi Ltd 学習支援システム
KR100326400B1 (ko) * 1999-05-19 2002-03-12 김광수 자막지향 탐색정보 생성 및 탐색방법과, 이를 사용하는 재생장치
JP4061458B2 (ja) * 2001-12-05 2008-03-19 ソニー株式会社 ビデオデータ検索方法およびビデオデータ検索システムおよびビデオデータ編集方法およびビデオデータ編集システム
US7292984B2 (en) 2002-04-22 2007-11-06 Global Success Co., Ltd. Method of producing voice data method of playing back voice data, method of playing back speeded-up voice data, storage medium, method of assisting memorization, method of assisting learning a language, and computer program
JP3803741B2 (ja) 2002-04-22 2006-08-02 グローバルサクセス株式会社 記憶支援装置
JP2004151292A (ja) 2002-10-30 2004-05-27 Yokogawa Electric Corp データベース型学習装置
JP2004215094A (ja) 2003-01-07 2004-07-29 Sony Corp 電子機器装置及びキーワード生成装置
JP2007079745A (ja) * 2005-09-12 2007-03-29 Sharp Corp ネットワーク接続装置、サーバ装置、端末装置、システム、受信方法、文字入力方法、送信方法、プログラムおよびコンピュータ読み取り可能な記録媒体
WO2007035637A2 (en) * 2005-09-19 2007-03-29 Industrial Color, Inc. Digital file management
CN2845025Y (zh) * 2005-10-11 2006-12-06 林安兵 外文资料阅读翻译器
JP2007179098A (ja) * 2005-12-26 2007-07-12 Canon Inc 画像処理装置、画像検索方法装置、及びプログラム
JP2007219615A (ja) 2006-02-14 2007-08-30 Sony Corp 検索装置、検索方法、プログラム

Also Published As

Publication number Publication date
CN101855660A (zh) 2010-10-06
JP2009122355A (ja) 2009-06-04
KR101185667B1 (ko) 2012-09-24
EP2216766A4 (en) 2015-01-21
KR20100082372A (ko) 2010-07-16
WO2009063893A1 (ja) 2009-05-22
EP2216766A1 (en) 2010-08-11
CN101855660B (zh) 2012-08-15
US20100268730A1 (en) 2010-10-21
US9153140B2 (en) 2015-10-06

Similar Documents

Publication Publication Date Title
JP5205658B2 (ja) 電子機器、制御プログラム、記録媒体および制御方法
JP4650552B2 (ja) 電子機器、コンテンツ推薦方法及びプログラム
US8374845B2 (en) Retrieving apparatus, retrieving method, and computer program product
JP4372119B2 (ja) Web情報処理装置及びWeb情報処理方法
JP4388128B1 (ja) 情報提供サーバ、情報提供方法及び情報提供システム
US20030237092A1 (en) Web page display apparatus
JP2010124319A (ja) イベントカレンダー表示装置、イベントカレンダー表示方法、イベントカレンダー表示プログラム及びイベント情報抽出装置
JP2009038793A (ja) 情報処理サーバ、番組受信端末、番組関連情報提供方法及び番組関連情報描画方法
JP4474702B2 (ja) 情報操作装置及び情報処理装置並びに情報操作方法
JP4575786B2 (ja) コンテンツ視聴システム、コンテンツ情報の処理方法、およびプログラム
JP5311368B2 (ja) 電子機器、制御プログラム、記録媒体および制御方法
JP2009295054A (ja) 映像コンテンツ検索装置及びコンピュータプログラム
JP5466593B2 (ja) 情報処理装置及び情報処理方法
KR101307750B1 (ko) 방송 프로그램과 연관된 웹페이지를 제공하는 영상기기의동작 방법 및 그 방법을 채용한 영상기기
JP2009169467A (ja) 電子機器、制御プログラム、記録媒体および制御方法
JP2008028915A (ja) 通信端末装置、映像表示システムおよび制御プログラム
JP2001344251A (ja) コンテンツ検索装置、コンテンツ検索方法及びコンテンツ検索プログラムを記録した記録媒体
JP2006013619A (ja) データ処理装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP2007179254A (ja) 情報提示システム、情報提示方法、情報提示装置
JP2007129308A (ja) 情報処理装置
KR20060047907A (ko) 녹화 장치, 녹화 예약 시스템, 기사 관리 시스템, 녹화방법, 및 컴퓨터 프로그램
JP2002252813A (ja) 番組検索装置及び番組検索プログラム
JP2006005683A (ja) ポータル画面生成装置及び方法、プログラム及び記録媒体
JP2005227837A (ja) 情報表示装置及び情報表示方法
KR20100056839A (ko) 비디오 데이터의 텍스트 인식을 통한 프레임 검색 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130131

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5205658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees