JP2004086722A - Information processing apparatus and image incorporation program - Google Patents

Information processing apparatus and image incorporation program Download PDF

Info

Publication number
JP2004086722A
JP2004086722A JP2002249085A JP2002249085A JP2004086722A JP 2004086722 A JP2004086722 A JP 2004086722A JP 2002249085 A JP2002249085 A JP 2002249085A JP 2002249085 A JP2002249085 A JP 2002249085A JP 2004086722 A JP2004086722 A JP 2004086722A
Authority
JP
Japan
Prior art keywords
image
circuit
information
function
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002249085A
Other languages
Japanese (ja)
Inventor
Tomohiro Sudo
須藤 智浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2002249085A priority Critical patent/JP2004086722A/en
Publication of JP2004086722A publication Critical patent/JP2004086722A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To use an image displayed on a screen in a variety applications by incorporating the image including the meaning thereof. <P>SOLUTION: When a user specifies the range of a part of a circuit diagram when the circuit diagram is displayed on the screen (steps A11 to A15), a control part CPU installed in the apparatus incorporates the image information on the circuit diagram present within a specified range and holds in a storage device in the apparatus (steps a16 to A18). In this case, the control part CPU retrieves elements included in the circuit diagram, incorporates the information on the physical amount and circuit image together with the image information and holds these information together with the circuit image in the storage device (steps A19, A20). By incorporating the circuit image together with the information on the elements from the screen, the incorporated circuit image can be recognized as a circuit and utilized for the preparation of the circuit. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、例えばPC(Personal Computer)やPDA(Personal Digital Assistant)等の情報処理装置に係り、特に画面上で範囲を指定して画像を取り込む画像取込み機能を備えた情報処理装置と、同装置に用いられる画像取込みプログラム。
【0002】
【従来の技術】
例えばPCやPDA等の情報処理装置では、画面上で範囲を指定することにより、その指定範囲内の画像を取り込むようにした画像取込み機能を備えたものがある。このような画像取込み機能では、画面上の画像をドット単位で取り込むことで、これらの画像をコンピュータ上で動作している各種アプリケーションで共通に用いるようにしている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の画像取込み機能では、画面上で範囲指定された画像を単なる絵として認識しており、その画像が持つ意味までを含めて取り込むことはできなかった。このため、ユーザが画面上で所望の画像を範囲指定により取り込んだとしても、その画像は単なる絵として保持されることになり、その画像が持つ意味を必要とするアプリケーションには利用することはできなかった。
【0004】
本発明は前記のような点に鑑みなされたもので、画面上に表示された画像をその画像の持つ意味を含めて取り込んで様々なアプリケーションで利用可能とする情報処理装置及び画像取込みプログラムを提供することを目的とする。
【0005】
【課題を解決するための手段】
本発明の請求項1に係る情報処理装置は、画面上に回路図を表示する表示手段と、この表示手段によって表示された回路図の一部を範囲指定する範囲指定手段と、この範囲指定手段によって指定された範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む画像取込み手段と、この画像取込み手段によって取り込まれた回路画像と素子情報とを関連付けて記憶する記憶手段とを具備したことを特徴とする。
【0006】
このような構成によれば、画面上に表示された回路図の一部を範囲指定することにより、その指定範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報(例えば物理量など)と共に取り込むことができる。
【0007】
本発明の請求項2に係る情報処理装置は、画面上に回路図を表示する表示手段と、この表示手段によって表示された回路図の一部を範囲指定する範囲指定手段と、この範囲指定手段によって指定された範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む画像取込み手段と、この画像取込み手段によって取り込まれた回路画像と素子情報とを関連付けて記憶する記憶手段と、この記憶手段に記憶された回路画像を別の回路画像に張り付ける回路張付け手段と、この回路張付け手段によって張り付けられた回路画像を前記記憶手段に記憶された素子情報に基づいて前記別の回路画像に結線して新たな回路画像を作成する回路作成手段とを具備したことを特徴とする。
【0008】
このような構成によれば、画面上から取り込んだ回路画像を別の回路画像に張り付けた場合に、両者の回路画像が結線されて新たな回路画像が作成されるので、回路の配線を変更するなどの面倒な編集作業を必要とせずに簡単に回路作成を行うことができる。
【0009】
本発明の請求項3に係る情報処理装置は、画面上に回路図を表示する表示手段と、この表示手段によって表示された回路図の一部を範囲指定する範囲指定手段と、この範囲指定手段によって指定された範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む画像取込み手段と、この画像取込み手段によって取り込まれた回路画像と素子情報とを関連付けて記憶する記憶手段と、この記憶手段に記憶された回路画像を呼び出して画面上に表示する回路画像呼出し手段と、この回路画像呼出し手段によって呼び出された回路画像の中の任意の素子を指定する素子指定手段と、この素子指定手段によって指定された素子の名称を前記記憶手段に記憶された素子情報に基づいて判別し、その素子名を表示する素子名表示手段とを具備したことを特徴とする。
【0010】
このような構成によれば、画面上から取り込んだ回路画像の中の任意の素子を指定することにより、その指定された素子の名称が表示されるので、当該回路画像に含まれる各素子の構成などを確認することができる。
【0011】
本発明の請求項4に係る情報処理装置は、請求項1乃至3のいずれかに記載の情報処理装置において、前記記憶手段に記憶された回路画像を呼び出して画面上に表示する回路画像呼出し手段と、この回路画像呼出し手段によって呼び出された回路画像を編集する編集手段と、この編集手段によって編集された回路画像を新たな回路画像として前記記憶手段に格納する回路画像更新手段とを具備したことを特徴とする。
【0012】
このような構成によれば、画面上から取り込んだ回路画像に対し、例えば素子を追加するなどの編集を行うことができる。
【0013】
本発明の請求項5に係る情報処理装置は、外部から回路素子を含んだ特定の画像を取得する画像取得手段と、この画像取得手段によって取得された画像を画面上に表示する表示手段と、この表示手段によって表示された画像の一部を範囲指定する範囲指定手段と、この範囲指定手段によって指定された範囲内に存在する回路素子の画像情報を当該素子に関する情報と共に取り込む画像取込み手段と、この画像取込み手段によって取り込まれた素子画像と素子情報とを関連付けて記憶する記憶手段とを具備したことを特徴とする。
【0014】
このような構成によれば、例えばWebサイトなどから回路素子の画像を取得した際に、その回路素子の画像を当該素子に関する情報と共に取り込んで回路作成に利用することができる。
【0015】
本発明の請求項6に係る情報処理装置は、請求項5記載の情報処理装置において、前記記憶手段に記憶された素子画像を回路図上で用いられる所定の記号に変換して表示する素子記号表示手段を具備したことを特徴とする。
【0016】
このような構成によれば、画面上から取り込んだ回路素子の画像が回路図上で用いられる所定の記号に変換されて表示されるので、その記号を回路図上に張り付けるなどして回路作成に利用できる。
【0017】
本発明の請求項7に係る情報処理装置は、画面上にグラフを表示する表示手段と、この表示手段によって表示されたグラフの一部を範囲指定する範囲指定手段と、この範囲指定手段によって指定された範囲内に存在するグラフの画像情報を当該グラフの数式と共に取り込む画像取込み手段と、この画像取込み手段によって取り込まれたグラフ画像とそのグラフ式とを関連付けて記憶する記憶手段とを具備したことを特徴とする。
【0018】
このような構成によれば、画面上に表示されたグラフの一部を範囲指定することにより、その指定範囲内に存在するグラフの画像情報を当該グラフの数式と共に取り込むことができる。
【0019】
本発明の請求項8に係る情報処理装置は、請求項7記載の情報処理装置において、前記記憶手段に記憶されたグラフ画像を別のグラフ画像に張り付けるグラフ張付け手段と、このグラフ張付け手段による張り付け位置に応じて両者のグラフ画像を合成して新たなグラフ画像を作成するグラフ作成手段と、このグラフ作成手段によって作成されたグラフ画像に対応した数式を算出するグラフ式算出手段とを具備したことを特徴とする。
【0020】
このような構成によれば、画面上から取り込んグラフ画像を別のグラフ画像に張り付けて新たなグラフ画像を作成することができると共に、その作成されたグラフ画像に対応した数式を得ることができる。
【0021】
本発明の請求項9に係る情報処理装置は、複数のグラフ画像を記憶した記憶手段と、この記憶手段から合成対象として指定された少なくとも2つ以上のグラフ画像をそれぞれ呼び出して画面上に表示するグラフ呼出し手段と、このグラフ呼出し手段によって呼び出された各グラフ画像のz座標を指定する座標指定手段と、この座標指定手段によって指定されたz座標に基づいて各グラフ画像を合成して3Dグラフを作成するグラフ作成手段とを具備したことを特徴とする。
【0022】
このような構成によれば、複数のグラフ画像のz座標を指定することにより、これらのグラフ画像をz座標でそれぞれ合成した3Dグラフを作成することができる。
【0023】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。
【0024】
図1は本発明の情報処理装置の構成を示すブロック図である。本装置は、例えばPCやPDAなどのコンピュータからなり、記録媒体に記録されたプログラムを読み込むことで各種処理を実行する。
【0025】
図1に示すように、本装置には制御部(CPU)11が備えられている。この制御部(CPU)11は、キー入力部12から入力されるキー入力データや、液晶表示部13の表示画面上に重ねて設けられたタブレット14から位置検出回路15を介して入力されるタッチペンによるタッチ位置データに応じて、ROM16に予め記憶されているシステムプログラムを起動させ、あるいは外部記録媒体20から提供されるプログラムを記録媒体読み取り部19により読み取らせて起動させ、RAM17をワークメモリとして各デバイスの動作制御を行うものである。
【0026】
また、制御部(CPU)11には、キー入力部12、液晶表示部13、タブレット14、位置検出回路15、ROM16、RAM17、記録媒体読み取り部19が接続され、また、液晶表示部13は表示駆動回路18を介して接続される。キー入力部12には、テンキー,アルファベットキー等の文字・記号キー群からなるデータ入力キー12a、データの選択,送り操作やカーソルの移動操作を行う際に操作される上下左右のカーソルキー12bや、本装置に備えられた各種機能を起動するためのモードキー12cなどが設けられている。
【0027】
ここで、本装置には、画面上の画像を取り込んで処理するための機能として、次のような機能1〜20で示す20個の機能が備えられている。なお、これらの機能1〜20は前記モードキー12cの操作などにより選択的に起動することができる。
【0028】
機能1:回路図が表示された画面上でその回路図の一部を範囲指定することにより、その指定範囲内の回路図に対応した画像を当該回路図の素子に関する情報と共に記憶する機能である。
機能2:画像として取り込まれた回路図と別の回路図とを結線して合成する機能である。
機能3:画像として取り込まれた回路図を範囲指定すると、その指定範囲内に存在する素子の名称を表示する機能である。
機能4:Webサイト等の外部から取得した素子画像を範囲指定により取り込み、その素子画像を回路図に張り付ける機能である。
機能5:画像として取り込まれた回路図を編集する機能である。
機能6:化学物質に関する画像が表示された画面上を範囲指定することにより、その指定範囲内の化学物質の名称やその成分、濃度等の情報を当該画像と共に記憶する機能である。
機能7:教科書等に挿入されている挿し絵の画像を画面上で指定し、その画像に関連したテキストデータと共に記憶する機能である。
機能8:グラフが表示された画面上でそのグラフの一部を取り込んで他のグラフに張り付けることで、新規にグラフを作成すると共にグラフ式を変更する機能である。
機能9:TV画像などの外部から送られて来た画像を受信し、その受信画像を画面上で範囲指定することにより、当該画像に添付されて送られて来た情報と共に取り込む機能である。
機能10:複数のグラフのz座標を指定することにより、これらを合成した3Dグラフを作成する機能である。
機能11:写真等の画像が表示された画面上で範囲指定することで、その指定範囲内の画像にコメントの書き込みを可能とした機能である。
機能12:写真等の画像が表示された画面上で複数の吹き出しを設けて、これらの吹き出しにコメントを書き込んでおくことにより、指定の順で表示する機能である。
機能13:TV番組表が表示された画面上でそのTV番組表の一部を範囲指定することにより、指定範囲内の番組画像を取り込んで録画設定を可能とする機能である。
機能14:前記機能13によって取り込んだ番組画像をそのまま録画ファイルのインデックスとして利用する機能である。
機能15:TV画像が表示された画面上でその画像の一部を範囲指定することにより、指定範囲内の画像を当該画像に付加されている情報と共に取り込む機能である。
機能16:TV画像が表示された画面上でフレームの移動により、そのフレーム内の画像を対象として取り込み可能な情報の候補を選択できるようにした機能である。
機能17:TV画像が表示された画面上でキャラクタを範囲指定することにより、そのキャラクタが発する音声(セリフ)を文字に変えて表示する機能である。
機能18:カレンダ表示画面で範囲を指定することで、その指定範囲内のカレンダ上の各日付に対応したスケジュールを表示する機能である。
機能19:Webページ上の指定範囲内の情報だけを対象として、更新の有無を検出して更新後の情報を表示する機能である。
機能20:画面上に表示された操作パネルの中の範囲指定された項目を実行する機能である。
【0029】
また、前記キー入力部12には、これらの機能1〜20に関連した各種キーk1〜k15が設けられている。
【0030】
k1:本装置を起動するためのONキー
k2:回路図の表示を指示するための回路表示キー
k3:回路メモリ内の回路画像の呼び出しを指示するための回路メモリキー
k4:ブラウザ機能を起動するためのブラウザキー
k5:回路図の編集機能を起動するための編集キー
k6:化学物質の表示機能を起動するための化学物質表示キー
k7:電子教科書の表示機能を起動するための電子教科書表示キー
k8:グラフ表示機能を起動するためのグラフ表示キー
k9:グラフメモリ内のグラフ画像の呼び出しを指示するためのグラフメモリキー
k10:TV表示機能を起動するためのTV表示キー
k11:TVメモリ内のTV画像の呼び出しを指示するためのTVメモリキー
k12:コメント表示の有無を指示するためのコメント表示切替えキー
k13:吹き出しの表示を指示するための吹き出し表示キー
k14:カレンダ表示機能を起動するためのカレンダ表示キー
k15:操作パネル表示機能を起動するための操作パネル表示キー。
【0031】
液晶表示部13は、データの表示を行うためのデバイスである。タブレット14は、液晶表示部13の表示画面上に重ねて設けられ、ペン14aによりタッチされた位置に応じた電圧信号を発生するもので、このタブレット14から出力されるタッチ位置に応じた電圧信号に基づき、位置検出回路15により表示画面に対応させた座標が検出され、このタッチ位置座標に応じて制御部(CPU)11により操作の内容が判断される。
【0032】
ROM16には、本装置全体の処理を司るシステムプログラムなどの各種情報が予め記憶されている。RAM17は、本装置の各機能1〜20の処理に必要な各種情報を記憶しており、ここでは表示バッファ17a、回路メモリ17b、素子記号テーブル17c、化学物質メモリ17d、化学物質シンボルテーブル17e、教科書メモリ17f、グラフメモリ17g、TVメモリ17h、画像メモリ17i、コメントメモリ17j、吹き出しメモリ17k、録画メモリ17l、スケジュールメモリ17m、Webメモリ17nを有する。
【0033】
表示バッファ17aには、液晶表示部13に表示すべき表示データがビットマップのパターンデータとして記憶される。回路メモリ17bには、ユーザにより画面上で指定された回路画像が記憶される。素子記号テーブル17cには、各種回路素子に対応した記号が記憶されている。化学物質メモリ17dには、ユーザにより画面上で指定された化学物質画像が記憶される。化学物質シンボルテーブル17eには、各種化学物質に対応したシンボルマークが記憶されている。教科書メモリ17fには、ユーザにより画面上で指定された教科書の挿し絵等の画像が記憶される。グラフメモリ17gには、ユーザにより画面上で指定されたグラフ画像が記憶される。
【0034】
TVメモリ17hには、ユーザにより画面上で指定されたTV画像が記憶される。画像メモリ17iには、各種画像情報が記憶されている。コメントメモリ17jには、ユーザにより画面上で指定された画像に付加されたコメントデータが記憶される。吹き出しメモリ17kには、ユーザにより画面上で指定された画像に付加された吹き出しに書き込まれたコメントデータが記憶される。録画メモリ17lには、TV番組の録画データが記憶される。スケジュールメモリ17mには、ユーザが各日付毎に登録したスケジュール情報が記憶される。Webメモリ17nには、ユーザが指定したサイトから取得したWebページの情報が記憶される。
【0035】
さらに、本装置は通信制御部21、インターフェース22などを備える。通信制御部21は、所定の通信プロトコルに従ってインターネットなどの通信ネットワークを介して外部端末との間でデータ通信を行うものであり、例えばインターネット上の各サイトに接続して情報を取得する場合などに用いられる。インターフェース22は、外部機器とのインタフェース処理を行うものであり、ここではTV放送(画像と音声)を受信するためのTVチューナ23、TV放送の録画装置24などが接続されている。
【0036】
次に、本装置に備えられた機能1〜20について詳しく説明する。
【0037】
(機能1)
まず、本装置に備えられた機能1について、図2および図3を参照して説明する。図2は本装置の機能1に関する表示例、図3はその機能1に関するフローチャートである。
【0038】
機能1では、本装置の回路表示機能において、任意の回路図の一部を画面上で範囲指定して取り込み、その際に素子の情報も同時に取り込むようにしたものである。
【0039】
具体的に説明すると、今、図2(a)に示すような各素子を有する回路図31が液晶表示部13の画面上に表示されているものとする。ここで、図2(b)に示すように、回路図31の一部をマウスポインタなどを用いて範囲指定すると、図2(c)に示すように、指定範囲32内の回路図33が部分的に切り出され、その回路図33に対応した画像が本装置内のメモリ(RAM17)に記憶される。また、そのときに指定範囲32内に存在する素子34、35(この例ではコンデンサとコイル)の名称や配置、物理量が認識されて当該回路画像と共に前記メモリに記憶される。
【0040】
以下に、このような機能1を実現するための本装置の処理動作について図3のフローチャートを参照しながら説明する。なお、図3(a)は本装置の制御部(CPU)11によって実行される機能1に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0041】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUA11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップA11,A12)。
【0042】
ここで、ユーザがキー入力部12に設けられた回路表示キーk2を押下して回路表示コマンドを入力すると(ステップUA12)、制御部(CPU)11はこの回路表示コマンドを検出することにより(ステップA13)、同コマンドの入力時に表示対象として指定された回路図のデータをRAM17から読み出す(ステップA14)。RAM17には、予め特定のアプリケーションソフトを用いてユーザにより任意に作成された回路図データ、あるいは、記録媒体20などを介して外部から提供された回路図データが格納されている。制御部(CPU)11は、このRAM17の中からユーザが指定した回路図データを読み出すと、これをRAM17に設けられた表示バッファ17aにドット単位で展開することにより、図2(a)に示すように液晶表示部13の画面上に表示する(ステップA15)。
【0043】
続いて、画面上に表示された回路図に対し、図2(b)に示すようにユーザがペン14aあるいは図示せぬマウスなどの操作により、現在表示されている回路図の一部を範囲指定すると(ステップUA13)、制御部(CPU)11はその指定された範囲の位置情報を検出することにより(ステップA16)、その指定範囲内の回路図を部分的に切り出す(ステップA17)。この場合、例えば図2(b)のように画面上で矩形によって範囲指定を行うものとすると、その矩形の4点のX,Y座標を検出し、その4点で囲まれる範囲内に存在する回路図を切り出すことになる。すなわち、矩形範囲内に存在する回路図を構成する各ドットのX,Y座標を求めることにより、図2(c)に示すように、当該回路図に対応した画像を取り込み、その画像をRAM17に設けられた回路メモリ17bに格納する(ステップA18)。
【0044】
また、制御部(CPU)11は、前記指定範囲内に存在する素子を検索する(ステップA19)。そして、素子の名称、物理量、配置などを前記回路図データに含まれている構成部品情報に基づいて解析することで、これらの素子情報を当該回路図の画像情報に関連付けてRAM17の回路メモリ17bに格納する(ステップA20)。
【0045】
このように本装置の機能1によれば、画面上に表示された回路図の一部を画像化して取り込む場合に、その回路図を構成する各素子の情報と共に取り込むことができる。これにより、その取り込んだ回路画像を単なる絵ではなく回路として認識して回路作成に利用することができる。
【0046】
(機能2)
次に、本装置に備えられた機能2について、図4および図5を参照して説明する。図4は本装置の機能2に関する表示例、図5はその機能2に関するフローチャートである。
【0047】
機能2では、本装置の回路図表示機能において、画像として取り込まれた回路を別の回路に張り付ける際に、その張り付け位置に応じて素子の配置を変更するなどして各回路を結線して新たな回路を作成するものである。
【0048】
具体的に説明すると、上述した機能1を用いて、回路図の一部を画像化して本装置内のメモリ(RAM17)に取り込んでおく。ここで、例えば図4(a)に示す回路図41を図4(b)に示すような別の回路図42の一部に張り付ける場合において、ユーザがエディタ上でその張り付け部分をマウスポインタなどを用いて範囲指定することにより、図4(c)に示すように、その指定された範囲43に回路図41が張り付けられる。この場合、張り付け位置に応じて回路図41の素子の配置が変更されて回路図42に結線される。
【0049】
以下に、このような機能2を実現するための本装置の処理動作について図5のフローチャートを参照しながら説明する。なお、図5(a)は本装置の制御部(CPU)11によって実行される機能2に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0050】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUB11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップB11,B12)。
【0051】
ここで、ユーザがキー入力部12に設けられた回路メモリキーk3を押下して回路メモリ呼び出しコマンドを入力すると(ステップUB13)、制御部(CPU)11はこの回路メモリ呼び出しコマンドを検出することにより(ステップB13)、RAM17に設けられた回路メモリ17bから同コマンド入力時に指定された第1の回路画像を検索し(ステップB14)、これをRAM17に設けられた表示バッファ17aにドット単位で展開することにより、液晶表示部13の画面上に表示する(ステップB15)。また、ユーザは所定の操作により前記第1の回路画像に張り付けるべき第2の回路画像を選択することにより(ステップUB13)、制御部(CPU)11はその選択された第2の回路画像を回路メモリ17bから呼び出し(ステップB16)、これを前記第1の回路画像と並べて表示する(ステップB17)。
【0052】
続いて、画面上に表示された第1の回路画像に対し、ユーザがペン14aあるいは図示せぬマウスなどの操作により張り付け部分を範囲指定すると(ステップUB14)、制御部(CPU)11はその指定された範囲のX,Y座標を検出する(ステップB18)。そして、制御部(CPU)11は指定範囲内の第1の回路画像の位置とそこに張り付ける第2の回路画像の位置とを比較した後(ステップB19)、第1の回路画像に含まれる素子の配置等を適宜変更して第2の回路画像に結線して新たな回路画像を作成すると共に、その作成された回路画像を画面上に表示する(ステップB20,B21)。図4の例では、コンデンサとコイルを有する回路図41を別の回路図42の抵抗素子のある部分に置き換えて張り付けた場合が示されている。
【0053】
このように本装置の機能2によれば、画面上から取り込んだ回路画像を別の回路画像に張り付けた場合に、ユーザが回路の配線を変更するなどの面倒な編集作業を必要とせずに、両者の回路画像を結線して新たな回路画像を作成することができる。
【0054】
(機能3)
次に、本装置に備えられた機能3について、図6および図7を参照して説明する。図6は本装置の機能3に関する表示例、図7はその機能3に関するフローチャートである。
【0055】
機能3では、本装置の回路図表示機能において、コンデンサ、抵抗…といった回路図を構成する各素子の名称を画面上でのユーザの指定操作に応じて表示するものである。
【0056】
具体的に説明すると、上述した機能1を用いて回路図の一部を画像化して本装置内のメモリ(RAM17)に取り込んでおく。このとき、取り込んだ画像の中に存在する個々の素子の情報も当該回路図の構成要素として取り込んでおく。例えば、図6(a)に示すような回路図51であれば、その回路図51に含まれる素子52、53に関する情報が取り込まれる。ここで、回路図51を呼び出して画面上に表示した状態で、図6(b)に示すように、ユーザがマウスポインタ54等で素子52を指定すると、その指定された素子52が判断されて、「コンデンサ」といった素子名55が表示される。
【0057】
以下に、このような機能3を実現するための本装置の処理動作について図7のフローチャートを参照しながら説明する。なお、図7(a)は本装置の制御部(CPU)11によって実行される機能3に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0058】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUC11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップC11,C12)。
【0059】
ここで、ユーザがキー入力部12に設けられた回路表示キーk2の押下により回路メモリ呼び出しコマンドを入力すると(ステップUC13)、制御部(CPU)11はこの回路メモリ呼び出しコマンドを検出することにより(ステップC13)、RAM17に設けられた回路メモリ17bから同コマンド入力時に指定された回路画像を検索し(ステップC14)、これをRAM17に設けられた表示バッファ17aにドット単位で展開することにより、液晶表示部13の画面上に表示する(ステップC15)。
【0060】
続いて、画面上に表示された回路画像に対し、ユーザがペン14aあるいは図示せぬマウスなどの操作により回路素子を指定すると(ステップUC13)、制御部(CPU)11はその指定位置のX,Y座標を検出することにより(ステップC16)、そこに表示されている素子の種類を前記回路メモリ17bに当該回路図の画像と共に記憶された素子情報に基づいて判別する(ステップC17)。前記素子情報には、素子名の他に、その素子の物理量などが含まれている。そして、制御部(CPU)11は前記素子情報から判別された当該素子の名称を画面上に表示する(ステップC18)。図6の例では、回路図51の中の素子52の部分が指定されたことにより、「コンデンサ」といった素子名を表示した場合が示されている。
【0061】
このように本装置の機能3によれば、画面上から取り込んだ回路画像を構成する各素子の名称をユーザの指定に応じて表示することができる。また、この回路画像を別の回路画像に張り付けた場合でも、そこに含まれる素子情報が回路画像と共に記憶されているので、前記同様にユーザの指定に応じて素子名の表示を行うことが可能である。
【0062】
(機能4)
次に、本装置に備えられた機能4について、図8および図9を参照して説明する。図8は本装置の機能4に関する表示例、図9はその機能4に関するフローチャートである。
【0063】
機能4では、外部から取得した回路商品画像を対象として、その中の回路素子を画面上で指定することにより、これを既存の回路図に取り込むことを可能とするものである。
【0064】
具体的に説明すると、例えば回路関連会社のHP(ホームページ)にアクセスして、トランジスタやダイオード、抵抗、コンデンサといった回路素子を含む商品画像が図8(a)に示すようなWeb画面61に表示されているものとする。このWeb画面61において、ユーザが任意の素子画像62をマウスポインタ等で範囲指定すると、その指定範囲内に存在する素子画像62が取り込まれ、当該素子の種類や特性等の情報と共に本装置のメモリ(RAM17)に記憶される。なお、素子の種類や特性等の情報は当該素子画像62と共に提供されているものとする。
【0065】
ここで、図8(b)に示すように回路図63を表示して、その回路図63に対して前記素子画像62の張り付け位置をマウスポインタ等で範囲指定すると、図8(c)に示すように、前記素子画像62が該当する素子記号64に変更されて表示され、また、その素子の特性を反映した状態で回路図の一部として表示される。この例では、素子種類として抵抗の記号が表示されており、その素子特性として1.5Ωが表示されている。
【0066】
以下に、このような機能4を実現するための本装置の処理動作について図9のフローチャートを参照しながら説明する。なお、図9(a)は本装置の制御部(CPU)11によって実行される機能4に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0067】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUD11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップD11,D12)。
【0068】
ここで、ユーザがキー入力部12に設けられたブラウザキーk4の押下により本装置に備えられたブラウザ機能の起動を指示すると共に、データ入力キー12aを操作して、インターネット上のあるサイトのURL(Uniform Resource Locator)を入力すると(ステップUD12,UD13)、制御部(CPU)11はその起動コマンドとURLを検出することにより(ステップD13,D14)、通信制御部21を通じてインターネットに接続し、前記URLで指定されたサイトから回路商品の情報を取得し(ステップD15)、これをRAM17に設けられた表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップD16)。図8(a)に回路商品の表示例を示す。
【0069】
続いて、画面上に表示された回路商品に対し、ユーザがペン14aあるいは図示せぬマウスなどの操作により、この回路商品の中で取り込みたい回路素子を範囲指定すると(ステップUD14)、制御部(CPU)11はその指定位置のX,Y座標を検出することにより(ステップD17)、その指定範囲内の画像と当該画像に添付された素子情報を読み込み、RAM17上の図示せぬバッファに保持しておく(ステップD18)。
【0070】
次に、回路呼び出しコマンドが入力されると(ステップUD15)、制御部(CPU)11はその回路呼び出しコマンドを検出することにより(ステップD19)、同コマンド入力時に指定された回路図をRAM17などから読み出し(ステップD20)、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップD21)。
【0071】
ここで、画面上に表示された回路図に対し、ユーザがペン14aあるいは図示せぬマウスなどの操作により張り付け位置を指定すると(ステップUD16)、制御部(CPU)11はその指定された張り付け位置のX,Y座標を検出することにより(ステップD22)、その座標情報に基づいて前記サイトから取得した回路素子を張り付ける(ステップD23,D24)。この場合、前記バッファから当該回路素子の画像から素子情報を検出し、その素子情報に基づいて素子の種類に対応した記号をRAM17に設けられた素子記号テーブル17cから読み出すことにより前記指定位置に表示するといった処理を行う。その際に、素子の物理量などの特性を前記素子情報から判断し、これを反映した状態で表示するものとする。
【0072】
また、制御部(CPU)11は前記のようにして素子が張り付けられた回路図を新たな回路図として保持するべく、RAM17内の当該回路図のデータを更新する(ステップD25)。図8(a)〜(c)の例では、あるWebサイトから抵抗素子の画像を取得することで、その画像を抵抗の記号に変えて回路図の中の指定位置に張り付けた場合が示されている。
【0073】
このように本装置の機能4によれば、Webサイト等から取得した回路素子の画像を当該回路素子の情報と共に取り込むことができ、また、その素子画像を該当する記号に変換して回路図に張り付けるなど、回路図作成に利用することができる。
【0074】
(機能5)
次に、本装置に備えられた機能5について、図10および図11を参照して説明する。図10は本装置の機能5に関する表示例、図11はその機能5に関するフローチャートである。
【0075】
機能5は、前記機能4などを用いて本装置に取り込んだ回路画像を任意に編集する機能である。
【0076】
具体的に説明すると、図10(a)に示すように、例えば回路図71を画像化して本装置内のメモリ(RAM17)に取り込んだものとする。その後、回路図71に対応した画像を立ち上げて画面上に表示し、図10(b)、(c)に示すように、ペン14aなどを用いて当該画像に対して回路素子72の他、コメント等を任意に書き込んで再保存することにより、回路図の編集を行うことができる。
【0077】
以下に、このような機能5を実現するための本装置の処理動作について図11のフローチャートを参照しながら説明する。なお、図11(a)は本装置の制御部(CPU)11によって実行される機能5に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0078】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUE11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップE11)。
【0079】
ここで、ユーザがキー入力部12に設けられた回路表示キーk2の押下により回路メモリ表示機能をONすると(ステップUE12)、制御部(CPU)11はそのON信号を検出することにより、RAM17に設けられた回路メモリ17bからユーザが指定した回路図の画像を読み出し、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップE12)。
【0080】
続いて、ユーザがキー入力部12に設けられた編集キーk5の押下により回路図の編集モードをONすると(ステップUE13)、制御部(CPU)11はそのON信号を検出することにより(ステップE13)、以下のような編集処理を実行する。
【0081】
すなわち、ユーザがペン14aなどを用いて回路素子などの書込み操作を行ったときに(ステップUE14〜UE16)、制御部(CPU)11はそのときの書込み情報をRAM17の図示せぬバッファに保持しておく(ステップE14〜E16)。そして、ユーザの書込み操作が終了した時点で、制御部(CPU)11は前記バッファに保持された書込み情報からユーザの書き込んだ回路素子の種類を例えば素子記号テーブル17cに登録された各種素子の記号と比較するなどして判別する(ステップE17)。また、ユーザが素子の書込み時に物理量も書き込んである場合には、制御部(CPU)11はその書込み情報から回路素子の物理量を判別する(ステップE18)。
【0082】
このようにして、書込み情報から回路素子の種類と物理量を判別すると、制御部(CPU)11はその回路素子を追加するべく回路メモリ17b内の当該回路図の画像情報を更新すると共に(ステップE19)、その更新後の回路画像を表示バッファ17aに展開して液晶表示部13の画面上に再表示する(ステップE20)。図10の例では、回路図17に対応した画像に回路素子72と物理量(2Ω)を書き込んで回路図の編集を行った場合が示されている。
【0083】
このように本装置の機能5によれば、画面上から取り込んだ回路画像に対し、素子を追加するなど画面上で任意に編集を施すことができる。なお、編集対象としては素子に限らず、回路の配線などを追加したり削除することなども可能である。
【0084】
(機能6)
次に、本装置に備えられた機能6について、図12および図13を参照して説明する。図12は本装置の機能6に関する表示例、図13はその機能6に関するフローチャートである。
【0085】
機能6では、化学物質に関する画像を画面上で範囲指定することにより、その指定範囲内に存在する画像から化学物質の成分情報を判別して取り込むようにしたものである。
【0086】
具体的に説明すると、今、例えば図12(a)に示すように化学物質に関する画像81が画面上に表示されているものとする。この例では、化学物質(液体)の入った容器が表示されている。ここで、図12(b)に示すように、画面上にて現在表示されている画像の一部をマウスポインタ等を用いて範囲指定すると、その指定範囲82内の画像83が取り込まれると共に、その画像83に添付されている化学物質の成分情報が同時に取り込まれる。その際に、図12(c)に示すように、前記指定範囲82内の画像83に含まれる化学物質を示すシンボルマーク84が画面上に表示されて、化学物質の成分等を視覚的に確認することができる。
【0087】
また、例えば別の化学物質に関する画像をソフトウエア処理することで、二つの化学物質を混合した場合における化学変化や濃度変化等を仮想的に見ることが可能になる。
【0088】
以下に、このような機能6を実現するための本装置の処理動作について図13のフローチャートを参照しながら説明する。なお、図13(a)は本装置の制御部(CPU)11によって実行される機能6に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0089】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUF11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップF11)。
【0090】
ここで、ユーザがキー入力部12に設けられた化学物質表示キーk6を押下して化学物質の表示機能をONすると(ステップUF12)、制御部(CPU)11はそのON信号を検出することにより(ステップF12)、RAM17からユーザが指定した化学物質データを読み出す(ステップF13)。RAM17には、予め特定のアプリケーションソフトを用いて入力された化学物質データ、あるいは、記録媒体20などを介して外部から提供された化学物質データが格納されている。制御部(CPU)11は、このRAM17の中からユーザが指定した化学物質データに含まれる画像情報を読み出すと、これをRAM17に設けられた表示バッファ17aにドット単位で展開することにより、図12(a)に示すように液晶表示部13の画面上に表示する(ステップF14)。
【0091】
続いて、画面上に表示された化学物質に関する画像に対し、図12(b)に示すようにユーザがペン14aあるいは図示せぬマウスなどの操作により、現在表示されている画像の一部を範囲指定すると(ステップUF13)、制御部(CPU)11はその指定された範囲のX,Y座標を検出することにより(ステップF15)、その座標情報に基づいて指定範囲内の化学物質に関する特定の画像を認識して、これを取り込むと共に、当該画像に添付された化学物質の成分情報(化学物質の名称や濃度等を含む)をRAM17に記憶された元データから判別して当該画像と共にRAM17に設けられた化学物質メモリ17dに格納する(ステップF16)。
【0092】
また、制御部(CPU)11は、その化学物質に対応したシンボルマーク(記号等)をRAM17に設けられた化学物質シンボルテーブル17eから読み出すことにより、前記指定範囲内の画像に代えて表示する(ステップF17)。この状態が図12(c)である。
【0093】
このように本装置の機能6によれば、化学物質に関する画像が表示された場合に、その画像の一部を範囲指定することで、その指定範囲内の画像に添付された化学物質の成分情報と共に取り込むことができ、また、その化学物質の成分情報を視覚的に容易な画像(シンボルマーク)に変換してユーザに提示することができる。
【0094】
(機能7)
次に、本装置に備えられた機能7について、図14および図15を参照して説明する。図14は本装置の機能7に関する表示例、図15はその機能7に関するフローチャートである。
【0095】
機能7では、教科書等に挿入されている挿し絵などの画像情報を画面上で指定し、その画像情報に関連した説明文などのテキストデータと共に本装置に取り込むようにしたものである。
【0096】
具体的に説明すると、今、例えば図14(a)に示すように、印刷物である教科書をOCRで読み取ったデータあるいは電子教科書のデータが画面上に表示されているものとする。この教科書データは、文章(テキスト)91と挿し絵(画像)92からなる。ここで、図14(b)に示すように、ユーザがマウスポインタ等で挿し絵92の部分を範囲指定すると、その指定範囲93に存在する挿し絵92の画像が取り込まれる。また、図14(c)に示すように、ユーザがマウスポインタ等で文章91の一部(挿し絵92について説明している部分など)を範囲指定すると、その指定範囲94に存在する文章91aが取り込まれる。このようにしてユーザの範囲指定によって取り込まれた挿し絵92の画像と文章91aのテキストデータは互いに関連付けられて本装置のメモリ(RAM17)に保持される。
【0097】
以下に、このような機能7を実現するための本装置の処理動作について図14のフローチャートを参照しながら説明する。なお、図14(a)は本装置の制御部(CPU)11によって実行される機能7に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0098】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUG11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップG11)。
【0099】
ここで、ユーザがキー入力部12に設けられた電子教科書表示キーk7を押下して電子教科書の表示機能をONした後、任意のページを指定すると(ステップUG12,UG13)、制御部(CPU)11はそのON信号を検出することにより(ステップG13)、RAM17からユーザが指定したページの教科書データを読み出す(ステップG14)。RAM17には、予め特定のアプリケーションソフトを用いて入力された教科書データ、あるいは、記録媒体20などを介して外部から提供された教科書データが格納されている。この教科書データには、複数のページからなり、各ページ毎に文章などのテキストデータと挿し絵などの画像情報を含む。制御部(CPU)11は、このRAM17の中からユーザが指定したページの教科書データを構成するテキストデータと画像情報を読み出すと、これをRAM17に設けられた表示バッファ17aにドット単位で展開することにより、図14(a)に示すように液晶表示部13の画面上に表示する(ステップG15)。
【0100】
続いて、画面上に表示された教科書データに対し、図14(b)に示すようにユーザがペン14aあるいは図示せぬマウスなどの操作により、現在表示されている挿し絵の部分を範囲指定すると(ステップUG14,UG15)、制御部(CPU)11はその指定された範囲のX,Y座標を検出することにより(ステップG16,G17)、その座標情報に基づいて指定範囲内に存在する画像情報を認識して、この画像情報を取り込んで、RAM17に設けられた図示せぬバッファに一時的に保持しておく(ステップG18)。
【0101】
また、前記教科書データに対し、図14(c)に示すようにユーザがペン14aあるいは図示せぬマウスなどの操作により、現在表示されている文章の中の前記挿し絵に対応した説明文を範囲指定すると(ステップUG16)、制御部(CPU)11はその指定された範囲のX,Y座標を検出することにより(ステップG19)、その座標情報に基づいて指定範囲内に存在するテキストデータを認識して、このテキストデータを当該挿し絵画像の関連データとして取り込み、RAM17に設けられた図示せぬバッファに一時的に保持しておく(ステップG20)。
【0102】
このようにして、ユーザの範囲指定に従って挿し絵の画像情報とその説明文のテキストデータを取り込むと、制御部(CPU)11はこれらをバッファから読み出してRAM17に設けられた教科書メモリ17fに関連付けて記憶する(ステップG21)。
【0103】
このように本装置の機能7によれば、教科書の各ページに挿入されている挿し絵などの画像情報をその挿し絵の説明文などの関連データと共に取り込んで記憶することができ、後にその画像情報と関連データを読み出して参照することができる。
【0104】
なお、ここでは教科書のデータを取り込む場合を想定して説明したが、教科書に限らず、例えば雑誌などであっても良く、要は何らかの挿し絵の画像を含んだデータを対象として本機能を適用することができる。
【0105】
(機能8)
次に、本装置に備えられた機能8について、図16および図17を参照して説明する。図16は本装置の機能8に関する表示例、図17はその機能8に関するフローチャートである。
【0106】
機能8では、グラフの一部を取り込んで他のグラフに張り付けることにより、新たなグラフを作成すると共に、その新たなグラフに応じたグラフ式を算出するものである。
【0107】
具体的に説明すると、例えば図16(a)に示すように、グラフ表示機能において、Y=X/2といったグラフ101が画面上に表示されているものとする。ここで、図16(b)に示すように、このグラフ101の一部をマウスポインタ等で範囲指定して、その指定された範囲内のグラフ画像を取り込む。そして、図16(c)に示すようなY=−X+3といったグラフ103に対して、前記グラフ101から取り込んだ指定範囲内のグラフ画像を張り付けると、図16(d)に示すように、グラフの接合部分が変更されて新たなグラフ104が作成されて画面上に表示される。また、その際にそのグラフ104の数式が算出されて表示される。この例では、Y=−X+3(X<2)、Y=X/2(X≧2)といったグラフ式が表示されている。
【0108】
以下に、このような機能8を実現するための本装置の処理動作について図17のフローチャートを参照しながら説明する。なお、図17(a)は本装置の制御部(CPU)11によって実行される機能8に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0109】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUH11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップH11)。
【0110】
ここで、ユーザがキー入力部12に設けられたグラフ表示キーk8を押下してグラフ表示機能をONすると(ステップUH12)、制御部(CPU)11はそのON信号を検出することにより(ステップH12)、RAM17からユーザが指定したグラフデータを読み出して表示する(ステップH13)。RAM17には、予め特定のアプリケーションソフトを用いてユーザが任意に作成したグラフデータ、あるいは、記録媒体20などを介して外部から提供されたグラフデータが格納されている。制御部(CPU)11は、このRAM17の中からユーザが指定したグラフデータを読み出すと、これをRAM17に設けられた表示バッファ17aにドット単位で展開することにより、図16(a)に示すように液晶表示部13の画面上に表示する。
【0111】
続いて、画面上に表示されたグラフに対し、図16(b)に示すようにユーザがペン14aあるいは図示せぬマウスなどの操作により当該グラフの一部を範囲指定すると(ステップUH13)、制御部(CPU)11はその指定された範囲の位置情報を検出することにより(ステップH14)、その位置情報をグラフ表示画面上のX,Y座標に変換して(ステップH15)、当該指定範囲内のグラフ画像をそのグラフ式と共に取り込んで、RAM17に設けられたグラフメモリ17gに格納する(ステップH16)。
【0112】
このようにしてグラフ画像が取り込まれた後、ユーザが別グラフの表示を前記グラフ表示キーk8の押下操作によって指示すると(ステップUH14)、制御部(CPU)11は前記同様にしてユーザが指定した別のグラフを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップH18)。この状態が図16(c)である。
【0113】
ここで、ユーザがキー入力部12に設けられたグラフメモリキーk9を押下してグラフメモリ17g内のグラフ画像の呼び出しを指定すると共に、そのグラフ画像を張り付ける位置をペン14aあるいは図示せぬマウスなどの操作により指定する(ステップUH14,UH15)。これにより、制御部(CPU)11は、まず、前記グラフメモリ17gに取り込んだ各グラフ画像の中からユーザが指定したグラフ画像を読み出す(ステップH19)。そして、制御部(CPU)11はユーザが指定した張り付け位置のグラフ画面上のX,Y座標を検出し(ステップH20,H21)、そこに前記グラフメモリ17gから読み出したグラフ画像を張り付けることにより、図16(d)に示すように2つのグラフを指定位置で合成して新たなグラフを作成し、そのグラフを画面上に再表示する(ステップH22)。また、その際に元の2つのグラフ式に基づいて合成後の新たなグラフの式を求め、そのグラフ式を表示する(ステップH23)。
【0114】
このように本装置の機能8によれば、グラフ表示機能において、画面上に表示されたグラフの一部を取り込み、これを別のグラフに張り付けて新たなグラフを作成することができ、また、そのグラフ式を導出することが可能になる。
【0115】
(機能9)
次に、本装置に備えられた機能9について、図18および図19を参照して説明する。図18は本装置の機能9に関する表示例、図19はその機能9に関するフローチャートである。
【0116】
機能9では、TV画像などの外部から取得した画像を対象として、画面上で任意の画像を指定することにより、当該画像に添付された情報と共に本装置に取り込むようにしたものである。
【0117】
具体的に説明すると、例えば図18(a)に示すように、TV放送を本装置にて受信して、そのTV画像111を画面上に表示しているものとする。ここで、図18(b)に示すように、何らかの範囲指定システムを用いて、現在画面上に表示されているTV画像111の一部を範囲指定して、その指定範囲に存在する画像を静止画として取り込み、本装置内のメモリ(RAM17)に保存する。その際、何らかの情報が当該画像に添付されて送られて来ている場合には、その添付情報も取り込んでおく。例えば、化学番組の化学薬品物に関する画像が表示されている場合において、その画像に添付されている薬品の成分情報等を同時に取り込む。これにより、図18(c)に示すように、TV画像から取り込んだ画像113を後に別エリアに張り付けて利用するときにその添付情報114を一緒に張り付けることができる。
【0118】
以下に、このような機能9を実現するための本装置の処理動作について図19のフローチャートを参照しながら説明する。なお、図19(a)は本装置の制御部(CPU)11によって実行される機能9に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0119】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUI11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップI11)。
【0120】
ここで、ユーザがキー入力部12に設けられたTV表示キーk10を押下して本装置に備えられたTV表示アプリケーションをONすると(ステップUI12)、制御部(CPU)11はそのON信号を検出することによりTV放送を受信して、そのTV画像を液晶表示部13の画面上に表示する(ステップI12)。詳しくは、図1に示すように本装置に設けられたインターフェース22にTVチューナ23を接続しておき、TVチューナ23にて受信されるTV放送の画像情報と音声情報をインターフェース22を介して入力し、そのうちの画像情報を液晶表示部13に表示し、音声情報を図示せぬスピーカを通じて出力する。なお、図1では、TVチューナ23を外部接続する構成としているが、例えばTVチューナ23を内蔵した構成あるいはカード形式にて本装置に着脱自在に装着するような構成であっても良い。
【0121】
このようにしてTV画像が表示された状態において、図18(b)に示すように、ユーザがペン14aあるいは図示せぬマウスなどの操作により、あるシーンのTV画像を画面上で範囲指定すると(ステップUI13)、制御部(CPU)11はその指定された範囲のX,Y座標を検出することにより(ステップI13)、その座標情報に基づいて指定範囲内に存在する特定の画像を認識して、この画像を取り込み、所定の圧縮方式にて圧縮するなどしてRAM17に設けられた図示せぬバッファに一時的に保持しておく(ステップI14)。その際、制御部(CPU)11は当該画像に添付情報があるか否かを判断する(ステップI15)。その結果、当該画像に対して何らかのデータが予め添付されて提供されている場合には(ステップI15のYes)、制御部(CPU)11はその添付情報も取り込み、所定の圧縮方式にて圧縮してから前記バッファに一時的に保持しておく(ステップI16)。そして、制御部(CPU)11は前記バッファから画像情報と添付情報を読み出し、これらを関連付けてRAM17に設けられたTVメモリ17hに記憶する(ステップI17)。
【0122】
このようにして、TV画像から指定範囲内の画像情報と添付情報を本装置に取り込んだ後、ユーザが所定の操作により画像編集用の特定のアプリケーションの起動を指示した後、キー入力部12に設けられたTVメモリキーk11の押下によりTVメモリ17h内のTV画像の呼び出しを指示すると(ステップUI14,UI15)、以下のような処理が実行される。
【0123】
すなわち、制御部(CPU)11は、TV画像から取り込んだ画像をユーザの指示に従ってRAM17のTVメモリ17hから読み出し、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップI18〜I20)。
【0124】
ここで、ユーザがペン14aあるいは図示せぬマウスなどの操作により画像の張り付け位置を指定すると(ステップUI16)、制御部(CPU)11は画面上における指定位置のX,Y座標を検出して(ステップI21)、図18(c)に示すように、その座標情報に基づいて指定位置にTVメモリ17hから読み出した画像を張り付けて再表示する(ステップI22)。また、その際に、制御部(CPU)11はTVメモリ17hを検索して当該画像に添付情報があるか否かを判断する(ステップI23)。添付情報がある場合には(ステップI23のYes)、制御部(CPU)11はその添付情報をTVメモリ17hから読み出し、これを当該画像の近傍に表示する(ステップI24)。
【0125】
このように本装置の機能9によれば、TV放送中に画面上に表示された画像情報をユーザの範囲指定に従って任意選択的に取り込むことができ、後にその画像情報を参照、編集することが可能になる。また、その画像情報に何らかの情報が添付されているような場合には、その添付情報を同時に取り込んでおくことにより、画像表示時に一緒に参照することができる。
【0126】
(機能10)
次に、本装置に備えられた機能10について、図20および図21を参照して説明する。図20は本装置の機能10に関する表示例、図21はその機能10に関するフローチャートである。
【0127】
機能10では、グラフ表示機能において、複数のグラフのz座標を指定することによって、各グラフを合成処理して3Dグラフの作成を可能とするものである。
【0128】
具体的に説明すると、複数の2Dグラフを画像情報として、そのグラフ式と共に本装置のメモリ(RAM17)に取り込む。これらのグラフをグラフ表示画面上に張り付けるときに、それぞれにz座標を与えて張り付ける。すなわち、図20(a)〜(c)に示すように、例えばグラフ121をZ=1で張り付け、グラフ122をZ=2で張り付け、グラフ123をZ=3で張り付ける。これを繰り返すことによって、図20(d)に示すような3Dグラフ124が完成され、指定に応じて数式を算出することも可能になる。
【0129】
以下に、このような機能10を実現するための本装置の処理動作について図21のフローチャートを参照しながら説明する。なお、図21(a)は本装置の制御部(CPU)11によって実行される機能10に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0130】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUJ11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップJ11)。
【0131】
ここで、ユーザが所定の操作によりグラフアプリケーションの起動を指示すると(ステップUJ12)、制御部(CPU)11はそのアプリケーション起動指示を受けて所定のグラフ画面を表示した後(ステップJ12)、以下のような処理を実行する。
【0132】
すなわち、ユーザによりグラフ画像の呼び出し指示があると(ステップUJ13)、制御部(CPU)11はRAM17に設けられたグラフメモリ17gからユーザが指定したグラフ画像を呼び出し、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップJ13,J14)。なお、グラフメモリ17gには、複数の2Dグラフの画像がそのグラフ式と共に格納されているものとする。
【0133】
続いて、ユーザによりZ座標の値が指定されると(ステップUJ14)、制御部(CPU)11はその指定されたZ座標値をRAM17に設けられた図示せぬバッファに格納した後(ステップJ15)、当該グラフ画像をそのZ座標値で変換する(ステップJ16)。そして、直前処理したグラフ画像があれば、そのグラフ画像と合成処理する(ステップJ17)。このような処理を確定指示があるまで繰り返し行うことにより、各グラフ画像をそれぞれに指定されたZ座標値で合成しながら3Dグラフを作成する(ステップUJ15)。
【0134】
そして、確定指示があると(ステップUJ16,J18)、制御部(CPU)11はその時点で完成された合成画像(3Dグラフ)をグラフメモリ17gに保存する(ステップJ19)。その際、この合成画像を構成する各グラフの式に基づいて当該合成画像に対応したグラフ式を算出して一緒に保存すると共に(ステップJ20)、当該合成画像を表示バッファ17aに展開して画面上に表示する(ステップJ21)。これにより、例えば図20(d)に示すような3Dグラフが表示されることになる。
【0135】
このように本装置の機能10によれば、グラフ表示機能において、本装置に取り込んだ複数のグラフ画像を呼び出し、これらのZ座標を指定して張り付けていくことで3Dグラフを作成することができる。
【0136】
(機能11)
次に、本装置に備えられた機能11について、図22乃至図24を参照して説明する。図22は本装置の機能11に関する表示例、図23および図24はその機能11に関するフローチャートである。
【0137】
機能11では、例えば写真などの画像が表示された画面上において、指定位置にコメントを書き込み、これを当該画像と共に本装置に取り込むようにしたものである。
【0138】
具体的に説明すると、例えば図22(a)に示すような画像131が画面上に表示されているものとする。この画面上にてユーザがマウスポインタ等により範囲を指定すると、図22(b)に示すように、その指定範囲に表示されるエリア132にコメントデータを任意に書き込んで画像131と共に本装置のメモリ(RAM17)に取り込むことができる。また、画像呼び出し時において、図22(c)に示すように画像131のみを表示したり、図22(d)に示すように画像131にコメントデータを重ねて表示することができる。
【0139】
以下に、このような機能11を実現するための本装置の処理動作について図23および図24のフローチャートを参照しながら説明する。なお、図23はデータ記録時の処理を示しており、図23(a)は本装置の制御部(CPU)11によって実行される機能11に関するデータ記録処理、同図(b)は本装置に対するユーザの操作手順を示している。また、図24はデータ呼び出し時の処理を示しており、図24(a)は本装置の制御部(CPU)11によって実行される機能11に関するデータ呼び出し処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0140】
[データ記録処理]
まず、データ記録処理について説明する。
【0141】
図23に示すように、ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUK11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップK11)。
【0142】
ここで、ユーザが所定の操作により画像表示アプリケーションの起動を指示すると(ステップUK12)、制御部(CPU)11はそのアプリケーション起動指示を受けて(ステップK12)、以下のような処理を実行する。
【0143】
すなわち、ユーザにより画像の呼び出し指示があると(ステップUK13)、制御部(CPU)11はRAM17や記録媒体20などの所定の記憶装置からユーザが指定した画像情報を呼び出し、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップK13,K14)。このときの画像表示例を図22(a)に示す。なお、画像情報の種類は特に限定されるものではない。
【0144】
続いて、ユーザがペン14aあるいは図示せぬマウスなどの操作により範囲を指定すると(ステップUK14)、制御部(CPU)11は画面上における指定位置のX,Y座標を検出して(ステップK15)、図22(b)に示すように、その座標情報に基づいて指定範囲にコメント書き込みエリアを表示する(ステップK16)。そして、ユーザがキー入力部12を操作して前記コメント書き込みエリアの中にコメントデータを書き込むと(ステップUK15)、制御部(CPU)11はこのコメントデータを検出することにより(ステップK17)、RAM17に設けられた図示せぬバッファに前記コメント書き込みエリアの位置情報と共に保持する(ステップK18)。
【0145】
以後、ユーザのコメント書き込み操作が終了するまで前記同様の処理を繰り返す(ステップUK16)。そして、ユーザがコメント書き込みの終了指示を入力すると(ステップUK17)、制御部(CPU)11はその終了指示を検出することにより(ステップK19)、前記バッファに保持された各コメントデータをその位置情報と共に現在表示されている画像情報とを関連付けてRAM17に設けられたコメントメモリ17jに保存する(ステップK20)。
【0146】
[データ呼び出し処理]
次に、データ呼び出し処理について説明する。
【0147】
図24に示すように、ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUK21)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップK21)。
【0148】
ここで、ユーザが所定の操作により画像表示アプリケーションの起動を指示すると(ステップUK22)、制御部(CPU)11はそのアプリケーション起動指示を受けて(ステップK22)、以下のような処理を実行する。
【0149】
すなわち、ユーザがキー入力部12に設けられたコメント表示切替えキーk12の押下によりコメント表示の有無を指示すると(ステップUK23)、制御部(CPU)11はこのときの指示を検出することにより(ステップK23)、コメント表示ありの指示か否かを判断する(ステップK24)。コメント表示なしの指示の場合には(ステップK24のNo)、制御部(CPU)11はRAM17の画像メモリ17iからユーザが指定した画像情報を読み出して、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップK25)。
【0150】
一方、コメント表示ありの指示の場合には(ステップK24のYes)、制御部(CPU)11は画像メモリ17iからユーザが指定した画像情報を読み出して、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する読み出すと共に、当該画像情報に対応したコメントデータをコメントメモリ17jから位置情報と共に読み出して、そのコメントデータを前記位置情報に基づいて画像情報に重ねて表示する(ステップK25)。図22(c)はコメントなしの画像表示、図22(d)はコメントありの画像表示の例を示している。
【0151】
このように本装置の機能11によれば、写真等の画像情報に対してコメントデータを付けて取り込むことができ、後に表示切替えにより、その画像情報をコメント付きで表示することが可能になる。
【0152】
(機能12)
次に、本装置に備えられた機能12について、図25乃至図27を参照して説明する。図25は本装置の機能12に関する表示例、図26および図27はその機能12に関するフローチャートである。
【0153】
機能12では、写真等の画像が表示されている場合に、その中に含まれるキャラクタ等の各画像に対してコメント入力用の吹き出しを設け、これらの吹き出しにコメントデータを書き込むと共に表示順を指定しておくことにより、画像呼び出し時に各吹き出しのコメントデータを指定の順番て表示するようにしたものである。
【0154】
具体的に説明すると、例えば図25(a)に示すような画像141が画面上に表示されているものとする。この画面上にてユーザがマウスポインタ等により位置を指定すると、図25(b)に示すように、その指定された位置に表示される吹き出し142、143にコメントデータを任意に書き込んで画像141と共に本装置のメモリ(RAM17)に取り込むことができる。この場合、吹き出し142、143に表示順を指定することにより、その指定された表示順を示す情報を記憶しておく。これにより、画像141を呼び出したとき、図25(c)〜(e)に示すように、コメントデータが書き込まれた吹き出し142、143が指定された表示順に従って表示される。このように、一つの画像ファイルに対して吹き出しの段階表示を行うことが可能になる。
【0155】
以下に、このような機能12を実現するための本装置の処理動作について図26および図27のフローチャートを参照しながら説明する。なお、図26はデータ記録時の処理を示しており、図26(a)は本装置の制御部(CPU)11によって実行される機能12に関するデータ記録処理、同図(b)は本装置に対するユーザの操作手順を示している。また、図27はデータ呼び出し時の処理を示しており、図27(a)は本装置の制御部(CPU)11によって実行される機能12に関するデータ呼び出し処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0156】
[データ記録処理]
まず、データ記録処理について説明する。
【0157】
図26に示すように、ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUL11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップL11)。
【0158】
ここで、ユーザが所定の操作により画像表示アプリケーションの起動を指示すると(ステップUL12)、制御部(CPU)11はそのアプリケーション起動指示を受けて(ステップL12)、以下のような処理を実行する。
【0159】
すなわち、ユーザにより画像の呼び出し指示があると(ステップUL13)、制御部(CPU)11はRAM17や記録媒体20などの所定の記憶装置からユーザが指定した画像情報を呼び出し、これを表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップL13,L14)。このときの画像表示例を図25(a)に示す。なお、画像情報の種類は特に限定されるものではない。
【0160】
続いて、ユーザがペン14aあるいは図示せぬマウスなどの操作により吹き出し表示位置を指定すると(ステップUL14)、制御部(CPU)11は画面上における指定位置のX,Y座標を検出して(ステップL15)、図25(b)に示すように、その座標情報に基づいて指定位置にコメント書き込み用の吹き出しを表示する(ステップL16)。そして、ユーザがキー入力部12を操作して前記吹き出しの中にコメントデータを書き込むと(ステップUL15)、制御部(CPU)11はこのコメントデータを検出して(ステップL17)、RAM17に設けられた図示せぬバッファに吹き出しの位置情報と共に保持する(ステップL18)。
【0161】
また、この吹き出しに対してユーザが表示順位を指定した場合には(ステップUL16)、制御部(CPU)11はその表示順データを含めて前記バッファに保持する(ステップL20)。図25(b)の例では、吹き出し142に対して表示順1、吹き出し143に対して表示順2を指定した場合が示されている。これらの吹き出し142、143には、ユーザが書き込んだコメントデータが設定されている。
【0162】
以後、ユーザのコメント書き込み操作が終了するまで前記同様の処理を繰り返す(ステップUL17)。そして、ユーザがコメント書き込みの終了指示を入力すると(ステップUL21)、制御部(CPU)11はその終了指示を検出することにより(ステップL21)、前記バッファに保持された各吹き出しのコメントデータを指定表示順にソートした後(ステップL22)、これらをその位置情報と共に現在表示されている画像情報とを関連付けてRAM17に設けられた吹き出しメモリ17kに保存する(ステップL23)。
【0163】
[データ呼び出し処理]
次に、データ呼び出し処理について説明する。
【0164】
図27に示すように、ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUL21)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップL21)。
【0165】
ここで、ユーザが所定の操作により画像表示アプリケーションの起動を指示すると(ステップUL22)、制御部(CPU)11はそのアプリケーション起動指示を受けて、ユーザが指定した画像をRAM17の画像メモリ17iから読み出して液晶表示部13の画面上に表示した後(ステップL22,L23)、以下のような処理を実行する。
【0166】
すなわち、ユーザがキー入力部12に設けられた吹き出し表示キーk13の押下により吹き出しの表示を指示すると(ステップUL23)、制御部(CPU)11はこの吹き出し表示指示を検出することにより(ステップL24)、当該画像情報に対応した各吹き出しのコメントデータをRAM17の吹き出しメモリ17kから指定の表示順に従って位置情報と共に読み出し(ステップL25)、これらを所定の時間間隔で画像情報に重ねて順に表示する(ステップL26,L27)。すなわち、まず、図25(d)に示すように画像情報の中に吹き出し142を表示し、次に図25(e)に示すように吹き出し143を表示する。なお、各吹き出しの表示間隔は予め固定的に設定されていても良いし、ユーザが任意に設定できるようにしても良い。
【0167】
このように本装置の機能12によれば、写真等の画像情報に対して、コメントデータを書き込むための吹き出しを複数設けて、これらの吹き出しに入力されたコメントデータを指定の順で表示することが可能になる。
【0168】
(機能13)
次に、本装置に備えられた機能13について、図28および図29を参照して説明する。図28は本装置の機能13に関する表示例、図29はその機能13に関するフローチャートである。
【0169】
機能13では、外部から取得したTV番組表が画面上に表示された状態で、そのTV番組表の一部を範囲指定して本装置に取り込み、その番組情報に基づいて録画設定を行うようにしたものである。
【0170】
具体的に説明すると、例えば図28(a)に示すようなTV番組表151が画面上に表示されているものとする。このTV番組表151は、例えばインターネット上のあるサイトから提供されたものである。ここで、図28(b)に示すように、ユーザがペン14aなどを用いてTV番組表151の中で録画したい番組を範囲指定すると、図28(c)に示すように、その指定範囲152内の画像153が取り込まれ、本装置のメモリ(RAM17)に格納される。本装置に搭載された録画アプリケーションは、このメモリに格納された画像153の中から時刻情報と番組名などを検出して録画設定を可能とする。
【0171】
以下に、このような機能13を実現するための本装置の処理動作について図29のフローチャートを参照しながら説明する。なお、図29(a)は本装置の制御部(CPU)11によって実行される機能13に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0172】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUM11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップM11,M12)。
【0173】
ここで、ユーザがキー入力部12に設けられたブラウザキーk4の押下により本装置に備えられたブラウザ機能の起動を指示すると共に、データ入力キー12aを操作して、インターネット上のあるサイトのURL(Uniform Resource Locator)を入力すると(ステップUM12,UM13)、制御部(CPU)11はその起動コマンドとURLを検出することにより(ステップM12,M13)、通信制御部21を通じてインターネットに接続し、前記URLで指定されたサイトからTV番組表を取得し(ステップM14)、これをRAM17に設けられた表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップM15)。図28(a)にTV番組表の表示例を示す。
【0174】
続いて、画面上に表示されたTV番組表に対し、ユーザがペン14aあるいは図示せぬマウスなどの操作により、録画したい番組欄を範囲指定すると(ステップUM14)、制御部(CPU)11はその指定範囲のX,Y座標を検出することにより(ステップM16)、その座標情報に基づいて指定範囲内に存在する画像を認識して、その画像を取り込みむと共に当該画像に添付された番組情報(チャンネル、時間帯等)を同時に取り込んで、それぞれRAM17に設けられたTVメモリ17hに格納する(ステップM17)。
【0175】
このようにして、TV番組表から録画対象とする番組の画像とその番組情報を取り込んだ後、本装置に搭載された録画アプリケーションの起動が指示されると(ステップUM15)、制御部(CPU)11はそのアプリ起動指示を検出することにより(ステップM18)、本装置に搭載された録画アプリケーションを起動する(ステップM19)。ここで、前記TVメモリ17hに記憶された番組画像をこの録画アプリケーション上に呼び出す操作を行うことにより(ステップUM16)、制御部(CPU)11はその番組画像に添付された番組情報(チャンネル、時間帯等)を検出して録画設定を行う(ステップM20,M21)。詳しくは、図1に示すように、例えばインターフェース22に接続された録画装置24に対して前記検出した番組情報を出力することにより、その番組情報に記述されたチャンネルと時間帯等を設定するものである。
【0176】
このように本装置の機能13によれば、例えばWebサイトなどから得たTV番組表から任意の番組に関する情報を取り込み、その番組情報を録画設定に利用することができる。
【0177】
(機能14)
次に、本装置に備えられた機能14について、図30および図31を参照して説明する。図30は本装置の機能14に関する表示例、図31はその機能14に関するフローチャートである。
【0178】
機能14では、前記機能13によって取り込んだTV番組表の画像をそのまま録画ファイルのインデックスとして利用するものである。
【0179】
具体的に説明すると、今、図30(a)に示すようにTV番組表から取り込んだ画像153に基づいて録画を行ったものとする。このとき、図30(b)に示すように、録画したデータファイルに対して前記画像153をインデックスとして付して保存しておく。
【0180】
以下に、このような機能14を実現するための本装置の処理動作について図29のフローチャートを参照しながら説明する。なお、図29(a)は本装置の制御部(CPU)11によって実行される機能13に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0181】
前記機能13によりTV番組表の中で範囲指定された画像がRAM17のTVメモリ17hに記憶され、その画像に添付された番組情報に基づいて録画装置24にてTV番組の録画が行われたものとする。
【0182】
制御部(CPU)11は録画装置24から録画終了信号を検出すると(ステップN11)、録画終了コメントを表示するなどしてユーザに録画が終了した旨を通知する(ステップN12)。ここで、ユーザから番組表画像の呼び出し指示があると(ステップUN11)、制御部(CPU)11はその呼び出し指示を検出することにより(ステップN13)、RAM17のTVメモリ17hから該当TV番組の画像を読み出し(ステップN14)、表示バッファ17aに展開して液晶表示部13の画面上に表示する(ステップN15)。そして、制御部(CPU)11はこの画像を録画データに付加するか否かをメッセージ出力する(ステップN16)。
【0183】
ユーザから付加する旨の指示があると(ステップUN12)、制御部(CPU)11はその指示を検出することにより(ステップN17)、現在表示中の画像(つまり、録画データに対応したTV番組の画像)をインデックスとして前記録画データをRAM17に設けられた録画メモリ17lに保存する(ステップN18)。
【0184】
このように本装置の機能14によれば、取り込んだTV番組表の画像を録画データのインデックスとして利用して保存することができ、後にこのインデックスから所望の録画データを検索できるようになる。
【0185】
(機能15)
次に、本装置に備えられた機能15について、図32および図33を参照して説明する。図32は本装置の機能15に関する表示例、図33はその機能15に関するフローチャートである。
【0186】
機能15では、TV放送中の画像の一部を画面上で指定することにより、その指定された画像を当該画像に付加された情報と共に本装置に取り込んで表示するようにしたものである。
【0187】
具体的に説明すると、例えば図32(a)に示すように、キャラクタ161、162を有するTV画像が表示されているものとする。この場合、放送されているTV画像には、部分的に特定の情報が付加されて提供されており、ユーザの範囲指定がこの部分に対してなされた場合に画面上に所定の位置にその範囲指定内の画像を表示すると共に、その画像の付加情報を表示する。すなわち、図32(b)に示すように、例えばユーザが画面上でマウスポインタ等を用いて範囲指定すると、その指定範囲163に存在するキャラクタ162の画像が静止画として取り込まれる。その際、キャラクタ162の画像から付加情報(ここでは電話機164)が検出され、キャラクタ162の画像と共に図32(c)に示すように画面上の所定の位置に表示される。
【0188】
以下に、このような機能15を実現するための本装置の処理動作について図33フローチャートを参照しながら説明する。なお、図15(a)は本装置の制御部(CPU)11によって実行される機能33に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0189】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUO11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップO11)。
【0190】
ここで、ユーザがキー入力部12に設けられたTV表示キーk10を押下して本装置に備えられたTV表示アプリケーションをONすると(ステップUO12)、制御部(CPU)11はそのON信号を検出することによりTV放送を受信して、そのTV画像を液晶表示部13の画面上に表示する(ステップO12)。詳しくは、図1に示すように本装置に設けられたインターフェース22にTVチューナ23を接続しておき、TVチューナ23にて受信されるTV放送の画像情報と音声情報をインターフェース22を介して入力し、そのうちの画像情報を液晶表示部13に表示し、音声情報を図示せぬスピーカを通じて出力する。図32(a)にTV放送中の画像表示例を示す。
【0191】
なお、図1では、TVチューナ23を外部接続する構成としているが、例えばTVチューナ23を内蔵した構成あるいはカード形式にて本装置に着脱自在に装着するような構成であっても良い。
【0192】
このようにしてTV画像が表示された状態で、図32(b)に示すように、ユーザがペン14aあるいは図示せぬマウスなどの操作により、そのTV画像の一部を画面上で範囲指定すると(ステップUO13)、制御部(CPU)11はその指定範囲のX,Y座標を検出することにより(ステップO13)、その座標情報に基づいて指定範囲内に存在するキャラクタ等の特定の画像を認識し、その画像に付加情報があるか否かを判断する(ステップO14)。
【0193】
指定範囲内の画像に付加情報があった場合には(ステップO14のYes)、制御部(CPU)11はその付加情報を取り込み、画面上の所定の位置に表示すると共に(ステップO15,O16)、その付加情報を所定の圧縮方式にて圧縮してRAM17に設けられたTVメモリ17hに記憶する(ステップO17)。また、制御部(CPU)11は前記指定範囲内の画像を画面上の所定の位置に表示すると共に(ステップO18,O19)、所定の圧縮方式にて圧縮して前記付加情報と関連付けて前記TVメモリ17hに記憶する(ステップO20)。図32(c)の例では、キャラクタ162の画像が取り込み画像として画面上の所定の位置に表示され、また、このキャラクタ162の付加情報として携帯電話機の画像が表示されている。
【0194】
このように本装置の機能15によれば、TV放送中に画面上で範囲指定により任意の画像を取り込んだ際に、その画像に付加された情報を同時に取り込んで表示することができる。また、この機能15を利用すれば、例えば登場人物が身に付けている時計などのアクセサリに関する広告情報を付加して送ることでTV放送中に宣伝効果を兼ねることができ、ビジネスとして広く展開することが可能である。
【0195】
(機能16)
次に、本装置に備えられた機能16について、図34および図35を参照して説明する。図34は本装置の機能16に関する表示例、図35はその機能16に関するフローチャートである。
【0196】
機能16では、TV放送中に範囲指定用のフレームを画面上に表示することにより、そのフレーム内に存在する画像の中で取り込み可能な画像の候補を一覧表示し、その中でユーザにより選択された情報を取り込んで表示するようにしたものである。
【0197】
具体的に説明すると、例えば図34(a)に示すように、キャラクタ171、172を有するTV画像が表示されているものとする。ここで、図34(b)に示すように、画面上に矩形状のフレーム173を表示し、これをユーザがマウスポインタ等を操作して移動すると、そのフレーム173内のキャラクタ172の画像を対象として、図34(c)に示すような候補選択画面174が表示される。この候補選択画面174には、キャラクタ172に付加された部品(例えば「携帯電話機)、「靴」、「スーツ」等)の一覧が取り込み可能な画像として表示されている。
【0198】
ユーザがマウスポインタ等を用いて前記候補選択画面174に表示された各部品の1つを選択すると、図34(d)に示すように、その選択された部品の画像175がキャラクタ172の画像と共に取り込まれ、画面上の所定の位置に表示される。図34(d)の例では、キャラクタ172に付加されていた各部品の中の「携帯電話機」の画像175が取り込まれている。
【0199】
以下に、このような機能16を実現するための本装置の処理動作について図35のフローチャートを参照しながら説明する。なお、図35(a)は本装置の制御部(CPU)11によって実行される機能16に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0200】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUP11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップP11)。
【0201】
ここで、ユーザがキー入力部12に設けられたTV表示キーk10を押下して本装置に備えられたTV表示アプリケーションをONすると(ステップUP12)、制御部(CPU)11はそのON信号を検出することによりTV放送を受信して、そのTV画像を液晶表示部13の画面上に表示する(ステップP12)。詳しくは、図1に示すように本装置に設けられたインターフェース22にTVチューナ23を接続しておき、TVチューナ23にて受信されるTV放送の画像情報と音声情報をインターフェース22を介して入力し、そのうちの画像情報を液晶表示部13に表示し、音声情報を図示せぬスピーカを通じて出力する。図34(a)にTV放送中の画像表示例を示す。
【0202】
なお、図1では、TVチューナ23を外部接続する構成としているが、例えばTVチューナ23を内蔵した構成あるいはカード形式にて本装置に着脱自在に装着するような構成であっても良い。
【0203】
このようにしてTV画像が表示された状態で、図34(b)に示すように、ユーザがペン14aあるいは図示せぬマウスなどの操作により、そのTV画像の一部を画面上で範囲指定すると(ステップUP13)、制御部(CPU)11はその指定範囲のX,Y座標を検出することにより(ステップP13)、その座標情報に基づいて指定範囲内に存在するキャラクタ等の特定の画像を認識し、その画像に付加情報があるか否かを判断する(ステップP14)。
【0204】
指定範囲内の画像に付加情報があった場合には(ステップP14のYes)、制御部(CPU)11はその付加情報の数を検出する(ステップP15)。そして、付加情報が1つであれば(ステップP15のNo)、制御部(CPU)11はこれを取り込んで画面上の所定の位置に表示すると共に(ステップP16,P17)、その付加情報を所定の圧縮方式にて圧縮してRAM17に設けられたTVメモリ17hに記憶する(ステップP18)。
【0205】
一方、付加情報が複数ある場合には(ステップP15のYes)、制御部(CPU)11はこれらの付加情報を取り込み可能な画像の候補として、図34(c)に示すような候補選択画面174を表示する(ステップP19)。そして、ユーザがペン14aあるいは図示せぬマウスなどの操作により、その候補選択画面174の中の1つを選択すると(ステップUP14)、制御部(CPU)11はそのときの選択指示を検出することにより(ステップP20)、その選択された付加情報を取り込んで画面上の所定の位置に表示すると共に(ステップP21,P22)、その付加情報を所定の圧縮方式にて圧縮してRAM17に設けられたTVメモリ17hに記憶する(ステップP23)。
【0206】
また、制御部(CPU)11は前記指定範囲内の画像を画面上の所定の位置に表示すると共に(ステップP24,P25)、所定の圧縮方式にて圧縮して前記付加情報と関連付けて前記TVメモリ17hに記憶する(ステップP26)。図34(d)の例では、キャラクタ172の画像が取り込み画像として画面上の所定の位置に表示され、また、このキャラクタ172の付加情報として「携帯電話機」が選択されて、その画像が表示されている。
【0207】
このように本装置の機能16によれば、TV放送中に画面上でフレームを移動させながら、そのフレーム内の画像を対象として、取り込み可能な画像の候補を候補選択画面上で確認することができ、その中から所望の画像を任意選択的に取り込んで表示することができる。
【0208】
(機能17)
次に、本装置に備えられた機能17について、図36および図37を参照して説明する。図36は本装置の機能17に関する表示例、図37はその機能17に関するフローチャートである。
【0209】
機能17では、TV放送中に画面上に表示されているキャラクタを範囲指定することで、そのキャラクタの音声情報(せりふ)を文字情報に変換して画面上に表示させるようにしたものである。
【0210】
具体的に説明すると、例えば図36(a)に示すように、キャラクタ181、182を有するTV画像が表示されているものとする。通常は、キャラクタ181、182の音声情報(せりふ)は本装置に設けられたスピーカ183から出力される。ここで、図36(b)に示すように、ユーザがマウスポインタ等を用いて画面上のキャラクタ182を範囲指定すると、その指定された範囲184内のキャラクタ182の音声情報については、本装置に搭載された音声認識機能により文字情報に変換されて画面上に表示されるようになる。
【0211】
すなわち、画面上に表示されるキャラクタ181の音声情報は図36(c)に示すように通常通りスピーカ183から出力されるのに対し、キャラクタ182の音声情報については文字情報に変換され、吹き出し185などを用いて画面上に表示される。なお、放送者側では、各キャラクタに関し、その画像情報と音声情報を関連付けて同時に送信しているものとする。
【0212】
以下に、このような機能36を実現するための本装置の処理動作について図37のフローチャートを参照しながら説明する。なお、図37(a)は本装置の制御部(CPU)11によって実行される機能36に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0213】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUQ11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップQ11)。
【0214】
ここで、ユーザがキー入力部12に設けられたTV表示キーk10を押下して本装置に備えられたTV表示アプリケーションをONすると(ステップUQ12)、制御部(CPU)11はそのON信号を検出することによりTV放送を受信して、そのTV画像を液晶表示部13の画面上に表示する(ステップQ12)。詳しくは、図1に示すように本装置に設けられたインターフェース22にTVチューナ23を接続しておき、TVチューナ23にて受信されるTV放送の画像情報と音声情報をインターフェース22を介して入力し、そのうちの画像情報を液晶表示部13に表示し、音声情報を図示せぬスピーカを通じて出力する。図36(a)にTV放送中の画像表示例を示す。
【0215】
このようにしてTV画像が表示された状態で、図36(b)に示すように、ユーザがペン14aあるいは図示せぬマウスなどの操作により、そのTV画像に含まれるキャラクタを画面上で範囲指定すると(ステップUQ13)、制御部(CPU)11はその指定範囲のX,Y座標を検出することにより、その座標情報に基づいて指定範囲内に存在するキャラクタを特定する(ステップQ14)。そして、音声情報の受信に伴い(ステップQ15)、制御部(CPU)11は指定キャラクタの発した音声情報か否かを判別し、指定キャラクタの音声情報でなければ(ステップQ16のNo)、図36(c)に示すように、その音声情報を通常通りスピーカ183から出力する(ステップQ17)。
【0216】
一方、受信した音声情報が指定キャラクタの発したものであれば(ステップQ16のYes)、制御部(CPU)11は本装置に搭載された音声認識機能を起動して当該音声情報を文字情報に変換して、図36(d)に示すように、例えば吹き出し等を用いて画面上の所定の位置に表示する(ステップQ18,Q19)。
【0217】
以後、予め設定された時間が終了するまでの間、前記同様の処理が繰り返され、指定キャラクタに関しては音声情報が文字情報に変えて出力されることになる(ステップQ20)。
【0218】
このように本装置の機能17によれば、TV放送中に画面上の特定のキャラクタの発する音声情報(せりふ)を文字情報に変換して画面に表示することができる。なお、前記の説明では、文字出力の対象とするキャラクタを1人しか指定しなかったが、複数のキャラクタを指定することも可能であり、その場合には各キャラクタ毎に音声情報が判別されて、それぞれに文字情報に変換されて画面上に表示されることになる。
【0219】
(機能18)
次に、本装置に備えられた機能18について、図38および図39を参照して説明する。図38は本装置の機能18に関する表示例、図39はその機能18に関するフローチャートである。
【0220】
機能18では、カレンダ表示機能において、画面上に表示されたカレンダに対して範囲を指定することにより、その指定範囲内のカレンダ上の各日付に共通のスケジュールを表示したり、指定範囲内の各日付にそれぞれに登録された全てのスケジュールを一覧表示するようにしたものである。
【0221】
具体的に説明すると、まず、スケジュール管理機能によってユーザの予定(スケジュール)を登録した後、所定単位(例えば月単位)でカレンダを画面上に表示する。今、例えば図38(a)に示すように、8月のカレンダ191が画面上に表示されているものとする。ここで、図38(b)に示すように、ユーザがマウスポインタ等を用いてカレンダ191上のある週やある曜日を囲むように範囲指定を行うと、その指定範囲192内に存在するカレンダ191上の各日付を対象として、これらの各日付に予め登録されたスケジュールが一覧表示されたり、あるいは、各日付に共通のスケジュールのみが表示される。
【0222】
図38(c)の例では、「1日」,「8日」,「15日」,「22日」,「29日」といったように、8月中の金曜日の各日付を対象として、これらに共通するスケジュールとして「スイミングスクール」が一覧画面193に表示されている。なお、全てのスケジュールを一覧表示するのか、あるいは、共通するスケジュールのみを表示するのかは、ユーザのキー操作等によって任意に切替え可能とする。
【0223】
以下に、このような機能18を実現するための本装置の処理動作について図39のフローチャートを参照しながら説明する。なお、図39(a)は本装置の制御部(CPU)11によって実行される機能18に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0224】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUR11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップR11)。
【0225】
ここで、ユーザがキー入力部12に設けられたカレンダ表示キーk14を押下して本装置に備えられたカレンダ表示アプリケーションをONすると(ステップUR12)、制御部(CPU)11はそのON信号を検出することにより(ステップR12)、例えば図38(a)に示すように月単位のカレンダを液晶表示部13の画面上に表示する(ステップR13)。
【0226】
この画面上に表示されたカレンダに対し、ユーザがペン14aあるいは図示せぬマウスなどの操作により、そのカレンダ上のある週やある曜日を囲むように範囲指定を行うと(ステップUR13)、制御部(CPU)11はその指定範囲ののX,Y座標を検出することにより(ステップR14)、その座標情報に基づいて指定範囲内に存在するカレンダ上の日付を判別する(ステップR15)。例えば、図38(a)に示すような範囲192が指定された場合には、その指定範囲の位置情報に基づいて「1日」,「8日」,「15日」,「22日」,「29日」といった日付が特定されることになる。
【0227】
一方、このカレンダ上の各日付には、予めスケジュール管理機能によって登録されたスケジュール情報が対応付けられており、前記指定範囲内のカレンダ上の日付が判別されると、その日付に対応したスケジュール情報が画面上に表示される。この場合、例えばキー操作などにより各日付に共通のスケジュール情報を表示するモードと、全てのスケジュール情報を表示するモードを任意に切替え可能であり、制御部(CPU)11はそのときのモードに応じてスケジュール表示を行う。
【0228】
すなわち、共通のスケジュール情報を表示するモードが設定されている場合には(ステップR16のYes)、制御部(CPU)11はRAM17に設けられたスケジュールメモリ17mから前記指定範囲内のカレンダ上の各日付に共通するスケジュール情報を読み出し(ステップR17)、その共通スケジュールを例えば図38(c)に示すように画面上に表示する(ステップR18)。
【0229】
また、全てのスケジュール情報を表示するモードが設定されている場合には(ステップR16のNo)、制御部(CPU)11はRAM17に設けられたスケジュールメモリ17mから前記指定範囲内のカレンダ上の各日付に登録されたスケジュール情報を読み出し(ステップR19)、これらのスケジュール一覧を画面上に表示する(ステップR20)。
【0230】
このように本装置の機能18によれば、カレンダ上で任意の範囲を指定することにより、スケジュール管理機能を起動しなくとも、前記指定範囲内のカレンダ上の各日付に共通のスケジュールあるいは全てのスケジュールを簡単に確認することができる。
【0231】
(機能19)
次に、本装置に備えられた機能19について、図40および図41を参照して説明する。図40は本装置の機能19に関する表示例、図41はその機能19に関するフローチャートである。
【0232】
機能19では、Webページの表示画面において、任意の情報を範囲指定しておくことにより、その指定範囲内の情報に対する更新の有無が定期的に監視され、更新があった場合にその更新後の情報を所定の画面上に表示するようにしたものである。
【0233】
具体的に説明すると、例えば図40(a)に示すように、インターネット上のあるサイトのWebページが画面上に表示されているものとする。このWebページには、様々な情報が含まれており、ユーザがその中の一部の情報を図40(a)に示すようにマウスポインタ等を用いて範囲指定すると、その指定された範囲202内の情報が本装置に取り込まれる。
【0234】
その後、当該サイトが所定のタイミングで定期的にアクセスされ、前記指定範囲202内の情報が更新されているか否かがチェックされる。そして、前記指定範囲202内の情報の更新が検出されると、図40(c)に示すような更新画面204が表示されて、当該情報が更新された旨を示すメッセージ204が表示された後、その更新後の情報の取り込みと共に、図40(d)に示すような更新情報の表示がなされる。
【0235】
以下に、このような機能19を実現するための本装置の処理動作について図41のフローチャートを参照しながら説明する。なお、図41(a)は本装置の制御部(CPU)11によって実行される機能19に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0236】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUS11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップS11)。
【0237】
ここで、ユーザがキー入力部12に設けられたブラウザキーk4の押下により本装置に備えられたブラウザ機能の起動を指示すると共に、データ入力キー12aを操作して、インターネット上のあるサイトのURL(Uniform Resource Locator)を入力すると(ステップUS12,US13)、制御部(CPU)11はその起動コマンドとURLを検出することにより(ステップS12,S13)、通信制御部21を通じてインターネットに接続し、前記URLで指定されたサイトを検索する(ステップS14)。そして、制御部(CPU)11は検索結果として得られた前記サイトのWebページ(ホームページ)を液晶表示部13の画面上に表示する(ステップS15)。図40(a)にWebページの表示例を示す。
【0238】
続いて、画面上に表示されたWebページに対し、ユーザがペン14aあるいは図示せぬマウスなどを操作して、図40(b)に示すように、このWebページ上の任意の情報を範囲指定すると(ステップUS14)、制御部(CPU)11はその指定範囲のX,Y座標を検出することにより(ステップS16)、その座標情報に基づいて指定範囲内に存在する情報を認識して当該サイトのURLと共に読み込み、RAM17に設けられたWebメモリ17nに記憶しておく(ステップS17)。
【0239】
このようにして、Webページ上の指定範囲内の情報を取り込むと、制御部(CPU)11は所定のタイミングでWebメモリ17nに記憶されたURLを読み出して、そのURLに基づいて前記サイトをアクセスすることにより、前記指定範囲内の情報を検索する(ステップS18〜S20)。そして、制御部(CPU)11はこのとき得られた情報とRAM17のWebメモリ17n内の既存の情報とを比較して(ステップS21)、両者が同一のものか否かを判断する(ステップS22)。同一であった場合には(ステップS21のYes)、当該情報は更新されていないことであり、制御部(CPU)11は特に何もせずに次の更新時間を待つことになる。
【0240】
一方、同一でなかった場合には(ステップS21のNo)、当該情報は更新されていることであり、制御部(CPU)11はその更新後の情報を取り込み、図40(c)、(d)に示すように所定の画面上に表示すると共に(ステップS23)、その更新後の情報をRAM17のWebメモリ17nに記憶する(ステップS24)。この場合、前の情報に上書きすることで、常に最新の情報を保持するようにする。
【0241】
このように本装置の機能19によれば、Webページ上の一部の情報を範囲指定により取り込んだ後、当該情報が更新された場合には、その更新後の情報を新たに取り込んで画面上に表示することが可能になる。
【0242】
(機能20)
次に、本装置に備えられた機能20について、図42および図43を参照して説明する。図42は本装置の機能20に関する表示例、図43はその機能20に関するフローチャートである。
【0243】
機能20では、画面上に表示される操作パネルを範囲指定することで、その指定範囲に存在するボタンを認識して、そのボタンに対応した機能を実行するものである。通常、コンピュータ画面上に表示されるソフトウェア操作パネルでは、その操作パネル上に設けられた各ボタンをマウスポインタ等で選択的にクリックすることで、その選択されたボタンに対応した処理を実行している。しかし、例えばボタンが小さい場合など、マウスポインタ等ではクリックしづらいことがある。そこで、本機能20では、操作パネル上を範囲指定して、その範囲内に存在するボタンを自動的に入力可能とする。また、指定範囲内に操作パネル上の複数のボタンが存在した場合には、後でボタンを入力する順序を指定することで複数のボタンの入力操作を可能とする。
【0244】
具体的に説明すると、例えば図42(a)に示すように、何らかの機能(この例ではオーディオ機能)に対応した操作パネル211が画面上に表示されているものとする。この操作パネル211には、複数のボタン212、213、214が設けられている。ここで、ユーザがマウスポインタ等で操作パネル211上を範囲指定すると、その指定された範囲215内に存在するボタンが認識され、当該ボタンに対応した処理が実行される。また、指定範囲215内に複数のボタンが存在した場合には、図42(c)に示すようにボタン入力順指定画面216が表示され、このボタン入力順指定画面216の中で各ボタンの入力順を指定することができる。図42(c)の例では、「ボリュームボタン」、「曲飛ばしボタン」の順に入力することが指定されている。なお、「ボリュームボタン」に関しては操作方向を含めて指定する。例えば「右」方向を指定した場合には音量が所定量だけ大きく調整されるものとする。
【0245】
このように指定範囲215内のボタンを対象として入力操作を行うと、図42(d)に示すように、そのときの入力操作に応じて操作パネル211の状態が変化する。
【0246】
以下に、このような機能20を実現するための本装置の処理動作について図43のフローチャートを参照しながら説明する。なお、図43(a)は本装置の制御部(CPU)11によって実行される機能20に関する処理、同図(b)は本装置に対するユーザの操作手順を示している。
【0247】
ユーザがキー入力部12に設けられたONキーk1を押下するなどして本装置をONすると(ステップUT11)、本装置に備えられた制御部(CPU)11はそのON信号を検出することにより所定の起動処理を実行し、例えば図示せぬメニュー画面を表示するなどした後、ユーザからのイベントの入力を待つ(ステップT11)。
【0248】
ここで、ユーザがキー入力部12に設けられた操作パネル表示キーk15の押下により本装置に備えられた操作パネル表示機能の起動を指示すると(ステップUT12)、制御部(CPU)11はその起動コマンドを検出することにより(ステップT12)、複数のボタンが設けられた操作パネル(ソフトウェア操作パネル)を液晶表示部13の画面上に表示する(ステップT13)。図42(a)に操作パネルの表示例を示す。
【0249】
続いて、画面上に表示された操作パネルに対し、ユーザがペン14aあるいは図示せぬマウスなどを操作して、図42(b)に示すように、この操作パネルに設けられた各ボタンの一部を囲むように範囲指定すると(ステップT13)、制御部(CPU)11はその指定範囲のX,Y座標を検出することにより(ステップT14)、その座標情報に基づいて指定範囲内に存在するボタンの種類を判別し(ステップT15)、そのボタンに対応した処理を実行する(ステップT19)。
【0250】
また、前記指定範囲内に操作パネル上の複数のボタンが存在していた場合には(ステップT16のYes)、制御部(CPU)11は図42(c)に示すようなボタン入力順指定画面216を表示して、これらのボタンの入力順をユーザに指定させる(ステップT18)。ユーザがキー入力部12を通じて各ボタンに対する入力順を指定すると(ステップUT14)、制御部(CPU)11はその指定された入力順に従って操作手順を並べ替えて(ステップT18)、各ボタンに対応した処理を順に実行する(ステップT19)。図42(c)に示す例では、「ボリュームボタン」、「曲飛ばしボタン」の順で入力することが指定されている。
【0251】
このように本装置の機能20によれば、画面上に表示された操作パネルを範囲指定して、その指定範囲内に存在する操作パネル上のボタンの入力を行うことができるため、例えば操作パネルの各ボタンの表示が小さくて、マウスポインタ等でクリックしづらいような場合であっても、画面上で範囲を指定するだけの簡単な操作にて操作パネル上の各ボタンの入力を行うことができる。
【0252】
なお、前述した実施形態において記載した手法、つまり、本装置に備えられた機能1〜20に関する各処理は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に適用したり、そのプログラム自体をネットワーク等の伝送媒体により伝送して各種装置に適用することも可能である。本装置を実現するコンピュータは、図1に示すように記録媒体20に記録されたプログラムを記録媒体読み取り部19にて読み込み、あるいはネットワーク等の伝送媒体を介して提供されたプログラムを通信制御部21にて読み込み、そのプログラムによって動作が制御されることにより、前述した各種処理を実行する。
【0253】
【発明の効果】
以上のように本発明によれば、画面上に表示された画像を範囲指定により取り込み、その際に当該画像の持つ意味を含めて取り込むことで、様々なアプリケーションで利用できるようになる。
【0254】
すなわち、回路図が表示された画面上で範囲を指定することにより、その指定範囲内の回路図の画像を当該回路図を構成する各素子の情報と共に取り込むことができる。これにより、その取り込んだ回路画像を回路として認識して回路作成に利用することができる。
【0255】
また、画面上から取り込んだ回路画像を別の回路画像に張り付ける場合に、その張り付け位置に応じて両者の回路画像を結線して新たな回路画像を作成することができる。したがって、ユーザが画面上で回路の配線を変更するなどの面倒な編集作業を必要とせずとも、回路画像を利用して簡単に回路作成を行うことができる。
【0256】
また、画面上から取り込んだ回路画像の中でユーザが指定した素子の名称を表示することができる。
【0257】
また、画面上から取り込んだ回路画像の中に素子を加えるなど任意に編集することができる。
【0258】
また、例えばWebサイトなどから回路素子の画像を取得することにより、その回路素子の画像を当該素子に関する情報と共に取り込むことができ、その素子画像を回路図上で用いられる所定の記号に変換して回路図の中に張り付けるなどの利用ができる。
【0259】
また、画面上に表示されたグラフの一部を範囲指定することにより、その指定範囲内に存在するグラフの画像情報を当該グラフの数式と共に取り込むことができ、その取り込んだグラフ画像を別のグラフ画像に張り付けて新たなグラフを作成したり、その作成されたグラフの数式を確認することができる。
【0260】
また、複数のグラフ画像のz座標を指定することにより、これらのグラフ画像をz座標でそれぞれ合成した3Dグラフを作成することができる。
【図面の簡単な説明】
【図1】本発明の情報処理装置の構成を示すブロック図。
【図2】前記情報処理装置に備えられた機能1に関する処理を具体的に説明するための表示例を示す図。
【図3】前記情報処理装置に備えられた機能1に関する処理動作を示すフローチャート。
【図4】前記情報処理装置に備えられた機能2に関する処理を具体的に説明するための表示例を示す図。
【図5】前記情報処理装置に備えられた機能2に関する処理動作を示すフローチャート。
【図6】前記情報処理装置に備えられた機能3に関する処理を具体的に説明するための表示例を示す図。
【図7】前記情報処理装置に備えられた機能3に関する処理動作を示すフローチャート。
【図8】前記情報処理装置に備えられた機能4に関する処理を具体的に説明するための表示例を示す図。
【図9】前記情報処理装置に備えられた機能4に関する処理動作を示すフローチャート。
【図10】前記情報処理装置に備えられた機能5に関する処理を具体的に説明するための表示例を示す図。
【図11】前記情報処理装置に備えられた機能5に関する処理動作を示すフローチャート。
【図12】前記情報処理装置に備えられた機能6に関する処理を具体的に説明するための表示例を示す図。
【図13】前記情報処理装置に備えられた機能6に関する処理動作を示すフローチャート。
【図14】前記情報処理装置に備えられた機能7に関する処理を具体的に説明するための表示例を示す図。
【図15】前記情報処理装置に備えられた機能7に関する処理動作を示すフローチャート。
【図16】前記情報処理装置に備えられた機能8に関する処理を具体的に説明するための表示例を示す図。
【図17】前記情報処理装置に備えられた機能8に関する処理動作を示すフローチャート。
【図18】前記情報処理装置に備えられた機能9に関する処理を具体的に説明するための表示例を示す図。
【図19】前記情報処理装置に備えられた機能9に関する処理動作を示すフローチャート。
【図20】前記情報処理装置に備えられた機能10に関する処理を具体的に説明するための表示例を示す図。
【図21】前記情報処理装置に備えられた機能10に関する処理動作を示すフローチャート。
【図22】前記情報処理装置に備えられた機能11関する処理を具体的に説明するための表示例を示す図。
【図23】前記情報処理装置に備えられた機能11に関する処理動作(データ記録処理)を示すフローチャート。
【図24】前記情報処理装置に備えられた機能11に関する処理動作(データ呼び出し処理)を示すフローチャート。
【図25】前記情報処理装置に備えられた機能12に関する処理を具体的に説明するための表示例を示す図。
【図26】前記情報処理装置に備えられた機能12に関する処理動作(データ記録処理)を示すフローチャート。
【図27】前記情報処理装置に備えられた機能12に関する処理動作(データ呼び出し処理)を示すフローチャート。
【図28】前記情報処理装置に備えられた機能13に関する処理を具体的に説明するための表示例を示す図。
【図29】前記情報処理装置に備えられた機能13に関する処理動作を示すフローチャート。
【図30】前記情報処理装置に備えられた機能14に関する処理を具体的に説明するための表示例を示す図。
【図31】前記情報処理装置に備えられた機能14に関する処理動作を示すフローチャート。
【図32】前記情報処理装置に備えられた機能15に関する処理を具体的に説明するための表示例を示す図。
【図33】前記情報処理装置に備えられた機能15に関する処理動作を示すフローチャート。
【図34】前記情報処理装置に備えられた機能16に関する処理を具体的に説明するための表示例を示す図。
【図35】前記情報処理装置に備えられた機能16に関する処理動作を示すフローチャート。
【図36】前記情報処理装置に備えられた機能17に関する処理を具体的に説明するための表示例を示す図。
【図37】前記情報処理装置に備えられた機能17に関する処理動作を示すフローチャート。
【図38】前記情報処理装置に備えられた機能18に関する処理を具体的に説明するための表示例を示す図。
【図39】前記情報処理装置に備えられた機能18に関する処理動作を示すフローチャート。
【図40】前記情報処理装置に備えられた機能19に関する処理を具体的に説明するための表示例を示す図。
【図41】前記情報処理装置に備えられた機能19に関する処理動作を示すフローチャート。
【図42】前記情報処理装置に備えられた機能20に関する処理を具体的に説明するための表示例を示す図。
【図43】前記情報処理装置に備えられた機能20に関する処理動作を示すフローチャート。
【符号の説明】
11…制御部(CPU)
12…キー入力部
12a…データ入力キー
12b…カーソルキー
12c…モードキー
k1〜k15…各種キー
13…液晶表示部
14…タブレット
15…位置検出回路
16…ROM
17…RAM
17a…表示バッファ
17b…回路メモリ
17c…素子記号テーブル
17d…化学物質メモリ
17e…化学物質シンボルテーブル
17f…教科書メモリ
17g…グラフメモリ
17h…TVメモリ
17i…画像メモリ
17j…コメントメモリ
17k…吹き出しメモリ
17l…録画メモリ
17m…スケジュールメモリ
17n…Webメモリ
18…表示駆動回路
19…記録媒体読み取り部
20…記録媒体
21…通信制御部
22…インターフェース
23…TVチューナ
24…録画装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing apparatus such as a personal computer (PC) or a personal digital assistant (PDA), and more particularly to an information processing apparatus having an image capturing function for capturing an image by designating a range on a screen, and the information processing apparatus. Image capture program used for
[0002]
[Prior art]
For example, some information processing apparatuses such as PCs and PDAs have an image capturing function that captures an image within the specified range by specifying a range on a screen. In such an image capturing function, images on the screen are captured in dot units, and these images are commonly used by various applications running on a computer.
[0003]
[Problems to be solved by the invention]
However, the conventional image capturing function recognizes an image whose range is specified on the screen as a mere picture, and cannot capture the image including the meaning of the image. Therefore, even if the user captures a desired image on the screen by specifying a range, the image is retained as a mere picture, and cannot be used for an application requiring the meaning of the image. Did not.
[0004]
The present invention has been made in view of the above points, and provides an information processing apparatus and an image capturing program that capture an image displayed on a screen including the meaning of the image and can use the image in various applications. The purpose is to do.
[0005]
[Means for Solving the Problems]
An information processing apparatus according to claim 1 of the present invention comprises a display means for displaying a circuit diagram on a screen, a range designating means for designating a part of the circuit diagram displayed by the display means, and a range designating means. Image capturing means for capturing image information of a circuit diagram existing within the range designated by the information together with information on elements included in the circuit diagram, and storing the circuit image captured by the image capturing means and the element information in association with each other. Storage means.
[0006]
According to such a configuration, by designating a range of a part of the circuit diagram displayed on the screen, the image information of the circuit diagram existing within the designated range is converted into information on the elements included in the circuit diagram (for example, Physical quantities).
[0007]
An information processing apparatus according to claim 2 of the present invention comprises a display means for displaying a circuit diagram on a screen, a range designating means for designating a part of the circuit diagram displayed by the display means, and a range designating means. Image capturing means for capturing image information of a circuit diagram existing within the range designated by the information together with information on elements included in the circuit diagram, and storing the circuit image captured by the image capturing means and the element information in association with each other. Storage means, circuit pasting means for pasting the circuit image stored in the storage means to another circuit image, and the circuit image pasted by the circuit pasting means based on the element information stored in the storage means. Circuit creating means for creating a new circuit image by connecting to another circuit image.
[0008]
According to such a configuration, when a circuit image captured from the screen is pasted to another circuit image, the two circuit images are connected to create a new circuit image, so that circuit wiring is changed. Circuits can be easily created without the need for troublesome editing work such as.
[0009]
According to a third aspect of the present invention, there is provided an information processing apparatus, comprising: display means for displaying a circuit diagram on a screen; range designating means for designating a part of the circuit diagram displayed by the display means; Image capturing means for capturing image information of a circuit diagram existing within the range designated by the information together with information on elements included in the circuit diagram, and storing the circuit image captured by the image capturing means and the element information in association with each other. Storage means, circuit image calling means for calling a circuit image stored in the storage means and displaying it on a screen, and element designating means for specifying an arbitrary element in the circuit image called by the circuit image calling means An element for determining the name of the element specified by the element specifying means based on the element information stored in the storage means, and displaying the element name Characterized by comprising a display means.
[0010]
According to such a configuration, by specifying an arbitrary element in the circuit image captured from the screen, the name of the specified element is displayed, so that the configuration of each element included in the circuit image is And so on.
[0011]
According to a fourth aspect of the present invention, in the information processing apparatus according to any one of the first to third aspects, a circuit image calling means for calling a circuit image stored in the storage means and displaying the circuit image on a screen. Editing means for editing the circuit image called by the circuit image calling means, and circuit image updating means for storing the circuit image edited by the editing means as a new circuit image in the storage means. It is characterized by.
[0012]
According to such a configuration, the circuit image captured from the screen can be edited, for example, by adding elements.
[0013]
An information processing apparatus according to claim 5 of the present invention includes: an image acquisition unit that acquires a specific image including a circuit element from the outside; a display unit that displays an image acquired by the image acquisition unit on a screen; Range designating means for designating a range of a part of the image displayed by the display means, image capturing means for capturing image information of a circuit element existing within the range designated by the range designating means together with information on the element, A storage unit for storing the element image and the element information captured by the image capturing unit in association with each other.
[0014]
According to such a configuration, for example, when an image of a circuit element is acquired from a Web site or the like, the image of the circuit element can be fetched together with information on the element and used for circuit creation.
[0015]
According to a sixth aspect of the present invention, in the information processing apparatus according to the fifth aspect, an element symbol for converting an element image stored in the storage means into a predetermined symbol used on a circuit diagram and displaying the symbol. A display device is provided.
[0016]
According to such a configuration, the image of the circuit element captured from the screen is converted into a predetermined symbol used on the circuit diagram and displayed, so that the symbol is pasted on the circuit diagram to create a circuit. Available to
[0017]
An information processing apparatus according to claim 7 of the present invention comprises a display unit for displaying a graph on a screen, a range specification unit for specifying a range of a part of the graph displayed by the display unit, and a range specification unit. Image capturing means for capturing image information of a graph existing within the specified range together with the mathematical formula of the graph, and storage means for storing the graph image captured by the image capturing means and the graph formula in association with each other. It is characterized by.
[0018]
According to such a configuration, by specifying the range of a part of the graph displayed on the screen, the image information of the graph existing within the specified range can be captured together with the mathematical expression of the graph.
[0019]
An information processing apparatus according to an eighth aspect of the present invention is the information processing apparatus according to the seventh aspect, further comprising: a graph pasting unit for pasting a graph image stored in the storage unit to another graph image; It is provided with a graph creating means for creating a new graph image by combining the two graph images according to the pasting position, and a graph formula calculating means for calculating a mathematical expression corresponding to the graph image created by the graph creating means. It is characterized by the following.
[0020]
According to such a configuration, it is possible to create a new graph image by attaching a graph image captured from the screen to another graph image, and to obtain a mathematical expression corresponding to the created graph image.
[0021]
An information processing apparatus according to a ninth aspect of the present invention stores a plurality of graph images stored in a plurality of graph images, and calls out at least two or more graph images designated as a combination target from the storage unit and displays them on a screen. Graph calling means, coordinate specifying means for specifying the z-coordinate of each graph image called by the graph calling means, and synthesizing each graph image based on the z-coordinate specified by the coordinate specifying means to form a 3D graph And a graph creating means for creating.
[0022]
According to such a configuration, by specifying the z-coordinates of a plurality of graph images, it is possible to create a 3D graph in which these graph images are combined with the z-coordinates.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0024]
FIG. 1 is a block diagram showing the configuration of the information processing apparatus of the present invention. This apparatus is composed of a computer such as a PC or a PDA, and executes various processes by reading a program recorded on a recording medium.
[0025]
As shown in FIG. 1, the present apparatus is provided with a control unit (CPU) 11. The control unit (CPU) 11 includes key input data input from a key input unit 12 and a touch pen input via a position detection circuit 15 from a tablet 14 provided on a display screen of a liquid crystal display unit 13. In response to the touch position data, the system program stored in the ROM 16 is started in advance, or the program provided from the external recording medium 20 is read by the recording medium reading unit 19 and started, and the RAM 17 is used as a work memory and used as a work memory. It controls the operation of the device.
[0026]
Further, a key input unit 12, a liquid crystal display unit 13, a tablet 14, a position detection circuit 15, a ROM 16, a RAM 17, and a recording medium reading unit 19 are connected to the control unit (CPU) 11, and the liquid crystal display unit 13 has a display. It is connected via a drive circuit 18. The key input unit 12 includes a data input key 12a composed of a character / symbol key group such as a numeric keypad and an alphabet key, up / down / left / right cursor keys 12b operated when performing data selection, feed operation, and cursor movement operation. And a mode key 12c for activating various functions provided in the apparatus.
[0027]
Here, the present apparatus is provided with the following 20 functions 1 to 20 as functions for capturing and processing images on the screen. The functions 1 to 20 can be selectively activated by operating the mode key 12c or the like.
[0028]
Function 1: A function of designating a range of a part of the circuit diagram on the screen on which the circuit diagram is displayed, and storing an image corresponding to the circuit diagram within the designated range together with information on elements of the circuit diagram. .
Function 2: a function of connecting a circuit diagram captured as an image and another circuit diagram to combine them.
Function 3: When a range of a circuit diagram captured as an image is designated, the name of an element existing within the designated range is displayed.
Function 4: a function of taking in an element image acquired from outside such as a Web site by designating a range, and pasting the element image to a circuit diagram.
Function 5: Function for editing a circuit diagram captured as an image.
Function 6: a function of designating a range on a screen on which an image related to a chemical substance is displayed, and storing information such as the name of the chemical substance within the designated range, its components, concentration, etc. together with the image.
Function 7: A function for designating an image of an illustration inserted in a textbook or the like on a screen and storing the image together with text data related to the image.
Function 8: A function for taking a part of the graph on the screen where the graph is displayed and pasting it to another graph, thereby creating a new graph and changing the graph formula.
Function 9: a function of receiving an image transmitted from the outside such as a TV image and designating a range of the received image on a screen, thereby taking in the information attached to the image and the information transmitted thereto.
Function 10: A function of designating the z-coordinates of a plurality of graphs to create a 3D graph in which these are combined.
Function 11: A function that enables a comment to be written to an image within the specified range by specifying a range on a screen on which an image such as a photograph is displayed.
Function 12: a function of providing a plurality of balloons on a screen on which an image such as a photograph is displayed and writing comments in these balloons to display the balloons in a specified order.
Function 13: This is a function for specifying a range of a part of the TV program guide on the screen on which the TV program guide is displayed, thereby taking in program images within the specified range and enabling recording setting.
Function 14: A function for using the program image captured by the function 13 as it is as an index of a recorded file.
Function 15: a function of designating a part of an image on a screen on which a TV image is displayed, thereby capturing an image within the specified range together with information added to the image.
Function 16: a function in which, by moving a frame on a screen on which a TV image is displayed, a candidate of information that can be captured for an image in the frame can be selected.
Function 17: A function of designating a range of a character on a screen on which a TV image is displayed, thereby converting a voice (line) uttered by the character into a character and displaying the character.
Function 18: A function for displaying a schedule corresponding to each date on the calendar within the specified range by specifying the range on the calendar display screen.
Function 19: a function of detecting the presence or absence of an update and displaying the updated information only for information within a designated range on a Web page.
Function 20: a function for executing a specified item in the operation panel displayed on the screen.
[0029]
Further, the key input section 12 is provided with various keys k1 to k15 related to these functions 1 to 20.
[0030]
k1: ON key for starting the device
k2: Circuit display key for instructing display of a circuit diagram
k3: Circuit memory key for instructing to call a circuit image in the circuit memory
k4: Browser key to activate browser function
k5: Edit key for starting the circuit diagram edit function
k6: Chemical substance display key to activate the chemical substance display function
k7: Electronic textbook display key for activating the electronic textbook display function
k8: Graph display key for starting the graph display function
k9: Graph memory key for instructing the call of the graph image in the graph memory
k10: TV display key for activating the TV display function
k11: TV memory key for instructing calling of a TV image in the TV memory
k12: Comment display switching key for indicating whether to display a comment
k13: a balloon display key for instructing display of a balloon
k14: Calendar display key for activating the calendar display function
k15: Operation panel display key for activating the operation panel display function.
[0031]
The liquid crystal display unit 13 is a device for displaying data. The tablet 14 is provided on the display screen of the liquid crystal display unit 13 and generates a voltage signal corresponding to the position touched by the pen 14a. The voltage signal corresponding to the touch position output from the tablet 14 is output from the tablet 14. , The position detection circuit 15 detects coordinates corresponding to the display screen, and the control unit (CPU) 11 determines the content of the operation according to the touch position coordinates.
[0032]
Various information such as a system program for controlling the processing of the entire apparatus is stored in the ROM 16 in advance. The RAM 17 stores various types of information necessary for processing of the functions 1 to 20 of the present apparatus. Here, a display buffer 17a, a circuit memory 17b, an element symbol table 17c, a chemical substance memory 17d, a chemical substance symbol table 17e, It has a textbook memory 17f, a graph memory 17g, a TV memory 17h, an image memory 17i, a comment memory 17j, a balloon memory 17k, a recording memory 171, a schedule memory 17m, and a Web memory 17n.
[0033]
Display data to be displayed on the liquid crystal display unit 13 is stored in the display buffer 17a as bitmap pattern data. The circuit image designated by the user on the screen is stored in the circuit memory 17b. The element symbol table 17c stores symbols corresponding to various circuit elements. The chemical substance memory 17d stores a chemical substance image specified on the screen by the user. The chemical substance symbol table 17e stores symbol marks corresponding to various chemical substances. The textbook memory 17f stores an image such as an illustration of a textbook specified on the screen by the user. The graph memory 17g stores a graph image specified on the screen by the user.
[0034]
The TV memory 17h stores a TV image specified on the screen by the user. Various image information is stored in the image memory 17i. The comment memory 17j stores comment data added to the image specified by the user on the screen. In the balloon memory 17k, comment data written in the balloon added to the image specified on the screen by the user is stored. Recording data of a TV program is stored in the recording memory 17l. Schedule information registered by the user for each date is stored in the schedule memory 17m. The Web memory 17n stores information on Web pages acquired from sites designated by the user.
[0035]
Further, the device includes a communication control unit 21, an interface 22, and the like. The communication control unit 21 performs data communication with an external terminal via a communication network such as the Internet according to a predetermined communication protocol. For example, when connecting to each site on the Internet to acquire information, Used. The interface 22 performs an interface process with an external device. Here, a TV tuner 23 for receiving a TV broadcast (image and audio), a recording device 24 for the TV broadcast, and the like are connected.
[0036]
Next, functions 1 to 20 provided in the present apparatus will be described in detail.
[0037]
(Function 1)
First, the function 1 provided in the present apparatus will be described with reference to FIGS. FIG. 2 is a display example relating to function 1 of the present apparatus, and FIG.
[0038]
In the function 1, in the circuit display function of the present apparatus, a part of an arbitrary circuit diagram is designated by a range on a screen and taken in, and at this time, information on elements is also taken in.
[0039]
More specifically, it is assumed that a circuit diagram 31 having each element as shown in FIG. 2A is displayed on the screen of the liquid crystal display unit 13. Here, as shown in FIG. 2B, when a range of a part of the circuit diagram 31 is designated by using a mouse pointer or the like, as shown in FIG. An image corresponding to the circuit diagram 33 is stored in a memory (RAM 17) in the apparatus. The names, arrangements, and physical quantities of the elements 34 and 35 (capacitors and coils in this example) existing in the designated range 32 at that time are recognized and stored in the memory together with the circuit images.
[0040]
Hereinafter, a processing operation of the present apparatus for realizing the function 1 will be described with reference to a flowchart of FIG. FIG. 3A shows processing relating to the function 1 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 3B shows a user's operation procedure for the present apparatus.
[0041]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step UA11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the system waits for an event input from the user (steps A11 and A12).
[0042]
Here, when the user presses the circuit display key k2 provided on the key input unit 12 to input a circuit display command (step UA12), the control unit (CPU) 11 detects this circuit display command (step UA12). A13) The data of the circuit diagram specified as the display target when the command is input is read from the RAM 17 (step A14). The RAM 17 stores circuit diagram data arbitrarily created by a user using specific application software in advance, or circuit diagram data provided externally via the recording medium 20 or the like. When the control section (CPU) 11 reads out the circuit diagram data designated by the user from the RAM 17, the control section (CPU) 11 develops the circuit diagram data on a display buffer 17a provided in the RAM 17 on a dot-by-dot basis, thereby obtaining the data shown in FIG. Is displayed on the screen of the liquid crystal display section 13 (step A15).
[0043]
Subsequently, as shown in FIG. 2B, the user designates a range of a part of the currently displayed circuit diagram by operating the pen 14a or a mouse (not shown) with respect to the circuit diagram displayed on the screen. Then (step UA13), the control unit (CPU) 11 detects the position information of the designated range (step A16), and partially cuts out the circuit diagram within the designated range (step A17). In this case, for example, assuming that a range is specified by a rectangle on the screen as shown in FIG. 2B, the X and Y coordinates of four points of the rectangle are detected, and the rectangle is located within the range surrounded by the four points. We will cut out the circuit diagram. That is, by obtaining the X and Y coordinates of each dot constituting the circuit diagram existing within the rectangular range, an image corresponding to the circuit diagram is fetched as shown in FIG. It is stored in the provided circuit memory 17b (step A18).
[0044]
Further, the control unit (CPU) 11 searches for an element existing within the specified range (step A19). Then, by analyzing the names, physical quantities, arrangements, and the like of the elements based on the component information included in the circuit diagram data, the device information is associated with the image information of the circuit diagram and the circuit memory 17b of the RAM 17 is analyzed. (Step A20).
[0045]
As described above, according to the function 1 of the present apparatus, when a part of a circuit diagram displayed on a screen is imaged and taken, it can be taken together with information of each element constituting the circuit diagram. As a result, the captured circuit image can be recognized as a circuit instead of a mere picture and used for circuit creation.
[0046]
(Function 2)
Next, the function 2 provided in the present apparatus will be described with reference to FIGS. FIG. 4 is a display example regarding the function 2 of the present apparatus, and FIG. 5 is a flowchart regarding the function 2.
[0047]
In function 2, in the circuit diagram display function of the present apparatus, when attaching a circuit captured as an image to another circuit, the circuits are connected by changing the arrangement of elements according to the attached position. This is to create a new circuit.
[0048]
More specifically, a part of the circuit diagram is formed into an image using the function 1 described above, and is stored in the memory (RAM 17) in the apparatus. Here, for example, when the circuit diagram 41 shown in FIG. 4A is pasted on a part of another circuit diagram 42 shown in FIG. 4B, the user places the pasted portion on the editor with a mouse pointer or the like. The circuit diagram 41 is attached to the specified range 43 as shown in FIG. In this case, the arrangement of the elements in the circuit diagram 41 is changed according to the attaching position, and the elements are connected to the circuit diagram 42.
[0049]
Hereinafter, a processing operation of the present apparatus for realizing the function 2 will be described with reference to a flowchart of FIG. FIG. 5A shows a process related to the function 2 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 5B shows a user's operation procedure for the present apparatus.
[0050]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step UB11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an input of an event from the user (steps B11 and B12).
[0051]
Here, when the user presses the circuit memory key k3 provided in the key input unit 12 and inputs a circuit memory call command (step UB13), the control unit (CPU) 11 detects the circuit memory call command and (Step B13), the first circuit image specified at the time of inputting the command is searched from the circuit memory 17b provided in the RAM 17 (Step B14), and the first circuit image is expanded in the display buffer 17a provided in the RAM 17 in units of dots. Thereby, the image is displayed on the screen of the liquid crystal display unit 13 (step B15). The user selects a second circuit image to be pasted on the first circuit image by a predetermined operation (step UB13), and the control unit (CPU) 11 displays the selected second circuit image. It is called from the circuit memory 17b (step B16), and is displayed side by side with the first circuit image (step B17).
[0052]
Subsequently, when the user designates a range of the pasted portion by operating the pen 14a or a mouse (not shown) with respect to the first circuit image displayed on the screen (step UB14), the control unit (CPU) 11 designates the range. The X and Y coordinates of the range thus determined are detected (step B18). Then, the control unit (CPU) 11 compares the position of the first circuit image within the designated range with the position of the second circuit image attached thereto (step B19), and is included in the first circuit image. A new circuit image is created by appropriately changing the arrangement of elements and connecting to the second circuit image, and the created circuit image is displayed on the screen (steps B20 and B21). In the example of FIG. 4, a case is shown in which the circuit diagram 41 having a capacitor and a coil is replaced with a portion having a resistance element of another circuit diagram 42 and attached.
[0053]
As described above, according to the function 2 of the present apparatus, when a circuit image captured from a screen is pasted on another circuit image, the user does not need to perform a troublesome editing operation such as changing circuit wiring, and the like. A new circuit image can be created by connecting both circuit images.
[0054]
(Function 3)
Next, the function 3 provided in the present apparatus will be described with reference to FIGS. FIG. 6 is a display example of the function 3 of the present apparatus, and FIG.
[0055]
In function 3, in the circuit diagram display function of the present apparatus, the names of the elements constituting the circuit diagram, such as the capacitors and the resistors, are displayed according to the user's designation operation on the screen.
[0056]
More specifically, a part of the circuit diagram is formed into an image using the above-described function 1, and is stored in the memory (RAM 17) in the apparatus. At this time, information on individual elements present in the captured image is also captured as a component of the circuit diagram. For example, in the case of a circuit diagram 51 as shown in FIG. 6A, information on the elements 52 and 53 included in the circuit diagram 51 is fetched. Here, in a state where the circuit diagram 51 is called and displayed on the screen, as shown in FIG. 6B, when the user designates the element 52 with the mouse pointer 54 or the like, the designated element 52 is determined. , "Capacitor" are displayed.
[0057]
Hereinafter, a processing operation of the present apparatus for realizing the function 3 will be described with reference to a flowchart of FIG. FIG. 7A shows a process related to the function 3 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 7B shows a user operation procedure for the present apparatus.
[0058]
When the user turns on the apparatus by pressing an ON key k1 provided on the key input section 12 (step UC11), the control section (CPU) 11 provided on the apparatus detects the ON signal, and After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the system waits for an event input from the user (steps C11 and C12).
[0059]
Here, when the user inputs a circuit memory call command by pressing down the circuit display key k2 provided on the key input unit 12 (step UC13), the control unit (CPU) 11 detects this circuit memory call command ( In step C13), a circuit image specified at the time of inputting the same command is searched from the circuit memory 17b provided in the RAM 17 (step C14), and the circuit image is expanded in the display buffer 17a provided in the RAM 17 on a dot-by-dot basis. It is displayed on the screen of the display unit 13 (step C15).
[0060]
Subsequently, when the user specifies a circuit element by operating the pen 14a or a mouse (not shown) with respect to the circuit image displayed on the screen (step UC13), the control unit (CPU) 11 controls the X, By detecting the Y coordinate (step C16), the type of element displayed there is determined based on the element information stored in the circuit memory 17b together with the image of the circuit diagram (step C17). The element information includes a physical quantity of the element in addition to the element name. Then, the control unit (CPU) 11 displays the name of the element determined from the element information on the screen (Step C18). In the example of FIG. 6, the case where the element name such as "capacitor" is displayed by designating the element 52 in the circuit diagram 51 is shown.
[0061]
As described above, according to the function 3 of the present apparatus, the names of the respective elements constituting the circuit image captured from the screen can be displayed according to the user's designation. Further, even when this circuit image is pasted on another circuit image, the element information included therein is stored together with the circuit image, so that the element names can be displayed according to the user's designation as described above. It is.
[0062]
(Function 4)
Next, the function 4 provided in the present apparatus will be described with reference to FIGS. FIG. 8 is a display example regarding the function 4 of the present apparatus, and FIG. 9 is a flowchart regarding the function 4.
[0063]
The function 4 enables a circuit product image acquired from the outside to be taken into an existing circuit diagram by designating a circuit element in the image on a screen.
[0064]
More specifically, for example, by accessing an HP (homepage) of a circuit-related company, a product image including a circuit element such as a transistor, a diode, a resistor, and a capacitor is displayed on a Web screen 61 as shown in FIG. It is assumed that When the user designates a range of an arbitrary element image 62 with a mouse pointer or the like on the Web screen 61, the element image 62 existing within the specified range is captured, and the information of the type and characteristics of the element and the information of the device are stored in the memory of the apparatus. (RAM 17). It is assumed that information such as the type and characteristics of the element is provided together with the element image 62.
[0065]
Here, when the circuit diagram 63 is displayed as shown in FIG. 8B and the pasting position of the element image 62 is designated with respect to the circuit diagram 63 by using a mouse pointer or the like, the circuit diagram shown in FIG. As described above, the element image 62 is changed to the corresponding element symbol 64 and displayed, and is displayed as a part of the circuit diagram in a state in which the characteristics of the element are reflected. In this example, a symbol of resistance is displayed as the element type, and 1.5Ω is displayed as the element characteristic.
[0066]
Hereinafter, a processing operation of the present apparatus for realizing the function 4 will be described with reference to a flowchart of FIG. FIG. 9A shows a process related to the function 4 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 9B shows a user operation procedure for the present apparatus.
[0067]
When the user turns on the apparatus by pressing an ON key k1 provided on the key input section 12 (step UD11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the system waits for an event input from the user (steps D11 and D12).
[0068]
Here, the user instructs activation of a browser function provided in the apparatus by pressing a browser key k4 provided in the key input unit 12, and operates the data input key 12a to obtain a URL of a site on the Internet. When (Uniform Resource Locator) is input (steps UD12, UD13), the control unit (CPU) 11 detects the start command and the URL (steps D13, D14), connects to the Internet through the communication control unit 21, and connects to the Internet. The information of the circuit product is acquired from the site designated by the URL (step D15), and is developed in the display buffer 17a provided in the RAM 17 and displayed on the screen of the liquid crystal display unit 13 (step D16). FIG. 8A shows a display example of a circuit product.
[0069]
Subsequently, when the user designates a range of circuit elements to be captured in the circuit product displayed on the screen by operating the pen 14a or a mouse (not shown) (step UD14), the control unit ( By detecting the X and Y coordinates of the designated position (step D17), the CPU 11 reads the image within the designated range and the element information attached to the image, and stores the read information in a buffer (not shown) on the RAM 17. (Step D18).
[0070]
Next, when a circuit call command is input (step UD15), the control unit (CPU) 11 detects the circuit call command (step D19), and stores the circuit diagram specified at the time of inputting the command from the RAM 17 or the like. The data is read out (step D20), expanded in the display buffer 17a, and displayed on the screen of the liquid crystal display unit 13 (step D21).
[0071]
Here, when the user designates a paste position with respect to the circuit diagram displayed on the screen by operating the pen 14a or a mouse (not shown) (step UD16), the control unit (CPU) 11 transmits the designated paste position. (Step D22), the circuit element obtained from the site is attached based on the coordinate information (Step D23, D24). In this case, element information is detected from the image of the circuit element from the buffer, and a symbol corresponding to the element type is read out from an element symbol table 17c provided in the RAM 17 based on the element information, thereby displaying the symbol at the designated position. Is performed. At this time, the characteristics such as the physical quantity of the element are determined from the element information and displayed in a state in which the information is reflected.
[0072]
Further, the control unit (CPU) 11 updates the data of the circuit diagram in the RAM 17 in order to hold the circuit diagram on which the elements are attached as described above as a new circuit diagram (step D25). In the examples of FIGS. 8A to 8C, a case is shown in which an image of a resistance element is acquired from a certain Web site, and the image is changed to a symbol of resistance and attached to a designated position in a circuit diagram. ing.
[0073]
As described above, according to the function 4 of the present apparatus, an image of a circuit element obtained from a Web site or the like can be captured together with information on the circuit element. In addition, the element image is converted into a corresponding symbol and converted to a circuit diagram. It can be used for creating circuit diagrams, such as pasting.
[0074]
(Function 5)
Next, the function 5 provided in the present apparatus will be described with reference to FIGS. FIG. 10 is a display example regarding the function 5 of the present apparatus, and FIG. 11 is a flowchart regarding the function 5.
[0075]
Function 5 is a function for arbitrarily editing a circuit image captured in the present apparatus using the function 4 or the like.
[0076]
More specifically, as shown in FIG. 10A, it is assumed that, for example, a circuit diagram 71 is imaged and stored in a memory (RAM 17) in the present apparatus. Thereafter, an image corresponding to the circuit diagram 71 is launched and displayed on the screen, and as shown in FIGS. 10B and 10C, the image is displayed on the image using the pen 14a or the like, in addition to the circuit element 72, The circuit diagram can be edited by arbitrarily writing and restoring a comment or the like.
[0077]
Hereinafter, a processing operation of the present apparatus for realizing the function 5 will be described with reference to a flowchart of FIG. FIG. 11A shows a process related to the function 5 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 11B shows a user operation procedure for the present apparatus.
[0078]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input unit 12 (step UE11), the control unit (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), an input of an event from the user is waited (step E11).
[0079]
Here, when the user turns on the circuit memory display function by pressing down the circuit display key k2 provided on the key input unit 12 (step UE12), the control unit (CPU) 11 detects the ON signal and stores it in the RAM 17. The image of the circuit diagram specified by the user is read out from the provided circuit memory 17b, developed in the display buffer 17a, and displayed on the screen of the liquid crystal display unit 13 (step E12).
[0080]
Subsequently, when the user turns on the edit mode of the circuit diagram by pressing the edit key k5 provided in the key input unit 12 (step UE13), the control unit (CPU) 11 detects the ON signal (step E13). ), Execute the following editing process.
[0081]
That is, when the user performs a writing operation on a circuit element or the like using the pen 14a or the like (steps UE14 to UE16), the control unit (CPU) 11 stores the writing information at that time in a buffer (not shown) of the RAM 17. (Steps E14 to E16). At the time when the user's writing operation is completed, the control unit (CPU) 11 determines the type of the circuit element written by the user from the write information held in the buffer, for example, the symbol of each element registered in the element symbol table 17c. This is determined by comparing with (Step E17). If the user has also written a physical quantity when writing the element, the control unit (CPU) 11 determines the physical quantity of the circuit element from the write information (step E18).
[0082]
When the type and physical quantity of the circuit element are determined from the write information in this way, the control unit (CPU) 11 updates the image information of the circuit diagram in the circuit memory 17b to add the circuit element (step E19). ), The updated circuit image is developed in the display buffer 17a and displayed again on the screen of the liquid crystal display unit 13 (step E20). The example of FIG. 10 shows a case where the circuit element 72 and the physical quantity (2Ω) are written in the image corresponding to the circuit diagram 17 and the circuit diagram is edited.
[0083]
As described above, according to the function 5 of the present apparatus, it is possible to arbitrarily edit on the screen such as adding elements to the circuit image captured from the screen. The object to be edited is not limited to the element, and it is also possible to add or delete circuit wiring and the like.
[0084]
(Function 6)
Next, the function 6 provided in the present apparatus will be described with reference to FIGS. FIG. 12 is a display example regarding the function 6 of the present apparatus, and FIG. 13 is a flowchart regarding the function 6.
[0085]
In the function 6, by specifying the range of the image related to the chemical substance on the screen, the component information of the chemical substance is determined and taken in from the image existing in the specified range.
[0086]
More specifically, it is assumed that an image 81 relating to a chemical substance is displayed on the screen as shown in FIG. In this example, a container containing a chemical substance (liquid) is displayed. Here, as shown in FIG. 12B, when a part of an image currently displayed on the screen is designated by using a mouse pointer or the like, an image 83 within the designated range 82 is captured, and The component information of the chemical substance attached to the image 83 is taken in at the same time. At this time, as shown in FIG. 12C, a symbol mark 84 indicating a chemical substance included in the image 83 within the specified range 82 is displayed on the screen, and the components of the chemical substance are visually confirmed. can do.
[0087]
Also, for example, by performing software processing on an image related to another chemical substance, it becomes possible to virtually see a chemical change, a concentration change, and the like when two chemical substances are mixed.
[0088]
Hereinafter, a processing operation of the present apparatus for realizing the function 6 will be described with reference to a flowchart of FIG. FIG. 13A shows a process related to the function 6 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 13B shows a user operation procedure for the present apparatus.
[0089]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input unit 12 (step UF11), the control unit (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (step F11).
[0090]
Here, when the user presses down the chemical substance display key k6 provided in the key input unit 12 to turn on the display function of the chemical substance (step UF12), the control unit (CPU) 11 detects the ON signal to detect the ON signal. (Step F12) The CPU reads out the chemical substance data specified by the user from the RAM 17 (Step F13). The RAM 17 stores chemical substance data previously input using specific application software, or chemical substance data provided externally via the recording medium 20 or the like. When the control unit (CPU) 11 reads out the image information included in the chemical substance data designated by the user from the RAM 17, the control unit (CPU) 11 develops the image information in a display buffer 17 a provided in the RAM 17 in units of dots, thereby obtaining the data shown in FIG. The image is displayed on the screen of the liquid crystal display unit 13 as shown in (a) (step F14).
[0091]
Subsequently, as shown in FIG. 12B, the user operates the pen 14a or a mouse (not shown) to display a part of the currently displayed image on the image related to the chemical substance on the screen. When specified (step UF13), the control unit (CPU) 11 detects the X and Y coordinates of the specified range (step F15), and based on the coordinate information, a specific image related to the chemical substance within the specified range. Is recognized, the component information of the chemical substance (including the name and concentration of the chemical substance) attached to the image is determined from the original data stored in the RAM 17 and provided in the RAM 17 together with the image. It is stored in the designated chemical substance memory 17d (step F16).
[0092]
Further, the control unit (CPU) 11 reads a symbol mark (symbol or the like) corresponding to the chemical substance from the chemical substance symbol table 17e provided in the RAM 17, and displays it in place of the image within the specified range ( Step F17). This state is shown in FIG.
[0093]
According to the function 6 of the present apparatus, when an image related to a chemical substance is displayed, by specifying a part of the image, the component information of the chemical substance attached to the image within the specified range In addition, the component information of the chemical substance can be converted into a visually easy image (symbol mark) and presented to the user.
[0094]
(Function 7)
Next, the function 7 provided in the present apparatus will be described with reference to FIGS. FIG. 14 is a display example regarding the function 7 of the present apparatus, and FIG. 15 is a flowchart regarding the function 7.
[0095]
In the function 7, image information such as an illustration inserted in a textbook or the like is specified on the screen, and the image information is taken into the apparatus together with text data such as a description related to the image information.
[0096]
More specifically, it is assumed that, as shown in FIG. 14A, for example, data obtained by reading a textbook as a printed matter by OCR or data of an electronic textbook is displayed on a screen. This textbook data includes a text (text) 91 and an illustration (image) 92. Here, as shown in FIG. 14B, when the user designates a range of the illustration 92 with a mouse pointer or the like, an image of the illustration 92 existing in the designated range 93 is captured. Further, as shown in FIG. 14C, when the user designates a part of the sentence 91 (eg, a part explaining the illustration 92) with the mouse pointer or the like, the sentence 91a existing in the designated range 94 is fetched. It is. In this way, the image of the illustration 92 and the text data of the text 91a captured by the user's range specification are held in the memory (RAM 17) of the apparatus in association with each other.
[0097]
Hereinafter, a processing operation of the present apparatus for realizing the function 7 will be described with reference to a flowchart of FIG. FIG. 14A shows a process related to the function 7 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 14B shows a user operation procedure for the present apparatus.
[0098]
When the user turns on the apparatus by pressing an ON key k1 provided on the key input section 12 (step UG11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (step G11).
[0099]
Here, when the user presses the electronic textbook display key k7 provided in the key input unit 12 to turn on the display function of the electronic textbook, and then specifies an arbitrary page (steps UG12, UG13), the control unit (CPU) 11 detects the ON signal (step G13), and reads out the textbook data of the page specified by the user from the RAM 17 (step G14). The RAM 17 stores textbook data previously input using specific application software, or textbook data provided externally via the recording medium 20 or the like. The textbook data includes a plurality of pages, and includes text data such as text and image information such as an illustration for each page. When the control unit (CPU) 11 reads out text data and image information constituting the textbook data of the page designated by the user from the RAM 17, the control unit (CPU) 11 develops the text data and the dot information in a display buffer 17 a provided in the RAM 17 in units of dots. Thus, the image is displayed on the screen of the liquid crystal display unit 13 as shown in FIG. 14A (step G15).
[0100]
Subsequently, as shown in FIG. 14B, when the user designates the range of the currently displayed illustration by operating the pen 14a or a mouse (not shown) with respect to the textbook data displayed on the screen (FIG. 14B). (Steps UG14, UG15), the control unit (CPU) 11 detects the X, Y coordinates of the specified range (Steps G16, G17), and based on the coordinate information, determines the image information existing in the specified range. Upon recognition, the image information is taken in and temporarily stored in a buffer (not shown) provided in the RAM 17 (step G18).
[0101]
In addition, as shown in FIG. 14C, the user operates the pen 14a or a mouse (not shown) to specify a range of the explanatory text corresponding to the illustration in the currently displayed text with respect to the textbook data. Then (step UG16), the control unit (CPU) 11 detects the X and Y coordinates of the designated range (step G19), and recognizes the text data existing in the designated range based on the coordinate information. Then, the text data is fetched as related data of the illustration image, and is temporarily stored in a buffer (not shown) provided in the RAM 17 (step G20).
[0102]
In this way, when the image information of the illustration and the text data of the explanatory text are fetched in accordance with the user's range specification, the control unit (CPU) 11 reads these from the buffer and stores them in association with the textbook memory 17f provided in the RAM 17. (Step G21).
[0103]
As described above, according to the function 7 of the present apparatus, image information such as an illustration inserted in each page of a textbook can be captured and stored together with related data such as a description of the illustration, and the image information and the information can be stored later. Related data can be read and referenced.
[0104]
Although the description has been made on the assumption that textbook data is imported, the present invention is not limited to textbooks, but may be, for example, a magazine, and the point is that this function is applied to data including some illustration images. be able to.
[0105]
(Function 8)
Next, the function 8 provided in the present apparatus will be described with reference to FIGS. FIG. 16 is a display example regarding the function 8 of the present apparatus, and FIG. 17 is a flowchart regarding the function 8.
[0106]
In the function 8, a part of the graph is fetched and attached to another graph, thereby creating a new graph and calculating a graph formula according to the new graph.
[0107]
Specifically, for example, as shown in FIG. 16A, it is assumed that a graph 101 such as Y = X / 2 is displayed on the screen in the graph display function. Here, as shown in FIG. 16B, a part of the graph 101 is designated by a mouse pointer or the like, and a graph image within the designated range is fetched. Then, when a graph image within the designated range fetched from the graph 101 is pasted on the graph 103 such as Y = −X + 3 as shown in FIG. 16C, the graph becomes as shown in FIG. Is changed and a new graph 104 is created and displayed on the screen. At this time, the formula of the graph 104 is calculated and displayed. In this example, a graph expression such as Y = −X + 3 (X <2) and Y = X / 2 (X ≧ 2) is displayed.
[0108]
Hereinafter, a processing operation of the present apparatus for realizing such a function 8 will be described with reference to a flowchart of FIG. FIG. 17A shows a process related to the function 8 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 17B shows a user operation procedure for the present apparatus.
[0109]
When the user turns on the apparatus by pressing an ON key k1 provided on the key input section 12 (step UH11), the control section (CPU) 11 provided on the apparatus detects the ON signal, and After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), an input of an event from the user is waited (step H11).
[0110]
Here, when the user presses the graph display key k8 provided on the key input unit 12 to turn on the graph display function (step UH12), the control unit (CPU) 11 detects the ON signal (step H12). ), Reads out and displays the graph data specified by the user from the RAM 17 (step H13). The RAM 17 stores graph data arbitrarily created by a user using specific application software in advance, or graph data provided externally via the recording medium 20 or the like. When the control unit (CPU) 11 reads out the graph data designated by the user from the RAM 17, the control unit (CPU) 11 develops the graph data into a display buffer 17a provided in the RAM 17 in units of dots, as shown in FIG. Is displayed on the screen of the liquid crystal display unit 13.
[0111]
Subsequently, as shown in FIG. 16B, when the user designates a range of a part of the graph displayed on the screen by operating the pen 14a or a mouse (not shown) (step UH13), the control is performed. The unit (CPU) 11 detects the position information of the designated range (step H14), converts the position information into X, Y coordinates on the graph display screen (step H15), and Is captured along with the graph formula and stored in a graph memory 17g provided in the RAM 17 (step H16).
[0112]
After the graph image is fetched in this way, when the user instructs the display of another graph by pressing the graph display key k8 (step UH14), the control unit (CPU) 11 specifies the same as above by the user. Another graph is developed in the display buffer 17a and displayed on the screen of the liquid crystal display unit 13 (step H18). This state is shown in FIG.
[0113]
Here, the user presses the graph memory key k9 provided in the key input unit 12 to specify the call of the graph image in the graph memory 17g, and positions the graph image on the pen 14a or a mouse (not shown). (Steps UH14, UH15). Thereby, the control unit (CPU) 11 first reads out a graph image specified by the user from among the graph images fetched into the graph memory 17g (step H19). Then, the control unit (CPU) 11 detects the X and Y coordinates on the graph screen at the pasting position designated by the user (steps H20 and H21), and pastes the graph image read from the graph memory 17g there. Then, as shown in FIG. 16D, the two graphs are combined at the designated position to create a new graph, and the graph is displayed again on the screen (step H22). Further, at this time, a new graph formula after synthesis is obtained based on the two original graph formulas, and the graph formula is displayed (step H23).
[0114]
As described above, according to the function 8 of the present apparatus, in the graph display function, a part of the graph displayed on the screen can be captured and attached to another graph to create a new graph. It is possible to derive the graph formula.
[0115]
(Function 9)
Next, the function 9 provided in the present apparatus will be described with reference to FIGS. FIG. 18 is a display example regarding the function 9 of the present apparatus, and FIG. 19 is a flowchart regarding the function 9.
[0116]
In the function 9, an arbitrary image is designated on the screen for an image acquired from the outside such as a TV image, and the image is taken into the apparatus together with information attached to the image.
[0117]
More specifically, for example, as shown in FIG. 18A, it is assumed that a TV broadcast is received by the present apparatus and the TV image 111 is displayed on a screen. Here, as shown in FIG. 18B, a part of the TV image 111 currently displayed on the screen is designated by using some range designation system, and the image existing in the designated range is frozen. The image is captured and stored in a memory (RAM 17) in the apparatus. At this time, if any information has been sent attached to the image, the attached information is also taken in. For example, when an image related to a chemical substance in a chemical program is displayed, the component information of the chemical attached to the image is simultaneously imported. As a result, as shown in FIG. 18C, when the image 113 captured from the TV image is to be pasted and used in another area, the attached information 114 can be pasted together.
[0118]
Hereinafter, a processing operation of the present apparatus for realizing such a function 9 will be described with reference to a flowchart of FIG. FIG. 19A shows a process related to the function 9 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 19B shows a user operation procedure for the present apparatus.
[0119]
When the user turns on the apparatus by pressing an ON key k1 provided on the key input section 12 (step UI11), the control section (CPU) 11 provided on the apparatus detects the ON signal to thereby turn on the apparatus. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), an input of an event from the user is waited (step I11).
[0120]
Here, when the user presses the TV display key k10 provided in the key input unit 12 to turn on the TV display application provided in the apparatus (step UI12), the control unit (CPU) 11 detects the ON signal. Then, the TV broadcast is received, and the TV image is displayed on the screen of the liquid crystal display unit 13 (step I12). Specifically, as shown in FIG. 1, a TV tuner 23 is connected to an interface 22 provided in the apparatus, and image information and audio information of a TV broadcast received by the TV tuner 23 are input via the interface 22. Then, the image information is displayed on the liquid crystal display unit 13, and the audio information is output through a speaker (not shown). In FIG. 1, the TV tuner 23 is configured to be externally connected. However, for example, a configuration in which the TV tuner 23 is built in, or a configuration in which the TV tuner 23 is detachably mounted to the apparatus in a card format may be used.
[0121]
In the state where the TV image is displayed in this way, as shown in FIG. 18B, when the user designates the range of the TV image of a certain scene on the screen by operating the pen 14a or a mouse (not shown) ( In step UI13), the control unit (CPU) 11 detects the X and Y coordinates of the specified range (step I13), and recognizes a specific image existing in the specified range based on the coordinate information. Then, the image is fetched, compressed by a predetermined compression method or the like, and temporarily stored in a buffer (not shown) provided in the RAM 17 (step I14). At this time, the control unit (CPU) 11 determines whether or not the image has attached information (step I15). As a result, if any data is provided in advance with the image attached (Yes in step I15), the control unit (CPU) 11 also takes in the attached information and compresses the image by a predetermined compression method. After that, it is temporarily stored in the buffer (step I16). Then, the control unit (CPU) 11 reads out the image information and the attached information from the buffer, and stores them in the TV memory 17h provided in the RAM 17 in association with each other (step I17).
[0122]
In this way, after the image information and the attached information within the designated range are imported from the TV image into the present apparatus, the user instructs the activation of a specific application for image editing by a predetermined operation, and then the key input unit 12 When the TV image key in the TV memory 17h is instructed by pressing the provided TV memory key k11 (steps UI14 and UI15), the following processing is executed.
[0123]
That is, the control unit (CPU) 11 reads out the image fetched from the TV image from the TV memory 17h of the RAM 17 in accordance with a user's instruction, expands this in the display buffer 17a, and displays it on the screen of the liquid crystal display unit 13 (step I18-I20).
[0124]
Here, when the user designates an image pasting position by operating the pen 14a or a mouse (not shown) (step UI16), the control unit (CPU) 11 detects X and Y coordinates of the designated position on the screen ( Step I21), as shown in FIG. 18C, the image read out from the TV memory 17h is pasted to the designated position based on the coordinate information and displayed again (step I22). At this time, the control section (CPU) 11 searches the TV memory 17h to determine whether or not the image has attached information (step I23). If there is attached information (Yes in step I23), the control unit (CPU) 11 reads out the attached information from the TV memory 17h and displays it near the image (step I24).
[0125]
As described above, according to the function 9 of the present apparatus, the image information displayed on the screen during the TV broadcast can be arbitrarily captured according to the user's range specification, and the image information can be later referred to and edited. Will be possible. Further, in the case where some information is attached to the image information, the attached information can be taken in at the same time so that the image information can be referred to at the time of displaying the image.
[0126]
(Function 10)
Next, the function 10 provided in the present apparatus will be described with reference to FIGS. FIG. 20 is a display example regarding the function 10 of the present apparatus, and FIG. 21 is a flowchart regarding the function 10.
[0127]
In the function 10, in the graph display function, by specifying the z-coordinates of a plurality of graphs, the respective graphs are synthesized and a 3D graph can be created.
[0128]
More specifically, a plurality of 2D graphs are captured as image information in a memory (RAM 17) of the apparatus together with the graph formula. When these graphs are pasted on the graph display screen, they are pasted by giving them z-coordinates. That is, as shown in FIGS. 20A to 20C, for example, the graph 121 is pasted at Z = 1, the graph 122 is pasted at Z = 2, and the graph 123 is pasted at Z = 3. By repeating this, the 3D graph 124 as shown in FIG. 20D is completed, and it becomes possible to calculate a mathematical expression according to the designation.
[0129]
Hereinafter, a processing operation of the present apparatus for realizing such a function 10 will be described with reference to a flowchart of FIG. FIG. 21A shows a process related to the function 10 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 21B shows a user operation procedure for the present apparatus.
[0130]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step UJ11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (step J11).
[0131]
Here, when the user instructs to start the graph application by a predetermined operation (step UJ12), the control unit (CPU) 11 receives the application start instruction and displays a predetermined graph screen (step J12). Such processing is performed.
[0132]
That is, when there is an instruction to call a graph image by the user (step UJ13), the control unit (CPU) 11 calls a graph image specified by the user from a graph memory 17g provided in the RAM 17, and expands the graph image in the display buffer 17a. On the screen of the liquid crystal display unit 13 (steps J13 and J14). It is assumed that a plurality of 2D graph images are stored in the graph memory 17g together with their graph expressions.
[0133]
Subsequently, when the value of the Z coordinate is designated by the user (step UJ14), the control unit (CPU) 11 stores the designated Z coordinate value in a buffer (not shown) provided in the RAM 17 (step J15). ), And converts the graph image with the Z coordinate value (step J16). Then, if there is a graph image processed immediately before, it is combined with the graph image (step J17). By repeating such processing until there is a confirmation instruction, a 3D graph is created while combining each graph image with the specified Z coordinate value (step UJ15).
[0134]
Then, when there is a confirmation instruction (Steps UJ16 and J18), the control unit (CPU) 11 stores the composite image (3D graph) completed at that time in the graph memory 17g (Step J19). At this time, a graph equation corresponding to the composite image is calculated based on the equations of the graphs constituting the composite image and stored together (step J20), and the composite image is expanded on the display buffer 17a and displayed on the screen. It is displayed above (step J21). Thereby, for example, a 3D graph as shown in FIG. 20D is displayed.
[0135]
As described above, according to the function 10 of the present apparatus, a 3D graph can be created by calling a plurality of graph images imported into the present apparatus and specifying and attaching these Z coordinates in the graph display function. .
[0136]
(Function 11)
Next, the function 11 provided in the present apparatus will be described with reference to FIGS. FIG. 22 is a display example regarding the function 11 of the present apparatus, and FIGS. 23 and 24 are flowcharts regarding the function 11.
[0137]
In the function 11, for example, a comment is written at a designated position on a screen on which an image such as a photograph is displayed, and the comment is taken into the apparatus together with the image.
[0138]
More specifically, it is assumed that an image 131 as shown in FIG. 22A is displayed on the screen. When the user designates a range on this screen by using a mouse pointer or the like, comment data is arbitrarily written in an area 132 displayed in the designated range as shown in FIG. (RAM 17). Further, at the time of calling the image, only the image 131 can be displayed as shown in FIG. 22C, or comment data can be displayed over the image 131 as shown in FIG. 22D.
[0139]
Hereinafter, a processing operation of the present apparatus for realizing such a function 11 will be described with reference to flowcharts of FIGS. FIG. 23 shows a process at the time of data recording. FIG. 23 (a) is a data recording process relating to the function 11 executed by the control unit (CPU) 11 of the present device, and FIG. 4 shows a user operation procedure. FIG. 24 shows a process at the time of data calling. FIG. 24 (a) is a data calling process related to the function 11 executed by the control unit (CPU) 11 of the present device, and FIG. 4 shows a user operation procedure.
[0140]
[Data recording process]
First, the data recording process will be described.
[0141]
As shown in FIG. 23, when the user turns on the apparatus by pressing the ON key k1 provided on the key input unit 12 (step UK11), the control unit (CPU) 11 provided in the apparatus After detecting an ON signal, a predetermined start-up process is executed, for example, a menu screen (not shown) is displayed, and then an input of an event from the user is waited (step K11).
[0142]
Here, when the user instructs activation of the image display application by a predetermined operation (step UK12), the control unit (CPU) 11 receives the application activation instruction (step K12) and executes the following processing.
[0143]
That is, when a user issues an image call instruction (step UK13), the control unit (CPU) 11 calls image information specified by the user from a predetermined storage device such as the RAM 17 or the recording medium 20, and stores the image information in the display buffer 17a. It is developed and displayed on the screen of the liquid crystal display unit 13 (steps K13, K14). FIG. 22A shows an image display example at this time. Note that the type of image information is not particularly limited.
[0144]
Subsequently, when the user specifies a range by operating the pen 14a or a mouse (not shown) (step UK14), the control unit (CPU) 11 detects X and Y coordinates of the specified position on the screen (step K15). Then, as shown in FIG. 22B, a comment writing area is displayed in a specified range based on the coordinate information (step K16). When the user operates the key input unit 12 to write comment data in the comment writing area (step UK15), the control unit (CPU) 11 detects this comment data (step K17), and Is stored together with the position information of the comment writing area in a buffer (not shown) provided at the step (step K18).
[0145]
Thereafter, the same processing is repeated until the user's comment writing operation ends (step UK16). When the user inputs a comment write end instruction (step UK17), the control unit (CPU) 11 detects the end instruction (step K19), and stores the comment data held in the buffer in the position information. At the same time, the image information is stored in the comment memory 17j provided in the RAM 17 in association with the currently displayed image information (step K20).
[0146]
[Data calling process]
Next, the data calling process will be described.
[0147]
As shown in FIG. 24, when the user turns on the apparatus by pressing the ON key k1 provided on the key input unit 12 (step UK21), the control unit (CPU) 11 provided in the apparatus After detecting an ON signal, a predetermined start-up process is executed, for example, a menu screen (not shown) is displayed, and then an input of an event from the user is waited (step K21).
[0148]
Here, when the user instructs to start the image display application by a predetermined operation (Step UK22), the control unit (CPU) 11 receives the application start instruction (Step K22), and executes the following processing.
[0149]
That is, when the user instructs the presence or absence of comment display by pressing the comment display switching key k12 provided in the key input unit 12 (step UK23), the control unit (CPU) 11 detects the instruction at this time (step UK23). K23), it is determined whether or not the instruction has a comment display (step K24). In the case of an instruction to display no comment (No in step K24), the control unit (CPU) 11 reads out the image information specified by the user from the image memory 17i of the RAM 17, expands this in the display buffer 17a, and displays it on the liquid crystal display. It is displayed on the screen of the unit 13 (step K25).
[0150]
On the other hand, in the case of an instruction to display a comment (Yes in step K24), the control section (CPU) 11 reads out the image information specified by the user from the image memory 17i, expands it in the display buffer 17a, and displays it on the liquid crystal display. At the same time, the comment data corresponding to the image information is read together with the position information from the comment memory 17j, and the comment data is displayed on the image information based on the position information (step K25). ). FIG. 22C shows an example of image display without comment, and FIG. 22D shows an example of image display with comment.
[0151]
As described above, according to the function 11 of the present apparatus, comment information can be added to image information such as a photograph, and the image information can be displayed with a comment by switching the display later.
[0152]
(Function 12)
Next, the function 12 provided in the present apparatus will be described with reference to FIGS. FIG. 25 is a display example regarding the function 12 of the present apparatus, and FIGS. 26 and 27 are flowcharts regarding the function 12.
[0153]
In the function 12, when an image such as a photograph is displayed, balloons for comment input are provided for each image such as a character included therein, and comment data is written in these balloons and the display order is designated. By doing so, the comment data of each balloon is displayed in the designated order when the image is called.
[0154]
More specifically, it is assumed that an image 141 as shown in FIG. 25A is displayed on the screen. When the user specifies a position on this screen with a mouse pointer or the like, comment data is arbitrarily written in balloons 142 and 143 displayed at the specified position, as shown in FIG. The data can be stored in the memory (RAM 17) of the apparatus. In this case, by specifying the display order in the balloons 142 and 143, information indicating the specified display order is stored. As a result, when the image 141 is called, the balloons 142 and 143 in which the comment data is written are displayed according to the designated display order, as shown in FIGS. As described above, it is possible to perform the balloon stage display for one image file.
[0155]
Hereinafter, the processing operation of the present apparatus for realizing such a function 12 will be described with reference to the flowcharts of FIGS. 26A and 26B show a process at the time of data recording. FIG. 26A shows a data recording process relating to the function 12 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 4 shows a user operation procedure. FIG. 27 shows a process at the time of data calling. FIG. 27 (a) is a data calling process relating to the function 12 executed by the control unit (CPU) 11 of the present device, and FIG. 4 shows a user operation procedure.
[0156]
[Data recording process]
First, the data recording process will be described.
[0157]
As shown in FIG. 26, when the user turns on the apparatus by pressing an ON key k1 provided on the key input unit 12 (step UL11), the control unit (CPU) 11 provided on the apparatus After detecting an ON signal, a predetermined start-up process is executed, for example, a menu screen (not shown) is displayed, and then an input of an event from the user is waited (step L11).
[0158]
Here, when the user instructs activation of the image display application by a predetermined operation (step UL12), the control unit (CPU) 11 receives the application activation instruction (step L12) and executes the following processing.
[0159]
That is, when a user issues an image call instruction (step UL13), the control unit (CPU) 11 calls image information designated by the user from a predetermined storage device such as the RAM 17 or the recording medium 20, and stores the image information in the display buffer 17a. It is developed and displayed on the screen of the liquid crystal display unit 13 (steps L13 and L14). FIG. 25A shows an example of image display at this time. Note that the type of image information is not particularly limited.
[0160]
Subsequently, when the user designates a balloon display position by operating the pen 14a or a mouse (not shown) (step UL14), the control unit (CPU) 11 detects the X and Y coordinates of the designated position on the screen (step UL14). L15), as shown in FIG. 25 (b), a balloon for writing a comment is displayed at the designated position based on the coordinate information (step L16). When the user operates the key input unit 12 to write comment data into the balloon (step UL15), the control unit (CPU) 11 detects the comment data (step L17) and provides the comment data to the RAM 17. It is stored in a buffer (not shown) together with the position information of the balloon (step L18).
[0161]
When the user designates a display order for the balloon (step UL16), the control unit (CPU) 11 stores the display order data in the buffer (step L20). The example of FIG. 25B shows a case where the display order 1 is specified for the balloon 142 and the display order 2 is specified for the balloon 143. In these balloons 142 and 143, comment data written by the user is set.
[0162]
Thereafter, the same processing is repeated until the user's comment writing operation ends (step UL17). When the user inputs a comment write end instruction (step UL21), the control unit (CPU) 11 detects the end instruction (step L21), and specifies the comment data of each balloon held in the buffer. After sorting in the display order (step L22), these are stored in the balloon memory 17k provided in the RAM 17 in association with the position information and the currently displayed image information (step L23).
[0163]
[Data calling process]
Next, the data calling process will be described.
[0164]
As shown in FIG. 27, when the user turns on the apparatus by pressing the ON key k1 provided on the key input unit 12 (step UL21), the control unit (CPU) 11 provided in the apparatus After detecting an ON signal, a predetermined start-up process is executed, for example, a menu screen (not shown) is displayed, and then an input of an event from the user is waited (step L21).
[0165]
Here, when the user instructs activation of the image display application by a predetermined operation (step UL22), the control unit (CPU) 11 receives the application activation instruction and reads out the image specified by the user from the image memory 17i of the RAM 17. Then, after displaying on the screen of the liquid crystal display unit 13 (steps L22 and L23), the following processing is executed.
[0166]
That is, when the user gives an instruction to display a balloon by pressing down a balloon display key k13 provided in the key input unit 12 (step UL23), the control unit (CPU) 11 detects this balloon display instruction (step L24). Then, the comment data of each balloon corresponding to the image information is read out together with the position information from the balloon memory 17k of the RAM 17 in accordance with the designated display order (step L25), and these are superimposed on the image information at predetermined time intervals and sequentially displayed (step L25). L26, L27). That is, first, a balloon 142 is displayed in the image information as shown in FIG. 25D, and then a balloon 143 is displayed as shown in FIG. 25E. The display interval of each balloon may be fixedly set in advance, or may be arbitrarily set by the user.
[0167]
As described above, according to the function 12 of the present apparatus, a plurality of balloons for writing comment data are provided for image information such as a photograph, and the comment data input in these balloons is displayed in a designated order. Becomes possible.
[0168]
(Function 13)
Next, the function 13 provided in the present apparatus will be described with reference to FIGS. FIG. 28 is a display example regarding the function 13 of the present apparatus, and FIG. 29 is a flowchart regarding the function 13.
[0169]
In the function 13, while a TV program table acquired from the outside is displayed on the screen, a part of the TV program table is designated and taken into the apparatus, and recording setting is performed based on the program information. It was done.
[0170]
More specifically, it is assumed that, for example, a TV program table 151 as shown in FIG. 28A is displayed on the screen. The TV program table 151 is provided from a site on the Internet, for example. Here, as shown in FIG. 28B, when the user designates a range of a program to be recorded in the TV program guide 151 by using the pen 14a or the like, as shown in FIG. The image 153 in the inside is fetched and stored in the memory (RAM 17) of the present apparatus. The recording application mounted on the apparatus detects time information and a program name from the image 153 stored in the memory, and enables recording setting.
[0171]
Hereinafter, a processing operation of the present apparatus for realizing such a function 13 will be described with reference to a flowchart of FIG. FIG. 29A shows a process related to the function 13 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 29B shows a user operation procedure for the present apparatus.
[0172]
When the user turns on the apparatus by pressing an ON key k1 provided on the key input section 12 (step UM11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (steps M11 and M12).
[0173]
Here, the user instructs activation of a browser function provided in the apparatus by pressing a browser key k4 provided in the key input unit 12, and operates the data input key 12a to obtain a URL of a site on the Internet. When (Uniform Resource Locator) is input (Steps UM12, UM13), the control unit (CPU) 11 detects the start command and the URL (Steps M12, M13), connects to the Internet through the communication control unit 21, and connects to the Internet. A TV program guide is acquired from the site designated by the URL (step M14), and is developed in the display buffer 17a provided in the RAM 17 and displayed on the screen of the liquid crystal display unit 13 (step M15). FIG. 28A shows a display example of a TV program table.
[0174]
Subsequently, when the user designates a range of a program to be recorded in the TV program guide displayed on the screen by operating the pen 14a or a mouse (not shown) (step UM14), the control unit (CPU) 11 performs the operation. By detecting the X and Y coordinates of the specified range (step M16), an image present in the specified range is recognized based on the coordinate information, the image is captured, and the program information ( Channels, time zones, etc.) are simultaneously fetched and stored in the TV memory 17h provided in the RAM 17 (step M17).
[0175]
After the image of the program to be recorded and its program information are fetched from the TV program guide in this way, when the activation of the recording application mounted on the apparatus is instructed (step UM15), the control unit (CPU) 11 detects the application activation instruction (step M18), and activates the recording application mounted on the apparatus (step M19). Here, by performing an operation of calling the program image stored in the TV memory 17h on the recording application (step UM16), the control unit (CPU) 11 controls the program information (channel, time, etc.) attached to the program image. Band, etc.) to perform recording setting (steps M20 and M21). Specifically, as shown in FIG. 1, for example, by outputting the detected program information to a recording device 24 connected to the interface 22, a channel, a time zone, and the like described in the program information are set. It is.
[0176]
As described above, according to the function 13 of the present apparatus, information on an arbitrary program can be fetched from a TV program table obtained from a website or the like, and the program information can be used for recording setting.
[0177]
(Function 14)
Next, the function 14 provided in the present apparatus will be described with reference to FIGS. FIG. 30 is a display example regarding the function 14 of the present apparatus, and FIG. 31 is a flowchart regarding the function 14.
[0178]
In the function 14, the image of the TV program guide captured by the function 13 is used as it is as an index of a recorded file.
[0179]
More specifically, it is assumed that recording has been performed based on an image 153 captured from a TV program table as shown in FIG. At this time, as shown in FIG. 30B, the image 153 is added as an index to the recorded data file and stored.
[0180]
Hereinafter, a processing operation of the present apparatus for realizing the function 14 will be described with reference to a flowchart of FIG. FIG. 29A shows a process related to the function 13 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 29B shows a user operation procedure for the present apparatus.
[0181]
An image whose range is designated in the TV program table by the function 13 is stored in the TV memory 17h of the RAM 17, and a TV program is recorded by the recording device 24 based on the program information attached to the image. And
[0182]
When detecting the recording end signal from the recording device 24 (step N11), the control unit (CPU) 11 notifies the user of the end of the recording by displaying a recording end comment or the like (step N12). Here, when there is a call instruction of the program guide image from the user (step UN11), the control unit (CPU) 11 detects the call instruction (step N13), and the image of the corresponding TV program is read from the TV memory 17h of the RAM 17. Is read out (step N14), expanded in the display buffer 17a, and displayed on the screen of the liquid crystal display unit 13 (step N15). Then, the control section (CPU) 11 outputs a message as to whether or not to add this image to the recorded data (step N16).
[0183]
When an instruction to add is given from the user (step UN12), the control unit (CPU) 11 detects the instruction (step N17) and outputs the currently displayed image (that is, the TV program corresponding to the recorded data). The recorded data is stored in a recording memory 17l provided in the RAM 17 with the image (image) as an index (step N18).
[0184]
As described above, according to the function 14 of the present apparatus, the captured image of the TV program table can be used as an index of recorded data and stored, and desired recorded data can be searched later from the index.
[0185]
(Function 15)
Next, the function 15 provided in the present apparatus will be described with reference to FIGS. FIG. 32 is a display example regarding the function 15 of the present apparatus, and FIG. 33 is a flowchart regarding the function 15.
[0186]
In the function 15, by designating a part of an image during TV broadcast on the screen, the designated image is taken into the apparatus together with the information added to the image and displayed.
[0187]
More specifically, it is assumed that a TV image having characters 161 and 162 is displayed as shown in FIG. In this case, specific information is partially added to the broadcasted TV image and provided, and when the user specifies a range, the range is set at a predetermined position on the screen. The image within the specification is displayed, and additional information of the image is displayed. That is, as shown in FIG. 32B, for example, when the user designates a range on the screen using a mouse pointer or the like, an image of the character 162 present in the designated range 163 is captured as a still image. At this time, additional information (the telephone 164 in this case) is detected from the image of the character 162, and is displayed at a predetermined position on the screen together with the image of the character 162 as shown in FIG.
[0188]
Hereinafter, a processing operation of the present apparatus for realizing such a function 15 will be described with reference to a flowchart of FIG. FIG. 15A shows a process related to the function 33 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 15B shows a user's operation procedure for the present apparatus.
[0189]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step UO11), the control section (CPU) 11 provided on the apparatus detects the ON signal to thereby turn on the apparatus. After executing a predetermined activation process, for example, displaying a menu screen (not shown), the process waits for an event input from the user (step O11).
[0190]
Here, when the user presses the TV display key k10 provided in the key input unit 12 to turn on the TV display application provided in the apparatus (step UO12), the control unit (CPU) 11 detects the ON signal. Then, the TV broadcast is received, and the TV image is displayed on the screen of the liquid crystal display unit 13 (step O12). Specifically, as shown in FIG. 1, a TV tuner 23 is connected to an interface 22 provided in the apparatus, and image information and audio information of a TV broadcast received by the TV tuner 23 are input via the interface 22. Then, the image information is displayed on the liquid crystal display unit 13, and the audio information is output through a speaker (not shown). FIG. 32A shows an example of image display during TV broadcasting.
[0191]
In FIG. 1, the TV tuner 23 is configured to be externally connected. However, for example, a configuration in which the TV tuner 23 is built in, or a configuration in which the TV tuner 23 is detachably mounted to the apparatus in a card format may be used.
[0192]
In the state where the TV image is displayed in this way, as shown in FIG. 32B, when the user designates a part of the TV image on the screen by operating the pen 14a or a mouse (not shown). (Step UO13), the control unit (CPU) 11 detects the X and Y coordinates of the designated range (Step O13), and recognizes a specific image such as a character existing in the designated range based on the coordinate information. Then, it is determined whether or not the image has additional information (step O14).
[0193]
If there is additional information in the image within the specified range (Yes in step O14), the control unit (CPU) 11 takes in the additional information and displays it at a predetermined position on the screen (steps O15 and O16). The additional information is compressed by a predetermined compression method and stored in the TV memory 17h provided in the RAM 17 (step O17). Further, the control unit (CPU) 11 displays the image within the specified range at a predetermined position on the screen (Steps O18 and O19), compresses the image using a predetermined compression method, associates the image with the additional information, and sets the TV. It is stored in the memory 17h (step O20). In the example of FIG. 32C, an image of the character 162 is displayed at a predetermined position on the screen as a captured image, and an image of a mobile phone is displayed as additional information of the character 162.
[0194]
As described above, according to the function 15 of the present apparatus, when an arbitrary image is captured by specifying a range on a screen during TV broadcasting, information added to the image can be captured and displayed at the same time. Also, if this function 15 is used, for example, by adding and transmitting advertisement information on accessories such as watches worn by the characters, the advertisement can be used as a publicity effect during TV broadcasting, and the business is widely developed. It is possible.
[0195]
(Function 16)
Next, the function 16 provided in the present apparatus will be described with reference to FIGS. FIG. 34 is a display example regarding the function 16 of the present apparatus, and FIG. 35 is a flowchart regarding the function 16.
[0196]
In the function 16, by displaying a frame for range designation on the screen during the TV broadcast, a list of image candidates that can be captured among the images existing in the frame is displayed, and the user selects a candidate among the images. This is to capture and display the information.
[0197]
More specifically, it is assumed that a TV image having characters 171 and 172 is displayed, for example, as shown in FIG. Here, as shown in FIG. 34B, a rectangular frame 173 is displayed on the screen, and when the user moves the frame 173 by operating a mouse pointer or the like, the image of the character 172 in the frame 173 is targeted. 34, a candidate selection screen 174 as shown in FIG. 34 (c) is displayed. On the candidate selection screen 174, a list of parts (for example, “mobile phone”, “shoes”, “suits”, etc.) added to the character 172 is displayed as an image that can be captured.
[0198]
When the user selects one of the parts displayed on the candidate selection screen 174 using a mouse pointer or the like, the image 175 of the selected part is displayed together with the image of the character 172 as shown in FIG. It is captured and displayed at a predetermined position on the screen. In the example of FIG. 34D, an image 175 of “mobile phone” in each component added to the character 172 is captured.
[0199]
Hereinafter, the processing operation of the present apparatus for realizing such a function 16 will be described with reference to the flowchart of FIG. Note that FIG. 35A shows a process relating to the function 16 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 35B shows a user operation procedure for the present apparatus.
[0200]
When the user turns on the apparatus by pressing an ON key k1 provided on the key input section 12 (step UP11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (step P11).
[0201]
Here, when the user presses the TV display key k10 provided on the key input unit 12 to turn on the TV display application provided in the apparatus (step UP12), the control unit (CPU) 11 detects the ON signal. Then, the TV broadcast is received, and the TV image is displayed on the screen of the liquid crystal display unit 13 (step P12). Specifically, as shown in FIG. 1, a TV tuner 23 is connected to an interface 22 provided in the apparatus, and image information and audio information of a TV broadcast received by the TV tuner 23 are input via the interface 22. Then, the image information is displayed on the liquid crystal display unit 13, and the audio information is output through a speaker (not shown). FIG. 34A shows an example of image display during TV broadcasting.
[0202]
In FIG. 1, the TV tuner 23 is configured to be externally connected. However, for example, a configuration in which the TV tuner 23 is built in, or a configuration in which the TV tuner 23 is detachably mounted to the apparatus in a card format may be used.
[0203]
In the state where the TV image is displayed in this way, as shown in FIG. 34B, when the user designates a part of the TV image on the screen by operating the pen 14a or a mouse (not shown). (Step UP13) The control unit (CPU) 11 detects the X and Y coordinates of the specified range (Step P13), and recognizes a specific image such as a character existing in the specified range based on the coordinate information. Then, it is determined whether or not the image has additional information (step P14).
[0204]
If there is additional information in the image within the designated range (Yes in step P14), the control unit (CPU) 11 detects the number of the additional information (step P15). If there is only one piece of additional information (No in step P15), the control unit (CPU) 11 captures the information and displays it at a predetermined position on the screen (steps P16 and P17), and stores the additional information in a predetermined number. And stored in the TV memory 17h provided in the RAM 17 (step P18).
[0205]
On the other hand, when there is a plurality of pieces of additional information (Yes in step P15), the control unit (CPU) 11 sets the candidate selection screen 174 as shown in FIG. Is displayed (step P19). When the user selects one of the candidate selection screens 174 by operating the pen 14a or a mouse (not shown) (step UP14), the control unit (CPU) 11 detects the selection instruction at that time. (Step P20), the selected additional information is fetched and displayed at a predetermined position on the screen (Steps P21 and P22), and the additional information is compressed by a predetermined compression method and provided in the RAM 17. It is stored in the TV memory 17h (step P23).
[0206]
Further, the control unit (CPU) 11 displays the image within the specified range at a predetermined position on the screen (Steps P24 and P25), and compresses the image using a predetermined compression method and associates the image with the additional information. It is stored in the memory 17h (Step P26). In the example of FIG. 34D, an image of the character 172 is displayed as a captured image at a predetermined position on the screen, and “cellular phone” is selected as additional information of the character 172, and the image is displayed. ing.
[0207]
As described above, according to the function 16 of the present apparatus, while moving a frame on the screen during a TV broadcast, it is possible to confirm on the candidate selection screen the candidates for images that can be captured with respect to the images in the frame. And a desired image can be arbitrarily captured and displayed.
[0208]
(Function 17)
Next, the function 17 provided in the present apparatus will be described with reference to FIGS. FIG. 36 is a display example regarding the function 17 of the present apparatus, and FIG. 37 is a flowchart regarding the function 17.
[0209]
In the function 17, by specifying a range of a character displayed on the screen during the TV broadcast, audio information (line) of the character is converted into character information and displayed on the screen.
[0210]
More specifically, for example, it is assumed that a TV image having characters 181 and 182 is displayed as shown in FIG. Normally, audio information (line) of the characters 181 and 182 is output from a speaker 183 provided in the apparatus. Here, as shown in FIG. 36B, when the user designates the range of the character 182 on the screen using a mouse pointer or the like, the voice information of the character 182 within the designated range 184 is transmitted to the present apparatus. The information is converted into character information by a built-in voice recognition function and displayed on a screen.
[0211]
That is, the voice information of the character 181 displayed on the screen is output from the speaker 183 as usual, as shown in FIG. 36C, whereas the voice information of the character 182 is converted into character information, and the speech balloon 185 is displayed. It is displayed on the screen using, for example. It is assumed that the broadcaster simultaneously transmits image data and audio information of each character in association with each other.
[0212]
Hereinafter, the processing operation of the present apparatus for realizing the function 36 will be described with reference to the flowchart of FIG. FIG. 37 (a) shows a process related to the function 36 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 37 (b) shows a user operation procedure for the present apparatus.
[0213]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step UQ11), the control section (CPU) 11 provided on the apparatus detects the ON signal and After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (step Q11).
[0214]
Here, when the user presses the TV display key k10 provided in the key input unit 12 to turn on the TV display application provided in the apparatus (step UQ12), the control unit (CPU) 11 detects the ON signal. Then, the TV broadcast is received, and the TV image is displayed on the screen of the liquid crystal display unit 13 (step Q12). Specifically, as shown in FIG. 1, a TV tuner 23 is connected to an interface 22 provided in the apparatus, and image information and audio information of a TV broadcast received by the TV tuner 23 are input via the interface 22. Then, the image information is displayed on the liquid crystal display unit 13, and the audio information is output through a speaker (not shown). FIG. 36A shows an example of image display during TV broadcasting.
[0215]
In the state where the TV image is displayed in this manner, as shown in FIG. 36B, the user operates the pen 14a or a mouse (not shown) to specify a range of characters included in the TV image on the screen. Then (step UQ13), the control unit (CPU) 11 detects the X and Y coordinates of the specified range, and specifies a character existing in the specified range based on the coordinate information (step Q14). Then, upon receiving the voice information (step Q15), the control unit (CPU) 11 determines whether or not the voice information is the voice information of the designated character. As shown in FIG. 36 (c), the audio information is output from the speaker 183 as usual (step Q17).
[0216]
On the other hand, if the received voice information is generated by the designated character (Yes in step Q16), the control unit (CPU) 11 activates a voice recognition function mounted on the apparatus and converts the voice information into character information. The data is converted and displayed at a predetermined position on the screen using a balloon, for example, as shown in FIG. 36D (steps Q18 and Q19).
[0217]
Thereafter, the same processing as described above is repeated until the preset time ends, and the voice information is converted into character information and output for the designated character (step Q20).
[0218]
As described above, according to the function 17 of the present apparatus, it is possible to convert audio information (line) generated by a specific character on the screen during TV broadcasting into character information and display the character information on the screen. In the above description, only one character to be output is specified. However, a plurality of characters can be specified. In this case, audio information is determined for each character. Are converted into character information and displayed on the screen.
[0219]
(Function 18)
Next, the function 18 provided in the present apparatus will be described with reference to FIGS. 38 and 39. FIG. 38 is a display example regarding the function 18 of the present apparatus, and FIG. 39 is a flowchart regarding the function 18.
[0220]
In the function 18, in the calendar display function, by specifying a range for the calendar displayed on the screen, a common schedule is displayed for each date on the calendar within the specified range, or each schedule within the specified range is displayed. All the schedules registered for each date are displayed in a list.
[0221]
More specifically, first, a user's schedule (schedule) is registered by the schedule management function, and then a calendar is displayed on the screen in a predetermined unit (for example, a monthly unit). Now, it is assumed that the calendar 191 for August is displayed on the screen as shown in FIG. Here, as shown in FIG. 38B, when the user specifies a range around a certain week or a certain day of the week on the calendar 191 using a mouse pointer or the like, the calendar 191 existing within the specified range 192 is specified. For each of the above dates, a list of schedules registered in advance on these dates is displayed in a list, or only schedules common to each date are displayed.
[0222]
In the example of FIG. 38C, each of the dates of Friday in August, such as “1 day”, “8 day”, “15th day”, “22nd day”, “29th day”, The “swimming school” is displayed on the list screen 193 as a schedule common to the above. Whether all schedules are displayed in a list or only common schedules are displayed can be arbitrarily switched by a user's key operation or the like.
[0223]
Hereinafter, the processing operation of the present apparatus for realizing such a function 18 will be described with reference to the flowchart of FIG. FIG. 39A shows a process related to the function 18 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 39B shows a user operation procedure for the present apparatus.
[0224]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step UR11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (step R11).
[0225]
Here, when the user presses the calendar display key k14 provided in the key input unit 12 to turn on the calendar display application provided in the apparatus (step UR12), the control unit (CPU) 11 detects the ON signal. By doing so (step R12), for example, a monthly calendar is displayed on the screen of the liquid crystal display unit 13 as shown in FIG. 38A (step R13).
[0226]
When the user designates a range to surround a certain week or a certain day of the week on the calendar displayed on this screen by operating the pen 14a or a mouse (not shown) (step UR13), the control unit The (CPU) 11 detects the X and Y coordinates of the specified range (step R14), and determines the date on the calendar existing in the specified range based on the coordinate information (step R15). For example, when a range 192 as shown in FIG. 38A is specified, “1 day”, “8 days”, “15 days”, “22 days”, A date such as "29th" is specified.
[0227]
On the other hand, each date on this calendar is associated with schedule information registered in advance by a schedule management function, and when a date on the calendar within the specified range is determined, schedule information corresponding to the date is determined. Is displayed on the screen. In this case, for example, a mode in which schedule information common to each date is displayed by a key operation or the like and a mode in which all schedule information is displayed can be arbitrarily switched. To display the schedule.
[0228]
That is, when the mode for displaying the common schedule information is set (Yes in step R16), the control unit (CPU) 11 reads the schedule information from the schedule memory 17m provided in the RAM 17 on the calendar within the designated range. The schedule information common to the dates is read (step R17), and the common schedule is displayed on the screen, for example, as shown in FIG. 38C (step R18).
[0229]
When the mode for displaying all the schedule information is set (No in step R16), the control unit (CPU) 11 sends each of the calendars within the designated range from the schedule memory 17m provided in the RAM 17. The schedule information registered on the date is read (step R19), and a list of these schedules is displayed on the screen (step R20).
[0230]
As described above, according to the function 18 of the present apparatus, by specifying an arbitrary range on the calendar, a schedule common to all dates on the calendar within the specified range or all schedules can be specified without activating the schedule management function. You can easily check the schedule.
[0231]
(Function 19)
Next, the function 19 provided in the present apparatus will be described with reference to FIGS. FIG. 40 is a display example regarding the function 19 of the present apparatus, and FIG. 41 is a flowchart regarding the function 19.
[0232]
In the function 19, by specifying a range of arbitrary information on the display screen of the Web page, the presence or absence of an update to the information within the specified range is periodically monitored. Information is displayed on a predetermined screen.
[0233]
More specifically, it is assumed that a Web page of a certain site on the Internet is displayed on the screen as shown in FIG. The Web page contains various information. When the user designates a part of the information by using a mouse pointer or the like as shown in FIG. 40A, the designated area 202 is designated. The information in the inside is taken into this device.
[0234]
Thereafter, the site is periodically accessed at a predetermined timing, and it is checked whether the information in the specified range 202 has been updated. When the update of the information in the designated range 202 is detected, an update screen 204 as shown in FIG. 40C is displayed, and a message 204 indicating that the information has been updated is displayed. In addition, the updated information is displayed as shown in FIG.
[0235]
Hereinafter, a processing operation of the present apparatus for realizing such a function 19 will be described with reference to a flowchart of FIG. FIG. 41A shows processing relating to the function 19 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 41B shows a user operation procedure for the present apparatus.
[0236]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step US11), the control section (CPU) 11 provided on the apparatus detects the ON signal, and After executing a predetermined activation process, for example, displaying a menu screen (not shown), the process waits for an event input from the user (step S11).
[0237]
Here, the user instructs activation of a browser function provided in the apparatus by pressing a browser key k4 provided in the key input unit 12, and operates the data input key 12a to obtain a URL of a site on the Internet. When (Uniform Resource Locator) is input (Steps US12, US13), the control unit (CPU) 11 detects the start command and the URL (Steps S12, S13), connects to the Internet through the communication control unit 21, and connects to the Internet. A site specified by the URL is searched (step S14). Then, the control unit (CPU) 11 displays a Web page (homepage) of the site obtained as a search result on the screen of the liquid crystal display unit 13 (step S15). FIG. 40A shows a display example of a Web page.
[0238]
Subsequently, for the Web page displayed on the screen, the user operates the pen 14a or a mouse (not shown) to specify arbitrary information on the Web page as shown in FIG. Then (step US14), the control unit (CPU) 11 detects the X and Y coordinates of the designated range (step S16), recognizes information existing within the designated range based on the coordinate information, and recognizes the site. And stores it in the Web memory 17n provided in the RAM 17 (step S17).
[0239]
In this way, when the information within the designated range on the Web page is fetched, the control unit (CPU) 11 reads the URL stored in the Web memory 17n at a predetermined timing, and accesses the site based on the URL. Then, information within the designated range is searched (steps S18 to S20). Then, the control unit (CPU) 11 compares the information obtained at this time with the existing information in the Web memory 17n of the RAM 17 (step S21), and determines whether or not both are the same (step S22). ). If they are the same (Yes in step S21), the information is not updated, and the control unit (CPU) 11 waits for the next update time without doing anything.
[0240]
On the other hand, if they are not the same (No in step S21), it means that the information has been updated, and the control unit (CPU) 11 fetches the updated information, and obtains the information shown in FIGS. ) Is displayed on a predetermined screen (step S23), and the updated information is stored in the Web memory 17n of the RAM 17 (step S24). In this case, the latest information is always retained by overwriting the previous information.
[0241]
As described above, according to the function 19 of the present apparatus, when a part of information on a Web page is fetched by specifying a range and the information is updated, the updated information is newly fetched and displayed on the screen. Can be displayed.
[0242]
(Function 20)
Next, the function 20 provided in the present apparatus will be described with reference to FIGS. FIG. 42 is a display example regarding the function 20 of the present apparatus, and FIG. 43 is a flowchart regarding the function 20.
[0243]
In the function 20, by specifying a range of the operation panel displayed on the screen, a button existing in the specified range is recognized, and a function corresponding to the button is executed. Normally, a software operation panel displayed on a computer screen executes a process corresponding to the selected button by selectively clicking each button provided on the operation panel with a mouse pointer or the like. I have. However, for example, when the button is small, it may be difficult to click with a mouse pointer or the like. Thus, in the present function 20, a range is specified on the operation panel, and buttons existing within the range can be automatically input. When a plurality of buttons on the operation panel exist within the specified range, the input operation of the plurality of buttons can be performed by specifying the order of inputting the buttons later.
[0244]
More specifically, it is assumed that an operation panel 211 corresponding to some function (an audio function in this example) is displayed on the screen as shown in FIG. The operation panel 211 is provided with a plurality of buttons 212, 213, and 214. Here, when the user designates a range on the operation panel 211 with a mouse pointer or the like, a button existing within the designated range 215 is recognized, and a process corresponding to the button is executed. When a plurality of buttons are present in the designated range 215, a button input order designation screen 216 is displayed as shown in FIG. 42 (c). The order can be specified. In the example of FIG. 42 (c), it is specified that input is performed in the order of "volume button" and "tune skip button". The “volume button” is specified including the operation direction. For example, when the “right” direction is designated, the volume is adjusted to be increased by a predetermined amount.
[0245]
When the input operation is performed on the buttons within the designated range 215 as described above, the state of the operation panel 211 changes according to the input operation at that time, as shown in FIG.
[0246]
Hereinafter, the processing operation of the present apparatus for realizing such a function 20 will be described with reference to the flowchart of FIG. FIG. 43 (a) shows a process related to the function 20 executed by the control unit (CPU) 11 of the present apparatus, and FIG. 43 (b) shows a user operation procedure for the present apparatus.
[0247]
When the user turns on the apparatus by pressing the ON key k1 provided on the key input section 12 (step UT11), the control section (CPU) 11 provided on the apparatus detects the ON signal to detect the ON signal. After executing a predetermined start-up process and displaying, for example, a menu screen (not shown), the process waits for an event input from the user (step T11).
[0248]
Here, when the user instructs activation of the operation panel display function provided in the apparatus by pressing the operation panel display key k15 provided in the key input unit 12 (step UT12), the control unit (CPU) 11 activates the activation. By detecting the command (step T12), an operation panel (software operation panel) provided with a plurality of buttons is displayed on the screen of the liquid crystal display unit 13 (step T13). FIG. 42A shows a display example of the operation panel.
[0249]
Subsequently, the user operates the pen 14a or a mouse (not shown) on the operation panel displayed on the screen, and as shown in FIG. When the range is specified so as to surround the part (step T13), the control unit (CPU) 11 detects the X and Y coordinates of the specified range (step T14), and exists within the specified range based on the coordinate information. The type of the button is determined (step T15), and a process corresponding to the button is executed (step T19).
[0250]
If there are a plurality of buttons on the operation panel within the specified range (Yes in step T16), the control unit (CPU) 11 sets the button input order specifying screen as shown in FIG. 216 is displayed, and the input order of these buttons is designated by the user (step T18). When the user specifies the input order for each button through the key input unit 12 (step UT14), the control unit (CPU) 11 rearranges the operation procedure according to the specified input order (step T18), and corresponds to each button. The processing is executed sequentially (step T19). In the example shown in FIG. 42 (c), input is specified in the order of “volume button” and “tune skip button”.
[0251]
As described above, according to the function 20 of the present apparatus, it is possible to specify the range of the operation panel displayed on the screen and input the buttons on the operation panel existing within the specified range. Even if the display of each button is small and it is difficult to click with the mouse pointer etc., it is possible to input each button on the operation panel with a simple operation just specifying the range on the screen it can.
[0252]
Note that the method described in the above-described embodiment, that is, each process related to the functions 1 to 20 provided in the present apparatus is a program that can be executed by a computer, such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk, It is also possible to write the program on a recording medium such as a CD-ROM or a DVD or a semiconductor memory and apply the program to various devices, or to transmit the program itself by a transmission medium such as a network and apply the program to various devices. A computer that realizes the present apparatus reads a program recorded on a recording medium 20 as shown in FIG. 1 by a recording medium reading unit 19, or reads a program provided via a transmission medium such as a network into a communication control unit 21. , And the various processes described above are executed by controlling the operation by the program.
[0253]
【The invention's effect】
As described above, according to the present invention, an image displayed on a screen is captured by specifying a range, and at that time, the image including the meaning of the image is captured, so that the image can be used in various applications.
[0254]
That is, by specifying a range on the screen on which the circuit diagram is displayed, an image of the circuit diagram within the specified range can be captured together with information on each element constituting the circuit diagram. Thus, the captured circuit image can be recognized as a circuit and used for circuit creation.
[0255]
Further, when a circuit image captured from the screen is pasted on another circuit image, a new circuit image can be created by connecting both circuit images according to the pasting position. Therefore, the circuit can be easily created using the circuit image without the need for a troublesome editing operation such as changing the circuit wiring on the screen.
[0256]
Further, the names of the elements specified by the user can be displayed in the circuit image captured from the screen.
[0257]
Also, editing can be performed arbitrarily, such as adding elements to the circuit image captured from the screen.
[0258]
For example, by acquiring an image of a circuit element from a website or the like, the image of the circuit element can be captured together with information on the element, and the element image is converted into a predetermined symbol used on a circuit diagram. It can be used for pasting in circuit diagrams.
[0259]
Also, by specifying a range of a part of the graph displayed on the screen, the image information of the graph existing within the specified range can be captured together with the mathematical formula of the graph, and the captured graph image is converted to another graph. You can create a new graph by pasting it on the image or check the mathematical formula of the created graph.
[0260]
Also, by specifying the z-coordinates of a plurality of graph images, a 3D graph can be created by combining these graph images with the z-coordinates.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an information processing apparatus according to the present invention.
FIG. 2 is a view showing a display example for specifically explaining processing relating to a function 1 provided in the information processing apparatus.
FIG. 3 is a flowchart showing a processing operation relating to a function 1 provided in the information processing apparatus.
FIG. 4 is an exemplary view showing a display example for specifically explaining processing relating to a function 2 provided in the information processing apparatus.
FIG. 5 is a flowchart showing a processing operation relating to a function 2 provided in the information processing apparatus.
FIG. 6 is a view showing a display example for specifically explaining processing relating to a function 3 provided in the information processing apparatus.
FIG. 7 is a flowchart showing a processing operation related to a function 3 provided in the information processing apparatus.
FIG. 8 is a view showing a display example for specifically explaining processing relating to a function 4 provided in the information processing apparatus.
FIG. 9 is a flowchart showing a processing operation relating to a function 4 provided in the information processing apparatus.
FIG. 10 is an exemplary view showing a display example for specifically describing processing relating to a function 5 provided in the information processing apparatus.
FIG. 11 is a flowchart showing a processing operation related to a function 5 provided in the information processing apparatus.
FIG. 12 is a view showing a display example for specifically explaining processing relating to a function 6 provided in the information processing apparatus.
FIG. 13 is a flowchart showing a processing operation relating to a function 6 provided in the information processing apparatus.
FIG. 14 is a view showing a display example for specifically explaining processing relating to a function 7 provided in the information processing apparatus.
FIG. 15 is a flowchart showing a processing operation relating to a function 7 provided in the information processing apparatus.
FIG. 16 is a view showing a display example for specifically explaining processing relating to a function 8 provided in the information processing apparatus.
FIG. 17 is a flowchart showing a processing operation regarding a function 8 provided in the information processing apparatus.
FIG. 18 is a view showing a display example for specifically explaining processing relating to a function 9 provided in the information processing apparatus.
FIG. 19 is a flowchart showing a processing operation related to a function 9 provided in the information processing apparatus.
FIG. 20 is an exemplary view showing a display example for specifically describing processing relating to a function 10 provided in the information processing apparatus.
FIG. 21 is a flowchart showing a processing operation relating to a function 10 provided in the information processing apparatus.
FIG. 22 is a view showing a display example for specifically explaining processing relating to a function 11 provided in the information processing apparatus.
FIG. 23 is a flowchart showing a processing operation (data recording processing) relating to a function 11 provided in the information processing apparatus.
FIG. 24 is a flowchart showing a processing operation (data call processing) relating to a function 11 provided in the information processing apparatus.
FIG. 25 is a view showing a display example for specifically explaining processing relating to a function 12 provided in the information processing apparatus.
FIG. 26 is a flowchart showing a processing operation (data recording processing) related to a function 12 provided in the information processing apparatus.
FIG. 27 is a flowchart showing a processing operation (data calling processing) relating to a function 12 provided in the information processing apparatus.
FIG. 28 is a view showing a display example for specifically explaining processing relating to a function 13 provided in the information processing apparatus.
FIG. 29 is a flowchart showing a processing operation relating to a function 13 provided in the information processing apparatus.
FIG. 30 is a view showing a display example for specifically explaining processing relating to a function 14 provided in the information processing apparatus.
FIG. 31 is a flowchart showing a processing operation related to a function 14 provided in the information processing apparatus.
FIG. 32 is a view showing a display example for specifically explaining processing relating to a function 15 provided in the information processing apparatus.
FIG. 33 is a flowchart showing a processing operation related to a function 15 provided in the information processing apparatus.
FIG. 34 is a view showing a display example for specifically explaining processing relating to a function 16 provided in the information processing apparatus.
FIG. 35 is a flowchart showing a processing operation related to a function 16 provided in the information processing apparatus.
FIG. 36 is a view showing a display example for specifically explaining processing relating to a function 17 provided in the information processing apparatus.
FIG. 37 is a flowchart showing a processing operation relating to a function 17 provided in the information processing apparatus.
FIG. 38 is a view showing a display example for specifically explaining processing relating to a function 18 provided in the information processing apparatus.
FIG. 39 is a flowchart showing a processing operation relating to a function 18 provided in the information processing apparatus.
FIG. 40 is a view showing a display example for specifically explaining processing relating to a function 19 provided in the information processing apparatus.
FIG. 41 is a flowchart showing a processing operation relating to a function 19 provided in the information processing apparatus.
FIG. 42 is a view showing a display example for specifically explaining processing relating to a function 20 provided in the information processing apparatus.
FIG. 43 is a flowchart showing a processing operation related to a function 20 provided in the information processing apparatus.
[Explanation of symbols]
11 Control unit (CPU)
12 Key input section
12a ... data input key
12b ... Cursor key
12c… Mode key
k1 to k15 ... various keys
13 liquid crystal display
14 ... Tablet
15 Position detection circuit
16 ... ROM
17 ... RAM
17a ... display buffer
17b ... Circuit memory
17c: Element symbol table
17d… Chemical substance memory
17e ... Chemical substance symbol table
17f: Textbook memory
17g ... Graph memory
17h ... TV memory
17i ... Image memory
17j: Comment memory
17k ... balloon memory
17l… Recording memory
17m: Schedule memory
17n: Web memory
18. Display drive circuit
19: recording medium reading unit
20: Recording medium
21 Communication control unit
22 ... Interface
23 ... TV tuner
24 ... Recording device

Claims (15)

画面上に回路図を表示する表示手段と、
この表示手段によって表示された回路図の一部を範囲指定する範囲指定手段と、
この範囲指定手段によって指定された範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む画像取込み手段と、
この画像取込み手段によって取り込まれた回路画像と素子情報とを関連付けて記憶する記憶手段と
を具備したことを特徴とする情報処理装置。
Display means for displaying a circuit diagram on a screen,
Range designating means for designating a part of the circuit diagram displayed by the display means;
Image capturing means for capturing image information of a circuit diagram present in a range specified by the range specifying means together with information on elements included in the circuit diagram;
An information processing apparatus comprising: a storage unit that stores a circuit image and element information that are captured by the image capturing unit in association with each other.
画面上に回路図を表示する表示手段と、
この表示手段によって表示された回路図の一部を範囲指定する範囲指定手段と、
この範囲指定手段によって指定された範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む画像取込み手段と、
この画像取込み手段によって取り込まれた回路画像と素子情報とを関連付けて記憶する記憶手段と、
この記憶手段に記憶された回路画像を別の回路画像に張り付ける回路張付け手段と、
この回路張付け手段によって張り付けられた回路画像を前記記憶手段に記憶された素子情報に基づいて前記別の回路画像に結線して新たな回路画像を作成する回路作成手段と
を具備したことを特徴とする情報処理装置。
Display means for displaying a circuit diagram on a screen,
Range designating means for designating a part of the circuit diagram displayed by the display means;
Image capturing means for capturing image information of a circuit diagram present in a range specified by the range specifying means together with information on elements included in the circuit diagram;
Storage means for associating and storing the circuit image and element information captured by the image capturing means,
Circuit attaching means for attaching the circuit image stored in the storage means to another circuit image;
Circuit creating means for creating a new circuit image by connecting the circuit image attached by the circuit attaching means to the another circuit image based on the element information stored in the storage means. Information processing device.
画面上に回路図を表示する表示手段と、
この表示手段によって表示された回路図の一部を範囲指定する範囲指定手段と、
この範囲指定手段によって指定された範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む画像取込み手段と、
この画像取込み手段によって取り込まれた回路画像と素子情報とを関連付けて記憶する記憶手段と、
この記憶手段に記憶された回路画像を呼び出して画面上に表示する回路画像呼出し手段と、
この回路画像呼出し手段によって呼び出された回路画像の中の任意の素子を指定する素子指定手段と、
この素子指定手段によって指定された素子の名称を前記記憶手段に記憶された素子情報に基づいて判別し、その素子名を表示する素子名表示手段と
を具備したことを特徴とする情報処理装置。
Display means for displaying a circuit diagram on a screen,
Range designating means for designating a part of the circuit diagram displayed by the display means;
Image capturing means for capturing image information of a circuit diagram present in a range specified by the range specifying means together with information on elements included in the circuit diagram;
Storage means for associating and storing the circuit image and element information captured by the image capturing means,
Circuit image calling means for calling the circuit image stored in the storage means and displaying it on the screen;
Element designating means for designating an arbitrary element in the circuit image called by the circuit image calling means;
An information processing apparatus comprising: an element name display unit that determines a name of an element designated by the element designation unit based on element information stored in the storage unit and displays the element name.
前記記憶手段に記憶された回路画像を呼び出して画面上に表示する回路画像呼出し手段と、
この回路画像呼出し手段によって呼び出された回路画像を編集する編集手段と、
この編集手段によって編集された回路画像を新たな回路画像として前記記憶手段に格納する回路画像更新手段と
を具備したことを特徴とする請求項1乃至3のいずれかに記載の情報処理装置。
A circuit image calling unit for calling a circuit image stored in the storage unit and displaying the circuit image on a screen;
Editing means for editing the circuit image called by the circuit image calling means;
4. The information processing apparatus according to claim 1, further comprising a circuit image updating unit that stores the circuit image edited by the editing unit as a new circuit image in the storage unit.
外部から回路素子を含んだ特定の画像を取得する画像取得手段と、
この画像取得手段によって取得された画像を画面上に表示する表示手段と、
この表示手段によって表示された画像の一部を範囲指定する範囲指定手段と、
この範囲指定手段によって指定された範囲内に存在する回路素子の画像情報を当該素子に関する情報と共に取り込む画像取込み手段と、
この画像取込み手段によって取り込まれた素子画像と素子情報とを関連付けて記憶する記憶手段と
を具備したことを特徴とする情報処理装置。
Image acquisition means for acquiring a specific image including a circuit element from the outside,
Display means for displaying an image acquired by the image acquisition means on a screen;
Range designating means for designating a range of a part of the image displayed by the display means;
Image capturing means for capturing image information of a circuit element present in a range specified by the range specifying means together with information on the element;
An information processing apparatus comprising: a storage unit configured to store the element image and the element information captured by the image capturing unit in association with each other.
前記記憶手段に記憶された素子画像を回路図上で用いられる所定の記号に変換して表示する素子記号表示手段を具備したことを特徴とする請求項5記載の情報処理装置。6. The information processing apparatus according to claim 5, further comprising element symbol display means for converting the element image stored in the storage means into a predetermined symbol used on a circuit diagram and displaying the symbol. 画面上にグラフを表示する表示手段と、
この表示手段によって表示されたグラフの一部を範囲指定する範囲指定手段と、
この範囲指定手段によって指定された範囲内に存在するグラフの画像情報を当該グラフの数式と共に取り込む画像取込み手段と、
この画像取込み手段によって取り込まれたグラフ画像とそのグラフ式とを関連付けて記憶する記憶手段と
を具備したことを特徴とする情報処理装置。
Display means for displaying a graph on a screen;
Range designating means for designating a range of a part of the graph displayed by the display means;
Image capturing means for capturing image information of a graph existing within the range specified by the range specifying means together with a mathematical expression of the graph;
An information processing apparatus comprising: a storage unit that stores a graph image captured by the image capturing unit and a graph formula thereof in association with each other.
前記記憶手段に記憶されたグラフ画像を別のグラフ画像に張り付けるグラフ張付け手段と、
このグラフ張付け手段による張り付け位置に応じて両者のグラフ画像を合成して新たなグラフ画像を作成するグラフ作成手段と、
このグラフ作成手段によって作成されたグラフ画像に対応した数式を算出するグラフ式算出手段と
を具備したことを特徴とする請求項7記載の情報処理装置。
Graph pasting means for pasting the graph image stored in the storage means to another graph image,
A graph creating unit that combines the two graph images according to the attaching position by the graph attaching unit to create a new graph image;
8. The information processing apparatus according to claim 7, further comprising: a graph formula calculating unit that calculates a mathematical formula corresponding to the graph image created by the graph creating unit.
複数のグラフ画像を記憶した記憶手段と、
この記憶手段から合成対象として指定された少なくとも2つ以上のグラフ画像をそれぞれ呼び出して画面上に表示するグラフ呼出し手段と、
このグラフ呼出し手段によって呼び出された各グラフ画像のz座標を指定する座標指定手段と、
この座標指定手段によって指定されたz座標に基づいて各グラフ画像を合成して3Dグラフを作成するグラフ作成手段と
を具備したことを特徴とする情報処理装置。
Storage means for storing a plurality of graph images;
A graph calling means for calling at least two or more graph images designated as a synthesis target from the storage means and displaying them on a screen,
Coordinate specifying means for specifying the z coordinate of each graph image called by the graph calling means;
An information processing apparatus comprising: a graph creating unit that creates a 3D graph by combining each graph image based on the z coordinate specified by the coordinate specifying unit.
表示装置および記憶装置を備えたコンピュータに用いられる画像取込みプログラムであって、
前記コンピュータに、
前記表示装置の画面上に回路図を表示する機能と、
前記回路図の一部が範囲指定された際に、その指定範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む機能と、
この回路画像と素子情報とを関連付けて前記記憶装置に格納する機能と
を実行させるための画像取込みプログラム。
An image capture program used in a computer including a display device and a storage device,
To the computer,
A function of displaying a circuit diagram on a screen of the display device;
When a part of the circuit diagram is designated as a range, a function of capturing image information of the circuit diagram present in the designated range together with information on elements included in the circuit diagram,
An image capturing program for executing a function of associating the circuit image with the element information and storing the circuit image in the storage device.
表示装置および記憶装置を備えたコンピュータに用いられる画像取込みプログラムであって、
前記コンピュータに、
前記表示装置の画面上に回路図を表示する機能と、
前記回路図の一部が範囲指定された際に、その指定範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む機能と、
この回路画像と素子情報とを関連付けて前記記憶装置に格納する機能と
前記記憶装置に格納された回路画像を別の回路画像に張り付ける機能と、
この張り付けられた回路画像を前記記憶装置に格納された素子情報に基づいて前記別の回路画像に結線して新たな回路画像を作成する機能と
を実行させるための画像取込みプログラム。
An image capture program used in a computer including a display device and a storage device,
To the computer,
A function of displaying a circuit diagram on a screen of the display device;
When a part of the circuit diagram is designated as a range, a function of capturing image information of the circuit diagram present in the designated range together with information on elements included in the circuit diagram,
A function of associating the circuit image with the element information and storing the circuit image in the storage device, and a function of pasting the circuit image stored in the storage device to another circuit image;
An image capturing program for executing a function of connecting the attached circuit image to the another circuit image based on the element information stored in the storage device to create a new circuit image.
表示装置および記憶装置を備えたコンピュータに用いられる画像取込みプログラムであって、
前記コンピュータに、
前記表示装置の画面上に回路図を表示する機能と、
前記回路図の一部が範囲指定された際に、その指定範囲内に存在する回路図の画像情報を当該回路図に含まれる素子に関する情報と共に取り込む機能と、
この回路画像と素子情報とを関連付けて前記記憶装置に格納する機能と
前記記憶装置に格納された回路画像を呼び出して画面上に表示する機能と、
この呼び出された回路画像の中の任意の素子が指定された際に、その素子の名称を前記記憶装置に格納された素子情報に基づいて判別して表示する機能と
を実行させるための画像取込みプログラム。
An image capture program used in a computer including a display device and a storage device,
To the computer,
A function of displaying a circuit diagram on a screen of the display device;
When a part of the circuit diagram is designated as a range, a function of capturing image information of the circuit diagram present in the designated range together with information on elements included in the circuit diagram,
A function of associating the circuit image with the element information and storing the same in the storage device, a function of calling the circuit image stored in the storage device and displaying the circuit image on a screen,
When an arbitrary element in the called circuit image is designated, a function of determining and displaying the name of the element based on the element information stored in the storage device is executed. program.
表示装置および記憶装置を備えたコンピュータに用いられる画像取込みプログラムであって、
前記コンピュータに、
外部から回路素子を含んだ特定の画像を取得する機能と、
この取得された画像を前記表示装置の画面上に表示する機能と、
前記画像の一部が範囲指定された際に、その指定範囲内に存在する回路素子の画像情報を当該素子に関する情報と共に取り込む機能と、
この素子画像と素子情報とを関連付けて前記記憶装置に格納する機能と
を実行させるための画像取込みプログラム。
An image capture program used in a computer including a display device and a storage device,
To the computer,
A function of acquiring a specific image including a circuit element from the outside,
A function of displaying the obtained image on a screen of the display device,
When a part of the image is specified as a range, a function of capturing image information of circuit elements existing in the specified range together with information on the element,
An image capturing program for executing a function of associating the element image with the element information and storing the element image in the storage device.
表示装置および記憶装置を備えたコンピュータに用いられる画像取込みプログラムであって、
前記コンピュータに、
前記表示装置の画面上にグラフを表示する機能と、
前記グラフの一部が範囲指定された際に、その指定範囲内に存在するグラフのの画像情報を当該グラフの数式と共に取り込む機能と、
このグラフ画像とそのグラフ式とを関連付けて前記記憶装置に格納する機能と
を実行させるための画像取込みプログラム。
An image capture program used in a computer including a display device and a storage device,
To the computer,
A function of displaying a graph on a screen of the display device;
When a part of the graph is specified as a range, a function of capturing image information of a graph existing within the specified range together with a mathematical expression of the graph,
An image capturing program for executing a function of associating the graph image with the graph formula and storing the graph image in the storage device.
表示装置および記憶装置を備えたコンピュータに用いられる画像取込みプログラムであって、
前記コンピュータに、
前記記憶装置に記憶された複数のグラフ画像の中で合成対象として指定された少なくとも2つ以上のグラフ画像をそれぞれ呼び出して前記記憶装置の画面上に表示する機能と、
これらのグラフ画像のz座標を指定させ、その指定されたz座標に基づいて各グラフ画像を合成して3Dグラフを作成する機能と
を実行させるための画像取込みプログラム。
An image capture program used in a computer including a display device and a storage device,
To the computer,
A function of calling at least two or more graph images designated as a synthesis target among a plurality of graph images stored in the storage device and displaying the graph images on a screen of the storage device,
An image capturing program for causing the user to specify the z-coordinate of these graph images, and combine the respective graph images based on the specified z-coordinate to create a 3D graph.
JP2002249085A 2002-08-28 2002-08-28 Information processing apparatus and image incorporation program Pending JP2004086722A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002249085A JP2004086722A (en) 2002-08-28 2002-08-28 Information processing apparatus and image incorporation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002249085A JP2004086722A (en) 2002-08-28 2002-08-28 Information processing apparatus and image incorporation program

Publications (1)

Publication Number Publication Date
JP2004086722A true JP2004086722A (en) 2004-03-18

Family

ID=32056297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002249085A Pending JP2004086722A (en) 2002-08-28 2002-08-28 Information processing apparatus and image incorporation program

Country Status (1)

Country Link
JP (1) JP2004086722A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053595A (en) * 2010-08-31 2012-03-15 Brother Ind Ltd Image formation control program and image processing system
KR20230068672A (en) * 2021-11-11 2023-05-18 금오공과대학교 산학협력단 Automatic recognition of electronic circuit diagram image and netlist conversion method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053595A (en) * 2010-08-31 2012-03-15 Brother Ind Ltd Image formation control program and image processing system
US8826161B2 (en) 2010-08-31 2014-09-02 Brother Kogyo Kabushiki Kaisha Image forming control method and image processing apparatus
KR20230068672A (en) * 2021-11-11 2023-05-18 금오공과대학교 산학협력단 Automatic recognition of electronic circuit diagram image and netlist conversion method
KR102595789B1 (en) * 2021-11-11 2023-10-27 금오공과대학교 산학협력단 Automatic recognition of electronic circuit diagram image and netlist conversion method

Similar Documents

Publication Publication Date Title
CN110769309B (en) Method, device, electronic equipment and medium for displaying music points
US11818424B2 (en) Method and apparatus for generating video, electronic device, and computer readable medium
US11301877B2 (en) Providing analysis of perception data over time for events
CN112422831A (en) Video generation method and device, computer equipment and storage medium
JP4255985B2 (en) Composition support device, composition support system, phrase-based composition support method, and information processing program
CN106790940B (en) Recording method, recording playing method, device and terminal
CN105022687B (en) The implementation method and device of slide in automatic test scheme
KR20150144264A (en) Tag creation method, device and terminal
CN109525884A (en) Video paster adding method, device, equipment and storage medium based on split screen
CN104038774B (en) Generate the method and device of ring signal file
US9886403B2 (en) Content output device for outputting content
CN113556484B (en) Video processing method, video processing device, electronic equipment and computer readable storage medium
US10262640B2 (en) Musical performance support device and program
JP2011253389A (en) Terminal and reply information creation program for pseudo conversation
CN105187788B (en) A kind of method and system of analog machine real-time data record and displaying
CN105095163A (en) Web page editing method and device
JP2004086722A (en) Information processing apparatus and image incorporation program
KR20180130767A (en) Learning apparatus and method capable of interacting between studying blcok and moving contents block in mobile terminal
CN104991857B (en) Trace debug method and device
JP2004118555A (en) Information processor
JP2007233443A (en) Item selection method, item selection device, and item selection program
US20180374248A1 (en) Data processing method and data processing device
Naderi et al. Crowdee: mobile crowdsourcing micro-task platform for celebrating the diversity of languages
US20040141053A1 (en) Network camera system
CN106506342A (en) Information replicates method of attaching and terminal