JP3760510B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP3760510B2
JP3760510B2 JP15382196A JP15382196A JP3760510B2 JP 3760510 B2 JP3760510 B2 JP 3760510B2 JP 15382196 A JP15382196 A JP 15382196A JP 15382196 A JP15382196 A JP 15382196A JP 3760510 B2 JP3760510 B2 JP 3760510B2
Authority
JP
Japan
Prior art keywords
display
information
image
displayed
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15382196A
Other languages
Japanese (ja)
Other versions
JPH104534A (en
Inventor
聡 江島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP15382196A priority Critical patent/JP3760510B2/en
Publication of JPH104534A publication Critical patent/JPH104534A/en
Application granted granted Critical
Publication of JP3760510B2 publication Critical patent/JP3760510B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置に関し、特に、被写体の画像または音声、あるいは線画などの情報を記録または再生する情報処理装置に関する。
【0002】
【従来の技術】
従来の電子カメラ等において、個人情報をその個人の画像と共に記録し、管理する場合、画像と個人情報の表示形式(サイズ)は予め決定されていた。
【0003】
【発明が解決しようとする課題】
このような従来の電子カメラでは、1画面内に多くの個人情報を表示させるように設計すると、画像のサイズが小さくなり、人物の特徴が把握しにくくなるという課題があった。
【0004】
また、逆に、画像を大きく表示するように設計すると、個人情報の表示領域が狭くなり、その結果、表示可能な個人情報が限定されるという課題があった。
【0005】
そこで、個人情報を複数の画面に分けて表示するようにすると、画面の表示切り換え操作が必要となり、操作が煩雑となるという課題があった。
【0006】
本発明は、このような状況に鑑みてなされたものであり、個人情報をその個人の画像と共に記録し、再生する場合に、ユーザにとって最適な形式で表示することを可能とするものである。
【0007】
【課題を解決するための手段】
請求項1に記載の情報処理装置は、被写体からの光を入射する入射手段と、入射手段により得られた光を画像信号に変換する変換手段と、画像信号に固有の情報を画像信号とともに記録する第1の記録手段と、所定面積の表示面を有する表示装置と、被写体の複数の属性情報を入力する入力手段と、複数の属性情報に優先順位を付与し、画像信号に関連付けて記録する第2の記録手段と、画像信号および属性情報を表示装置に表示する表示制御手段とを備え、表示制御手段は、表示装置の表示面内に画像信号を表示する表示枠を設定し、第1の記録手段により記録された画像信号を拡大もしくは縮小して表示枠内に表示し、表示枠外に表示可能な属性情報の個数を決定し、第2の記録手段により画像信号に関連付けされて記録された属性情報のうち、優先順位に従って表示個数以下の属性情報を選択し表示枠外に表示することを特徴とする。
【0008】
【発明の実施の形態】
以下、本発明の実施例を図面を参照して説明する。
【0009】
図1及び図2は、本発明を適用した電子カメラの一実施例の構成を示す斜視図である。本実施例の電子カメラにおいては、被写体を撮影する場合において、被写体に向けられる面が面X1とされ、ユーザ側に向けられる面が面X2とされている。面X1の上端部には、被写体の撮影範囲の確認に用いられるファインダ2、被写体の光画像を取り込む撮影レンズ3(入射手段)、及び、被写体を照明する場合に発光される発光部(フラッシュランプ)4が設けられている。
【0010】
一方、面X1に対向する面X2の上端部(面X1の、ファインダ2、撮影レンズ3、発光部4が形成されている部分に対向する部分)には、上記ファインダ2、及びこの電子カメラ1に記録されている音声を出力するスピーカ5が設けられている。また、面X2に形成されているLCD6(第1の表示手段、第2の表示手段、拡大縮小表示手段)および操作キー7(メニューキー7A、実行キー7B、クリアキー7C、キャンセルキー7D、およびスクロールキー7E)は、ファインダ2、撮影レンズ3、発光部4、及びスピーカ5よりも、鉛直下側に形成されている。LCD6の表面上には、後述するペン型指示装置の接触操作により、指示された位置に対応する位置データを出力する、いわゆるタッチタブレット6A(入力手段)が形成されている。
【0011】
このタッチタブレット6Aは、ガラス、樹脂等の透明な材料によって構成されており、ユーザは、タッチタブレット6Aの内側に形成されているLCD6に表示される画像を、タッチタブレット6Aを介して観察することができる。
【0012】
操作キー7は、LCD6に記録データを再生表示する場合などに操作されるキーであり、以下に示すキーによって構成されている。すなわち、メニューキー7Aは、LCD6上にメニュー画面を表示する場合に操作されるキーである。実行キー7Bは、ユーザによって選択された記録情報を再生する場合に操作されるキーである。
【0013】
クリアキー7Cは、記録した情報を削除する場合に操作されるキーである。キャンセルキー7Dは、記録情報の再生処理を中断する場合に操作されるキーである。スクロールキー7Eは、LCD6に記録情報の一覧が表示されている場合において、画面を上下方向にスクロールさせるときに操作されるキーである。
【0014】
電子カメラ1の上面である面Zには、音声を集音するマイクロホン8、及び図示せぬイヤホンが接続されるイヤホンジャック9が設けられている。
【0015】
左側面(面Y1)には、被写体を撮像するときに操作されるレリーズスイッチ10、電源スイッチ11、および、ACアダプタを接続するためのACアダプタジャック15が設けられている。
【0016】
一方、面Y1に対向する面Y2(右側面)には、音声を録音するときに操作される録音スイッチ12と、撮影時の連写モードを切り換えるときに操作される連写モード切り換えスイッチ13が設けられている。なお、録音スイッチ12は、面Y1のレリーズスイッチ10とほぼ同じ高さに形成されており、左右どちらの手で持っても、違和感のないように構成されている。
【0017】
なお、録音スイッチ12とレリーズスイッチ10の高さを、あえて異ならせることにより、一方のスイッチを押す場合に、この押圧力によるモーメントを打ち消すために反対側の側面を指で保持したとき、誤ってこの反対側の側面に設けられたスイッチが押されてしまわないようにしてもよい。
【0018】
上記連写モード切り換えスイッチ13は、ユーザがレリーズスイッチ10を押して被写体を撮影するとき、被写体を1コマだけ撮影するのか、または、所定の複数コマ撮影するのかを設定する場合に用いられる。例えば、連写モード切り換えスイッチ13の指針が「S」と印刷された位置に切り換えられている(すなわち、Sモードに切り換えられている)場合において、レリーズスイッチ10が押されると、1コマだけ撮影が行われるようになされている。
【0019】
また、連写モード切り換えスイッチ13の指針が「L」と印刷された位置に切り換えられている(すなわち、Lモードに切り換えられている)場合において、レリーズスイッチ10が押されると、レリーズスイッチ10の押されている期間中、1秒間に8コマの撮影が行われるようになされている(すなわち、低速連写モードになる)。
【0020】
さらに、連写モード切り換えスイッチ13の指針が「H」と印刷された位置に切り換えられている(すなわち、Hモードに切り換えられている)場合において、レリーズスイッチ10が押されると、レリーズスイッチ10の押されている期間中、1秒間に30コマの撮影が行われるようになされている(すなわち、高速連写モードになる)。
【0021】
次に、電子カメラ1の内部の構成について説明する。図3は、図1及び図2に示す電子カメラの内部の構成例を示す斜視図である。CCD20(変換手段)は、撮影レンズ3の後段(面X2側)に設けられており、撮影レンズ3を介して結像する被写体の光画像を電気信号に光電変換するようになされている。
【0022】
LCD6の鉛直下側には、円柱形状の4本のバッテリ(単3型乾電池)21が縦に並べられており、このバッテリ21が発生する電力が装置の各部に供給される。また、発光部4を発光させるための電荷を蓄積しているコンデンサ22は、バッテリ21と並べて配置されている。
【0023】
回路基板23には、この電子カメラ1の各部を制御する種々の制御回路が形成されている。また、回路基板23と、LCD6及びバッテリ21の間には、挿抜可能なメモリカード24が設けられており、この電子カメラ1に入力される各種の情報が、メモリカード24の予め設定されている領域に記録される。
【0024】
なお、本実施例においては、メモリカード24は挿抜可能とされているが、回路基板23上にメモリを設け、そのメモリに各種情報を記録するようにしてもよい。また、メモリ(メモリカード24)に記録されている各種情報を、図示せぬインタフェースを介して外部のパーソナルコンピュータに出力することができるようにしてもよい。
【0025】
次に、本実施例の電子カメラ1の内部の電気的構成を、図4のブロック図を参照して説明する。レンズ駆動回路30は、CPU36(第1の表示手段、第2の表示手段、拡大縮小表示手段)に制御され、撮影レンズ3を同じく光軸方向に移動させ、オートフォーカスを実行する。複数の画素を備えているCCD20は、各画素に結像した光画像を画像信号(電気信号)に光電変換するようになされている。また、CCD駆動回路39は、ディジタルシグナルプロセッサ(以下、DSPという)33に制御され、CCD20を駆動するようになされている。
【0026】
画像処理部31は、CCD20が光電変換した画像信号を所定のタイミングで相関二重サンプリングすると共に、オートゲインコントロールにより、サンプリングされた画像信号の信号値が最適となるよう制御する。アナログ/ディジタル変換回路(以下、A/D変換回路という)32は、画像処理部31でサンプリングした画像信号をディジタル化してDSP33に供給するようになされている。
【0027】
DSP33は、ディジタル化された画像信号に後述する所定の処理を施し、圧縮伸長回路およびメモリコントローラ(以下、圧縮伸長回路と略記する)34に供給する。圧縮伸長回路34は、DSP33から供給された画像信号(以下、単に撮影画像データという)を圧縮し、CPU36の制御に応じて、メモリカード24の所定の領域(撮影画像記録領域)に格納するようになされている。
【0028】
タイマ45は、撮影した日時の情報を画像データのヘッダ情報として、メモリカード24の撮影画像記録領域に記録するようになされている(すなわち、メモリカード24の撮影画像記録領域に記録される撮影画像データには、撮影日時のデータが付随している)。
【0029】
マイクロホン8は、音声を入力し(音声を集音し)、対応する電気信号に変換して音声IC(Integrated Ciruit)38に供給する。音声IC38は、入力された音声信号をA/D変換するとともに、ADPCM(Adaptive Differential Pulse Code Modulation)による圧縮処理を施し、CPU制御バスを介してCPU36に供給する。
【0030】
CPU36は、ディジタル化されて圧縮された音声データをCPU制御バスを介してメモリカード24の所定の領域(音声記録領域)に記録するようになされている。また、このとき、メモリカード24の音声記録領域には、録音日時のデータが音声データのヘッダ情報として記録されるようになされている。
【0031】
ユーザの操作するペン型指示装置(以下、ペンと略記する)46によってタッチタブレット6Aの所定の位置が押圧されると、CPU36は、タッチタブレット6Aの押圧された位置のX−Y座標を読み取り、その座標データ(後述する線画情報)をバッファメモリ35に格納するようになされている。また、CPU36は、バッファメモリ35に格納された線画情報を、線画情報入力日時のヘッダ情報とともに、メモリカード24の線画情報記録領域に記録するようになされている。
【0032】
フレームメモリ47は、CPU制御バスを介して送られてきた画像データを記憶し、LCD6に表示するようになされている。但し、圧縮処理が施された撮影画像データは、一旦、圧縮伸長回路34に入力され、そこで、伸長されてからフレームメモリ47に供給されるようになされている。
【0033】
更に、メモリカード24から出力された音声データは、音声IC38によりディジタル/アナログ変換(以下、D/A変換という)が施され、アナログ信号に変換された後、スピーカ5に供給され、音声として出力されるようになされている。
【0034】
フラッシュランプ駆動回路41は、CPU36によって制御され、発光部4に内蔵されているフラッシュランプ42を駆動するようになされている。また、赤目軽減ランプ駆動回路43は、同様に、CPU36によって制御され、発光部4に内蔵されている赤目軽減ランプ44を駆動するようになされている。なお、この赤目軽減ランプ44は、フラッシュランプ42が点灯される直前に発光されるようになされており、これにより被写体となる人物の瞳孔が閉じられるので、撮影された画像中の人物の目が赤くなる、いわゆる赤目を軽減することができる。
【0035】
検出回路40は、バッテリ21の電圧を対応するディジタル信号に変換し、CPU36に供給する。CPU36は、検出回路40から供給されるディジタル信号により、バッテリ21の残量を検知することができる。
【0036】
次に、本実施例の電子カメラ1の各種動作について説明する。
【0037】
まず、本装置の音声情報の入出力処理(但し、音声情報のみの入出力処理)について説明する。
【0038】
電源スイッチ11が操作されることにより電子カメラ1に電源が投入された後、面Y2に設けられている録音スイッチ12が押されると、音声の録音処理(音声情報の入力処理)が開始される。音声情報はマイクロホン8を介して入力され、音声IC38によりA/D変換と圧縮処理が施された後、CPU36に供給される。
【0039】
CPU36に供給された音声データは、メモリカード24に供給され、音声記録領域に記録される。このとき、メモリカード24の音声記録領域には、録音日時のデータが、ヘッダ情報として記録される。このような動作が、録音スイッチ12を押圧している期間中、連続して行われる。
【0040】
なお、この場合における音声は、ADPCM方式で圧縮されるようにしたが、他の圧縮方式を用いるようにしてもよい。
【0041】
次に、本実施例による被写体の撮影時の動作について説明する。
【0042】
第1に、面Y2に設けられている連写モード切り換えスイッチ13が、Sモード(1コマだけ撮影を行うモード)に切り換えられている場合について説明する。最初に、面Y1に設けられている電源スイッチ11をユーザが操作することにより、電子カメラ1に電源を投入する。ファインダ2で被写体を確認し、面Y1に設けられているレリーズスイッチ10を押すと、被写体の撮影処理が開始される。
【0043】
ファインダ2で観察される被写体の光画像が撮影レンズ3によって集光され、複数の画素を備えるCCD20上に結像する。CCD20に結像した被写体の光画像は、各画素で画像信号に光電変換され、画像処理部31によってサンプリングされる。画像処理部31によってサンプリングされた画像信号は、A/D変換回路32に供給され、そこでディジタル化されてDSP33に出力される。
【0044】
DSP33は、RGB(Red Green Blue)信号から色差信号を生成する処理を行うとともに、非線形処理であるγ処理を施す。圧縮伸長回路34は、DSP33から供給された画像データを、離散的コサイン変換、量子化及びハフマン符号化を組み合わせたJPEG(Joint Photografic Experts Group)方式に従って圧縮し、メモリカード24の撮影画像記録領域に記録させる。このとき、メモリカード24の撮影画像記録領域には、撮影日時のデータが、撮影画像データのヘッダ情報として記録される。
【0045】
なお、連写モード切り換えスイッチ13がSモードに切り換えられている場合においては、1コマの撮影だけが行われ、レリーズスイッチ10が継続して押され続けても、それ以降の撮影は行われず、LCD6上に撮影された画像が表示される。
【0046】
第2に、連写モード切り換えスイッチ13がLモード(1秒間に8コマの連写を行うモード)に切り換えられている場合について説明する。電源スイッチ11を操作することにより、電子カメラ1に電源を投入し、面Y1に設けられているレリーズスイッチ10を押すと、被写体の撮影処理が開始される。
【0047】
ファインダ2で観察される被写体の光画像が撮影レンズ3によって集光され、複数の画素を備えるCCD20に結像する。CCD20に結像した被写体の光画像は画像信号に光電変換され、画像処理部31によって1秒間に8回の割合でサンプリングされる。また、このとき、画像処理部31は、CCD20の全画素のうち4分の1の画素をサンプリングする。
【0048】
すなわち、画像処理部31は、マトリクス状に配列されているCCD20の画素を、図5に示すように、2×2画素(4つの画素)の領域に分割し、各領域の所定の位置に配置されている1画素の画像信号をサンプリングし、残りの3画素を間引く。
【0049】
例えば、第1回目のサンプリング時(1コマ目)においては、各基本単位の左上の画素aがサンプリングされ、その他の画素b,c,dが間引かれる。第2回目のサンプリング時(2コマ目)においては、各基本単位の右上の画素bがサンプリングされ、その他の画素a,c,dが間引かれる。以下、第3回目、第4回目のサンプリング時においては、左下の画素c、右下の画素dが、それぞれ、サンプリングされ、その他の画素が間引かれる。つまり、各画素は4回に1回だけサンプリングされる。
【0050】
画像処理部31によってサンプリングされた画像信号(CCD20の全画素中の4分の1の画素の画像信号)は、A/D変換回路32に供給され、そこでディジタル化されてDSP33に出力される。
【0051】
DSP33は、ディジタル化された画像信号に対して前述した処理を施し、圧縮伸長回路34に出力する。圧縮伸長回路34は、画像信号に対してJPEG方式に基づく圧縮処理を施し、CPU制御バスを介して、メモリカード24の撮影画像記録領域に記録する。このとき、メモリカード24の撮影画像記録領域には、撮影日時のデータが、撮影画像データのヘッダ情報として記録される。
【0052】
第3に、連写モード切り換えスイッチ13がHモード(1秒間に30コマの連写を行うモード)に切り換えられている場合について説明する。電源スイッチ11を操作することにより、電子カメラ1の電源をONの状態にし、面Y1に設けられているレリーズスイッチ10を押すと、被写体の撮影処理が開始される。
【0053】
ファインダ2で観察される被写体の光画像が撮影レンズ3によって集光され、CCD20に結像する。複数の画素を備えるCCD20に結像した被写体の光画像は、各画素で画像信号に光電変換され、画像処理部31によって1秒間に30回の割合でサンプリングされる。また、このとき、画像処理部31は、CCD20の全画素のうち9分の1の画素をサンプリングする。
【0054】
すなわち、画像処理部31は、マトリクス状に配列されているCCD20の画素を、図6に示すように、3×3画素を1つとする領域に分割し、その1つの領域から、所定の位置に配置されている1画素の画像電気信号を、1秒間に30回の割合でサンプリングし、残りの8画素を間引く。
【0055】
例えば、第1回目のサンプリング時(1コマ目)においては、各領域の左上の画素aがサンプリングされ、その他の画素b乃至iが間引かれる。第2回目のサンプリング時(2コマ目)においては、画素aの右側に配置されている画素bがサンプリングされ、その他の画素a,c乃至iが間引かれる。以下、第3回目以降のサンプリング時においては、画素c、画素d・・・が、それぞれ、サンプリングされ、その他の画素が間引かれる。つまり、9コマ毎に各画素がサンプリングされる。
【0056】
画像処理部31によってサンプリングされた画像信号(CCD20の全画素中の9分の1の画素の画像信号)は、A/D変換回路32に供給され、そこでディジタル化されてDSP33に出力される。
【0057】
DSP33は、ディジタル化された画像信号に前述の処理を施し、圧縮伸長回路34に供給する。圧縮伸長回路34は、JPEG方式に従って画像信号に圧縮処理を施した後、タイマ45から供給される撮影日時をヘッダ情報として付加し、メモリカード24の撮影画像記録領域に記録する。
【0058】
次に、タッチタブレット6Aから2次元の線画情報(ペン入力情報)を入力する場合の動作について説明する。タッチタブレット6Aがペン46のペン先で押圧されると、接触した箇所のX−Y座標がCPU36に供給される。このX−Y座標は、バッファメモリ35に格納されるとともに、フレームメモリ47の内部の上記X−Y座標の各点に対応した箇所にデータが書き込まれ、LCD6上に表示される。
【0059】
上述したように、LCD6の表面上に形成されているタッチタブレット6Aは、透明部材によって構成されているので、ユーザは、LCD6上に表示される点(ペン46のペン先で押圧された位置の点)を観察することができ、あたかもLCD6上に直接ペン入力をしたかのように感じることができる。また、ペン46をタッチタブレット6A上で移動させると、LCD6上には、ペン46の移動に伴う線が描画される。さらに、ペン46をタッチタブレット6A上で断続的に移動させると、LCD6上には、ペン46の移動に伴う破線が表示される。以上のようにして、ユーザは、タッチタブレット6A(LCD6)から所望の文字、図形等の線画情報を入力することができる。
【0060】
また、LCD6上に撮影画像が表示されている場合において、ペン46によって線画情報が入力されると、この線画情報が、撮影画像情報とともに、フレームメモリ47で合成され、LCD6上に表示される。
【0061】
なお、ユーザは、図示せぬ色選択スイッチを操作することによって、LCD6上に表示される線画の色を、黒、白、赤、青等の色から選択することができる。
【0062】
ペン46によるタッチタブレット6Aへの線画情報の入力後、操作キー7の実行キー7Bが押されると、バッファメモリ35に格納されている線画情報が、入力日時のヘッダ情報とともにCPU制御バスを介してメモリカード24に供給され、線画情報記録領域に記録される。
【0063】
なお、メモリカード24に記録される線画情報は、圧縮処理の施された情報である。タッチタブレット6Aに入力された線画情報は空間周波数成分の高い情報を多く含んでいるので、撮影画像の圧縮に用いられる上記JPEG方式によって圧縮処理を行うと、圧縮効率が悪く、情報量を削減できないので、圧縮及び伸長に必要な時間が長くなってしまう。さらに、JPEG方式による圧縮は、非可逆圧縮であるので、情報量の少ない線画情報の圧縮には適していない(伸長してLCD6上に表示した場合、情報の欠落に伴うギャザ、にじみが際だってしまうため)。
【0064】
そこで、本実施例においては、ファックス等において用いられるランレングス法によって、線画情報を圧縮するようにしている。ランレングス法とは、線画画面を水平方向に走査し、黒、白、赤、青等の各色の情報(点)の継続する長さ、及び無情報(ペン入力のない部分)の継続する長さを符号化することにより、線画情報を圧縮する方法である。
【0065】
このランレングス法を用いることにより、線画情報を有効に圧縮することができ、また、圧縮された線画情報を伸長した場合においても、情報の欠落を抑制することが可能になる。なお、線画情報は、その情報量が比較的少ない場合には、圧縮しないようにすることもできる。
【0066】
また、上述したように、LCD6上に撮影画像が表示されている場合において、ペン入力を行うと、撮影画像データとペン入力の線画情報がフレームメモリ47で合成され、撮影画像と線画の合成画像がLCD6上に表示される。その一方で、メモリカード24においては、撮影画像データは、撮影画像記録領域に記録され、線画情報は、線画情報記録領域に記録される。このように、2つの情報が、各々異なる領域に記録されるので、ユーザは、撮影画像と線画の合成画像から、いずれか一方の画像(例えば線画)を削除することができ、さらに、各々の画像情報を個別の圧縮方法で圧縮することもできる。
【0067】
メモリカード24の音声記録領域、撮影画像記録領域、または線画情報記録領域にデータを記録した場合、図7に示すように、LCD6に所定の表示が行われる。図7に示す表示例においては、情報を記録した時点の年月日(記録年月日)(この場合、1995年8月25日)が画面の下端部に表示され、その記録年月日に記録された情報の記録時刻が画面の最も左側に表示されている。
【0068】
記録時刻の右隣には、サムネイル(Thumb Nail)画像が表示されている。このサムネイル画像は、メモリカード24に記録された撮影画像データの各画像データのビットマップデータを間引いて(縮小して)作成されたものである。この表示のある情報は、撮影画像情報を含む情報である。つまり、「10時16分」と「10時21分」に記録(入力)された情報には、撮影画像情報が含まれており、「10時05分」、「10時28分」、「10時54分」、「13時10分」に記録された情報には、画像情報が含まれていない。
【0069】
また、メモ記号「*」は、線画情報として所定のメモが記録されていることを表している。
【0070】
サムネイル画像の表示領域の右側には、音声情報バーが表示され、録音時間の長さに対応する長さのバー(線)が表示される(音声情報が入力されていない場合は、表示されない)。
【0071】
なお、サムネイル画像や音声情報バーなどの表示の順序は、メモリカード24に記録されている順番(時系列順)とされている。即ち、1画面で表示することができないくらい多数の情報が記録されている場合に、この画面の表示処理を行うと、最も古い記録情報が最初の行に表示され、以下、記録日時が古い順に表示されることになる。
【0072】
ユーザは、図7に示すLCD6の所望の情報の表示ラインのいずれかの部分を、ペン46のペン先で押圧して再生する情報を選択指定し、図2に示す実行キー7Bをペン46のペン先で押圧することにより、選択した情報を再生させることができる。
【0073】
例えば、図7に示す「10時05分」の表示されているラインがペン46によって押圧されると、CPU36は、選択された録音日時(10時05分)に対応する音声データをメモリカード24から読み出し、音声IC38に供給する。音声IC38は、音声データ(圧縮されている音声データ)に伸長処理を施し、更にD/A変換を施してアナログ信号に変換してスピーカ5に供給する。スピーカ5は、供給されたアナログ信号を音声に変換し、出力する。なお、イヤホンジャック9に図示せぬイヤホンが接続されている場合においては、スピーカ5からは音声が再生されず、図示せぬイヤホンにより音声が再生される。
【0074】
メモリカード24に記録した撮影画像データを再生する場合、ユーザは、所望のサムネイル画像をペン46のペン先で押圧することにより、その情報を選択し、続いて、実行キー7Bを押すことにより、選択した情報を再生させる。
【0075】
CPU36は、選択された撮影日時に対応する撮影画像データをメモリカード24から読み出し、圧縮伸長回路34に供給する。圧縮伸長回路34に供給された撮影画像データ(圧縮されている撮影画像データ)はそこで伸長され、CPU36に再び出力される。CPU36は、この撮影画像データをビットマップデータとしてフレームメモリ47に一旦格納させた後、LCD6に表示させる。
【0076】
Sモードで撮影された画像は、LCD6上に、静止画像として表示される。この静止画像は、CCD20の全ての画素の画像信号を再生したものであることはいうまでもない。
【0077】
Lモードで撮影された画像は、LCD6上において、1秒間に8コマの割合で連続して表示される。このとき、各コマに表示される画素数は、CCD20の全画素数の4分の1である。
【0078】
人間の視覚は、静止画像の解像度の劣化に対しては敏感であるため、静止画像の画素を間引くと、ユーザはこれを容易に感知してしまう。しかしながら、1秒間に8コマの画像が再生されるLモードでは、各コマの画素数はCCD20の画素数の4分の1になるが、前述のように1秒間に8コマの画像が再生されるので、単位時間当たりの情報量は、静止画像の場合に比べて2倍になる。
【0079】
すなわち、Sモードで撮影された画像の1コマの画素数を1とすると、Lモードで撮影された画像の1コマの画素数は1/4となる。Sモードで撮影された画像(静止画像)がLCD6に表示された場合、1秒間に人間の目に入る情報量は1(=(画素数1)×(コマ数1))となる。一方、Lモードで撮影された画像がLCD6に表示された場合、1秒間に人間の目に入る情報量は2(=(画素数1/4)×(コマ数8))となる(すなわち、人間の目には、静止画像の2倍の情報が入る)。従って、1コマ中の画素の数を4分の1にした場合でも、再生時において、ユーザは、画質の劣化をさほど気にしない。
【0080】
さらに、本実施例においては、各コマ毎に異なる画素をサンプリングし、そのサンプリングした画素をLCD6に表示するようにしているので、人間の目に残像効果が起こり、1コマ当たり4分の3画素を間引いたとしても、ユーザは、画質の劣化をさほど気にすることなく、LCD6に表示されるLモードで撮影された画像を観察することができる。
【0081】
また、Hモードで撮影された画像は、LCD6上において、1秒間に30コマの割合で連続して表示される。このとき、各コマに表示される画素数は、CCD20の全画素数の9分の1であるが、Lモードの場合と同様の理由で、ユーザは、画質の劣化をさほど気にすることなくLCD6に表示されるHモードで撮影された画像を観察することができる。
【0082】
本実施例においては、Lモード及びHモードで被写体を撮像する場合、画像処理部31が、再生時における画質の劣化が気にならない程度にCCD20の画素を間引くようにしているので、DSP33と圧縮伸長回路34の負荷を低減することができ、これらを、低速度、低電力で作動させることができる。また、このことにより、装置の低コスト化及び低消費電力化が可能になる。
【0083】
次に、本実施例の動作モードについて説明する。
【0084】
LCD6上に表示されているカレンダを表すアイコン(図示せず)が、ペン46により押圧されると、カレンダモードになり、図8に示すカレンダが表示される。この表示例では、5月(MAY)のカレンダが表示されている。このカレンダ上において、所望の日にちをペン46により1回押圧(シングルクリック)すると、その日に記録された画像、音声、または線画などの情報が再生されることになる。
【0085】
また、このカレンダ上において、所望の日にちをペン46により2回連続して押圧(ダブルクリック)すると、図9に示す、指定された日のスケジュール(Schedule)表が表示されることになる。この表示例では、5月16日(MAY 16,1986)のスケジュール表が表示されており、画面の左側に時間帯が表示され、その右隣りに予定が表示されている。例えば、スケジュール表の第1行目では、AM9:00乃至10:00の時間帯に、9階(F)の102号室で会議が行われることが示されている。
【0086】
なお、このような表示例において、例えば、第2行目をペン46によりシングルクリックすることにより、この時間帯(AM10:05乃至10:30)に面接する人物の画像と個人情報が、後述する方法により、表示されるようにしてもよい。
【0087】
更に、スケジュール表の第4行目がペン46によりシングルクリックされると、PM1:00乃至2:00に予定されている会議に関する書類や図表などが表示されるようにしてもよい。
【0088】
次に、線画入力モードについて説明する。
【0089】
LCD6上に何も情報が表示されていない状態において、LCD6がペン46で押圧されるか、LCD6上に表示されている線画入力を表すアイコン(図示せず)がペン46により押圧されるか、または、メニューキー7Aがペン46により押圧された後、表示されるメニューの中から線画入力モードが選択されると、図10に示す線画入力モードとなる。
【0090】
この線画入力モードにおいて、ユーザは、ペン46により、LCD6上に文字や図形などの線画情報を入力することが可能となる。この表示例では、M&M製薬とその周辺の地図が入力されている。なお、この図において、「M&M製薬」や「ガソリンスタンド」などの文字は、線画情報として入力されているので、図形と同様の処理が施されることになる。
【0091】
図11は、線画入力モードにおいて、手書き文字認識入力を行った場合の表示例を示している。即ち、線画入力モードにおいて、画面上に表示されている手書き文字認識入力を示すアイコン(図示せず)がペン46により押圧された場合は、画面の、最下部に手書き文字入力用の枠が表示され、手書き文字の入力が可能となる。
【0092】
このようにして入力された文字情報は、所定のアルゴリズムに従って対応する文字コードに変換され、この文字コードをもとに、図4に示すメモリカード24に格納されている文字のビットマップデータが取得され、図12に示すように認識された文字が画面上(線画入力を行う枠の外側)に表示されることになる。なお、このようにして入力された文字は、文字のコードデータ(テキストデータ)として、線画情報とは異なるメモリカード24上の領域に記憶される。従って、例えば、入力された文字「M&M製薬」に対して、線画情報(地図)の格納されているアドレスを付加して記録するようにすれば、データベースのように、キーワード「M&M製薬」が入力された場合に、地図が表示されるようにすることも可能である。
【0093】
例えば、図9のスケジュール表の第3行目に表示されている文字「M&M製薬」がペン46により押圧された場合に、図12に示す地図が表示されるようにしてもよい。
【0094】
更に、このようにして入力された複数の線画情報(例えば、図12に示す地図など)を、同時に入力された文字(M&M製薬)により、例えば、「あいうえお」順、または、「アルファベット」順にソートし(並び換え)、順に表示するようにすることも可能である。
【0095】
続いて、個人情報入力モードについて説明する。
【0096】
LCD6上に表示されている個人情報入力モードを示すアイコン(図示せず)がペン46により押圧されるか、または、メニューキー7Aがペン46により押圧された後、表示されたメニューの中から個人情報入力モードが選択された場合、図13に示す個人情報入力処理が実行されることになる。
【0097】
この処理が実行されると、ステップS1において、図4に示すCPU36は、フレームメモリ47の所定の領域にビットデータを書き込むことにより、図14に示す、画像表示用の枠を表示させる。
【0098】
ステップS2において、CPU36は、撮影が終了したか否かを判定する。即ち、図1に示すレリーズスイッチ10をユーザが操作し、被写体となる人物の画像信号が入力された(YES)と判定した場合は、ステップS3に進み、また、レリーズスイッチ10が操作されていない(NO)と判定した場合は、ステップS2に戻り、レリーズスイッチ10が操作されるまで同様の処理を繰り返す。
【0099】
ステップS3では、CPU36は、入力された撮影画像に音声データが付随しているか否かを判定する。即ち、ユーザが図1に示すレリーズスイッチ10を押しながら、録音スイッチ12を同時に押していたか否かを判定する。その結果、撮影画像に音声データが付随している(YES)と判定した場合は、ステップS4に進み、また、撮影画像に音声データが付随していない(NO)と判定した場合は、ステップS4の処理をスキップし、ステップS5の処理に進む。
【0100】
ステップS4では、CPU36は、図4に示すフレームメモリ47に所定のビットデータを書き込むことにより、図15に示すVOICEボタンをLCD6上に表示させる。
【0101】
そして、続くステップS5では、撮影画像をフレームメモリ47の所定の領域(図14に示す枠内の領域)に書き込むことにより、図15に示すように撮影画像をLCD6上に表示させ、処理を終了する(エンド)。
【0102】
このとき、撮影画像は、静止画像であるので、前述のSモードで入力される。従って、画素の間引きが行われないので、撮影画像は、CCD20を構成している画素と同一の数の画素から構成されることになる。従って、図14に示すような画面よりも小さいサイズの枠内に撮影画像を表示する場合は、撮影画像から所定の割合で画素を間引き、画像のサイズを縮小した後、表示させるようにする。
【0103】
図15に示す表示画面において、画面上に表示されている手書き文字認識入力を示すアイコン(図示せず)がペン46により押圧された場合は、線画入力モードにおいて既述したように、手書き文字入力用の枠が表示され、手書き文字の入力が可能となる。
【0104】
図16は、手書き文字認識入力により入力された個人情報の表示例を示している。この表示例では、画面右上からこの人物の「名前(NAME)」、「会社(COMPANY)」、「地位(POSITION)」、「電話番号(TEL)」、「ファクシミリ番号(FAX)」、「性格(CHARACTER)」、および「趣味(HOBBY)」が順に表示されており、また、撮影画像の下には、「国籍(NATIONALITY)」と「血液型(BLOODTYPE)」が表示されている。
【0105】
なお、このようにして入力された個人情報は、文字のコードデータ(テキストデータ)としてメモリカード24の撮影画像とは別の領域に記憶されるが、例えば、個人情報に撮影画像の格納されているアドレスなどを付加して記憶するようにすることにより、異なる領域に記憶されている2つの情報(撮影画像と個人情報)を相互に関連づけることができる。その結果、例えば、所定の項目(例えば、名前など)をキーワードとして、複数の個人情報の中からそのキーワードを有する所定の個人情報を検索し、取得された所定の個人情報に対応する撮影画像を表示するようにすることができる。
【0106】
次に、図16の表示例において、撮影画像を拡大または表示する場合の処理について図17を参照して説明する。
【0107】
この処理は、図16に示すような画面表示がなされている場合に実行される。
【0108】
この処理が実行されると、ステップS20において、CPU36は、ペン入力がなされたか否かを判定する。その結果、ペン入力がなされた(YES)と判定した場合、ステップS21に進み、また、ペン入力がなされていない(NO)と判定した場合、ステップS20に戻り、ペン入力がなされるまで同様の処理を繰り返す。
【0109】
ステップS21では、CPU36は、タッチタブレット6A上のペン入力がなされた座標(x1,y1)(図18参照)を取得する。
【0110】
続くステップS22において、CPU36は、ペン46が移動されたか否かを判定する。その結果、ペン46が移動された(YES)と判定した場合は、ステップS23に進み、また、ペン46が移動されていない(NO)と判定した場合は、ステップS22に戻り、ペン46が移動されるまで同様の処理を繰り返す。
【0111】
ステップS23において、CPU36は、タッチタブレット6A上におけるペン46の現在(移動後)の座標(x2,y2)を取得する。そして、ステップS24に進み、取得された座標(x2,y2)に応じて、新たな枠を表示し(図18参照)、ステップS25に進む。
【0112】
ステップS25において、CPU36は、ペン46がタッチタブレット6Aから離されたか否かを判定する。その結果、ペン46がタッチタブレット6Aから離された(YES)と判定すると、ステップS26に進み、また、ペン46が離されていない(NO)と判定すると、ステップS23に進み、同様の処理を繰り返す。
【0113】
ステップS26において、CPU36は、最後に表示された枠内の領域に撮影画像(図16に示す人物の画像)を拡大または縮小し、表示する。即ち、y2とy1の比(=y2/y1)に応じて撮影画像を拡大または縮小し、枠内に表示する。そして、ステップS27に進む。
【0114】
ステップS27では、CPU36は、画面の残りの領域(撮影画像が表示されていない領域)の大きさを算出する。そして、ステップS28に進み、ステップS27において求められた残りの領域の大きさに応じて、個人情報を表示する。
【0115】
なお、各個人情報には、プライオリティレベルが予め付与されており、CPU36は、このプライオリティレベルが高い順に個人情報を表示していく。従って、残りの領域が小さい場合は、大きい場合に比較して、少ない数の個人情報がプライオリティレベルに応じて順次表示されることになる。表示処理が終了すると、処理を終了する(エンド)。
【0116】
図19は、以上のような処理により、撮影画像を拡大表示した場合の表示例を示す図である。この表示例では、画面の左側に撮影画像が表示され、その右隣りには、「名前(NAME)」、「会社(COMPANY)」、「地位(POSITION)」、「電話番号(TEL)」、および「ファクシミリ番号(FAX)」が表示されている。また、画面の右最上部には、VOICEボタンが表示されており、このVOICEボタンをペン46により押圧することにより、撮影画像と同時に録音された音声データを再生することができる。
【0117】
以上のような実施例によれば、簡単な操作により、撮影画像を拡大または縮小するとともに、撮影画像が表示されていない領域に個人情報をそのプライオリティレベルに応じて順に表示することができる。従って、必要に応じて、撮影画像を拡大または縮小表示させることができるとともに、その際、有用な個人情報から順に表示されるので、必要な情報を迅速に取得することが可能となる。
【0118】
なお、以上の実施例では、Sモードにより被写体を撮影したので、CCD20と同じ数の画素からなる撮影画像を入力し、表示される大きさに応じて画素を適宜間引いてから表示するようにした。しかしながら、例えば、画面に表示される最大の大きさを予め決定しておき(例えば、図19に示すサイズを最大の大きさと決定しておき)、CCD20から出力される画像信号を前述の大きさとなるように予め間引きしてから、メモリカード24に格納するようにしてもよい。このような構成によれば、撮影画像の情報量を減少させることができるので、その分、メモリカード24の容量を節約することができる。
【0119】
なお、以上の実施例では、Sモードにおける静止画のみを対象として扱ったが、例えば、LモードまたはHモードにより撮影される動画を記録し、これを表示するようにしてもよい。このような構成によれば、例えば、撮影された個人の表情の変化や、動作の癖なども情報として記録されることになるので、更に有益なデータベースを構築することが可能となる。
【0120】
更に、個人情報のプライオリティレベルは、ユーザにより変更可能としてもよい。このような構成によれば、各個人の使用目的に合わせて、個人情報を表示させることが可能となる。
【0121】
更にまた、本発明では、人物の画像とその個人情報を例に挙げて説明を行ったが、本発明はこのような情報に限定されるものではない。例えば、商品の画像とその説明情報、観光地の画像とその説明情報などに対して上述の処理を行うようにしてもよいことは勿論である。また、その際、画像や説明情報は、外部の、例えば、パーソナルコンピュータなどから読み込むようにしてもよい。
【0122】
【発明の効果】
請求項1に記載の情報処理装置によれば、被写体からの光を入射する入射手段と、入射手段により得られた光を画像信号に変換する変換手段と、画像信号に固有の情報を画像信号とともに記録する第1の記録手段と、所定面積の表示面を有する表示装置と、被写体の複数の属性情報を入力する入力手段と、複数の属性情報に優先順位を付与し、画像信号に関連付けて記録する第2の記録手段と、画像信号および属性情報を表示装置に表示する表示制御手段とを備え、表示制御手段は、表示装置の表示面内に画像信号を表示する表示枠を設定し、第1の記録手段により記録された画像信号を拡大もしくは縮小して表示枠内に表示し、表示枠外に表示可能な属性情報の個数を決定し、第2の記録手段により画像信号に関連付けされて記録された属性情報のうち、優先順位に従って表示個数以下の属性情報を選択し表示枠外に表示するようにしたので、被写体の画像を所望の大きさで画面に表示することが可能となるとともに、この被写体に属する属性情報を有用な順に画面表示することが可能となる。
【図面の簡単な説明】
【図1】本発明の情報処理装置を適用した電子カメラの構成の一例を示す斜視図である。
【図2】図1に示す電子カメラの面X1に対向する側から見た場合の斜視図である。
【図3】図1または図2に示す電子カメラの内部の構成を示す斜視図である。
【図4】図1または図2に示す電子カメラの電気的な構成を示すブロック図である。
【図5】Lモードにおける画素の間引き処理を説明する図である。
【図6】Sモードにおける画素の間引き処理を説明する図である。
【図7】記録された情報を再生する場合の表示画面の表示例である。
【図8】カレンダモードにおける表示の一例を示す図である。
【図9】図8のカレンダにおいて、所望の日にちを指定した場合に表示されるスケジュール表の表示例である。
【図10】図1に示す実施例における、線画入力モードの表示の一例を示す図である。
【図11】図10に示す表示例において、手書き文字認識入力を実行した場合の表示例である。
【図12】図11に示す手書き文字認識入力により入力され、文字コードに変換されたデータの表示例である。
【図13】図1に示す実施例において実行される、個人情報入力処理の一例を説明するフローチャートである。
【図14】図13に示す処理を実行した場合に表示される枠の表示例を示す図である。
【図15】図14に示す枠に撮影画像が表示された場合の中間画像の写真である。
【図16】図15に示す表示例において、個人情報を入力した場合の中間画像の写真である。
【図17】図16に示す表示画面において実行される、撮影画像の拡大または縮小処理の一例を説明するフローチャートである。
【図18】図17に示す処理が実行された場合の中間画像の写真である。
【図19】図17に示すフローチャートにより、図16に示す撮影画像を拡大表示した場合の中間画像の写真である。
【符号の説明】
3 撮影レンズ(入射手段)
6 LCD(第1の表示手段、第2の表示手段、拡大縮小表示手段)
6A タッチタブレット(入力手段)
20 CCD(変換手段)
36 CPU(第1の表示手段、第2の表示手段、拡大縮小表示手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus, and more particularly to an information processing apparatus that records or reproduces information such as an image or sound of a subject or a line drawing.
[0002]
[Prior art]
In a conventional electronic camera or the like, when personal information is recorded and managed together with an image of the individual, the display format (size) of the image and personal information has been determined in advance.
[0003]
[Problems to be solved by the invention]
When such a conventional electronic camera is designed to display a large amount of personal information in one screen, there is a problem that the size of the image becomes small and it becomes difficult to grasp the characteristics of a person.
[0004]
Conversely, if the image is designed to be displayed in a large size, the display area of personal information becomes narrow, and as a result, there is a problem that personal information that can be displayed is limited.
[0005]
Therefore, when personal information is divided and displayed on a plurality of screens, a screen display switching operation is required, and there is a problem that the operation becomes complicated.
[0006]
The present invention has been made in view of such a situation, and makes it possible to display personal information together with an image of the individual and display it in a format that is optimal for the user.
[0007]
[Means for Solving the Problems]
The information processing apparatus according to claim 1 records incident information that is incident on light from a subject, conversion means that converts light obtained by the incident means into an image signal, and information unique to the image signal together with the image signal. First recording means, a display device having a display surface of a predetermined area, input means for inputting a plurality of attribute information of a subject, and giving priority to the plurality of attribute information, and recording in association with the image signal A second recording unit; and a display control unit configured to display the image signal and the attribute information on the display device. The display control unit sets a display frame for displaying the image signal on the display surface of the display device. The image signal recorded by the recording means is enlarged or reduced and displayed in the display frame, the number of attribute information that can be displayed outside the display frame is determined, and the second recording means records the image signal in association with the image signal. Attribute information Of, and displaying on the display outside the frame to select the following attributes information display number according to priority.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0009]
1 and 2 are perspective views showing the configuration of an embodiment of an electronic camera to which the present invention is applied. In the electronic camera of this embodiment, when photographing a subject, the surface directed to the subject is the surface X1, and the surface directed to the user side is the surface X2. At the upper end of the surface X1, a finder 2 used for confirming the photographing range of the subject, a photographing lens 3 (incident means) for capturing a light image of the subject, and a light emitting portion (flash lamp) that emits light when the subject is illuminated ) 4 is provided.
[0010]
On the other hand, at the upper end portion of the surface X2 facing the surface X1 (the portion of the surface X1 facing the portion where the finder 2, the photographing lens 3, and the light emitting portion 4 are formed), the finder 2 and the electronic camera 1 are arranged. A speaker 5 is provided for outputting the sound recorded in the. Further, the LCD 6 (first display means, second display means, enlargement / reduction display means) formed on the surface X2 and operation keys 7 (menu key 7A, execution key 7B, clear key 7C, cancel key 7D, and The scroll key 7E) is formed vertically below the viewfinder 2, the photographing lens 3, the light emitting unit 4, and the speaker 5. On the surface of the LCD 6, a so-called touch tablet 6 </ b> A (input means) that outputs position data corresponding to an instructed position is formed by a touch operation of a pen-type pointing device described later.
[0011]
The touch tablet 6A is made of a transparent material such as glass or resin, and the user observes an image displayed on the LCD 6 formed inside the touch tablet 6A via the touch tablet 6A. Can do.
[0012]
The operation key 7 is a key that is operated when recording data is reproduced and displayed on the LCD 6, and includes the following keys. That is, the menu key 7 </ b> A is a key operated when displaying a menu screen on the LCD 6. The execution key 7B is a key operated when reproducing the recording information selected by the user.
[0013]
The clear key 7C is a key operated when deleting recorded information. The cancel key 7D is a key operated when the recording information reproduction process is interrupted. The scroll key 7E is a key operated when the screen is scrolled up and down when a list of recorded information is displayed on the LCD 6.
[0014]
A surface Z that is the upper surface of the electronic camera 1 is provided with a microphone 8 that collects sound and an earphone jack 9 to which an unillustrated earphone is connected.
[0015]
On the left side surface (surface Y1), a release switch 10, a power switch 11, and an AC adapter jack 15 for connecting an AC adapter are provided.
[0016]
On the other hand, on the surface Y2 (right side) facing the surface Y1, there are a recording switch 12 operated when recording sound and a continuous shooting mode switching switch 13 operated when switching a continuous shooting mode at the time of shooting. Is provided. Note that the recording switch 12 is formed at substantially the same height as the release switch 10 on the surface Y1, and is configured so as not to feel uncomfortable even if it is held with either the left or right hand.
[0017]
In addition, when one switch is pressed by making the height of the recording switch 12 and the release switch 10 different, if the opposite side is held with a finger in order to cancel the moment due to the pressing force, it is mistakenly The switch provided on the opposite side surface may not be pushed.
[0018]
The continuous shooting mode switch 13 is used when the user presses the release switch 10 to shoot a subject and sets whether to shoot only one frame of the subject or a predetermined plurality of frames. For example, when the pointer of the continuous shooting mode switch 13 is switched to the position where “S” is printed (that is, switched to the S mode), when the release switch 10 is pressed, only one frame is shot. Has been made to be done.
[0019]
Further, when the pointer of the continuous shooting mode switch 13 is switched to the position where “L” is printed (that is, the mode is switched to the L mode), if the release switch 10 is pressed, the release switch 10 During the pressed period, 8 frames are taken per second (that is, the low-speed continuous shooting mode is set).
[0020]
Further, when the pointer of the continuous shooting mode switch 13 is switched to the position where “H” is printed (that is, switched to the H mode), if the release switch 10 is pressed, the release switch 10 During the pressed period, 30 frames are taken per second (that is, the high-speed continuous shooting mode is set).
[0021]
Next, the internal configuration of the electronic camera 1 will be described. FIG. 3 is a perspective view illustrating an internal configuration example of the electronic camera illustrated in FIGS. 1 and 2. The CCD 20 (conversion means) is provided at the rear stage (side of the surface X2) of the photographing lens 3, and photoelectrically converts a light image of a subject imaged through the photographing lens 3 into an electric signal.
[0022]
On the vertically lower side of the LCD 6, four cylindrical batteries (AA batteries) 21 are vertically arranged, and the electric power generated by the batteries 21 is supplied to each part of the apparatus. In addition, the capacitor 22 that accumulates charges for causing the light emitting unit 4 to emit light is arranged side by side with the battery 21.
[0023]
Various control circuits for controlling each part of the electronic camera 1 are formed on the circuit board 23. A memory card 24 that can be inserted and removed is provided between the circuit board 23, the LCD 6, and the battery 21, and various types of information input to the electronic camera 1 are preset in the memory card 24. Recorded in the area.
[0024]
In this embodiment, the memory card 24 can be inserted and removed, but a memory may be provided on the circuit board 23 and various information may be recorded in the memory. Various information recorded in the memory (memory card 24) may be output to an external personal computer via an interface (not shown).
[0025]
Next, the internal electrical configuration of the electronic camera 1 of this embodiment will be described with reference to the block diagram of FIG. The lens driving circuit 30 is controlled by the CPU 36 (first display means, second display means, enlargement / reduction display means), and moves the photographing lens 3 in the same optical axis direction to execute autofocus. The CCD 20 provided with a plurality of pixels photoelectrically converts a light image formed on each pixel into an image signal (electric signal). The CCD drive circuit 39 is controlled by a digital signal processor (hereinafter referred to as DSP) 33 to drive the CCD 20.
[0026]
The image processing unit 31 performs correlated double sampling on the image signal photoelectrically converted by the CCD 20 at a predetermined timing, and controls the signal value of the sampled image signal to be optimal by auto gain control. An analog / digital conversion circuit (hereinafter referred to as an A / D conversion circuit) 32 digitizes the image signal sampled by the image processing unit 31 and supplies the digitized signal to the DSP 33.
[0027]
The DSP 33 performs predetermined processing, which will be described later, on the digitized image signal, and supplies it to a compression / decompression circuit and a memory controller (hereinafter abbreviated as compression / decompression circuit) 34. The compression / decompression circuit 34 compresses the image signal supplied from the DSP 33 (hereinafter simply referred to as “captured image data”) and stores it in a predetermined area (captured image recording area) of the memory card 24 under the control of the CPU 36. Has been made.
[0028]
The timer 45 is configured to record information on the date and time of photographing as header information of the image data in a photographed image recording area of the memory card 24 (that is, a photographed image recorded in the photographed image recording area of the memory card 24). The data is accompanied by date and time data).
[0029]
The microphone 8 inputs sound (collects sound), converts it into a corresponding electric signal, and supplies it to a sound IC (Integrated Circuit) 38. The audio IC 38 A / D converts the input audio signal, performs compression processing by ADPCM (Adaptive Differential Pulse Code Modulation), and supplies the compressed signal to the CPU 36 via the CPU control bus.
[0030]
The CPU 36 records the digitized and compressed audio data in a predetermined area (audio recording area) of the memory card 24 via the CPU control bus. At this time, recording date and time data is recorded in the audio recording area of the memory card 24 as header information of the audio data.
[0031]
When a predetermined position of the touch tablet 6A is pressed by a pen-type pointing device (hereinafter abbreviated as a pen) 46 operated by the user, the CPU 36 reads the XY coordinates of the pressed position of the touch tablet 6A, The coordinate data (line drawing information described later) is stored in the buffer memory 35. In addition, the CPU 36 records the line drawing information stored in the buffer memory 35 in the line drawing information recording area of the memory card 24 together with the header information of the line drawing information input date and time.
[0032]
The frame memory 47 stores image data sent via the CPU control bus and displays it on the LCD 6. However, the photographed image data subjected to the compression process is once inputted to the compression / decompression circuit 34, where it is decompressed and then supplied to the frame memory 47.
[0033]
Further, the audio data output from the memory card 24 is subjected to digital / analog conversion (hereinafter referred to as D / A conversion) by the audio IC 38, converted into an analog signal, supplied to the speaker 5, and output as audio. It is made to be done.
[0034]
The flash lamp driving circuit 41 is controlled by the CPU 36 and drives the flash lamp 42 built in the light emitting unit 4. Similarly, the red-eye reduction lamp driving circuit 43 is controlled by the CPU 36 and drives the red-eye reduction lamp 44 built in the light emitting unit 4. Note that the red-eye reduction lamp 44 emits light immediately before the flash lamp 42 is turned on, thereby closing the pupil of the person who is the subject, so that the eyes of the person in the photographed image are The so-called red eyes that turn red can be reduced.
[0035]
The detection circuit 40 converts the voltage of the battery 21 into a corresponding digital signal and supplies it to the CPU 36. The CPU 36 can detect the remaining amount of the battery 21 based on the digital signal supplied from the detection circuit 40.
[0036]
Next, various operations of the electronic camera 1 of this embodiment will be described.
[0037]
First, voice information input / output processing (however, voice information only input / output processing) of this apparatus will be described.
[0038]
After the electronic switch 1 is turned on by operating the power switch 11, when the recording switch 12 provided on the surface Y2 is pressed, a voice recording process (voice information input process) is started. . Audio information is input via the microphone 8, subjected to A / D conversion and compression processing by the audio IC 38, and then supplied to the CPU 36.
[0039]
The audio data supplied to the CPU 36 is supplied to the memory card 24 and recorded in the audio recording area. At this time, in the audio recording area of the memory card 24, the recording date and time data is recorded as header information. Such an operation is continuously performed while the recording switch 12 is being pressed.
[0040]
Note that the audio in this case is compressed by the ADPCM method, but other compression methods may be used.
[0041]
Next, an operation at the time of photographing a subject according to the present embodiment will be described.
[0042]
First, the case where the continuous shooting mode change-over switch 13 provided on the surface Y2 is switched to the S mode (a mode in which only one frame is shot) will be described. First, when the user operates the power switch 11 provided on the surface Y1, the electronic camera 1 is turned on. When the subject is confirmed with the finder 2 and the release switch 10 provided on the surface Y1 is pressed, the photographing process of the subject is started.
[0043]
An optical image of a subject observed by the finder 2 is collected by the photographing lens 3 and formed on a CCD 20 having a plurality of pixels. The optical image of the subject imaged on the CCD 20 is photoelectrically converted into an image signal at each pixel and sampled by the image processing unit 31. The image signal sampled by the image processing unit 31 is supplied to the A / D conversion circuit 32 where it is digitized and output to the DSP 33.
[0044]
The DSP 33 performs a process of generating a color difference signal from an RGB (Red Green Blue) signal and performs a γ process that is a nonlinear process. The compression / decompression circuit 34 compresses the image data supplied from the DSP 33 in accordance with a JPEG (Joint Photografic Experts Group) method that combines discrete cosine transform, quantization, and Huffman coding, and stores the compressed image data in the captured image recording area of the memory card 24. Let me record. At this time, shooting date / time data is recorded in the shot image recording area of the memory card 24 as header information of the shot image data.
[0045]
When the continuous shooting mode switch 13 is switched to the S mode, only one frame is shot. Even if the release switch 10 is continuously pressed, no further shooting is performed. An image taken on the LCD 6 is displayed.
[0046]
Secondly, a case where the continuous shooting mode switch 13 is switched to the L mode (a mode for performing continuous shooting of 8 frames per second) will be described. When the electronic camera 1 is turned on by operating the power switch 11 and the release switch 10 provided on the surface Y1 is pressed, the photographing process of the subject is started.
[0047]
An optical image of a subject observed with the finder 2 is condensed by the photographing lens 3 and formed on a CCD 20 having a plurality of pixels. The light image of the subject formed on the CCD 20 is photoelectrically converted into an image signal, and is sampled by the image processing unit 31 at a rate of 8 times per second. At this time, the image processing unit 31 samples one-fourth of all the pixels of the CCD 20.
[0048]
That is, the image processing unit 31 divides the pixels of the CCD 20 arranged in a matrix form into 2 × 2 pixel (four pixels) regions as shown in FIG. 5 and arranges them at predetermined positions in each region. The image signal of one pixel is sampled, and the remaining three pixels are thinned out.
[0049]
For example, at the first sampling (first frame), the upper left pixel a of each basic unit is sampled, and the other pixels b, c, and d are thinned out. At the time of the second sampling (second frame), the upper right pixel b of each basic unit is sampled, and the other pixels a, c, d are thinned out. Hereinafter, at the time of the third sampling and the fourth sampling, the lower left pixel c and the lower right pixel d are sampled, and the other pixels are thinned out. That is, each pixel is sampled only once every four times.
[0050]
The image signal sampled by the image processing unit 31 (image signal of one-fourth of all the pixels of the CCD 20) is supplied to the A / D conversion circuit 32, where it is digitized and output to the DSP 33.
[0051]
The DSP 33 performs the above-described processing on the digitized image signal and outputs it to the compression / decompression circuit 34. The compression / decompression circuit 34 performs compression processing on the image signal based on the JPEG method, and records it in the captured image recording area of the memory card 24 via the CPU control bus. At this time, shooting date / time data is recorded in the shot image recording area of the memory card 24 as header information of the shot image data.
[0052]
Thirdly, a case where the continuous shooting mode changeover switch 13 is switched to the H mode (a mode for performing continuous shooting of 30 frames per second) will be described. By operating the power switch 11, the electronic camera 1 is turned on, and when the release switch 10 provided on the surface Y1 is pressed, the subject photographing process is started.
[0053]
An optical image of a subject observed with the finder 2 is condensed by the photographing lens 3 and formed on the CCD 20. An optical image of a subject formed on the CCD 20 having a plurality of pixels is photoelectrically converted into an image signal at each pixel, and is sampled by the image processing unit 31 at a rate of 30 times per second. At this time, the image processing unit 31 samples 1/9 of all the pixels of the CCD 20.
[0054]
That is, the image processing unit 31 divides the pixels of the CCD 20 arranged in a matrix into areas each having 3 × 3 pixels as shown in FIG. The image electrical signal of one arranged pixel is sampled at a rate of 30 times per second, and the remaining 8 pixels are thinned out.
[0055]
For example, at the time of the first sampling (first frame), the upper left pixel a of each region is sampled, and the other pixels b to i are thinned out. At the time of the second sampling (second frame), the pixel b arranged on the right side of the pixel a is sampled, and the other pixels a, c to i are thinned out. Hereinafter, in the third and subsequent samplings, the pixel c, the pixel d,... Are sampled, and the other pixels are thinned out. That is, each pixel is sampled every nine frames.
[0056]
The image signal sampled by the image processing unit 31 (image signal of 1/9 of all the pixels of the CCD 20) is supplied to the A / D conversion circuit 32, where it is digitized and output to the DSP 33.
[0057]
The DSP 33 performs the above-described processing on the digitized image signal and supplies it to the compression / decompression circuit 34. The compression / decompression circuit 34 compresses the image signal according to the JPEG method, adds the shooting date and time supplied from the timer 45 as header information, and records it in the shot image recording area of the memory card 24.
[0058]
Next, an operation when inputting two-dimensional line drawing information (pen input information) from the touch tablet 6A will be described. When the touch tablet 6 </ b> A is pressed with the pen tip of the pen 46, the XY coordinates of the touched portion are supplied to the CPU 36. The XY coordinates are stored in the buffer memory 35, and data are written at locations corresponding to the points of the XY coordinates in the frame memory 47 and displayed on the LCD 6.
[0059]
As described above, since the touch tablet 6A formed on the surface of the LCD 6 is formed of a transparent member, the user can display the point displayed on the LCD 6 (the position pressed by the pen tip of the pen 46). Point) can be observed, and it can be felt as if the pen input was made directly on the LCD 6. Further, when the pen 46 is moved on the touch tablet 6 </ b> A, a line accompanying the movement of the pen 46 is drawn on the LCD 6. Further, when the pen 46 is intermittently moved on the touch tablet 6 </ b> A, a broken line accompanying the movement of the pen 46 is displayed on the LCD 6. As described above, the user can input line drawing information such as desired characters and figures from the touch tablet 6A (LCD 6).
[0060]
In addition, when a photographed image is displayed on the LCD 6, when line drawing information is input by the pen 46, this line drawing information is combined with the photographed image information in the frame memory 47 and displayed on the LCD 6.
[0061]
The user can select the color of the line drawing displayed on the LCD 6 from black, white, red, blue, and the like by operating a color selection switch (not shown).
[0062]
After the line drawing information is input to the touch tablet 6A by the pen 46, when the execution key 7B of the operation key 7 is pressed, the line drawing information stored in the buffer memory 35 is transferred via the CPU control bus together with the input date and time header information. It is supplied to the memory card 24 and recorded in the line drawing information recording area.
[0063]
The line drawing information recorded on the memory card 24 is information subjected to compression processing. Since the line drawing information input to the touch tablet 6A contains a large amount of information having a high spatial frequency component, if the compression processing is performed by the JPEG method used for compressing the captured image, the compression efficiency is poor and the amount of information cannot be reduced. Therefore, the time required for compression and decompression becomes long. Furthermore, since compression using the JPEG method is irreversible compression, it is not suitable for compression of line drawing information with a small amount of information (when decompressed and displayed on the LCD 6, gathers and blurs due to missing information are prominent. To end up).
[0064]
Therefore, in this embodiment, the line drawing information is compressed by a run length method used in a fax or the like. The run length method scans a line drawing screen in the horizontal direction and continues the length of information (dots) for each color such as black, white, red, and blue, and the length of no information (portion without pen input). This is a method of compressing line drawing information by encoding the length.
[0065]
By using this run length method, the line drawing information can be effectively compressed, and even when the compressed line drawing information is expanded, the loss of information can be suppressed. Note that the line drawing information may be not compressed when the amount of information is relatively small.
[0066]
Further, as described above, when a photographic image is displayed on the LCD 6, when pen input is performed, the photographic image data and the pen-drawn line drawing information are synthesized in the frame memory 47, and the photographic image and the line drawing are synthesized. Is displayed on the LCD 6. On the other hand, in the memory card 24, the captured image data is recorded in the captured image recording area, and the line drawing information is recorded in the line drawing information recording area. In this way, since the two pieces of information are recorded in different areas, the user can delete either one of the images (for example, line drawing) from the combined image of the captured image and the line drawing. The image information can also be compressed by an individual compression method.
[0067]
When data is recorded in the audio recording area, the photographed image recording area, or the line drawing information recording area of the memory card 24, a predetermined display is performed on the LCD 6, as shown in FIG. In the display example shown in FIG. 7, the date (recorded date) at the time of recording information (in this case, August 25, 1995) is displayed at the lower end of the screen, and the recorded date The recording time of the recorded information is displayed on the leftmost side of the screen.
[0068]
A thumbnail (Thumb Nail) image is displayed to the right of the recording time. This thumbnail image is created by thinning out (reducing) the bitmap data of each image data of the photographed image data recorded in the memory card 24. Information with this display is information including photographed image information. That is, the information recorded (input) at “10:16” and “10:21” includes the captured image information, and “10:05”, “10:28”, “ The information recorded at “10:54” and “13:10” does not include image information.
[0069]
The memo symbol “*” indicates that a predetermined memo is recorded as line drawing information.
[0070]
An audio information bar is displayed on the right side of the thumbnail image display area, and a bar (line) with a length corresponding to the length of the recording time is displayed (not displayed if no audio information is input) .
[0071]
Note that the display order of thumbnail images, audio information bars, and the like is the order recorded in the memory card 24 (time-series order). That is, when a large amount of information that cannot be displayed on one screen is recorded, when this screen is displayed, the oldest recorded information is displayed on the first line. Will be displayed.
[0072]
The user selects and designates information to be reproduced by pressing any part of the display line of desired information on the LCD 6 shown in FIG. 7 with the pen tip of the pen 46, and the execution key 7 B shown in FIG. By pressing with the pen tip, the selected information can be reproduced.
[0073]
For example, when the line displaying “10:05” shown in FIG. 7 is pressed by the pen 46, the CPU 36 stores the audio data corresponding to the selected recording date and time (10:05) in the memory card 24. Is read from the signal and supplied to the audio IC 38. The audio IC 38 performs an expansion process on the audio data (compressed audio data), further performs D / A conversion, converts the data into an analog signal, and supplies the analog signal to the speaker 5. The speaker 5 converts the supplied analog signal into sound and outputs it. When an earphone (not shown) is connected to the earphone jack 9, no sound is reproduced from the speaker 5, and sound is reproduced by an earphone (not shown).
[0074]
When the captured image data recorded in the memory card 24 is reproduced, the user selects the information by pressing the desired thumbnail image with the pen tip of the pen 46, and then presses the execution key 7B. Play the selected information.
[0075]
The CPU 36 reads shot image data corresponding to the selected shooting date and time from the memory card 24 and supplies it to the compression / decompression circuit 34. The photographed image data (compressed photographed image data) supplied to the compression / decompression circuit 34 is decompressed there and output to the CPU 36 again. The CPU 36 temporarily stores the captured image data as bitmap data in the frame memory 47 and then displays it on the LCD 6.
[0076]
The image shot in the S mode is displayed on the LCD 6 as a still image. It goes without saying that this still image is a reproduction of the image signal of all the pixels of the CCD 20.
[0077]
Images taken in the L mode are continuously displayed on the LCD 6 at a rate of 8 frames per second. At this time, the number of pixels displayed in each frame is a quarter of the total number of pixels of the CCD 20.
[0078]
Since human vision is sensitive to degradation of the resolution of a still image, if the pixels of the still image are thinned out, the user easily senses this. However, in the L mode in which images of 8 frames are reproduced per second, the number of pixels in each frame is 1/4 of the number of pixels of the CCD 20, but as described above, images of 8 frames are reproduced in 1 second. Therefore, the amount of information per unit time is twice that of a still image.
[0079]
That is, if the number of pixels of one frame of an image shot in the S mode is 1, the number of pixels of one frame of the image shot in the L mode is ¼. When an image (still image) shot in the S mode is displayed on the LCD 6, the amount of information that enters the human eye per second is 1 (= (number of pixels 1) × (number of frames 1)). On the other hand, when an image shot in the L mode is displayed on the LCD 6, the amount of information that enters the human eye per second is 2 (= (number of pixels 1/4) × (number of frames 8)) (that is, The human eye contains twice as much information as still images). Therefore, even when the number of pixels in one frame is reduced to a quarter, the user does not care much about the deterioration of the image quality during reproduction.
[0080]
Further, in the present embodiment, different pixels are sampled for each frame, and the sampled pixels are displayed on the LCD 6. Therefore, an afterimage effect occurs in the human eye, and three-fourth pixels per frame. Even if the image is thinned out, the user can observe the image shot in the L mode displayed on the LCD 6 without much concern about the deterioration of the image quality.
[0081]
In addition, images taken in the H mode are continuously displayed on the LCD 6 at a rate of 30 frames per second. At this time, the number of pixels displayed in each frame is 1/9 of the total number of pixels of the CCD 20, but for the same reason as in the L mode, the user does not care much about the deterioration of the image quality. An image taken in the H mode displayed on the LCD 6 can be observed.
[0082]
In this embodiment, when the subject is imaged in the L mode and the H mode, the image processing unit 31 thins out the pixels of the CCD 20 to such an extent that the image quality is not deteriorated during reproduction. The load on the decompression circuit 34 can be reduced and these can be operated at low speed and low power. In addition, this makes it possible to reduce the cost and power consumption of the apparatus.
[0083]
Next, the operation mode of the present embodiment will be described.
[0084]
When an icon (not shown) representing a calendar displayed on the LCD 6 is pressed by the pen 46, the calendar mode is set and the calendar shown in FIG. 8 is displayed. In this display example, a calendar for May may be displayed. On this calendar, when a desired date is pressed once (single click) with the pen 46, information such as an image, sound, or line drawing recorded on that date is reproduced.
[0085]
Further, when a desired date is pressed twice (double-clicked) continuously with the pen 46 on this calendar, a schedule table for the specified date shown in FIG. 9 is displayed. In this display example, a schedule table for May 16 (MAY 16, 1986) is displayed, a time zone is displayed on the left side of the screen, and a schedule is displayed on the right side thereof. For example, the first line of the schedule table indicates that a meeting will be held in Room 102 on the 9th floor (F) during the time period from AM 9:00 to 10:00.
[0086]
In such a display example, for example, when the second row is single-clicked with the pen 46, the image and personal information of the person interviewed in this time zone (AM 10:05 to 10:30) will be described later. It may be displayed by a method.
[0087]
Furthermore, when the fourth row of the schedule table is single-clicked with the pen 46, documents, charts, and the like related to the meeting scheduled for PM 1:00 to 2:00 may be displayed.
[0088]
Next, the line drawing input mode will be described.
[0089]
In a state where no information is displayed on the LCD 6, the LCD 6 is pressed with the pen 46, or an icon (not shown) representing a line drawing input displayed on the LCD 6 is pressed with the pen 46, Alternatively, when the line drawing input mode is selected from the displayed menu after the menu key 7A is pressed by the pen 46, the line drawing input mode shown in FIG. 10 is entered.
[0090]
In this line drawing input mode, the user can input line drawing information such as characters and figures on the LCD 6 with the pen 46. In this display example, a map of M & M Pharmaceutical and its surroundings is input. In this figure, since characters such as “M & M Pharmaceutical” and “gas station” are input as line drawing information, the same processing as that of the figure is performed.
[0091]
FIG. 11 shows a display example when handwritten character recognition input is performed in the line drawing input mode. That is, in the line drawing input mode, when an icon (not shown) indicating handwritten character recognition input displayed on the screen is pressed by the pen 46, a frame for inputting handwritten characters is displayed at the bottom of the screen. Thus, it becomes possible to input handwritten characters.
[0092]
The character information input in this manner is converted into a corresponding character code according to a predetermined algorithm, and based on this character code, bitmap data of the character stored in the memory card 24 shown in FIG. 4 is acquired. Then, as shown in FIG. 12, the recognized characters are displayed on the screen (outside the frame for performing line drawing input). The characters input in this way are stored as character code data (text data) in an area on the memory card 24 different from the line drawing information. Therefore, for example, if an address in which line drawing information (map) is stored is added to the input character “M & M Pharmaceutical” and recorded, the keyword “M & M Pharmaceutical” is input like a database. In such a case, a map can be displayed.
[0093]
For example, the map shown in FIG. 12 may be displayed when the character “M & M Pharmaceutical” displayed in the third row of the schedule table of FIG.
[0094]
Further, a plurality of line drawing information input in this way (for example, the map shown in FIG. 12) is sorted in the order of “Aiueo” or “alphabet” by, for example, the characters (M & M Pharmaceutical) input at the same time. However, it is also possible to display them in order.
[0095]
Next, the personal information input mode will be described.
[0096]
After an icon (not shown) indicating a personal information input mode displayed on the LCD 6 is pressed by the pen 46, or after the menu key 7A is pressed by the pen 46, an individual is displayed from the displayed menu. When the information input mode is selected, the personal information input process shown in FIG. 13 is executed.
[0097]
When this processing is executed, in step S1, the CPU 36 shown in FIG. 4 writes the bit data in a predetermined area of the frame memory 47, thereby displaying the image display frame shown in FIG.
[0098]
In step S <b> 2, the CPU 36 determines whether shooting is finished. That is, when the user operates the release switch 10 shown in FIG. 1 and determines that the image signal of the person as the subject has been input (YES), the process proceeds to step S3, and the release switch 10 is not operated. If it is determined as (NO), the process returns to step S2 and the same processing is repeated until the release switch 10 is operated.
[0099]
In step S3, the CPU 36 determines whether or not audio data is attached to the input captured image. That is, it is determined whether or not the user has simultaneously pressed the recording switch 12 while pressing the release switch 10 shown in FIG. As a result, if it is determined that audio data is attached to the captured image (YES), the process proceeds to step S4. If it is determined that audio data is not included in the captured image (NO), step S4 is performed. Is skipped and the process proceeds to step S5.
[0100]
In step S4, the CPU 36 displays predetermined VOICE buttons shown in FIG. 15 on the LCD 6 by writing predetermined bit data into the frame memory 47 shown in FIG.
[0101]
In the subsequent step S5, the photographed image is written in a predetermined area (the area within the frame shown in FIG. 14) of the frame memory 47, so that the photographed image is displayed on the LCD 6 as shown in FIG. (End)
[0102]
At this time, since the captured image is a still image, it is input in the S mode described above. Accordingly, since pixel thinning is not performed, the photographed image is composed of the same number of pixels as the pixels constituting the CCD 20. Therefore, when a captured image is displayed within a frame having a size smaller than that of the screen as shown in FIG. 14, pixels are thinned out from the captured image at a predetermined rate, and the image size is reduced before being displayed.
[0103]
On the display screen shown in FIG. 15, when an icon (not shown) indicating a handwritten character recognition input displayed on the screen is pressed by the pen 46, as described above in the line drawing input mode, the handwritten character input is performed. A frame is displayed and handwritten characters can be input.
[0104]
FIG. 16 shows a display example of personal information input by handwritten character recognition input. In this display example, from the upper right of the screen, this person's “NAME”, “COMPANY”, “POSITION”, “TEL (TEL)”, “FAX”, “Personality” (CHARACTER) ”and“ HOBBY ”are displayed in order, and“ NATIONALITY ”and“ BLOODTYPE ”are displayed below the captured image.
[0105]
The personal information input in this way is stored as character code data (text data) in a different area from the photographed image of the memory card 24. For example, the photographed image is stored in the personal information. By adding a certain address or the like, it is possible to correlate two pieces of information (captured image and personal information) stored in different areas. As a result, for example, a predetermined item (for example, name) is used as a keyword, predetermined personal information having the keyword is searched from a plurality of personal information, and a photographed image corresponding to the acquired predetermined personal information is obtained. Can be displayed.
[0106]
Next, a process for enlarging or displaying a captured image in the display example of FIG. 16 will be described with reference to FIG.
[0107]
This process is executed when the screen display as shown in FIG. 16 is being performed.
[0108]
When this process is executed, in step S20, the CPU 36 determines whether pen input has been performed. As a result, if it is determined that the pen input has been made (YES), the process proceeds to step S21. If it is determined that the pen input has not been made (NO), the process returns to step S20, and the same is performed until the pen input is performed. Repeat the process.
[0109]
In step S21, the CPU 36 acquires the coordinates (x 1 , y 1 ) (see FIG. 18) where the pen input on the touch tablet 6A has been made.
[0110]
In subsequent step S <b> 22, the CPU 36 determines whether or not the pen 46 has been moved. As a result, if it is determined that the pen 46 has been moved (YES), the process proceeds to step S23. If it is determined that the pen 46 has not been moved (NO), the process returns to step S22, and the pen 46 is moved. The same processing is repeated until it is done.
[0111]
In step S23, the CPU 36 acquires the current coordinates (x 2 , y 2 ) of the pen 46 on the touch tablet 6A. Then, the process proceeds to step S24, a new frame is displayed according to the acquired coordinates (x 2 , y 2 ) (see FIG. 18), and the process proceeds to step S25.
[0112]
In step S25, the CPU 36 determines whether or not the pen 46 has been released from the touch tablet 6A. As a result, if it is determined that the pen 46 is released from the touch tablet 6A (YES), the process proceeds to step S26. If it is determined that the pen 46 is not released (NO), the process proceeds to step S23, and the same processing is performed. repeat.
[0113]
In step S <b> 26, the CPU 36 enlarges or reduces the captured image (person image shown in FIG. 16) and displays it in the area within the frame displayed last. That is, the captured image is enlarged or reduced according to the ratio of y 2 to y 1 (= y 2 / y 1 ) and displayed in the frame. Then, the process proceeds to step S27.
[0114]
In step S27, the CPU 36 calculates the size of the remaining area of the screen (area where the captured image is not displayed). In step S28, personal information is displayed according to the size of the remaining area obtained in step S27.
[0115]
Each personal information is given a priority level in advance, and the CPU 36 displays the personal information in descending order of the priority level. Accordingly, when the remaining area is small, a smaller number of personal information is sequentially displayed according to the priority level than when the remaining area is large. When the display process ends, the process ends (end).
[0116]
FIG. 19 is a diagram showing a display example when the captured image is enlarged and displayed by the processing as described above. In this display example, a shot image is displayed on the left side of the screen, and on the right side is “NAME”, “COMPANY”, “POSITION”, “Phone number (TEL)”, And “facsimile number (FAX)” is displayed. In addition, a VOICE button is displayed at the upper right part of the screen. By pressing the VOICE button with the pen 46, the voice data recorded simultaneously with the photographed image can be reproduced.
[0117]
According to the embodiment as described above, the captured image can be enlarged or reduced by a simple operation, and personal information can be sequentially displayed in an area where the captured image is not displayed in accordance with the priority level. Therefore, the photographed image can be enlarged or reduced as necessary, and at the same time, since the useful personal information is displayed in order, it is possible to quickly acquire necessary information.
[0118]
In the above embodiment, since the subject is photographed in the S mode, a photographed image composed of the same number of pixels as the CCD 20 is input, and the pixels are appropriately thinned according to the displayed size, and then displayed. . However, for example, the maximum size displayed on the screen is determined in advance (for example, the size shown in FIG. 19 is determined as the maximum size), and the image signal output from the CCD 20 is set to the aforementioned size. After thinning out in advance, the data may be stored in the memory card 24. According to such a configuration, the amount of information of the captured image can be reduced, so that the capacity of the memory card 24 can be saved correspondingly.
[0119]
In the above embodiment, only a still image in the S mode is handled. However, for example, a moving image shot in the L mode or the H mode may be recorded and displayed. According to such a configuration, for example, a change in facial expression of a photographed person, a habit of movement, and the like are recorded as information, so that a more useful database can be constructed.
[0120]
Furthermore, the priority level of personal information may be changeable by the user. According to such a configuration, personal information can be displayed in accordance with the purpose of use of each individual.
[0121]
Furthermore, although the present invention has been described by taking a person image and personal information as an example, the present invention is not limited to such information. For example, it goes without saying that the above-described processing may be performed on an image of a product and its explanation information, an image of a sightseeing spot and its explanation information, and the like. At that time, the image and the explanation information may be read from an external device such as a personal computer.
[0122]
【The invention's effect】
According to the information processing apparatus according to claim 1, an incident unit that inputs light from a subject, a conversion unit that converts light obtained by the incident unit into an image signal, and information unique to the image signal are converted into an image signal. Together with a first recording means for recording, a display device having a display surface of a predetermined area, an input means for inputting a plurality of attribute information of a subject, a plurality of attribute information is given priority, and associated with an image signal Second recording means for recording and display control means for displaying the image signal and attribute information on the display device, the display control means sets a display frame for displaying the image signal in the display surface of the display device; The image signal recorded by the first recording means is enlarged or reduced and displayed in the display frame, the number of attribute information that can be displayed outside the display frame is determined, and the second recording means is associated with the image signal. Recorded genus Of the information, since be displayed on the display outside the frame to select the attribute information of the following display number according to priority, it becomes possible to display on the screen an image of an object in a desired size, belong to the subject It is possible to display the attribute information on the screen in a useful order.
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating an example of a configuration of an electronic camera to which an information processing apparatus of the present invention is applied.
2 is a perspective view when viewed from the side facing the surface X1 of the electronic camera shown in FIG. 1. FIG.
3 is a perspective view showing an internal configuration of the electronic camera shown in FIG. 1 or FIG.
4 is a block diagram showing an electrical configuration of the electronic camera shown in FIG. 1 or FIG.
FIG. 5 is a diagram illustrating pixel thinning processing in an L mode.
FIG. 6 is a diagram illustrating pixel thinning processing in S mode.
FIG. 7 is a display example of a display screen when recorded information is reproduced.
FIG. 8 is a diagram showing an example of display in a calendar mode.
9 is a display example of a schedule table displayed when a desired date is designated in the calendar of FIG.
10 is a diagram showing an example of a line drawing input mode display in the embodiment shown in FIG.
11 is a display example when handwritten character recognition input is executed in the display example shown in FIG.
12 is a display example of data input by handwritten character recognition input shown in FIG. 11 and converted into a character code.
FIG. 13 is a flowchart for explaining an example of personal information input processing executed in the embodiment shown in FIG. 1;
14 is a diagram showing a display example of a frame displayed when the process shown in FIG. 13 is executed. FIG.
15 is a photograph of an intermediate image when a photographed image is displayed in the frame shown in FIG.
16 is a photograph of an intermediate image when personal information is input in the display example shown in FIG.
17 is a flowchart illustrating an example of a captured image enlargement or reduction process performed on the display screen illustrated in FIG. 16;
18 is a photograph of an intermediate image when the process shown in FIG. 17 is executed.
19 is a photograph of an intermediate image when the captured image shown in FIG. 16 is enlarged and displayed according to the flowchart shown in FIG.
[Explanation of symbols]
3 Photography lens (incident means)
6 LCD (first display means, second display means, enlargement / reduction display means)
6A touch tablet (input means)
20 CCD (conversion means)
36 CPU (first display means, second display means, enlargement / reduction display means)

Claims (4)

被写体画像を記録または再生する情報処理装置において、
前記被写体からの光を入射する入射手段と、
前記入射手段により得られた光を画像信号に変換する変換手段と、
前記画像信号に固有の情報を前記画像信号とともに記録する第1の記録手段と、
所定面積の表示面を有する表示装置と、
前記被写体の複数の属性情報を入力する入力手段と、
前記複数の属性情報に優先順位を付与し、前記画像信号に関連付けて記録する第2の記録手段と、
前記画像信号および前記属性情報を前記表示装置に表示する表示制御手段と
を備え、
前記表示制御手段は、前記表示装置の表示面内に前記画像信号を表示する表示枠を設定し、前記第1の記録手段により記録された前記画像信号を拡大もしくは縮小して前記表示枠内に表示し、前記表示枠外に表示可能な属性情報の個数を決定し、前記第2の記録手段により前記画像信号に関連付けされて記録された属性情報のうち、優先順位に従って表示個数以下の属性情報を選択し前記表示枠外に表示する
ことを特徴とする情報処理装置。
In an information processing apparatus for recording or reproducing a subject image ,
An incident means for incident light from the subject;
Conversion means for converting light obtained by the incident means into an image signal;
First recording means for recording information unique to the image signal together with the image signal;
A display device having a display surface of a predetermined area;
Input means for inputting a plurality of attribute information of the subject;
A second recording means for assigning priority to the plurality of attribute information and recording in association with the image signal;
Display control means for displaying the image signal and the attribute information on the display device;
With
The display control means sets a display frame for displaying the image signal within the display surface of the display device, and enlarges or reduces the image signal recorded by the first recording means to be within the display frame. Display, determine the number of attribute information that can be displayed outside the display frame, and among the attribute information recorded in association with the image signal by the second recording means, attribute information equal to or less than the display number according to the priority order. Select to display outside the display frame
An information processing apparatus characterized by that .
前記画像信号はJPEG圧縮されて記録される
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the image signal is JPEG compressed and recorded .
前記画像信号と前記属性情報とは異なる圧縮方式により圧縮されて記録される
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1 , wherein the image signal and the attribute information are compressed and recorded by a different compression method .
さらに前記表示枠の変更指示手段を備え、前記表示制御手段は変更された表示枠に応じて前記画像信号を拡大もしくは縮小して表示し、前記表示枠外に表示可能な属性情報の個数を変更して、優先順位に従って表示個数以下の属性情報を選択し、前記表示枠外に表示する
ことを特徴とする請求項1に記載の情報処理装置。
Further, the display frame change instruction means is provided, and the display control means enlarges or reduces the image signal according to the changed display frame, and changes the number of attribute information that can be displayed outside the display frame. The information processing apparatus according to claim 1 , wherein attribute information equal to or less than a display number is selected according to priority and displayed outside the display frame .
JP15382196A 1996-06-14 1996-06-14 Information processing device Expired - Fee Related JP3760510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15382196A JP3760510B2 (en) 1996-06-14 1996-06-14 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15382196A JP3760510B2 (en) 1996-06-14 1996-06-14 Information processing device

Publications (2)

Publication Number Publication Date
JPH104534A JPH104534A (en) 1998-01-06
JP3760510B2 true JP3760510B2 (en) 2006-03-29

Family

ID=15570837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15382196A Expired - Fee Related JP3760510B2 (en) 1996-06-14 1996-06-14 Information processing device

Country Status (1)

Country Link
JP (1) JP3760510B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000224566A (en) * 1999-02-02 2000-08-11 Sony Corp Device, method and system for processing information and providing medium
WO2003049424A1 (en) 2001-12-03 2003-06-12 Nikon Corporation Electronic apparatus, electronic camera, electronic device, image display apparatus, and image transmission system
JP6070010B2 (en) * 2011-11-04 2017-02-01 ヤマハ株式会社 Music data display device and music data display method

Also Published As

Publication number Publication date
JPH104534A (en) 1998-01-06

Similar Documents

Publication Publication Date Title
US6188432B1 (en) Information processing method and apparatus for displaying and zooming an object image and a line drawing
JPH104531A (en) Information processor
JP4397054B2 (en) Information input device
JP3664335B2 (en) Information input device
JP3894376B2 (en) Information processing device
JP3755141B2 (en) Information processing device
JPH10228483A (en) Information processor
US7174053B2 (en) Information processing apparatus
JPH10228479A (en) Information processor
JP3760510B2 (en) Information processing device
JP4099680B2 (en) Information processing device
JP2005027335A (en) Information input apparatus
JP3985102B2 (en) Information input device
JP3918228B2 (en) Information processing apparatus and recording medium
JP4570171B2 (en) Information processing apparatus and recording medium
JP4360395B2 (en) Information processing device
JP4110575B2 (en) Electronic camera
JP3758096B2 (en) Information processing device
JP4571111B2 (en) Information processing apparatus and recording medium
JP4210962B2 (en) Electronic camera
JP4310711B2 (en) Information processing apparatus and recording medium
JP2006211720A (en) Information processing apparatus
JP3584265B2 (en) Information input device
JPH09331495A (en) Information input device
JPH10224677A (en) Information processor and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060102

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 9

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees