JP2004194193A - Imaging device and method therefor, and image display device and method therefor - Google Patents

Imaging device and method therefor, and image display device and method therefor Download PDF

Info

Publication number
JP2004194193A
JP2004194193A JP2002362301A JP2002362301A JP2004194193A JP 2004194193 A JP2004194193 A JP 2004194193A JP 2002362301 A JP2002362301 A JP 2002362301A JP 2002362301 A JP2002362301 A JP 2002362301A JP 2004194193 A JP2004194193 A JP 2004194193A
Authority
JP
Japan
Prior art keywords
image
unit
character
display
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002362301A
Other languages
Japanese (ja)
Inventor
Hirotaka Ishikawa
博隆 石川
Yuko Mimura
優子 三村
Jun Nagai
潤 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002362301A priority Critical patent/JP2004194193A/en
Publication of JP2004194193A publication Critical patent/JP2004194193A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize an image pickup device, capable of enhancing entertainment properties and its method, and to provide an image display device and its method. <P>SOLUTION: When a character image string, corresponding to each unit movement, is successively read out, by successively designating the unit movements at random from among the character image strings for expressing each unit movement, which are respectively assigned in each unit movement of a plural kinds of the unit movements performed by a character, while the image is being displayed, each read-out character image string is superposed and is displayed on the displayed image as animation, after designating in the order of making transiting each unit movement so as to continuously connect each unit movement each other. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は撮像装置及びその方法並びに画像表示装置及びその方法に関し、例えば撮像素子によって撮像された画像を記録媒体に記録するディジタルカメラに適用して好適なものである。
【0002】
【従来の技術】
従来、この種のディジタルカメラにおいては、撮像素子に結像された映像をカメラ本体に設けられた表示画面の表示画面に動画像として表示させながら、ユーザが所望するタイミングで撮像した静止画像を順次メモリカードに記録するようになされている。
【0003】
そして近年では、ディジタルカメラに設けられた表示画面の表示画面に、メーカ等が指定したキャラクタのアニメーションを必要に応じて撮像画像に重畳表示させるようにしたものが提案されている。
(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開平9−322024号公報(第1頁〜第2頁、図1)
【0005】
【発明が解決しようとする課題】
しかし、このようなアニメーションを撮像画像に重畳する手法は、単にディジタルカメラに搭載された自動調整機能をユーザに伝えるためにキャラクタの色などを変化させるに過ぎず、液晶モニタの表示画面に表示されるキャラクタが、ある動作時に決まったアニメーションが繰り返されるもの、又はアニメーションの動作パターンを予想できるほど単調なものであり、ユーザは決まりきった行動が繰り返されるもとと認識していた。
【0006】
さらにキャラクタの各アニメーションに連続性をもたせず、キャラクタが機器動作の切り替わりとともに瞬時に現れたり消えたりしていたのが現状であり、例えユーザに親しみをもってもらうためにキャラクタを表示させるようにしても、キャラクタ自体の存在に臨場感がないため、ユーザに親しみを持たせることは非常に困難であった。
【0007】
本発明は以上の点を考慮してなされたもので、エンターテインメント性を向上させ得る撮像装置及びその方法並びに画像表示装置及びその方法を提案しようとするものである。
【0008】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、被写体を撮像する撮像手段と、撮像手段による撮像画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列がそれぞれ割り当てられ、当該各キャラクタ画像列の全てが予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を記憶手段に記憶されている全てのキャラクタ画像列の中から順次読み出す読出制御手段と、読出制御手段により読み出された各キャラクタ画像列をアニメーションとして、表示手段に表示されている撮像画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0009】
この結果この撮像装置では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0010】
また本発明においては、被写体を撮像する撮像手段と、撮像手段による撮像画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作の先頭のキャラクタ画像を表す3次元データがそれぞれ割り当てられ、当該各3次元データの全部又は一部が予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを記憶手段から順次読み出し又は必要に応じて他の3次元データを用いて補完する読出制御手段と、読出制御手段により読み出され又は補完された各3次元データに基づく開始画像から、対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示手段に表示されている撮像画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0011】
この結果この撮像装置では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0012】
さらに本発明においては、被写体を撮像して得られる撮像画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作を表現するためのキャラクタ画像列の中から、順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を順次読み出す第2のステップと、読み出された各キャラクタ画像列をアニメーションとして、表示されている撮像画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0013】
この結果この撮像方法では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0014】
さらに本発明においては、被写体を撮像して得られる撮像画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作の先頭のキャラクタ画像を表す3次元データの全部又は一部から、順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを順次読み出し又は必要に応じて他の3次元データを用いて補完する第2のステップと、読み出され又は補完された各3次元データに基づく開始画像から対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示されている撮像画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0015】
この結果この撮像方法では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0016】
さらに本発明においては、画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列がそれぞれ割り当てられ、当該各キャラクタ画像列の全てが予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を記憶手段に記憶されている全てのキャラクタ画像列の中から順次読み出す読出制御手段と、読出制御手段により読み出された各キャラクタ画像列をアニメーションとして、表示手段に表示されている画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0017】
この結果この画像表示装置では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0018】
さらに本発明においては、画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作の先頭のキャラクタ画像を表す3次元データがそれぞれ割り当てられ、当該各3次元データの全部又は一部が予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを記憶手段から順次読み出し又は必要に応じて他の3次元データを用いて補完する読出制御手段と、読出制御手段により読み出され又は補完された各3次元データに基づく開始画像から、対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示手段に表示されている撮像画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0019】
この結果この画像表示装置では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0020】
さらに本発明においては、画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作を表現するためのキャラクタ画像列の中から、順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を順次読み出す第2のステップと、読み出された各キャラクタ画像列をアニメーションとして、表示されている画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0021】
この結果この画像表示方法では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0022】
さらに本発明においては、画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作の先頭のキャラクタ画像を表す3次元データの全部又は一部から、順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを順次読み出し又は必要に応じて他の3次元データを用いて補完する第2のステップと、読み出され又は補完された各3次元データに基づく開始画像から対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示されている撮像画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにした。
【0023】
この結果この画像表示方法では、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0024】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0025】
(1)ディジタルカメラの全体構成
図1において、1は全体としてディジタルカメラを示し、投影レンズ2を介して入射した撮像光L1をCCD(Charge Coupled Divice :電荷結合素子)3の撮像面において光電変換することにより撮像信号S1を得、これをCDS(Correlated Double Sampling:相関2重サンプリング回路)及びAGC(Auto Gain Control :自動利得制御回路)部4に送出する。
【0026】
CDS及びAGC部4は、撮像信号S1にリセット雑音が発生する期間においてその信号レベルを所定電位でクランプすることによつて雑音成分を低減すると共に、当該撮像信号S1の振幅を自動的に調整して出力を所定値に制御することによってコントラストの変動を防止する。このようにして得られた撮像信号S2は続くアナログ/ディジタル変換(A/D)部5に送出され、ディジタル撮像信号S3に変換された後、信号処理部6に送出される。
【0027】
信号処理部6は、ディジタル撮像信号S3に対してY/C分離、ホワイトバランス調整処理及びγ(ガンマ)補正等を施した後、これをマトリクス処理によってビデオ信号S4に変換し、これをメモリコントローラ7に送出する。
【0028】
これらCCD3、CDS及びAGC部4、A/D変換部5、信号処理部6及びメモリコントローラ7は、バス8を介してディジタルカメラ1全体の制御を司るCPU(Central Processing Unit )9と接続され、当該CPU9の制御に基づいて各種動作を実行するようになされている。
【0029】
メモリコントローラ7は、通常の被写体確認時(すわなち動画撮像時)には、ビデオ信号S4をフレーム単位でRAM(Random Access Memory)10に順次書き込むと共に、ビデオエンコーダ11を介して所定方式(例えばNTSC(National Television System Committee)方式等)のコンポジット信号S5に変換した後、これを液晶モニタ12及び外部接続端子13に送出する。
【0030】
その際、メモリコントローラ7は、ユーザからズーム処理等の指令を受けた場合には、ビデオ信号S4をフレーム単位でそれぞれ指定倍率に拡大又は縮小した後、これら拡大画像又は縮小画像としてRAM10に順次書き込むと共に、ビデオエンコーダ11を介して液晶モニタ12の表示画面12Aに表示させる。
【0031】
これにより液晶モニタ12の表示画面12Aにコンポジット信号S5に基づく動画像(以下、これをファインダ画像と呼ぶ)がリアルタイムで表示されると共に、外部接続端子13に例えばパーソナルコンピュータやビデオモニタ等(図示せず)が接続されている場合には、当該外部接続端子13を介して供給されたコンポジット信号S5に基づくファインダ画像がリアルタイムで表示される。
【0032】
またCPU9には、動作プログラムや各定数が記憶されているROM(Read Only Memory)14と、ディジタルカメラ1の動作に関する各種定数や各種情報を電源遮断時にも記憶し続けることができる不揮発性メモリ15とがバス8を介して接続され、これらのメモリ14、15に対して各種データを必要に応じて記録及び又は再生し得るようになされている。
【0033】
さらにCPU9には、各種キー等からなる操作部16がI/O(Input/Output)ポート17及び続くバス8を介して接続されると共に、メモリカードスロット18がカードインターフェイス19及び続くバス8を介して接続されており、ユーザによる操作部16による操作内容及びメモリカードMCの挿脱に応じた伝達信号を受けるようになされている。
【0034】
ここでユーザが操作部16のうちのシャッタボタン(図示せず)を押圧操作したとき(すなわち静止画撮像時)には、CPU9からバス8を介して記録指令信号S10がメモリコントローラ7に送出され、これによりメモリコントローラ7は、RAM10にビデオ信号S4を書き込みながら当該ビデオ信号S4に基づく複数のフレーム画像の中からシャッタ時に撮像したフレーム画像を読み出した後、バス8を介してデータ圧縮伸長部20に送出する。
【0035】
このデータ圧縮伸長部20は、RAM10から読み出されたフレーム画像に対してJPEG(Joint Photographic Experts Groupe )規格に基づく圧縮符号化処理を行うことにより、画像情報が圧縮されたフレーム画像を得る。かくして得られた圧縮フレーム画像は、CPU9の制御に応じて、カードI/F19を介してメモリカードスロット18に挿入されているメモリカードMCに書き込まれるようになされている。
【0036】
ここでユーザが操作部16のうちのモード切換スイッチ(図示せず)を操作して撮像モードから再生モードに切り換えると、CPU9はOSD(On Screen Display)21に読出指令信号S11を送出して、当該OSD21に予め記録されている再生モードの設定メニュー(以下、これを再生メニューと呼ぶ)を表す文字パターン(例えば「インデックス」や「プリント」等)を読み出させた後、ビデオエンコーダ11を介して液晶モニタ12の表示画面12Aに重畳表示させる。
【0037】
次いでユーザによる操作部16のうちの十字キー(図示せず)の操作に応じて再生メニューの中から「インデックス」表示が選択設定されると、CPU9は、カードI/F19及びメモリカードスロット18を介してメモリカードMCに選択設定信号S12を送出して、当該メモリカードMCに書き込まれている複数の圧縮フレーム画像の中からユーザが選択した所定数(例えば6枚)の圧縮フレーム画像を読み出して、これらをバス8を介してデータ圧縮伸長部20に送出する。
【0038】
データ圧縮伸長部20は、CPU9の制御に応じて、与えられた所定数の圧縮フレーム画像に対してそれぞれ伸長復号処理を行って元のフレーム画像に復元した後、これらをバス8を介してRAM10に一旦書き込むと共に、メモリコントローラ7に送出する。
【0039】
メモリコントローラ7は、CPU9の制御のもとで所定数のフレーム画像をそれぞれ所定倍率に縮小した後、これらをインデックス画像としてRAM10に書き込むと共に、ビデオエンコーダ11を介して液晶モニタ12の表示画面12Aに表示させる。
【0040】
このように液晶モニタ12の表示画面12Aに表示された所定数のインデックス画像の中からユーザによる操作部16のうちの十字キー(図示せず)の操作に応じて所望のインデックス画像が選択されると、CPU9はRAM10から当該インデックス画像に対応する元のフレーム画像を読み出してメモリコントローラ7に送出する。メモリコントローラ7は、フレーム画像をそのままRAM10に書き込むと共に、ビデオエンコーダ11を介して液晶モニタ12の表示画面12Aに表示する。
【0041】
因みにOSD21には、再生メニューを表す文字パターンの他に、保存又はキャンセルを表す文字パターンや、種々の大きさ及び形状を有する複数の画枠パターンが予め記録されており、上述と同様にユーザの操作に応じてCPU9から読出指令信号S11が与えられると、OSD21は当該読出指令信号S11に基づく文字パターン又は画枠パターンを読み出して液晶モニタ12の表示画面12Aに重畳表示する。
【0042】
一方、OSD21は、文字パターン又は画枠パターンが液晶モニタ12の表示画面12Aのどの位置に表示されているかを表す表示位置信号S13をCPU9に送出する。これによりCPU9は、表示位置信号S13に基づいて現在液晶モニタ12の表示画面12Aに表示されている文字パターン又は画枠パターンが当該表示画面12Aのどの位置に表示されているかを常時判断することができる。
【0043】
ここでRAM10は、図2(A)に示すような内部構造を有し、プログラムワーク(Program Work)領域AR1、第1及び第2のファインダ(Finder)領域AR2、AR3、キャプチャ(Capture)領域AR4、ムービ(Movie)領域AR5及びイメージワーク(Image Work)領域AR6のように区分されている。
【0044】
このうちプログラムワーク領域AR1は、メモリコントローラ7及びCPU9がプログラムの実行時に用いる作業領域である。また第1及び第2のファインダ領域AR2、AR3は、リアルタイムでファインダ画像を提供するための領域であり、供給されるビデオ信号S4が一方のファインダ領域に書き込まれると同時に他方から読み出されるといった一連の動作が行われる。
【0045】
キャプチャ領域AR4は、静止画撮像時に、撮像対象となったビデオ信号S4に基づくフレーム画像を記録するための領域であり、ムービ領域AR5は、動画撮像時に、第1及び第2のファインダ領域AR2、AR3から交互に再生されたビデオ信号S4を、画像サイズ変換やデータ圧縮等を施してメモリカードMCに記録する際に一旦記録するための領域である。
【0046】
さらにイメージワーク領域AR6は、本実施の形態によるキャラクタのアニメーション表示に必要が各種画像データ等を記録するための領域であり、図2(B)に示すように、JPEGファイルワーク(File Work)領域AR6X、JPEGファイル(Files)領域AR6Y及びローイメージワーク(Raw Image Work)領域AR6Zからなる。
【0047】
(2)本実施の形態によるキャラクタのアニメーション表示方法
(2−1)キャラクタのアニメーション生成
本実施の形態では、ディジタルカメラ1に搭載された液晶モニタ12の表示画面12Aに撮像結果として得られるファインダ画像を表示した状態で、ユーザが所望するキャラクタのアニメーションを同時に重畳して表示させるようになされている。
【0048】
かかる本実施の形態によるアニメーション表示方法では、所望のキャラクタをモチーフとした複数種類のキャラクタ画像の集合であるキャラクタ画像群を予め用意しておき、キャラクタが行う各種の単位動作ごとに、当該単位動作を表現するために必要な複数のキャラクタ画像を適宜選択して連続的に組み合わせるようにし、当該連続性のあるキャラクタ画像列を上述したファインダ画像の表示タイミングに同期させながらアニメーションとして表示画面12の表示画面12Aに表示させるようになされている。
【0049】
このようなキャラクタの単位動作は、図3に示すような動作遷移表として表すことができ、「正面向き」、「喜ぶ」、「困る」、「踊る」、「ジャンプ」、「宙返り」、「左を向く」、「右を向く」、「左へ2歩移動」及び「右へ2歩移動」等の各単位動作ND〜ND10が所定条件下で相互に遷移し得るようになされている。
【0050】
例えば「正面向き」の単位動作NDを行っているキャラクタに対して「左へ向く」の単位動作NDが選択された場合には、図4に示すような、当該単位動作NDに対応する複数のキャラクタ画像P1〜P8を連続的に組み合わせるようにして当該単位動作NDを実現している。
【0051】
その際、キャラクタのアニメーション表示に連続性をもたせるべく、キャラクタの現在の単位動作から次に遷移する単位動作が自然かつ滑らかにつながるように、単位動作同士の遷移条件を設定する必要がある。さらには、かかる単位動作同士の遷移条件を、ユーザにとって予測不可能なランダムに遷移し続けるように設定する必要もある。
【0052】
このためキャラクタが実行可能な全ての単位動作について、現在の単位動作から次の単位動作への遷移確率を表した遷移確率テーブルを予め設定しておき、キャラクタの各単位動作をつなぐ際に、この遷移確率テーブルに対して、例えば線形合同法により発生した乱数を照らし合わせることにより、キャラクタの次の単位動作を決定するようになされている。
【0053】
なおキャラクタの単位動作同士の遷移が不連続となる場合には、当該単位動作同士の遷移確率は0に設定するようになされている。上述した図3における動作遷移表では、遷移確率0の単位確率同士では矢印を省略するようにした。
【0054】
またキャラクタの単位動作ごとのアニメーション表示において、通常時にはランダムに単位動作を選択するのであるが、ユーザによる各種の操作内容やディジタルカメラ内部の機器状況等に基づく要求(以下、これをリクエストと呼ぶ)があったときには、通常時のランダム選択を中止して、かかるリクエストに応じた単位動作を選択するようになされている。この場合でも、現在の単位動作からリクエストに応じた単位動作への連続性を保持すべく、当該リクエストに応じた単位動作と近似する単位動作を逐次抽出しながら最適な単位動作を選択するようになされている。
【0055】
(2−2)キャラクタ画像群の読込み
本実施の形態においては、キャラクタのアニメーション表示に使用するキャラクタ画像群を全てJPEG規格に基づく圧縮符号化処理が行われたJPEGファイルデータとしてメモリカードMCに格納しておくようになされている。
【0056】
そしてディジタルカメラ1の起動時に、CPU9が、これらアニメーション表示用の全てのJPEGファイルデータをRAM10に取り込んで記録するようになされていている。その際、RAM10では、イメージワーク領域AR6のうちのJPEGファイル領域AR6Y(図2(B))に順次アドレス指定して記録するようになされている。
【0057】
(2−3)アニメーション表示
このようにキャラクタのアニメーション表示に使用する全てのJPEGファイルデータをRAM10に記録した後、決定された単位動作に対応するキャラクタ画像群を当該RAM10から読み出して、表示画面12の表示画面12Aにファインダ画像と共にアニメーションとして重畳表示させる。
【0058】
具体的に、まずCPU9は、JPEGファイルデータとしてのキャラクタ画像群をRAM10から読み出して、データ圧縮伸長部20に送出して当該キャラクタ画像群を順次伸長処理を施してファインダ画像と同じ画像フォーマットでなる生画像でなるキャラクタ画像群に変換する。かかる伸長処理は、キャラクタ画像の単位動作ごとに適宜行われる。データ圧縮伸長部20において伸長された生画像でなるキャラクタ画像群は、RAM10のイメージワーク領域AR6を構成するローイメージワーク領域AR6Zに格納される。
【0059】
ここで実際に、単位動作ごとのキャラクタ画像列は、図5に示すように、RAM10のイメージワーク領域AR6を構成するローイメージワーク領域AR6Zから読み出して複数のキャラクタ画像を順番に組み合わせて構築するようになされている。
【0060】
具体的には、まずキャラクタ画像群における各キャラクタ画像にはそれぞれ対応する番号(以下、これをキャラクタ番号と呼ぶ)P〜P(Zは全枚数)がシリアルに割り当てられると共に、RAM10内のローイメージワーク領域AR6Zにおける各キャラクタ画像の格納位置がそれぞれアドレスID(Identity)として割り当てられており、当該各キャラクタ画像ごとのキャラクタ番号とアドレスIDとの対応関係を規定したテーブル(以下、これを画像対応テーブルと呼ぶ)がRAM10のプログラムワーク領域AR1に格納されている。
【0061】
そして複数の単位動作M1、M2、……、MX(Xは自然数)のうち、例えば単位動作M1が指定されると、CPU9は、当該単位動作M1に対応するキャラクタ画像列NAを形成する複数のキャラクタ画像PA1、PA2、……、PNAに対応するキャラクタ番号を表示順に指定した後、当該各キャラクタ番号に対応するアドレスIDを上述した画像対応テーブルに基づいてそれぞれ検索する。
【0062】
続いてCPU9は、メモリコントローラ7を制御して、RAM10内のローイメージワーク領域AR6Zから当該検索したアドレスIDに対応するキャラクタ画像を順次読み出した後、当該複数のキャラクタ画像をそしてRAM10から読み出した複数のキャラクタ画像PA1、PA2、……、PNAを上述の表示順に組み合わせることにより、指定された単位動作に対応するキャラクタ画像列M1を構築する。
【0063】
なお、各キャラクタ画像列N1、N2、……、NXは、単位動作M1、M2、……、MXごとにそれぞれキャラクタ画像数PA1〜PNA、PB1〜PNB、PC1〜PNC、PD1〜PND、……、PY1〜PYAが決定されているため、全ての単位動作が同じ数のキャラクタ画像を用いているわけではない。
【0064】
このようにRAM10には全ての単位動作に必要なキャラクタ画像群をフレーム単位で1枚ずつアドレス指定して格納しておき、単位動作が指定されるごとに当該単位動作に対応するキャラクタ画像列に必要なキャラクタ画像をRAM10から読み出して当該キャラクタ画像列を構築するようにした分、キャラクタ画像列ごとに動画データを予め用意しておく場合と比較して、RAM10のデータ使用量を格段と低減させることができるという利点がある。
【0065】
この後、メモリコントローラ7がRAM10の第1又は第2のファインダ領域AR2、AR3から順次交互にビデオ信号S4に基づくフレーム画像を読み出してビデオエンコーダ11に転送する直前に、当該第1又は第2のファインダ領域AR2、AR3の対応する側においてフレーム画像(すなわちファインダ画像)に、RAM10のイメージワーク領域AR6から読み出したキャラクタ画像を順次1フレームずつ重畳させることにより、当該キャラクタ画像をファンイダ画像の表示タイミングに同期させて表示画面12の表示画面12Aに重畳表示させる。
【0066】
このように表示画面12の表示画面12Aに各キャラクタ画像を順次1フレームずつファインダ画像に重畳表示させる場合、RAM10の第1及び第2のファインダ領域AR2、AR3からフレーム画像(ファインダ画像)が1/30〔秒〕ごとに交互に読み出されることから、生画像であるキャラクタ画像をRAM10のイメージワーク領域AR6から順次1フレームずつ読み出すタイミングも1/30〔秒〕ごとに設定するようになされている。
【0067】
さらにメモリコントローラ7は、RAM10から読み出したキャラクタ画像列をビデオエンコーダ11を介して液晶モニタ12の表示画面12Aにアニメーションとして重畳表示させる際に、当該キャラクタの単位動作に合わせて表示画面12の表示画面12A上での表示位置をランダムに設定するようになされている。
【0068】
具体的には、メモリコントローラ7が、CPU9の制御に基づいて、表示画面12の表示画面12A内でのキャラクタ画像列を形成する各キャラクタ画像の座標位置を、当該表示画面12Aに必要に応じて表示されるメニューバー(図示せず)等を覆い隠すことのない表示範囲内でランダムに選択するようになされている。但し、この場合も現在の単位動作から次の単位動作に連続性を維持しながら遷移するように、あたかもキャラクタが表示画面12A内を自然に動き回るかのように、各キャラクタ画像の座標位置が選択される。
【0069】
(2−4)背景抜き処理
ここで上述したキャラクタ画像は、キャラクタ自体を表すキャラクタ画像部分(この項目以外では、これを単にキャラクタ画像と呼ぶ)と、当該キャラクタ画像部分を除いた背景画像部分とから形成されており、当該背景画像部分の色相レベルがキャラクタ画像部分の色相レベルに対してほぼ対極の関係(例えば補色の関係又はこれに近い関係)となるように予め設定されている。
【0070】
そして表示画面12の表示画面12Aにおいて、各キャラクタ画像を順次1フレームずつファインダ画像に重畳表示させる際には、JPEG規格に基づく画像データには透明色が圧縮対象として採用されていないため、当該各キャラクタ画像のうち背景画像部分を、ファインダ画像に重畳させることなく事前に抜き取る必要がある。
【0071】
このためCPU9は、各キャラクタ画像について、フレーム内で画素単位で色相レベルを順次検出しながら、背景画像部分に相当する色相レベルの範囲内であるか否かを判断し、当該判断結果に基づいて、フレームごとに背景画像部分の範囲を求めることにより、当該背景画像部分をキャラクタ画像から抜き取るようになされている。
【0072】
(2−5)明るさ調整
表示画面12の表示画面12Aに表示されたキャラクタ画像が、その周辺のファインダ画像と明るさが異なる場合には、キャラクタ画像の明るさを周辺のファインダ画像の明るさに一致させることにより、キャラクタ画像を周辺画像に順応させて、より臨場感及び現実味を増した表現を行い得るようになされている。
【0073】
具体的にはCPU9は、キャラクタ画像全体の輝度レベルの平均値とファインダ画像全体の輝度レベルの平均値とをそれぞれ算出し、キャラクタ画像全体の輝度レベルをファインダ画像全体の輝度レベルに一致するように調整する。
【0074】
なお、このようなキャラクタ画像とファインダ画像全体との輝度レベルの調整は自動的に行うのみならず、ユーザが所望する状態に調整されない場合には、ユーザの操作により手動で双方の輝度レベルを調整し得るようになされている。
【0075】
(3)キャラクタのアニメーション表示処理手順RT1
実際にこのディジタルカメラ1では、表示画面12の表示画面12Aにファインダ画像を表示された状態で、ユーザの操作によりキャラクタモードが選択されると、CPU9は、図6に示すアニメーション表示処理手順RT1をステップSP0から開始し、続くステップSP2において、表示画面12の表示画面12Aに最初に「正面を向く」を表す単位動作に応じたキャラクタのアニメーションを表示させる。
【0076】
続いてCPU9は、ユーザの操作内容やディジタルカメラ内部の機器状況に基づくリクエストを受けたか否かを判断し、肯定結果を得た場合にはステップSP3に進んで、当該リクエストに対応する単位動作に遷移可能か否か、すなわち遷移確率が0でないか否かを判断する。
【0077】
このステップSP3において肯定結果を得ると、このことは現在の単位動作からリクエストに対応する単位動作に連続的に遷移可能であることを表しており、このときCPU9は、ステップSP4に進んで、リクエストに対応する単位動作のアニメーションを表示画面12の表示画面12Aに重畳表示させる。
【0078】
これに対してステップSP3において否定結果を得ると、このことはリクエストに対応する単位動作への遷移が不連続となることを表しており、このときCPU9は、当該リクエストに応じた単位動作と近似する単位動作の中から連続性を維持し得る最適な単位動作を選択した後、当該単位動作のアニメーションを表示画面12の表示画面12Aに重畳表示させる。
【0079】
一方、ステップSP2において否定結果を得ると、このことは何らリクエストを受けない通常時であることを表しており、このときCPU9は、ステップSP6に進んで、現在の単位動作から遷移可能な単位動作をランダムに決定して、当該決定された単位動作のアニメーションを表示画面12の表示画面12Aに重畳表示させる。
【0080】
このようにステップSP4〜SP6で単位動作のアニメーションを表示させると、CPU9は、ステップSP7に進んで、当該単位動作の終了までに次のリクエストを受けたか否かを判断し、肯定結果を受けた場合には、再度ステップSP3に戻って上述と同様の処理を繰り返す。
【0081】
一方、ステップSP7において否定結果を得ると、このことは何らリクエストを受けていないことを表しており、このときCPU9は、ステップSP8に進んで、ユーザの操作によりキャラクタモードの選択が解除されたか否かを判断する。
【0082】
このステップSP8において否定結果を得ると、CPU9は、再度ステップSP6に戻って通常時のランダムに選択した連続性を維持できる単位動作のアニメーションを表示画面12の表示画面12Aに重畳表示させた後に、ステップSP7−SP3−SP4−SP7又はステップSP7−SP8−SP6−SP7の各ループを繰り返しながら、ステップSP8において否定結果が得られるのを待つ。
【0083】
一方、ステップSP8において肯定結果が得られると、このことはユーザの操作によりキャラクタのアニメーション表示が終了されたことを表しており、このときCPU9はそのままステップSP9に進んで、当該アニメーション表示処理手順RT1を終了する。
【0084】
(4)会話表示処理手順RT2
このディジタルカメラ1においては、キャラクタのアニメーション表示処理に加えて、かかるキャラクタを用いてユーザとコミュニケーションをとる機能を有している。
【0085】
具体的には、表示画面12の表示画面12Aにアニメーションとしてキャラクタが表示された状態において、当該キャラクタの口に相当する部分から吹き出した形に描く台詞(セリフ)の文字列を囲む曲線(以下、これを吹出しと呼ぶ)をファインダ画像に重畳して画像表示させることにより、当該吹出し画像に含まれるセリフ内容をユーザに目視確認させるものである。
【0086】
この吹出し画像に含まれるセリフ内容は、ユーザの操作内容やディジタルカメラ内部の機器状況等のリクエストに応答する会話内容であり、当該会話内容を制御するオブジェクトをCPU9が順次生成するようになされている。
【0087】
その際、メモリコントローラ7が、CPU9の制御に基づいて、表示画面12の表示画面12A内での吹出し画像の座標位置を、当該表示画面12Aに必要に応じて表示されるメニューバー(図示せず)等を覆い隠すことのない表示範囲内で最適位置に選択するようになされている。
【0088】
このとき吹出し画像を表示画面12の表示画面12A内での最適位置に表示させるためにキャラクタのアニメーションを移動させる必要があるときは、メモリコントローラ7は、アニメーションとなるキャラクタ画像列を形成する各キャラクタ画像の座標位置を、単位動作同士の連続性を維持することを前提として、最適位置に決定するようになされている。
【0089】
実際にこのディジタルカメラ1では、表示画面12の表示画面12Aにファインダ画像を表示された状態で、ユーザの操作により会話表示モードが選択されると、CPU9は、図7に示す会話表示処理手順RT2をステップSP10から開始し、続くステップSP11において、既に上述したキャラクタモードが選択されているか否かを判断する。
【0090】
このステップSP11において肯定結果を得ると、CPU9は、ステップSP12に進んで、キャラクタのアニメーションを現在の単位動作で液晶モニタ12の表示画面12Aに表示させたまま、ステップSP13に進む。
【0091】
これに対してステップSP11において否定結果を得ると、CPU9は、ステップSP14に進んで、液晶モニタ12の表示画面12Aに最初に「正面を向く」を表す単位動作に応じたキャラクタのアニメーションを表示させた後、ステップSP13に進む。
【0092】
このステップSP13において、CPU9は、ユーザの操作内容やディジタルカメラ内部の機器状況に基づくリクエストを受けたか否かを判断し、肯定結果を得た場合にはステップSP15に進んで、当該リクエストに応答する吹出し画像を表示可能か否か判断する。
【0093】
このステップSP15において肯定結果を得ると、CPU9は、ステップSP17に進んで、リクエストに応答する吹出し画像をキャラクタのアニメーションに合わせて表示させた後、ステップSP18に進む。
【0094】
これに対してステップSP15において否定結果を得ると、このことは現在キャラクタの単位動作が行われている最中か、又は現在のキャラクタのアニメーション表示位置では吹出し画像を連続性を維持しながら表示できないことを表しており、このときCPU9は、ステップSP16に進んで、現在の単位動作が終了するのを待つか、又はキャラクタのアニメーション表示位置を最適位置に移動させる。その後、CPU9は、ステップSP17に進んで、リクエストに応答する吹出し画像をキャラクタのアニメーションに合わせて表示させた後、ステップSP18に進む。
【0095】
このステップSP18において、CPU9は、当該吹出し画像の表示中に次のリクエストを受けたか否かを判断し、肯定結果を得た場合には再度ステップSP15に進んで上述と同様の処理を繰り返す一方、否定結果を得た場合にはそのままステップSP19に進む。
【0096】
一方、上述のステップSP13において、リクエストを受けないという否定結果を得たときも、CPU9は、そのままステップSP19に進む。
【0097】
このステップSP19において、CPU9は、ユーザの操作により会話表示モードの選択が解除されたか否かを判断し、肯定結果が得られると、そのままステップSP20に進んで、当該会話表示処理手順RT2を終了する。
【0098】
これに対してステップSP19において否定結果が得られると、CPU9は、再度ステップSP13に戻って上述と同様の処理をステップSP19において否定結果が得られるまで繰り返す。
【0099】
(5)静止画へのキャラクタの写し込み
上述したキャラクタのアニメーション表示方法に加えて、本実施の形態では、ディジタルカメラ1において、実際に液晶モニタ12の表示画面12Aに表示されているファインダ画像のうちユーザの操作に応じた撮像タイミングでのファインダ画像をキャラクタ画像を重畳した状態で静止画としてメモリカードMCに記録することができるようになされている。
【0100】
具体的な静止画の生成方法として、メモリコントローラ7は、ユーザの操作に応じた撮像タイミングで、撮像結果として得られるビデオ信号S4に基づくフレーム画像(ファインダ画像)をRAM10のキャプチャ領域に書き込んだ後、JPEG規格による圧縮符号化や画像サイズ変換等を行う前に、当該キャプチャ領域に書き込まれているフレーム画像にキャラクタ画像を重ねて書き込むようにして、ファインダ画像へのキャラクタ画像の写し込みを実現している。
【0101】
その際、静止画としてのファインダ画像に対してキャラクタ画像を重畳させる座標位置は、液晶モニタ12の表示画面12Aに表示されているキャラクタ画像の座標位置と対応させて決定する。また上述した背景抜き処理や明るさ調整もアニメーション表示方法の場合と同様に行う。
【0102】
なお本実施の形態におけるRAM10では、キャプチャ領域は第1又は第2のファインダ領域よりも大きいため、液晶モニタ12の表示画面12Aに表示させる場合よりも一層大きなキャラクタ画像を必要とする。
【0103】
そこで、メモリカードMCにアニメーション用のキャラクタ画像(例えば、64×80ピクセル)と、対応する静止画用のキャラクタ画像(例えば、408×512ピクセル)とを2種類用意して記憶させておく。アニメーション用のキャラクタ画像と静止画用のキャラクタ画像との画像サイズの比は、キャプチャ領域AR4と第1又は第2のファインダ領域AR2、AR3との比である。
【0104】
実際には、RAM10のキャプチャ領域AR4に書き込まれているフレーム画像(ファインダ画像)に静止画用のキャラクタ画像を重ねて書き込む前段階として、当該キャラクタ画像をメモリカードMCから読み出してRAM10のイメージワーク領域AR6を構成するJPEGファイルワーク領域AR6Yに記録した後、続いてデータ圧縮伸長部20を介して伸長処理して当該イメージワーク領域AR6を構成するローイメージワーク領域AR6Zに記録するようになされている。
【0105】
このようなキャラクタ画像が写し込まれた静止画を作成することにより、当該静止画を写真としてプリントアウトしたり、パーソナルコンピュータのディスプレイ画面上に表示させたりすれば、キャラクタの存在により一層臨場感をもたせると共にユーザにとってのアミューズメント性を向上させることができる。
【0106】
(6)動画へのキャラクタの映し込み
本実施の形態では、上述の静止画へのキャラクタの写込みと同様に、ディジタルカメラ1において、実際に液晶モニタ12の表示画面12Aに表示されているファインダ画像のうちユーザの操作に応じて複数のファインダ画像群にリアルタイムでキャラクタ画像群をフレームごとに重畳した状態で動画としてメモリカードMCに記録することができるようになされている。
【0107】
具体的な動画の生成方法として、メモリコントローラ7は、ユーザの操作に応じた撮像中に、撮像結果として得られるビデオ信号S4に基づくフレーム画像群(ファインダ画像群)をRAM10のムービ領域に書き込んだ後、当該ムービ領域に書き込まれているフレーム画像群にキャラクタ画像群をフレームごとに重ねて書き込むようにして、ファインダ画像群へのキャラクタ画像群の映し込みを実現している。
【0108】
なお本実施の形態におけるRAM10では、ムービ領域は第1又は第2のファインダ領域と同じであるため、動画への映し込みにはアニメーション用のキャラクタ画像群を利用することができる。その他の処理は静止画像の写し込みと同様にするようにして、キャラクタの存在により一層臨場感をもたせると共にユーザにとってのアミューズメント性を向上させることができる効果を得ている。
【0109】
(7)本実施の形態による動作及び効果
以上の構成において、このディジタルカメラでは、複数種類の単位動作を表現可能なキャラクタについて、まず当該キャラクタを構築するために必要な全てのキャラクタ画像群をメモリカードMCから読み込んでRAM10に記録しておく。
【0110】
続いてディジタルカメラ1に搭載された液晶モニタ12の表示画面12Aに、撮像結果として得られるファインダ画像群をリアルタイムで表示させながら、当該表示タイミングに同期して、ランダムに又はユーザの操作内容やディジタルカメラ内部の機器状況等のリクエストにより決定された単位動作ごとに、RAM10から読み出したキャラクタ画像列に基づくアニメーションを重畳表示させる。
【0111】
その際、キャラクタの現在の単位動作から次に遷移する単位動作が連続性を維持してつながるように単位動作同士の遷移条件を設定したことにより、キャラクタのアニメーションが表示画面内を自然かつ滑らかに移動させることができ、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができる。
【0112】
またディジタルカメラにおいては、液晶モニタ12の表示画面12Aにアニメーション表示されたキャラクタが、ユーザの操作内容やディジタルカメラ内部の機器状況等のリクエストに基づく吹出し画像をあたかも当該キャラクタが発しているかのように表示画面12Aに重畳表示するようにしたことにより、当該吹出し画像に含まれるセリフ内容をアミューズメント性を持たせてユーザに目視確認させることができる。
【0113】
さらにディジタルカメラ1において、実際に液晶モニタ12の表示画面12Aに表示されている静止画又は動画としてのファインダ画像のうちユーザの操作に応じた撮像タイミングでキャラクタ画像を重畳した状態で静止画又は動画としてメモリカードMCに記録するようにしたことにより、当該静止画又は動画を印刷やモニタ表示させるようにすれば、単なる撮像結果をキャラクタの存在により一層臨場感をもたせると共にユーザにとってのアミューズメント性を向上させることができる。
【0114】
以上の構成によれば、このディジタルカメラにおいて、液晶モニタ12の表示画面12Aに撮像結果として得られるファインダ画像をリアルタイムで表示した状態で、当該表示タイミングに同期して、ランダムに又はユーザの操作内容やディジタルカメラ内部の機器状況等のリクエストにより決定された単位動作ごとに、キャラクタのアニメーションを同時に重畳表示させると共に、当該単位動作同士のつながりに連続性を持たせるようにしたことにより、あたかもキャラクタが表示画面12A内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得るディジタルカメラ1を実現できる。
【0115】
(8)他の実施の形態
なお上述の本実施の形態においては、本発明による撮像装置として図1に示すようなディジタルカメラ1を適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成からなる撮像装置に広く適用することができると共に、腕時計、携帯電話、携帯情報機器(PDA:Personal Digital Assistannts)などのモバイル機器としての画像表示装置にも広く適用することができる。
【0116】
また上述の実施の形態においては、被写体を撮影する撮像手段を、撮像部3、CDS及びAGC部4、A/D変換部5及び信号処理部6から構成するようにした場合について述べたが、本発明はこれに限らず、被写体の撮影結果を画像データとして得ることができれば、この他種々の構成からなる撮像手段を適用するようにしても良い。
【0117】
さらに上述の実施の形態においては、撮像結果としての撮像画像を表示する表示手段として、ディジタルカメラ1に搭載された液晶モニタ12を適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成からなる表示手段に広く適用することができ、またケーブル等の有線や無線LAN等の無線を介して電気的に接続されていれば、ディジタルカメラ1本体から分離していても良い。
【0118】
さらに上述の実施の形態においては、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列がそれぞれ割り当てられ、当該各キャラクタ画像列の全てが予め記憶されている記憶手段として、メモリカードMCから読み出された全てのキャラクタ画像列を取り込んだRAM10を適用するようにした場合について述べたが、本発明はこれに限らず、外部メモリを全く有することなく、最初から内部メモリであるRAM10に全てのキャラクタ画像列を予めを記録しておくようにしても良い。
【0119】
さらにキャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列を全て予め記憶しておくようにした場合に限らず、キャラクタ画像列に代えて、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作の先頭のキャラクタ画像を表す3Dデータ(3次元データ)を予め全部又は一部をRAM(記憶手段)10に取り込んでおき、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを順次読み出し又は必要に応じて他の3次元データを用いて補完することにより、当該各3次元データに基づく開始画像から対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示手段に表示されている撮像画像に重畳表示させるようにしても良い。
【0120】
その際、いわゆる3Dエンジンソフトウェアを用いて3次元データを処理する場合に、ベジェ(Bezier)曲線を用いた補完方法を用いて、3次元データに基づく画像が滑らかになるように、他の3次元データから間の3次元データを補完するようにした場合について述べたが、本発明はこれに限らず、これ以外にも、Bスプライン(Beta-Spline)曲線、エルミート(Hermite)曲線、有理ベジェ(Rational Bezier)曲線及びNURBS(Non Uniform Rational Beta-Spline:非一様有理Bスプライン)曲線等の複合曲線を用いて3次元データを補完するようにしても良い。
【0121】
さらに上述の実施の形態においては、RAM(記憶手段)14に記憶されている全てのキャラクタ画像列の中から順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を順次読み出す読出制御手段を、メモリコントローラ7及びCPU9から構成するようにした場合について述べたが、本発明はこれに限らず、要はキャラクタ画像列をランダムに指定すると共に、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定することができれば、この他種々の構成からなる読出制御手段に広く適用することができる。
【0122】
一方、上述した3次元データを用いる場合には、当該読出制御手段は、RAM(記憶手段)10に記憶されている全ての3次元データの中から順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを順次読み出し又は補完するようにすれば良い。
【0123】
さらにかかる読出制御手段を構成するメモリコントローラ7及びCPU9は、ユーザによる各種の操作内容やディジタルカメラ内部の機器状況等に基づく要求に基づくリクエストを受けた場合には、RAM(記憶手段)14に記憶されている全てのキャラクタ画像列の中からリクエストに対応する単位動作を指定して、当該単位動作に対応するキャラクタ画像列を読み出すようにした場合について述べたが、リクエストを表すユーザの操作内容や装置内外(内部のみならず外部も含む)の状況は各種自由に設定することができる。
【0124】
例えば、ユーザの操作内容として、マウス操作等により移動可能な矢印ポインタを用意しておき、ユーザの操作に応じてキャラクタが動いていって欲しい位置に矢印ポイントを指定するようにしても良い。このように指定位置が決定されると、当該指定位置にキャラクタが動いて行くようにすれば良い。
【0125】
またユーザの操作内容として、液晶モニタ12の表示画面12Aに表示されるメニューからチュートリアルという項目が選択されると、キャラクタがディジタルカメラ1の使い方についてチュートリアルを行うようにしても良い。具体的にはシャッタを半押しでオートフォーカスが固定されることや、ズームの機能の使い方を説明する。説明の流れはパターンが決められており、その流れに沿ってオブジェクトにリクエストを送り、ボタン操作が正しくなされたかの判断もする。
【0126】
またユーザの操作内容として、ある状態でユーザが特定の操作を行うと、キャラクタが反応した動作を行うようにしても良い。具体的には、シャッタを半押しのときにはキャラクタが振り返る動作をし、またフラッシュの発光後にはキャラクタは「まぶしい」というジェスチャを行う。
【0127】
さらにユーザの操作内容として、ユーザが写真を撮影した後、その写真や撮像時の状態についてキャラクタが評価をするようにしても良い。この場合、撮り直したほうがいいものについてはその旨を説明する。具体的には、暗すぎるからフラッシュつけて撮り直したほうがいいとか、ピンボケや手ブレの可能性があるからもう一度撮り直すのがいいなどのアドバイスをする。暗さは画像から判断することが可能で、ピンボケ、手ブレについても画像に基づいて判断(コントラストによる判断やオートフォーカス機能と同じ手法)するが、手ブレは加速度や速度センサがある場合はそれらで判断してもよい。
【0128】
一方、装置内外の状況として、既存の画像認識エンジンから得られた情報を元にキャラクタを動かすようにしても良い。具体的には、2次元のパターンコードを認識してアニメーションの動作や位置を変えることや、特定色に反応させてキャラクタの動作、位置、色を変えることが可能である。
【0129】
また装置内外の状況として、バッテリ残量が少なくなったことをキャラクタが伝えるようにしても良い。多くのデジタルカメラがバッテリ残量についての情報を持っているため、かかる情報を利用して、アニメーションや会話でバッテリが少ないことを伝える。例えば、キャラクタが困っている状態をアニメーションで表現し、「バッテリを充電して」とリクエストを投げるようにする。
【0130】
さらに装置内外の状況として、画像を保存しておくメモリカードMCの残量(残り撮像可能枚数、撮像可能時間)をキャラクタが伝えるようにしても良い。例えば、残り撮像枚数が2枚以下のときや、撮像可能時間が15秒以下の時は会話機能により情報を伝える。特に残量不足で撮像が不可能な場合は警告する。
【0131】
さらに装置内外の状況として、デジタルカメラが周辺の機器と通信を行うとき、その経過情報をキャラクタが伝えるようにしても良い。例えば、通信速度が遅くなったらキャラクタが疲れた状態をアニメーションで表現したり、通信障害がある場合は、その旨をユーザに伝える。また無線通信の場合、電波状況を伝えるようにしても良い。
【0132】
さらに装置内外の状況として、キャラクタが、ディジタルカメラ1に設けられている各種のセンサの検知結果に基づいて、カメラ周辺の温度、湿度の状況をユーザに伝えるようにしても良い。特にカメラの定格範囲を超える場合に警告を出す。さらに、加速度、速度を測定することで、カメラに衝撃が加わったとき「いたい」とユーザーに伝え、カメラを雑に扱わないように促す。
【0133】
さらに装置内外の状況として、ディジタルカメラ1において設定されている種々の警告(コーション)をキャラクタがユーザに対して伝えるようにしても良い。例えばメモリカードMCが突然抜かれてしまった場合や、RAM10等に書き込みアクセスできない場合などが生じたとき、警告としてキャラクタがユーザに伝える。
【0134】
さらに上述の実施の形態においては、RAM10から読み出された各キャラクタ画像列をアニメーションとして、液晶モニタ(表示手段)12の表示画面12Aに表示されているファインダ画像(撮像画像)に重畳表示させる表示制御手段を、メモリコントローラ7、CPU9及びビデオエンコーダ11から構成するようにした場合について述べたが、本発明はこれに限らず、OSD21を加えるようにしても良く、さらにはメモリコントローラ7に代えてOSD21を用いるようにしても良い。要はキャラクタ画像列をアニメーションとしてファインダ画像に重畳表示することができれば、表示制御手段の構成は種々のものを適用するようにしても良い。
【0135】
また上述した3次元データを用いる場合には、当該表示制御手段は、メモリコントローラ7及びCPU9(読出制御手段)により読み出された各3次元データに基づく開始画像から対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、液晶モニタ(表示手段)12に表示されている撮像画像に重畳表示させるようにすればよい。
【0136】
その際、表示制御手段は、各3次元データからキャラクタ画像列を生成する機能を予め有しているようにした場合について述べたが、本発明はこれに限らず、RAM(記憶手段)10にいわゆる3Dエンジンソフトウェアを3次元データを処理するプログラムとして予め記憶させておき、必要に応じて当該RAM(記憶手段)10から読み出すようにしても良い。
【0137】
さらに上述の実施の形態においては、ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各キャラクタ画像列(又は3次元データ)でなるアニメーションを基準として、リクエストに応じた吹出し画像を撮像画像に重畳表示させるようにした場合について述べたが、本発明はこれに限らず、吹出し画像のみならず、意味付けされたマークなどの種々の表示内容をキャラクタのアニメーションに関連付けて同時に表示するようにしても良い。
【0138】
さらに上述の実施の形態においては、各キャラクタ画像列(又は各3次元データ)でなるアニメーションを液晶モニタ(表示手段)12の表示画面12Aに表示されているファインダ画像(撮像画像)に重畳表示させた状態で、ユーザの操作により、表示画面12Aの表示状態を静止画又は動画として記録する記録手段を、CPU9及びメモリカードMCから構成するようにした場合について述べたが、本発明はこれに限らず、メモリカードMC以外の種々の構成からなる外部メモリに広く適用するようにしても良く、外部メモリのみならず、RAM10等の内部メモリを適用するようにしても良い。
【0139】
また各キャラクタ画像列でなるアニメーションをファインダ画像(撮像画像)に重畳表示させた状態で静止画又は動画として記録する以外にも、当該アニメーションを記録することなく、ユーザの操作による撮影時にキャラクタの座標位置を記憶しておいて、ファインダ画像のみを静止画又は動画として記録した後で、必要に応じて当該静止画又は動画でなるファインダ画像にキャラクタのアニメーションを重畳表示させるようにしても良い。例えばJPEGのタグにキャラクタ情報を付け加え、写真を見るときに必要に応じてキャラクタを表示したり非表示にしたりし得るようにすれば良い。
【0140】
さらに上述の実施の形態においては、液晶モニタ12の表示画面12Aに表示されるキャラクタのサイズは一定のままであったが、本発明はこれに限らず、ディジタルカメラ1のズーム機能に合わせてキャラクタの大きさや位置を変化させるようにしても良い。すなわちズームによる画面の拡大縮小に連動して、キャラクタの大きさと位置を変えるようにすれば良い。この結果、キャラクタの存在に一層臨場感を出すことができるという効果が得られる。ズーム情報から目的の大きさと位置を算出可能であるため、当該算出結果に基づきキャラクタの大きさと位置で重畳表示させる。大きさの変更を行う場合、RAM10のイメージワーク領域内のローイメージワーク領域に記録されている画像を一度、メモリコントローラ7を介してから重畳表示させる必要がある。
【0141】
さらに上述の実施の形態においては、ディジタルカメラ1にはスピーカを搭載しない場合について述べたが、スピーカを搭載させるようにしても良い。この場合、キャラクタのアニメーションの動作内容に合わせて各種の効果音を出すようにすれば良い。例えば、キャラクタが歩く動作を行うときにはその歩きに合わせて足音を出すようにする。音声データは予めプログラム上に書いておき、アニメーションに合わせて音声データをサウンドチップに送ることにより当該音声データに基づく音声をアニメーションオブジェクトによる所定タイミングで放音させれば良い。
【0142】
さらに上述の実施の形態においては、リアルタイムのファインダ画像にキャラクタのアニメーションを重畳表示させる際に、単一のキャラクタに限定されている場合について述べたが、本発明はこれに限らず、複数種類のキャラクタを設定しておき、ユーザが所望するキャラクタを選択できるようにしても良い。
【0143】
さらに上述の実施の形態においては、画像データをJPEG規格に基づくデータフォーマットに従って圧縮符号化するようにした場合について述べたが、これ以外にも、TIFF(Tagged Image File Format)、DCF(Design Rule for Camera File System)、Exif(Exchangeable Image File Format)、CIFF(Camera Image File Format)、GIF(Graphics Interchange Format)、BMP(Bit Map)、PICT(Quick Draw Picture Format)及びFPX(Flash Pix)等の種々の画像ファイル形式により画像データD1を管理し、必要に応じて圧縮符号化するようにしても良い。
【0144】
【発明の効果】
上述のように本発明によれば、被写体を撮像する撮像手段と、撮像手段による撮像画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列がそれぞれ割り当てられ、当該各キャラクタ画像列の全てが予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を記憶手段に記憶されている全てのキャラクタ画像列の中から順次読み出す読出制御手段と、読出制御手段により読み出された各キャラクタ画像列をアニメーションとして、表示手段に表示されている撮像画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る撮像装置を実現できる。
【0145】
また本発明によれば、被写体を撮像する撮像手段と、撮像手段による撮像画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作の先頭のキャラクタ画像を表す3次元データがそれぞれ割り当てられ、当該各3次元データの全部又は一部が予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを記憶手段から順次読み出し又は必要に応じて他の3次元データを用いて補完する読出制御手段と、読出制御手段により読み出され又は補完された各3次元データに基づく開始画像から、対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示手段に表示されている撮像画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る撮像装置を実現できる。
【0146】
また本発明によれば、被写体を撮像して得られる撮像画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作を表現するためのキャラクタ画像列の中から、順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を順次読み出す第2のステップと、読み出された各キャラクタ画像列をアニメーションとして、表示されている撮像画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る撮像方法を実現できる。
【0147】
さらに本発明によれば、被写体を撮像して得られる撮像画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作の先頭のキャラクタ画像を表す3次元データの全部又は一部から、順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを順次読み出し又は必要に応じて他の3次元データを用いて補完する第2のステップと、読み出され又は補完された各3次元データに基づく開始画像から対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示されている撮像画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る撮像方法を実現できる。
【0148】
さらに本発明によれば、画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列がそれぞれ割り当てられ、当該各キャラクタ画像列の全てが予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を記憶手段に記憶されている全てのキャラクタ画像列の中から順次読み出す読出制御手段と、読出制御手段により読み出された各キャラクタ画像列をアニメーションとして、表示手段に表示されている画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る画像表示装置を実現できる。
【0149】
さらに本発明によれば、画像を表示する表示手段と、キャラクタが行う複数種類の単位動作ごとに、当該各単位動作の先頭のキャラクタ画像を表す3次元データがそれぞれ割り当てられ、当該各3次元データの全部又は一部が予め記憶されている記憶手段と、複数種類の単位動作の中から順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを記憶手段から順次読み出し又は必要に応じて他の3次元データを用いて補完する読出制御手段と、読出制御手段により読み出され又は補完された各3次元データに基づく開始画像から、対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示手段に表示されている撮像画像に重畳表示させる表示制御手段とを設け、読出制御手段は、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る画像表示装置を実現できる。
【0150】
さらに本発明によれば、画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作を表現するためのキャラクタ画像列の中から、順次単位動作をランダムに指定して、当該各単位動作に対応するキャラクタ画像列を順次読み出す第2のステップと、読み出された各キャラクタ画像列をアニメーションとして、表示されている画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る画像表示方法を実現できる。
【0151】
さらに本発明によれば、画像を表示する第1のステップと、キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各単位動作の先頭のキャラクタ画像を表す3次元データの全部又は一部から、順次単位動作をランダムに指定して、当該各単位動作に対応する3次元データを順次読み出し又は必要に応じて他の3次元データを用いて補完する第2のステップと、読み出され又は補完された各3次元データに基づく開始画像から対応する単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、表示されている撮像画像に重畳表示させる第3のステップとを設け、第2のステップでは、各単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定するようにしたことにより、あたかもキャラクタが表示画面内に存在しているかのような印象をユーザに与えることができ、かくしてエンターテインメント性を向上させ得る画像表示方法を実現できる。
【図面の簡単な説明】
【図1】本実施の形態によるディジタルカメラの構成を示すブロック図である。
【図2】図1に示すRAMの内部構成である記録領域の説明に供する略線図である。
【図3】キャラクタの単位動作の遷移条件を規定する動作遷移表の説明に供する略線図である。
【図4】キャラクタの単位動作の例を示す平面的な略線図である。
【図5】単位動作ごとのキャラクタ画像列の説明に供する略線図である。
【図6】キャラクタのアニメーション表示処理手順の説明に供するフローチャートである。
【図7】会話表示処理手順の説明に供するフローチャートである。
【符号の説明】
1……ディジタルカメラ、6……信号処理部、7……メモリコントローラ、9……CPU、10……RAM、11……ビデオコンコーダ、12……液晶モニタ、16……操作部、MC……メモリカード、RT1……アニメーション表示処理手順、RT2……会話表示処理手順。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging apparatus and method, and an image display apparatus and method, and is suitably applied to, for example, a digital camera that records an image captured by an imaging device on a recording medium.
[0002]
[Prior art]
Conventionally, in a digital camera of this type, a still image captured by a user at a desired timing is sequentially displayed while displaying a video image formed on an image sensor as a moving image on a display screen of a display screen provided in the camera body. The data is recorded on a memory card.
[0003]
In recent years, there has been proposed a type in which an animation of a character designated by a maker or the like is superimposed on a captured image as necessary on a display screen of a display screen provided in a digital camera.
(For example, see Patent Document 1).
[0004]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 9-322024 (Pages 1 and 2, FIG. 1)
[0005]
[Problems to be solved by the invention]
However, such a method of superimposing an animation on a captured image merely changes the color of a character or the like in order to inform a user of an automatic adjustment function mounted on a digital camera, and is displayed on a display screen of an LCD monitor. The user has recognized that the determined animation is repeated when a certain action is performed or the action pattern of the animation is monotonous so as to be predictable, and the determined action is repeated.
[0006]
Furthermore, each animation of the character does not have continuity, and the character appears and disappears instantly as the device operation switches, so even if the character is displayed to get the user familiar with it, Since the presence of the character itself has no sense of presence, it is very difficult to give the user a familiarity.
[0007]
The present invention has been made in consideration of the above points, and has as its object to propose an imaging device and a method thereof, and an image display device and a method thereof capable of improving entertainment.
[0008]
[Means for Solving the Problems]
In order to solve such a problem, according to the present invention, an image pickup unit for picking up an image of a subject, a display unit for displaying an image picked up by the image pickup unit, and a plurality of types of unit actions performed by a character are used to represent each unit action. Character image sequences are assigned respectively, and all the character image sequences are stored in advance, and a unit operation is sequentially designated at random from a plurality of types of unit operations, and the character images correspond to the respective unit operations. Reading control means for sequentially reading out the character image sequence to be read from all the character image sequences stored in the storage means, and each character image sequence read by the reading control means is displayed on the display means as animation. Display control means for superimposing and displaying the captured image is provided, and the read control means connects each unit operation while maintaining continuity. The each unit operation was to be specified in order to transition to.
[0009]
As a result, with this imaging device, it is possible to give the user an impression as if the character is present on the display screen.
[0010]
Further, in the present invention, an imaging unit for imaging a subject, a display unit for displaying an image captured by the imaging unit, and a three-dimensional image representing a head character image of each unit operation for each of a plurality of types of unit operations performed by the character Data is assigned to each of the three-dimensional data, and all or part of the three-dimensional data is pre-stored, and a plurality of types of unit operations are sequentially designated at random to correspond to each unit operation. Reading control means for sequentially reading out the three-dimensional data to be read from the storage means or supplementing it with other three-dimensional data as necessary, and starting images based on the three-dimensional data read or complemented by the reading control means. While sequentially generating a character image representing the corresponding unit action, the character image sequence is displayed on the display means as an animation. And display control means for superimposing displayed on the captured image provided that, the read control means, and as specified in the order in which the unit operation to each other to shift the respective unit operation so as to be connected to maintain continuity.
[0011]
As a result, with this imaging device, it is possible to give the user an impression as if the character is present on the display screen.
[0012]
Further, in the present invention, a first step of displaying a captured image obtained by capturing an image of a subject, and a character image sequence for expressing each unit action assigned to each of a plurality of types of unit actions performed by the character A second step of sequentially designating the unit actions randomly from among them and sequentially reading out the character image strings corresponding to the respective unit actions, and a captured image displayed using the read out character image strings as an animation And a third step of superimposing the unit operations is provided. In the second step, the unit operations are designated in the order of transition so that the unit operations are connected while maintaining continuity.
[0013]
As a result, this imaging method can give the user an impression as if the character is present in the display screen.
[0014]
Further, in the present invention, a first step of displaying a captured image obtained by capturing an image of a subject, and a three-dimensional image representing a head character image of each unit operation assigned to each of a plurality of types of unit operations performed by the character A second step of sequentially designating unit operations randomly from all or a part of the data and sequentially reading out three-dimensional data corresponding to each of the unit operations, or supplementing with other three-dimensional data as necessary And sequentially generating a character image representing a corresponding unit action from a start image based on the read or complemented three-dimensional data, and superimposing the character image sequence on the displayed captured image as an animation. A third step of causing each unit operation to be connected while maintaining continuity. It was to be specified in the order in which to transition the work.
[0015]
As a result, this imaging method can give the user an impression as if the character is present in the display screen.
[0016]
Further, in the present invention, a display means for displaying an image, and a character image sequence for expressing each unit operation are assigned to each of a plurality of types of unit operations performed by the character. All of the character image sequences stored in the storage means, in which the storage means stored in advance and the unit actions are randomly designated sequentially from among the plurality of types of unit actions, and the character image strings corresponding to the respective unit actions are stored in the storage means. Read control means for sequentially reading from among the characters, and display control means for superimposing and displaying, as an animation, each character image sequence read by the read control means on the image displayed on the display means, wherein the read control means comprises: Each unit operation is specified in the order of transition so that the unit operations are connected while maintaining continuity.
[0017]
As a result, in this image display device, it is possible to give the user an impression as if the character is present on the display screen.
[0018]
Further, in the present invention, display means for displaying an image, and three-dimensional data representing a leading character image of each unit action are assigned to each of a plurality of types of unit actions performed by the character. A storage unit in which all or part of the unit operation is stored in advance, and a unit operation is sequentially designated at random from a plurality of types of unit operations, and three-dimensional data corresponding to each of the unit operations is sequentially read from the storage unit. A character image representing a corresponding unit action is sequentially read from a readout control unit that complements the image data using other three-dimensional data in accordance with the three-dimensional data and a start image based on the three-dimensional data read out or complemented by the readout control unit. Display control means for superimposing and displaying the character image sequence as an animation on the captured image displayed on the display means while generating. Only, read control means, and as specified in the order in which the unit operation to each other to shift the respective unit operation so as to be connected to maintain continuity.
[0019]
As a result, in this image display device, it is possible to give the user an impression as if the character is present on the display screen.
[0020]
Further, in the present invention, a first step of displaying an image and a random sequence of unit actions are sequentially performed from a character image sequence for expressing each unit action assigned to each of a plurality of types of unit actions performed by the character. A second step of sequentially reading the character image sequence corresponding to each unit operation, and a third step of superimposing and displaying each read character image sequence as an animation on the displayed image. In the second step, the unit operations are specified in the order of transition so that the unit operations are connected while maintaining continuity.
[0021]
As a result, with this image display method, it is possible to give the user an impression as if the character is present on the display screen.
[0022]
Further, in the present invention, a first step of displaying an image, and all or a part of three-dimensional data representing a leading character image of each unit action assigned to each of a plurality of types of unit actions performed by the character, A second step of sequentially designating unit operations randomly and sequentially reading out three-dimensional data corresponding to each unit operation or supplementing with other three-dimensional data as necessary; A third step of sequentially generating a character image representing a corresponding unit action from the start image based on each of the three-dimensional data and superimposing the character image sequence on the displayed captured image as an animation. In the second step, the unit operations are designated in the order in which the unit operations are transitioned so that the unit operations are connected while maintaining continuity. It was so.
[0023]
As a result, with this image display method, it is possible to give the user an impression as if the character is present on the display screen.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0025]
(1) Overall configuration of digital camera
In FIG. 1, reference numeral 1 denotes a digital camera as a whole, and an image pickup signal S1 is obtained by photoelectrically converting an image pickup light L1 incident via a projection lens 2 on an image pickup surface of a charge coupled device (CCD) 3. This is sent to a CDS (Correlated Double Sampling) and an AGC (Auto Gain Control) unit 4.
[0026]
The CDS and AGC unit 4 reduces the noise component by clamping the signal level at a predetermined potential during a period in which reset noise is generated in the image signal S1, and automatically adjusts the amplitude of the image signal S1. By controlling the output to a predetermined value, a change in contrast is prevented. The imaging signal S2 obtained in this manner is sent to the subsequent analog / digital conversion (A / D) section 5, where it is converted to a digital imaging signal S3 and sent to the signal processing section 6.
[0027]
The signal processing unit 6 performs Y / C separation, white balance adjustment processing, γ (gamma) correction, and the like on the digital image pickup signal S3, and converts the digital image signal S3 into a video signal S4 by matrix processing. 7
[0028]
The CCD 3, CDS and AGC unit 4, A / D converter 5, signal processor 6, and memory controller 7 are connected to a CPU (Central Processing Unit) 9 that controls the entire digital camera 1 via a bus 8. Various operations are executed based on the control of the CPU 9.
[0029]
The memory controller 7 sequentially writes the video signal S4 into a RAM (Random Access Memory) 10 on a frame basis at the time of normal subject confirmation (that is, at the time of capturing a moving image), and performs a predetermined method (for example, After converting into a composite signal S5 of the NTSC (National Television System Committee) system or the like, this is transmitted to the liquid crystal monitor 12 and the external connection terminal 13.
[0030]
At this time, when a command such as a zoom process is received from the user, the memory controller 7 enlarges or reduces the video signal S4 to a designated magnification in frame units, and then sequentially writes the enlarged or reduced image in the RAM 10. At the same time, the image is displayed on the display screen 12A of the liquid crystal monitor 12 via the video encoder 11.
[0031]
As a result, a moving image based on the composite signal S5 (hereinafter referred to as a finder image) is displayed on the display screen 12A of the liquid crystal monitor 12 in real time, and a personal computer, a video monitor, or the like (shown in FIG. ) Is connected, the finder image based on the composite signal S5 supplied via the external connection terminal 13 is displayed in real time.
[0032]
The CPU 9 has a ROM (Read Only Memory) 14 in which an operation program and various constants are stored, and a non-volatile memory 15 which can continuously store various constants and various information relating to the operation of the digital camera 1 even when the power is turned off. Are connected via a bus 8 so that various data can be recorded and / or reproduced to and from these memories 14 and 15 as necessary.
[0033]
Further, an operation unit 16 composed of various keys and the like is connected to the CPU 9 via an I / O (Input / Output) port 17 and the following bus 8, and a memory card slot 18 is connected via a card interface 19 and the following bus 8. And receives a transmission signal according to the content of operation by the user through the operation unit 16 and insertion / removal of the memory card MC.
[0034]
Here, when the user presses a shutter button (not shown) of the operation unit 16 (that is, at the time of capturing a still image), the CPU 9 sends a recording command signal S10 to the memory controller 7 via the bus 8. Thus, the memory controller 7 reads the frame image captured at the time of shutter from the plurality of frame images based on the video signal S4 while writing the video signal S4 in the RAM 10, and then sends the data compression / decompression unit 20 via the bus 8. To send to.
[0035]
The data compression / expansion unit 20 performs compression encoding processing based on the JPEG (Joint Photographic Experts Groupe) standard on the frame image read from the RAM 10 to obtain a frame image in which image information is compressed. The compressed frame image thus obtained is written to the memory card MC inserted into the memory card slot 18 via the card I / F 19 under the control of the CPU 9.
[0036]
Here, when the user operates the mode changeover switch (not shown) of the operation unit 16 to switch from the imaging mode to the reproduction mode, the CPU 9 sends a read command signal S11 to the OSD (On Screen Display) 21 and After causing the OSD 21 to read a character pattern (for example, “index” or “print”) representing a playback mode setting menu (hereinafter, referred to as a playback menu) recorded in advance, via the video encoder 11. To superimpose on the display screen 12A of the liquid crystal monitor 12.
[0037]
Next, when the “index” display is selected and set from the playback menu in response to the operation of the cross key (not shown) of the operation unit 16 by the user, the CPU 9 sets the card I / F 19 and the memory card slot 18 to A selection setting signal S12 is transmitted to the memory card MC via the memory card MC, and a predetermined number (for example, six) of compressed frame images selected by the user are read out from the plurality of compressed frame images written in the memory card MC and read out. Are transmitted to the data compression / decompression unit 20 via the bus 8.
[0038]
Under the control of the CPU 9, the data compression / decompression unit 20 performs a decompression decoding process on a given number of given compressed frame images to restore them to the original frame images, and then restores these to the RAM 10 via the bus 8. , And sends it to the memory controller 7.
[0039]
The memory controller 7 reduces each of the predetermined number of frame images to a predetermined magnification under the control of the CPU 9, writes these as index images in the RAM 10, and displays the frame images on the display screen 12 A of the liquid crystal monitor 12 via the video encoder 11. Display.
[0040]
As described above, a desired index image is selected from the predetermined number of index images displayed on the display screen 12A of the liquid crystal monitor 12 in accordance with the operation of the cross key (not shown) of the operation unit 16 by the user. Then, the CPU 9 reads the original frame image corresponding to the index image from the RAM 10 and sends it to the memory controller 7. The memory controller 7 writes the frame image in the RAM 10 as it is, and displays the frame image on the display screen 12A of the liquid crystal monitor 12 via the video encoder 11.
[0041]
Incidentally, in addition to the character pattern representing the playback menu, a character pattern representing save or cancel, and a plurality of image frame patterns having various sizes and shapes are recorded in the OSD 21 in advance. When a read command signal S11 is given from the CPU 9 in response to the operation, the OSD 21 reads a character pattern or an image frame pattern based on the read command signal S11 and superimposes the character pattern or the image frame pattern on the display screen 12A of the liquid crystal monitor 12.
[0042]
On the other hand, the OSD 21 sends to the CPU 9 a display position signal S13 indicating where the character pattern or the image frame pattern is displayed on the display screen 12A of the liquid crystal monitor 12. Thereby, the CPU 9 can always determine at which position on the display screen 12A the character pattern or the image frame pattern currently displayed on the display screen 12A of the liquid crystal monitor 12 is displayed based on the display position signal S13. it can.
[0043]
Here, the RAM 10 has an internal structure as shown in FIG. 2A, and includes a program work (Program Work) area AR1, first and second finder areas AR2 and AR3, and a capture (Capture) area AR4. , A movie area AR5 and an image work area AR6.
[0044]
The program work area AR1 is a work area used by the memory controller 7 and the CPU 9 when executing a program. The first and second finder areas AR2 and AR3 are areas for providing a finder image in real time, and a series of video signals S4 supplied are written to one finder area and simultaneously read from the other. The operation is performed.
[0045]
The capture area AR4 is an area for recording a frame image based on the video signal S4 to be imaged at the time of capturing a still image, and the movie area AR5 is a first and second finder areas AR2, This is an area for temporarily recording the video signal S4 alternately reproduced from the AR3 when the video signal S4 is subjected to image size conversion, data compression, and the like and recorded on the memory card MC.
[0046]
Further, an image work area AR6 is an area for recording various image data and the like necessary for displaying an animation of a character according to the present embodiment. As shown in FIG. 2B, a JPEG file work (File Work) area AR6X, a JPEG file (Files) area AR6Y and a raw image work (Raw Image Work) area AR6Z.
[0047]
(2) Character animation display method according to the present embodiment
(2-1) Character animation generation
In the present embodiment, an animation of a character desired by the user is simultaneously superimposed and displayed while a finder image obtained as an imaging result is displayed on a display screen 12A of a liquid crystal monitor 12 mounted on the digital camera 1. Has been done.
[0048]
In the animation display method according to the present embodiment, a character image group that is a set of a plurality of types of character images with a desired character as a motif is prepared in advance, and for each of various unit operations performed by the character, the unit operation is performed. A plurality of character images necessary for expressing the character image are appropriately selected and continuously combined, and the character image sequence having continuity is displayed on the display screen 12 as an animation while being synchronized with the display timing of the finder image. The information is displayed on the screen 12A.
[0049]
The unit motion of such a character can be represented as a motion transition table as shown in FIG. 3, and includes "front facing", "please", "worry", "dancing", "jump", "slope", " Each unit operation ND such as "turn left", "turn right", "move left two steps", "move right two steps", etc. 1 ~ ND 10 Are able to transit with each other under predetermined conditions.
[0050]
For example, the unit operation ND of “front facing” 1 Unit movement ND of "turn left" for the character performing 7 Is selected, the unit operation ND as shown in FIG. 7 Is continuously combined with a plurality of character images P1 to P8 corresponding to the unit operation ND. 7 Has been realized.
[0051]
At that time, in order to provide continuity in the animation display of the character, it is necessary to set a transition condition between the unit actions so that the next unit action that transitions from the current unit action is naturally and smoothly connected. Further, it is necessary to set the transition condition between the unit operations so as to continuously transition at random which is unpredictable for the user.
[0052]
For this reason, for all unit actions that can be performed by the character, a transition probability table indicating the transition probability from the current unit action to the next unit action is set in advance, and when connecting each unit action of the character, By comparing the transition probability table with random numbers generated by, for example, a linear congruential method, the next unit motion of the character is determined.
[0053]
When the transition between the unit actions of the character is discontinuous, the transition probability between the unit actions is set to 0. In the operation transition table in FIG. 3 described above, arrows are omitted between unit probabilities with a transition probability of 0.
[0054]
In addition, in the animation display for each unit action of the character, the unit action is usually selected at random in a normal case. When there is, the normal random selection is stopped and a unit operation according to the request is selected. Even in this case, in order to maintain the continuity from the current unit operation to the unit operation corresponding to the request, the unit operation similar to the unit operation corresponding to the request is sequentially extracted and the optimal unit operation is selected. Has been done.
[0055]
(2-2) Reading of character image group
In the present embodiment, a group of character images used for displaying an animation of a character are all stored in the memory card MC as JPEG file data that has been subjected to a compression encoding process based on the JPEG standard.
[0056]
When the digital camera 1 is started, the CPU 9 takes in all the JPEG file data for animation display into the RAM 10 and records it. At that time, in the RAM 10, addresses are sequentially designated and recorded in the JPEG file area AR6Y (FIG. 2B) of the image work area AR6.
[0057]
(2-3) Animation display
After all the JPEG file data used for displaying the animation of the character are recorded in the RAM 10 as described above, a character image group corresponding to the determined unit operation is read out from the RAM 10 and the finder image is displayed on the display screen 12A of the display screen 12. Is superimposed and displayed as an animation.
[0058]
More specifically, first, the CPU 9 reads a character image group as JPEG file data from the RAM 10 and sends it to the data compression / decompression unit 20 to sequentially decompress the character image group to have the same image format as the finder image. Convert to a character image group consisting of raw images. Such decompression processing is appropriately performed for each unit operation of the character image. The character image group composed of the raw images decompressed by the data compression / decompression unit 20 is stored in the low image work area AR6Z constituting the image work area AR6 of the RAM 10.
[0059]
Here, the character image sequence for each unit operation is actually read from the low image work area AR6Z constituting the image work area AR6 of the RAM 10 and constructed by sequentially combining a plurality of character images as shown in FIG. It has been made.
[0060]
Specifically, first, each character image in the character image group has a corresponding number (hereinafter referred to as a character number) P 1 ~ P Z (Z is the total number), the storage positions of the character images in the low image work area AR6Z in the RAM 10 are allocated as address IDs (Identity), respectively, and the character number and the character number of each character image are assigned. A table (hereinafter, referred to as an image correspondence table) defining the correspondence with the address ID is stored in the program work area AR1 of the RAM 10.
[0061]
.., MX (X is a natural number), for example, when the unit operation M1 is designated, the CPU 9 causes the plurality of unit images M1 to form the character image sequence NA corresponding to the unit operation M1. Character image P A1 , P A2 , ……, P NA After specifying the character numbers corresponding to the character numbers in the display order, the address ID corresponding to each character number is searched based on the above-described image correspondence table.
[0062]
Subsequently, the CPU 9 controls the memory controller 7 to sequentially read out the character images corresponding to the searched address ID from the low image work area AR6Z in the RAM 10, and then read out the plurality of character images and the plurality of character images read out from the RAM 10. Character image P A1 , P A2 , ..., P NA Are combined in the display order described above to construct a character image sequence M1 corresponding to the specified unit action.
[0063]
Note that each character image sequence N1, N2,..., NX is the number of character images P for each unit operation M1, M2,. A1 ~ P NA , P B1 ~ P NB , P C1 ~ P NC , P D1 ~ P ND , ……, P Y1 ~ P YA Is determined, not all unit operations use the same number of character images.
[0064]
In this way, a character image group necessary for all the unit operations is stored in the RAM 10 by addressing one by one in frame units, and each time a unit operation is specified, a character image sequence corresponding to the unit operation is stored. Since the necessary character images are read from the RAM 10 to construct the character image sequence, the amount of data used in the RAM 10 is significantly reduced as compared with the case where moving image data is prepared in advance for each character image sequence. There is an advantage that can be.
[0065]
Thereafter, immediately before the memory controller 7 reads frame images based on the video signal S4 from the first or second finder areas AR2 and AR3 of the RAM 10 alternately and sequentially and transfers the frame images to the video encoder 11, the first or second frame image is read. The character images read from the image work area AR6 of the RAM 10 are superimposed one by one on the frame images (that is, the finder images) on the corresponding sides of the finder areas AR2 and AR3 so that the character images are displayed at the display timing of the fan finder image. Synchronously, it is superimposed on the display screen 12A of the display screen 12.
[0066]
When the character images are sequentially superimposed on the finder image one frame at a time on the display screen 12A of the display screen 12 in this manner, the frame image (finder image) from the first and second finder areas AR2 and AR3 of the RAM 10 is reduced by 1 /. Since the image is read alternately every 30 [seconds], the timing for reading out the character image, which is a raw image, from the image work area AR6 of the RAM 10 one frame at a time is also set every 1/30 [second].
[0067]
Further, when the memory controller 7 superimposes the character image sequence read from the RAM 10 on the display screen 12A of the liquid crystal monitor 12 as an animation via the video encoder 11, the display screen of the display screen 12 is synchronized with the unit operation of the character. The display position on 12A is set at random.
[0068]
Specifically, the memory controller 7 changes the coordinate position of each character image forming the character image sequence on the display screen 12A of the display screen 12 based on the control of the CPU 9 as needed on the display screen 12A. A menu bar (not shown) or the like to be displayed is randomly selected within a display range that does not obscure the menu bar. However, in this case as well, the coordinate position of each character image is selected as if the character naturally moves around in the display screen 12A so as to transition from the current unit operation to the next unit operation while maintaining continuity. Is done.
[0069]
(2-4) Background removal processing
The character image described above is formed from a character image portion representing the character itself (other than this item, this is simply called a character image) and a background image portion excluding the character image portion. The hue level of the image portion is set in advance so as to be substantially opposite to the hue level of the character image portion (for example, a complementary color relationship or a relationship similar thereto).
[0070]
On the display screen 12A of the display screen 12, when the character images are sequentially superimposed and displayed one frame at a time on the finder image, the image data based on the JPEG standard does not employ a transparent color as a compression target. It is necessary to extract the background image portion of the character image in advance without superimposing it on the finder image.
[0071]
For this reason, the CPU 9 determines whether or not each character image is within the range of the hue level corresponding to the background image portion while sequentially detecting the hue level for each pixel in the frame, and based on the determination result. By obtaining the range of the background image portion for each frame, the background image portion is extracted from the character image.
[0072]
(2-5) Brightness adjustment
When the brightness of the character image displayed on the display screen 12A of the display screen 12 is different from the brightness of the surrounding finder image, the brightness of the character image is made to match the brightness of the surrounding finder image, whereby the character image is displayed. Is adapted to the peripheral image so that expression with more realistic and realistic feeling can be performed.
[0073]
Specifically, the CPU 9 calculates the average value of the luminance level of the entire character image and the average value of the luminance level of the entire finder image, respectively, so that the luminance level of the entire character image matches the luminance level of the entire finder image. adjust.
[0074]
In addition, such adjustment of the brightness level of the character image and the entire finder image is performed not only automatically, but also when the user does not adjust the brightness level to a desired state, the brightness levels of both the brightness levels are manually adjusted by the user operation. It has been made to be able to.
[0075]
(3) Character animation display processing procedure RT1
In the digital camera 1, when the character mode is selected by a user operation in a state where the finder image is displayed on the display screen 12A of the display screen 12, the CPU 9 executes the animation display processing procedure RT1 shown in FIG. Starting from step SP0, in the following step SP2, the display screen 12A of the display screen 12 first displays an animation of the character corresponding to the unit motion representing "turns to the front".
[0076]
Subsequently, the CPU 9 determines whether or not a request based on the operation content of the user or the status of the device inside the digital camera has been received. If an affirmative result is obtained, the process proceeds to step SP3, where the unit operation corresponding to the request is performed. It is determined whether or not the transition is possible, that is, whether or not the transition probability is 0.
[0077]
If a positive result is obtained in step SP3, this means that it is possible to continuously transition from the current unit operation to the unit operation corresponding to the request. At this time, the CPU 9 proceeds to step SP4 to Is superimposed and displayed on the display screen 12A of the display screen 12.
[0078]
On the other hand, if a negative result is obtained in step SP3, this indicates that the transition to the unit operation corresponding to the request becomes discontinuous, and at this time, the CPU 9 approximates the unit operation corresponding to the request. After selecting an optimal unit operation capable of maintaining continuity from the unit operations to be performed, an animation of the unit operation is superimposed on the display screen 12A of the display screen 12.
[0079]
On the other hand, if a negative result is obtained in step SP2, it indicates that this is a normal time in which no request is received, and at this time, the CPU 9 proceeds to step SP6 and performs a unit operation that can transition from the current unit operation. Is randomly determined, and the animation of the determined unit operation is superimposed on the display screen 12A of the display screen 12.
[0080]
When the animation of the unit operation is displayed in steps SP4 to SP6, the CPU 9 proceeds to step SP7, determines whether the next request has been received by the end of the unit operation, and receives a positive result. In this case, the process returns to step SP3 and repeats the same processing as described above.
[0081]
On the other hand, if a negative result is obtained in step SP7, this means that no request has been received. At this time, the CPU 9 proceeds to step SP8 and determines whether or not the selection of the character mode has been canceled by the user's operation. Judge.
[0082]
If a negative result is obtained in step SP8, the CPU 9 returns to step SP6 again and superimposes the animation of the unit operation capable of maintaining the continuity selected at normal time on the display screen 12A of the display screen 12, While repeating each loop of steps SP7-SP3-SP4-SP7 or steps SP7-SP8-SP6-SP7, it waits until a negative result is obtained in step SP8.
[0083]
On the other hand, if a positive result is obtained in step SP8, this means that the animation display of the character has been terminated by the user's operation, and at this time, the CPU 9 proceeds directly to step SP9 to execute the animation display processing procedure RT1. To end.
[0084]
(4) Conversation display processing procedure RT2
The digital camera 1 has a function of communicating with the user using the character in addition to the animation display processing of the character.
[0085]
Specifically, in a state where the character is displayed as an animation on the display screen 12A of the display screen 12, a curve (hereinafter, referred to as a line) surrounding a character string of dialogue (line) drawn in a shape blowing out from a portion corresponding to the mouth of the character. This is referred to as ballooning) and is superimposed on the finder image to be displayed as an image, thereby allowing the user to visually confirm the contents of the dialogue included in the balloon image.
[0086]
The dialog content contained in the balloon image is a conversation content responding to a request such as a user operation content or a device status inside the digital camera, and the CPU 9 sequentially generates objects for controlling the conversation content. .
[0087]
At this time, based on the control of the CPU 9, the memory controller 7 displays the coordinate position of the balloon image on the display screen 12A of the display screen 12 as necessary on a menu bar (not shown) displayed on the display screen 12A. ), Etc., are selected at an optimum position within a display range that does not obscure.
[0088]
At this time, when it is necessary to move the animation of the character in order to display the balloon image at the optimum position on the display screen 12A of the display screen 12, the memory controller 7 controls each character forming the character image sequence to be animated. The coordinate position of the image is determined to be an optimal position on the premise that continuity between unit operations is maintained.
[0089]
In the digital camera 1, when the conversation display mode is selected by a user operation in a state where the finder image is displayed on the display screen 12A of the display screen 12, the CPU 9 executes the conversation display processing procedure RT2 shown in FIG. Is started from step SP10, and in the following step SP11, it is determined whether or not the above-described character mode has already been selected.
[0090]
If a positive result is obtained in step SP11, the CPU 9 proceeds to step SP12, and proceeds to step SP13 while displaying the animation of the character on the display screen 12A of the liquid crystal monitor 12 in the current unit operation.
[0091]
On the other hand, if a negative result is obtained in step SP11, the CPU 9 proceeds to step SP14 to cause the display screen 12A of the liquid crystal monitor 12 to first display an animation of the character corresponding to the unit operation indicating "turn to the front". After that, the process proceeds to step SP13.
[0092]
In this step SP13, the CPU 9 determines whether or not a request has been received based on the content of the user's operation or the status of the device inside the digital camera. It is determined whether the balloon image can be displayed.
[0093]
If a positive result is obtained in step SP15, the CPU 9 proceeds to step SP17 to display a balloon image in response to the request in accordance with the animation of the character, and then proceeds to step SP18.
[0094]
On the other hand, if a negative result is obtained in step SP15, this means that the balloon image cannot be displayed while maintaining continuity while the unit motion of the character is currently being performed or at the current animation display position of the character. At this time, the CPU 9 proceeds to step SP16, waits for the current unit operation to end, or moves the animation display position of the character to the optimum position. Thereafter, the CPU 9 proceeds to step SP17, displays a balloon image responding to the request in accordance with the animation of the character, and then proceeds to step SP18.
[0095]
In this step SP18, the CPU 9 determines whether or not the next request has been received during the display of the balloon image. If an affirmative result is obtained, the process proceeds to step SP15 again to repeat the same processing as described above. If a negative result is obtained, the process directly proceeds to step SP19.
[0096]
On the other hand, when a negative result indicating that the request is not received is obtained in step SP13, the CPU 9 proceeds directly to step SP19.
[0097]
In this step SP19, the CPU 9 determines whether or not the selection of the conversation display mode is canceled by the operation of the user, and if an affirmative result is obtained, proceeds directly to step SP20 to end the conversation display processing procedure RT2. .
[0098]
On the other hand, if a negative result is obtained in step SP19, the CPU 9 returns to step SP13 again and repeats the same processing as described above until a negative result is obtained in step SP19.
[0099]
(5) Imprinting characters on still images
In the present embodiment, in addition to the above-described animation display method of the character, in the digital camera 1, the finder image actually displayed on the display screen 12 </ b> A of the liquid crystal monitor 12 at the imaging timing according to the user operation is displayed. The finder image can be recorded as a still image on the memory card MC with the character image superimposed thereon.
[0100]
As a specific still image generation method, the memory controller 7 writes a frame image (finder image) based on a video signal S4 obtained as an imaging result in a capture area of the RAM 10 at an imaging timing according to a user operation. Before performing compression coding or image size conversion according to the JPEG standard, a character image is superimposed on a frame image written in the capture area and written, thereby realizing the printing of the character image on the finder image. ing.
[0101]
At this time, the coordinate position at which the character image is superimposed on the finder image as a still image is determined in correspondence with the coordinate position of the character image displayed on the display screen 12A of the liquid crystal monitor 12. The background removal processing and the brightness adjustment described above are performed in the same manner as in the animation display method.
[0102]
In the RAM 10 according to the present embodiment, since the capture area is larger than the first or second finder area, a larger character image is required than when displaying on the display screen 12A of the liquid crystal monitor 12.
[0103]
Therefore, two types of character images for animation (for example, 64 × 80 pixels) and corresponding character images for still images (for example, 408 × 512 pixels) are prepared and stored in the memory card MC. The image size ratio between the character image for animation and the character image for still image is the ratio between the capture area AR4 and the first or second finder area AR2, AR3.
[0104]
Actually, before the character image for the still image is written over the frame image (finder image) written in the capture area AR4 of the RAM 10, the character image is read from the memory card MC and the image work area of the RAM 10 is written. After recording in the JPEG file work area AR6Y constituting the AR6, the data is subsequently decompressed via the data compression / decompression unit 20 and recorded in the low image work area AR6Z constituting the image work area AR6.
[0105]
By creating a still image on which such a character image is imprinted, and printing out the still image as a photograph or displaying the still image on a display screen of a personal computer, the presence of the character further enhances the presence. It is possible to improve the amusement for the user as well as to provide.
[0106]
(6) Reflecting characters in moving images
In the present embodiment, in the same manner as in the above-described printing of a character on a still image, in digital camera 1, a plurality of finder images actually displayed on display screen 12A of liquid crystal monitor 12 in accordance with a user operation are displayed. A character image group can be recorded on the memory card MC as a moving image in a state where the character image group is superimposed on a frame-by-frame basis on the finder image group in real time.
[0107]
As a specific moving image generation method, the memory controller 7 writes a frame image group (finder image group) based on a video signal S4 obtained as an imaging result in a movie area of the RAM 10 during imaging according to a user operation. Thereafter, the character image group is superimposed and written for each frame on the frame image group written in the movie area, thereby realizing the reflection of the character image group on the finder image group.
[0108]
Note that, in the RAM 10 in the present embodiment, the movie area is the same as the first or second finder area, and therefore, a character image group for animation can be used for reflection in a moving image. The other processing is performed in the same manner as that for imprinting a still image, thereby obtaining an effect that the presence of the character can make the presence more realistic and improve the amusement for the user.
[0109]
(7) Operation and effect according to the present embodiment
With the above configuration, in the digital camera, for a character capable of expressing a plurality of types of unit actions, first, all character image groups necessary for constructing the character are read from the memory card MC and recorded in the RAM 10. .
[0110]
Subsequently, a finder image group obtained as an imaging result is displayed on the display screen 12A of the liquid crystal monitor 12 mounted on the digital camera 1 in real time, and at the same time in synchronization with the display timing, randomly or user operation contents or digital contents are displayed. An animation based on a character image sequence read from the RAM 10 is superimposed and displayed for each unit operation determined by a request such as a device status inside the camera.
[0111]
At this time, by setting the transition condition between unit actions so that the next unit action that transitions from the current unit action of the character is connected while maintaining continuity, the animation of the character naturally and smoothly in the display screen The character can be moved, and an impression as if the character is present in the display screen can be given to the user.
[0112]
In a digital camera, a character animated and displayed on the display screen 12A of the liquid crystal monitor 12 generates a balloon image based on a request such as a user's operation content or a device status inside the digital camera, as if the character is emitting the character. The superimposed display on the display screen 12A allows the user to visually confirm the dialog content included in the balloon image with amusement.
[0113]
Furthermore, in the digital camera 1, a still image or a moving image is displayed in a state in which a character image is superimposed at an imaging timing according to a user operation among finder images as a still image or a moving image actually displayed on the display screen 12A of the liquid crystal monitor 12. If the still image or the moving image is printed or displayed on a monitor by recording the image on the memory card MC, the mere imaging result can be made more realistic by the presence of the character, and the amusement for the user can be improved. Can be done.
[0114]
According to the above configuration, in this digital camera, in the state where the finder image obtained as the imaging result is displayed in real time on the display screen 12A of the liquid crystal monitor 12, the operation content of the user is randomly or in synchronization with the display timing. By simultaneously superimposing and displaying the animation of the character for each unit operation determined by the request such as the status of the device inside the digital camera, etc., and by giving continuity to the connection between the unit operations, it is as if the character It is possible to give the user an impression as if the digital camera 1 is present in the display screen 12A, and thus it is possible to realize the digital camera 1 capable of improving the entertainment property.
[0115]
(8) Other embodiments
In the above-described embodiment, a case has been described in which the digital camera 1 as shown in FIG. 1 is applied as the imaging device according to the present invention. However, the present invention is not limited to this, and various other configurations are available. And an image display device as a mobile device such as a wristwatch, a mobile phone, and a personal digital assistant (PDA).
[0116]
Further, in the above-described embodiment, a case has been described where the imaging means for photographing the subject is configured by the imaging unit 3, the CDS and AGC unit 4, the A / D conversion unit 5, and the signal processing unit 6. The present invention is not limited to this, and an imaging unit having various other configurations may be applied as long as the imaging result of the subject can be obtained as image data.
[0117]
Further, in the above-described embodiment, a case has been described in which the liquid crystal monitor 12 mounted on the digital camera 1 is applied as a display unit that displays a captured image as a captured result, but the present invention is not limited to this. However, the present invention can be widely applied to display means having various other configurations, and is separated from the main body of the digital camera 1 if it is electrically connected via a cable such as a cable or wirelessly via a wireless LAN or the like. May be.
[0118]
Further, in the above-described embodiment, a character image sequence for expressing each unit operation is assigned to each of a plurality of types of unit operations performed by the character, and all the character image sequences are stored in advance. As the storage means, a case has been described in which the RAM 10 in which all the character image strings read from the memory card MC are taken in is applied. However, the present invention is not limited to this, and the present invention is not limited to having an external memory at all. Alternatively, all character image strings may be recorded in the RAM 10 as an internal memory in advance.
[0119]
Further, the present invention is not limited to the case where a character image sequence for expressing each unit operation is stored in advance for each of a plurality of types of unit operations performed by the character. For each type of unit operation, all or a part of 3D data (three-dimensional data) representing the character image at the head of each unit operation is previously stored in the RAM (storage unit) 10, and a plurality of types of unit operations are stored. , The unit operation is sequentially designated at random, and the three-dimensional data corresponding to each unit operation is sequentially read out or supplemented by using other three-dimensional data as necessary, thereby starting based on each of the three-dimensional data. While sequentially generating a character image representing the corresponding unit action from the image, the character image sequence is displayed on the display means as an animation. It may be caused to superimposed on the captured image are.
[0120]
At this time, when processing the three-dimensional data using so-called 3D engine software, another three-dimensional data is smoothed using an interpolation method using a Bezier curve so that an image based on the three-dimensional data is smoothed. The case where three-dimensional data between data is complemented has been described. However, the present invention is not limited to this. In addition, a B-spline (Beta-Spline) curve, a Hermite (Hermite) curve, a rational Bezier ( The three-dimensional data may be complemented using a compound curve such as a Rational Bezier curve and a NURBS (Non Uniform Rational Beta-Spline) curve.
[0121]
Further, in the above-described embodiment, a unit operation is randomly designated in order from all the character image sequences stored in the RAM (storage means) 14, and the character image sequence corresponding to each of the unit operations is sequentially determined. The case where the reading control means for reading is constituted by the memory controller 7 and the CPU 9 has been described. However, the present invention is not limited to this. If the unit operations can be designated in the order in which the respective unit operations are transitioned so as to maintain the connection, the present invention can be widely applied to read control means having other various configurations.
[0122]
On the other hand, when the above-described three-dimensional data is used, the reading control unit randomly specifies a unit operation sequentially from all the three-dimensional data stored in the RAM (storage unit) 10 and What is necessary is just to sequentially read or complement the three-dimensional data corresponding to the unit operation.
[0123]
Further, the memory controller 7 and the CPU 9 constituting the reading control means store the data in the RAM (storage means) 14 when receiving a request based on various operation contents by the user or a request based on the state of the device inside the digital camera. A case has been described in which a unit operation corresponding to the request is designated from among all the character image sequences that have been performed, and the character image sequence corresponding to the unit operation is read out. Various situations can be freely set inside and outside the device (including inside as well as outside).
[0124]
For example, an arrow pointer that can be moved by a mouse operation or the like may be prepared as the user's operation content, and the arrow point may be specified at a position where the character wants to move according to the user's operation. When the designated position is determined in this way, the character may move to the designated position.
[0125]
When the user selects an item “tutorial” from a menu displayed on the display screen 12A of the liquid crystal monitor 12, the character may perform a tutorial on how to use the digital camera 1. Specifically, a description will be given of how the auto focus is fixed by half-pressing the shutter and how to use the zoom function. In the flow of explanation, a pattern is determined, and a request is sent to the object according to the flow, and it is also determined whether or not the button operation has been performed correctly.
[0126]
Further, as the content of the user's operation, when the user performs a specific operation in a certain state, the character may perform a reaction. Specifically, when the shutter is half-pressed, the character performs an operation of turning back, and after the flash fires, the character makes a gesture of “bright”.
[0127]
Further, as the user's operation content, after the user has taken a picture, the character may evaluate the picture and the state at the time of imaging. In this case, for those that should be retaken, that effect will be described. Specifically, he advises that it is better to take the picture again with the flash because it is too dark, or that it is better to take the picture again because there is a possibility of blurring and camera shake. Darkness can be judged from the image, and out-of-focus and camera shake are also judged based on the image (same method as judgment by contrast and auto focus function). May be determined.
[0128]
On the other hand, as a situation inside and outside the device, the character may be moved based on information obtained from an existing image recognition engine. Specifically, it is possible to change the operation or position of the animation by recognizing a two-dimensional pattern code, or to change the operation, position, or color of the character in response to a specific color.
[0129]
Alternatively, the character may report that the remaining battery power is low as a situation inside or outside the device. Since many digital cameras have information about the remaining battery level, such information is used to convey that the battery level is low through animation or conversation. For example, a state in which the character is in trouble is expressed by an animation, and a request to "charge the battery" is issued.
[0130]
Further, as a situation inside and outside the device, the character may notify the remaining amount of the memory card MC for storing images (remaining number of images that can be taken, and possible time of imaging). For example, when the number of remaining images is two or less, or when the available imaging time is 15 seconds or less, information is transmitted by the conversation function. In particular, a warning is issued when imaging is impossible due to insufficient remaining amount.
[0131]
Further, as a situation inside and outside the apparatus, when the digital camera communicates with peripheral equipment, the character may transmit the progress information. For example, if the communication speed becomes slow, the character is tired by an animation, or if there is a communication failure, the user is notified of that. In the case of wireless communication, a radio wave condition may be transmitted.
[0132]
Further, as the situation inside and outside the apparatus, the character may notify the user of the situation of the temperature and humidity around the camera based on the detection results of various sensors provided in the digital camera 1. A warning is issued especially when the camera exceeds the rated range. Furthermore, by measuring the acceleration and speed, the user is notified when a shock is applied to the camera, and encourages the user not to handle the camera unnecessarily.
[0133]
Further, as a situation inside and outside the apparatus, the character may transmit various warnings (cautions) set in the digital camera 1 to the user. For example, when the memory card MC is suddenly removed, or when writing access to the RAM 10 or the like cannot be performed, the character notifies the user as a warning.
[0134]
Further, in the above-described embodiment, a display in which each character image sequence read from the RAM 10 is superimposed on a finder image (captured image) displayed on the display screen 12A of the liquid crystal monitor (display means) 12 as an animation. Although the case where the control means is constituted by the memory controller 7, the CPU 9 and the video encoder 11 has been described, the present invention is not limited to this, and the OSD 21 may be added. The OSD 21 may be used. In short, as long as the character image sequence can be superimposed and displayed on the finder image as an animation, various configurations of the display control means may be applied.
[0135]
In the case where the above-described three-dimensional data is used, the display control unit is a character that represents a corresponding unit action from a start image based on each of the three-dimensional data read by the memory controller 7 and the CPU 9 (read control unit). While the images are sequentially generated, the character image sequence may be superimposed on the captured image displayed on the liquid crystal monitor (display unit) 12 as an animation.
[0136]
At this time, a case has been described in which the display control means has a function of generating a character image sequence from each three-dimensional data in advance, but the present invention is not limited to this, and the RAM (storage means) 10 So-called 3D engine software may be stored in advance as a program for processing three-dimensional data, and may be read from the RAM (storage means) 10 as needed.
[0137]
Further, in the above-described embodiment, when a request is received based on the operation contents of the user and / or the situation inside and outside the apparatus, the request is responded based on the animation composed of each character image sequence (or three-dimensional data). Although the case in which the balloon image is superimposed on the captured image has been described, the present invention is not limited to this, and various display contents such as not only balloon images but also meaningful marks are associated with the animation of the character. You may make it display simultaneously.
[0138]
Further, in the above-described embodiment, an animation composed of each character image sequence (or each three-dimensional data) is superimposed and displayed on a finder image (captured image) displayed on the display screen 12A of the liquid crystal monitor (display means) 12. In the state described above, the recording means for recording the display state of the display screen 12A as a still image or a moving image by the user's operation is configured from the CPU 9 and the memory card MC, but the present invention is not limited to this. Instead, the present invention may be widely applied to an external memory having various configurations other than the memory card MC, and may be applied not only to the external memory but also to an internal memory such as the RAM 10.
[0139]
In addition to recording an animation consisting of each character image sequence as a still image or a moving image in a state of being superimposed and displayed on a finder image (captured image), without recording the animation, the coordinates of the character at the time of shooting by a user's operation are recorded. After the position is stored and only the finder image is recorded as a still image or a moving image, the animation of the character may be superimposed and displayed on the finder image composed of the still image or the moving image as necessary. For example, character information may be added to a JPEG tag so that the character can be displayed or hidden as needed when viewing a photograph.
[0140]
Further, in the above-described embodiment, the size of the character displayed on the display screen 12A of the liquid crystal monitor 12 remains constant. However, the present invention is not limited to this. May be changed in size or position. That is, the size and position of the character may be changed in conjunction with the enlargement or reduction of the screen by zooming. As a result, an effect that the presence of the character can be made more realistic can be obtained. Since the target size and position can be calculated from the zoom information, the character size and position are superimposed and displayed based on the calculation result. When changing the size, it is necessary to superimpose and display the image recorded in the low image work area in the image work area of the RAM 10 once via the memory controller 7.
[0141]
Furthermore, in the above-described embodiment, the case where no speaker is mounted on the digital camera 1 has been described, but a speaker may be mounted. In this case, various sound effects may be produced in accordance with the contents of the animation operation of the character. For example, when the character performs a walking motion, footsteps are output according to the walking. The voice data may be written in a program in advance, and the voice data based on the voice data may be emitted at a predetermined timing by the animation object by sending the voice data to the sound chip in accordance with the animation.
[0142]
Furthermore, in the above-described embodiment, a case has been described where the animation of the character is superimposed and displayed on the real-time finder image, and is limited to a single character. However, the present invention is not limited to this, and a plurality of types of characters may be used. A character may be set so that the user can select a desired character.
[0143]
Furthermore, in the above-described embodiment, a case has been described in which image data is compression-encoded according to a data format based on the JPEG standard. However, in addition to this, TIFF (Tagged Image File Format) and DCF (Design Rule for Camera File System), Exif (Exchangeable Image File Format), CIFF (Camera Image File Format), GIF (Graphics Interchange Format), BMP (Bit Map), PICT (Quick Draw Picture Format) and FPX (Flash Pix) The image data D1 may be managed according to the image file format described above, and may be compressed and encoded as necessary.
[0144]
【The invention's effect】
As described above, according to the present invention, an imaging unit for imaging a subject, a display unit for displaying an image captured by the imaging unit, and a plurality of unit operations performed by a character for expressing each unit operation A character image sequence is assigned to each of the character image sequences, and a storage unit in which all of the character image sequences are stored in advance, and a unit operation is sequentially designated at random from a plurality of types of unit operations to correspond to each of the unit operations. Reading control means for sequentially reading out the character image sequence from all the character image sequences stored in the storage means; and image pickup displayed on the display means as an animation of each character image sequence read out by the reading control means Display control means for superimposing and displaying the image on the image, and the read control means controls each of the unit operations so that the unit operations are connected while maintaining continuity. By specifying the order in which the position motions are shifted, it is possible to give the user an impression as if the character is present in the display screen, and thus it is possible to realize an imaging device capable of improving the entertainment property. .
[0145]
Further, according to the present invention, imaging means for imaging a subject, display means for displaying an image captured by the imaging means, and, for each of a plurality of types of unit actions performed by the character, representing a leading character image of each unit action. Dimensional data is assigned to each of the three-dimensional data, and all or a part of the three-dimensional data is stored in advance. Reading control means for sequentially reading out the corresponding three-dimensional data from the storage means or supplementing with other three-dimensional data as necessary, and a start image based on each three-dimensional data read or complemented by the reading control means , While sequentially generating a character image representing the corresponding unit action, the character image sequence is displayed on the display means as an animation. Display control means for superimposed display on the captured image is provided, and the readout control means designates the order of transition of each unit operation so that each unit operation is connected while maintaining continuity. It is possible to give the user an impression as if the character is present in the display screen, and thus it is possible to realize an imaging device capable of improving entertainment.
[0146]
Further, according to the present invention, a first step of displaying a captured image obtained by capturing an image of a subject, and a character image sequence for expressing each unit action assigned to each of a plurality of types of unit actions performed by the character A second step of sequentially designating unit motions at random from among them and sequentially reading a character image sequence corresponding to each of the unit motions; and an imaging process in which each read character image sequence is displayed as an animation. A third step of superimposing and displaying the images on the image is provided. In the second step, the unit operations are specified in the order of transition so that the unit operations are connected while maintaining continuity. Gives the user the impression that the character is present in the display screen, thus improving the entertainment The imaging method can be realized that can.
[0147]
Further, according to the present invention, a first step of displaying a captured image obtained by capturing an image of a subject and a first character image representing a head character image of each unit action assigned to each of a plurality of types of unit actions performed by the character A second unit for sequentially designating unit operations at random from all or a part of the dimensional data and sequentially reading out three-dimensional data corresponding to the unit operations or using other three-dimensional data as necessary. While sequentially generating a character image representing a corresponding unit action from a step and a start image based on the read or complemented three-dimensional data, the character image sequence is superimposed on the displayed captured image as an animation. And a third step of displaying. In the second step, each of the unit operations is connected so as to maintain continuity between the unit operations. The by you to specify the order of transitioning, though the character can give the user the impression of being present in the display screen, thus can realize an imaging method capable of improving entertainment property.
[0148]
Further, according to the present invention, a display means for displaying an image and a character image sequence for expressing each unit operation are assigned to each of a plurality of types of unit operations performed by the character. Is stored in advance, and all the character images stored in the storage means are sequentially designated at random from among a plurality of types of unit operations, and a character image sequence corresponding to each unit operation is designated. Read control means for sequentially reading from the rows, and display control means for superimposing and displaying, as an animation, each character image sequence read by the read control means on an image displayed on the display means, wherein the read control means By specifying the order in which each unit operation is to be transitioned so that each unit operation is connected while maintaining continuity, Taka also can give the impression as if the character is present within the display screen to the user, thus the image display device can be realized capable of improving entertainment property.
[0149]
Further, according to the present invention, display means for displaying an image, and three-dimensional data representing a character image at the head of each unit action are assigned to each of a plurality of types of unit actions performed by the character. And a storage unit in which all or a part of the unit operation is stored in advance, and a unit operation is sequentially designated at random from a plurality of types of unit operations, and three-dimensional data corresponding to each unit operation is sequentially read from the storage unit or A readout control unit that supplements the image data with other three-dimensional data as needed, and a character image expressing a corresponding unit action from a start image based on the three-dimensional data read out or complemented by the readout control unit. Display control means for superimposing the character image sequence on the captured image displayed on the display means as animation while sequentially generating the character image sequence. The reading control means specifies the order in which the unit operations are to be transitioned so that the unit operations are connected with maintaining continuity, so that the character is present as if the character exists in the display screen. Thus, it is possible to provide an image display device that can give a user an unusual impression, and thus can improve entertainment.
[0150]
Furthermore, according to the present invention, the first step of displaying an image and the unit motion are sequentially performed from a character image sequence for expressing each unit motion assigned to each of a plurality of types of unit motions performed by the character. A second step of sequentially reading character image strings corresponding to the respective unit actions by designating them randomly, and a third step of superimposing and displaying each read character image string as an animation on the displayed image In the second step, in the second step, each unit operation is specified in the order in which the unit operations are transitioned so as to maintain continuity with each other, so that the character exists in the display screen. Can provide the user with the impression of being in the middle, thus realizing an image display method that can enhance entertainment. .
[0151]
Further, according to the present invention, the first step of displaying an image and the whole or part of the three-dimensional data representing the leading character image of each unit action assigned to each of a plurality of types of unit actions performed by the character A second step of sequentially designating the unit operations at random and sequentially reading out the three-dimensional data corresponding to the respective unit operations or supplementing with other three-dimensional data as necessary; A third step of superimposing and displaying, as an animation, the character image sequence as an animation on the displayed captured image while sequentially generating a character image representing the corresponding unit motion from the start image based on the obtained three-dimensional data. In the second step, the unit operations are designated in the order in which the unit operations are transitioned so that the unit operations are connected while maintaining continuity. By was Unishi, though the character can give the user the impression of being present in the display screen, thus possible to realize an image display method capable of improving entertainment property.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a digital camera according to an embodiment.
FIG. 2 is a schematic diagram for explaining a recording area which is an internal configuration of the RAM shown in FIG. 1;
FIG. 3 is a schematic diagram for explaining an action transition table that defines transition conditions for a unit action of a character;
FIG. 4 is a schematic plan view illustrating an example of a unit action of a character.
FIG. 5 is a schematic diagram for explaining a character image sequence for each unit operation.
FIG. 6 is a flowchart for explaining a character animation display processing procedure;
FIG. 7 is a flowchart for explaining a conversation display processing procedure;
[Explanation of symbols]
1 ... Digital camera, 6 ... Signal processing unit, 7 ... Memory controller, 9 ... CPU, 10 ... RAM, 11 ... Video concoder, 12 ... LCD monitor, 16 ... Operation unit, MC ... ... memory card, RT1 ... animation display processing procedure, RT2 ... conversation display processing procedure.

Claims (28)

被写体を撮像する撮像手段と、
上記撮像手段による撮像画像を表示する表示手段と、
キャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列がそれぞれ割り当てられ、当該各キャラクタ画像列の全てが予め記憶されている記憶手段と、
上記複数種類の単位動作の中から順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記キャラクタ画像列を上記記憶手段に記憶されている全ての上記キャラクタ画像列の中から順次読み出す読出制御手段と、
上記読出制御手段により読み出された各上記キャラクタ画像列をアニメーションとして、上記表示手段に表示されている上記撮像画像に重畳表示させる表示制御手段と
を具え、
上記読出制御手段は、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする撮像装置。
Imaging means for imaging a subject;
Display means for displaying an image captured by the imaging means;
For each of a plurality of types of unit actions performed by the character, a character image sequence for expressing each unit motion is assigned, and storage means in which all of the character image sequences are stored in advance,
From among the plurality of types of unit motions, the unit motions are sequentially designated at random, and the character image sequence corresponding to each unit motion is sequentially selected from all the character image sequences stored in the storage means. Read control means for reading;
Display control means for superimposing and displaying each of the character image strings read by the read control means as an animation on the captured image displayed on the display means,
An image pickup apparatus according to claim 1, wherein said read control means designates the unit operations in an order of transition so that the unit operations are connected while maintaining continuity.
上記読出制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記キャラクタ画像列を上記記憶手段から読み出す
ことを特徴とする請求項1に記載の撮像装置。
The reading control means includes:
When receiving a request based on the content of a user operation and / or a situation inside or outside the device, the unit operation corresponding to the request is specified, and the character image sequence corresponding to the unit operation is read from the storage unit. The imaging device according to claim 1, wherein:
上記表示制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記撮像画像に重畳表示させる
ことを特徴とする請求項1に記載の撮像装置。
The display control means includes:
When a request based on the user's operation content and / or a situation inside or outside the device is received, a balloon image corresponding to the request is superimposed on the captured image based on the animation including the character image sequence. The imaging device according to claim 1, wherein:
上記表示制御手段により各上記キャラクタ画像列でなる上記アニメーションを上記表示手段に表示されている上記撮像画像に重畳表示させた状態で、ユーザの操作により、上記表示手段の表示状態を静止画又は動画として記録する記録手段
を具えることを特徴とする請求項1に記載の撮像装置。
In a state where the animation composed of each of the character image strings is superimposed and displayed on the captured image displayed on the display unit by the display control unit, the display state of the display unit is changed to a still image or a moving image by a user operation. 2. The image pickup apparatus according to claim 1, further comprising a recording unit that records the image as an image.
被写体を撮像する撮像手段と、
上記撮像手段による撮像画像を表示する表示手段と、
キャラクタが行う複数種類の単位動作ごとに、当該各単位動作の先頭のキャラクタ画像を表す3次元データがそれぞれ割り当てられ、当該各3次元データの全部又は一部が予め記憶されている記憶手段と、
上記複数種類の単位動作の中から順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記3次元データを上記記憶手段から順次読み出し又は必要に応じて他の上記3次元データを用いて補完する読出制御手段と、
上記読出制御手段により読み出され又は補完された各上記3次元データに基づく開始画像から、対応する上記単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、上記表示手段に表示されている上記撮像画像に重畳表示させる表示制御手段と
を具え、
上記読出制御手段は、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする撮像装置。
Imaging means for imaging a subject;
Display means for displaying an image captured by the imaging means;
Storage means in which three-dimensional data representing a leading character image of each of the unit actions is assigned to each of a plurality of types of unit actions performed by the character, and all or a part of each of the three-dimensional data is stored in advance;
From among the plurality of types of unit operations, the unit operations are sequentially designated at random, and the three-dimensional data corresponding to each of the unit operations is sequentially read out from the storage means or the other three-dimensional data is read as necessary. Read-out control means complemented by using
While sequentially generating a character image representing the corresponding unit action from a start image based on each of the three-dimensional data read or complemented by the read control means, the character image sequence is used as an animation to display the character image sequence. Display control means for superimposing and displaying the captured image displayed on the
An image pickup apparatus according to claim 1, wherein said read control means designates the unit operations in an order of transition so that the unit operations are connected while maintaining continuity.
上記読出制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記3次元データを上記記憶手段から読み出し又は補完する
ことを特徴とする請求項5に記載の撮像装置。
The reading control means includes:
When receiving a request based on the content of the user's operation and / or the situation inside and outside the device, the unit operation corresponding to the request is designated, and the three-dimensional data corresponding to the unit operation is read out from the storage unit or The imaging device according to claim 5, wherein the imaging device is complemented.
上記表示制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記3次元データに基づき生成した上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記撮像画像に重畳表示させる
ことを特徴とする請求項5に記載の撮像装置。
The display control means includes:
When a request based on the user's operation content and / or a situation inside and outside the device is received, a balloon image corresponding to the request is generated based on the animation including the character image sequence generated based on each of the three-dimensional data. The imaging apparatus according to claim 5, wherein the imaging apparatus is superimposed on a captured image.
上記表示制御手段により各上記3次元データに基づき生成した上記キャラクタ画像列でなる上記アニメーションを上記表示手段に表示されている上記撮像画像に重畳表示させた状態で、ユーザの操作により、上記表示手段の表示状態を静止画又は動画として記録する記録手段
を具えることを特徴とする請求項5に記載の撮像装置。
In a state where the animation composed of the character image sequence generated based on each of the three-dimensional data by the display control means is superimposed on the captured image displayed on the display means, the display means is operated by a user. The image pickup apparatus according to claim 5, further comprising a recording unit that records the display state of the image as a still image or a moving image.
被写体を撮像して得られる撮像画像を表示する第1のステップと、
キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各上記単位動作を表現するためのキャラクタ画像列の中から、順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記キャラクタ画像列を順次読み出す第2のステップと、
上記読み出された各上記キャラクタ画像列をアニメーションとして、上記表示されている上記撮像画像に重畳表示させる第3のステップと
を具え、上記第2のステップでは、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする撮像方法。
A first step of displaying a captured image obtained by imaging the subject;
From the character image sequence for expressing each of the unit actions assigned to each of a plurality of types of unit actions performed by the character, the unit actions are randomly designated in order, and the character corresponding to each of the unit actions is designated. A second step of sequentially reading the image sequence;
A third step of superimposing and displaying each of the read character image strings as an animation on the displayed captured image. In the second step, each of the unit actions establishes continuity. An imaging method characterized by designating an order in which each unit operation is transitioned so as to be maintained and connected.
上記第2のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記キャラクタ画像列を読み出す
ことを特徴とする請求項9に記載の撮像方法。
In the second step,
When receiving a request based on the content of a user operation and / or a situation inside or outside the device, the unit operation corresponding to the request is designated, and the character image sequence corresponding to the unit operation is read. The imaging method according to claim 9.
上記第3のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記撮像画像に重畳表示させる
ことを特徴とする請求項9に記載の撮像方法。
In the third step,
When a request based on the user's operation content and / or a situation inside or outside the device is received, a balloon image corresponding to the request is superimposed on the captured image based on the animation including the character image sequence. The imaging method according to claim 9, wherein:
上記第3のステップにおいて各上記キャラクタ画像列でなる上記アニメーションを上記表示されている上記撮像画像に重畳表示させた状態で、ユーザの操作により、上記表示状態を静止画又は動画として記録する第4のステップ
を具えることを特徴とする請求項9に記載の撮像方法。
Recording the display state as a still image or a moving image by a user operation in a state where the animation including the character image strings is superimposed on the displayed captured image in the third step. The method according to claim 9, further comprising the steps of:
被写体を撮像して得られる撮像画像を表示する第1のステップと、
キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各上記単位動作の先頭のキャラクタ画像を表す3次元データの全部又は一部から、順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記3次元データを順次読み出し又は必要に応じて他の上記3次元データを用いて補完する第2のステップと、
上記読み出され又は補完された各上記3次元データに基づく開始画像から対応する上記単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、上記表示されている上記撮像画像に重畳表示させる第3のステップと
を具え、上記第2のステップでは、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする撮像方法。
A first step of displaying a captured image obtained by imaging the subject;
From the whole or a part of the three-dimensional data representing the leading character image of each of the unit actions assigned to each of the plurality of types of unit actions performed by the character, the unit actions are sequentially designated at random, and the respective unit actions are designated. A second step of sequentially reading out the three-dimensional data corresponding to the above or supplementing the three-dimensional data with other three-dimensional data as necessary;
While sequentially generating a character image representing the corresponding unit action from a start image based on the read or complemented three-dimensional data, the displayed captured image is displayed using the character image sequence as an animation. And a third step of superimposing and displaying the unit operations. In the second step, the unit operations are specified in the order of transition so that the unit operations are connected while maintaining continuity. Imaging method.
上記第2のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記3次元データを読み出し又は補完する
ことを特徴とする請求項13に記載の撮像方法。
In the second step,
When receiving a request based on the content of the user's operation and / or the situation inside and outside the device, specify the unit operation corresponding to the request and read or supplement the three-dimensional data corresponding to the unit operation. The imaging method according to claim 13, wherein:
上記第3のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記3次元データに基づき生成した上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記撮像画像に重畳表示させる
ことを特徴とする請求項13に記載の撮像方法。
In the third step,
When a request based on the user's operation content and / or a situation inside and outside the device is received, a balloon image corresponding to the request is generated based on the animation including the character image sequence generated based on each of the three-dimensional data. The imaging method according to claim 13, wherein the imaging method is superimposed on the captured image.
上記第3のステップにおいて各上記3次元データに基づき生成した上記キャラクタ画像列でなる上記アニメーションを上記表示されている上記撮像画像に重畳表示させた状態で、ユーザの操作により、上記表示状態を静止画又は動画として記録する第4のステップ
を具えることを特徴とする請求項13に記載の撮像方法。
In a state in which the animation composed of the character image sequence generated based on each of the three-dimensional data in the third step is superimposed on the displayed captured image, the display state is stopped by a user operation. The imaging method according to claim 13, further comprising a fourth step of recording as an image or a moving image.
画像を表示する表示手段と、
キャラクタが行う複数種類の単位動作ごとに、当該各単位動作を表現するためのキャラクタ画像列がそれぞれ割り当てられ、当該各キャラクタ画像列の全てが予め記憶されている記憶手段と、
上記複数種類の単位動作の中から順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記キャラクタ画像列を上記記憶手段に記憶されている全ての上記キャラクタ画像列の中から順次読み出す読出制御手段と、
上記読出制御手段により読み出された各上記キャラクタ画像列をアニメーションとして、上記表示手段に表示されている上記画像に重畳表示させる表示制御手段と
を具え、
上記読出制御手段は、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする画像表示装置。
Display means for displaying an image;
For each of a plurality of types of unit actions performed by the character, a character image sequence for expressing each unit motion is assigned, and storage means in which all of the character image sequences are stored in advance,
From among the plurality of types of unit motions, the unit motions are sequentially designated at random, and the character image sequence corresponding to each unit motion is sequentially selected from all the character image sequences stored in the storage means. Read control means for reading;
Display control means for superimposing the character image sequence read by the read control means on the image displayed on the display means as animation.
The image display device, wherein the reading control means specifies the order in which the unit operations are changed so that the unit operations are connected while maintaining continuity.
上記読出制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記キャラクタ画像列を上記記憶手段から読み出す
ことを特徴とする請求項17に記載の画像表示装置。
The reading control means includes:
When receiving a request based on the content of a user operation and / or a situation inside or outside the device, the unit operation corresponding to the request is specified, and the character image sequence corresponding to the unit operation is read from the storage unit. The image display device according to claim 17, wherein:
上記表示制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記画像に重畳表示させる
ことを特徴とする請求項17に記載の画像表示装置。
The display control means includes:
When a request is received based on the operation content of the user and / or a situation inside and outside the device, a balloon image corresponding to the request is superimposed on the image based on the animation including the character image sequence. The image display device according to claim 17, wherein
画像を表示する表示手段と、
キャラクタが行う複数種類の単位動作ごとに、当該各単位動作の先頭のキャラクタ画像を表す3次元データがそれぞれ割り当てられ、当該各3次元データの全部又は一部が予め記憶されている記憶手段と、
上記複数種類の単位動作の中から順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記3次元データを上記記憶手段から順次読み出し又は必要に応じて他の上記3次元データを用いて補完する読出制御手段と、
上記読出制御手段により読み出され又は補完された各上記3次元データに基づく開始画像から、対応する上記単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、上記表示手段に表示されている上記撮像画像に重畳表示させる表示制御手段と
を具え、
上記読出制御手段は、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする画像表示装置。
Display means for displaying an image;
Storage means in which three-dimensional data representing a leading character image of each of the unit actions is assigned to each of a plurality of types of unit actions performed by the character, and all or a part of each of the three-dimensional data is stored in advance;
From among the plurality of types of unit operations, the unit operations are sequentially designated at random, and the three-dimensional data corresponding to each of the unit operations is sequentially read out from the storage means or the other three-dimensional data is read as necessary. Read-out control means complemented by using
While sequentially generating a character image representing the corresponding unit action from a start image based on each of the three-dimensional data read or complemented by the read control means, the character image sequence is used as an animation to display the character image sequence. Display control means for superimposing and displaying the captured image displayed on the
The image display device, wherein the reading control means specifies the order in which the unit operations are changed so that the unit operations are connected while maintaining continuity.
上記読出制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記3次元データを上記記憶手段から読み出し又は補完する
ことを特徴とする請求項23に記載の画像表示装置。
The reading control means includes:
When receiving a request based on the content of the user's operation and / or the situation inside and outside the device, the unit operation corresponding to the request is designated, and the three-dimensional data corresponding to the unit operation is read out from the storage unit or The image display device according to claim 23, wherein the image display device complements the image display device.
上記表示制御手段は、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記3次元データに基づき生成した上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記画像に重畳表示させる
ことを特徴とする請求項23に記載の画像表示装置。
The display control means includes:
When a request based on the user's operation content and / or a situation inside and outside the device is received, a balloon image corresponding to the request is generated based on the animation including the character image sequence generated based on each of the three-dimensional data. The image display device according to claim 23, wherein the image display device superimposes the image on the image.
画像を表示する第1のステップと、
キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各上記単位動作を表現するためのキャラクタ画像列の中から、順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記キャラクタ画像列を順次読み出す第2のステップと、
上記読み出された各上記キャラクタ画像列をアニメーションとして、上記表示されている上記画像に重畳表示させる第3のステップと
を具え、上記第2のステップでは、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする画像表示方法。
A first step of displaying an image;
From the character image sequence for expressing each of the unit actions assigned to each of a plurality of types of unit actions performed by the character, the unit actions are randomly designated in order, and the character corresponding to each of the unit actions is designated. A second step of sequentially reading the image sequence;
A third step of superimposing and displaying each of the read character image strings as an animation on the displayed image, and in the second step, each of the unit actions maintains continuity. An image display method in which the unit operations are specified in the order in which the unit operations are transited so as to be connected.
上記第2のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、全ての上記キャラクタ画像列の中から上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記キャラクタ画像列を読み出す
ことを特徴とする請求項20に記載の画像表示方法。
In the second step,
When a request based on the operation content of the user and / or a situation inside or outside the device is received, the unit operation corresponding to the request is designated from all the character image strings, and the character corresponding to the unit operation is designated. The image display method according to claim 20, wherein an image sequence is read.
上記第3のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記画像に重畳表示させる
ことを特徴とする請求項20に記載の画像表示方法。
In the third step,
When a request is received based on the operation content of the user and / or the situation inside and outside the device, a balloon image corresponding to the request is superimposed on the image based on the animation including the character image sequence. The image display method according to claim 20, wherein:
画像を表示する第1のステップと、
キャラクタが行う複数種類の単位動作ごとにそれぞれ割り当てられた各上記単位動作の先頭のキャラクタ画像を表す3次元データの全部又は一部から、順次上記単位動作をランダムに指定して、当該各単位動作に対応する上記3次元データを順次読み出し又は必要に応じて他の上記3次元データを用いて補完する第2のステップと、
上記読み出され又は補完された各上記3次元データに基づく開始画像から対応する上記単位動作を表現するキャラクタ画像を順次生成しながら、当該キャラクタ画像列をアニメーションとして、上記表示されている上記撮像画像に重畳表示させる第3のステップと
を具え、上記第2のステップでは、各上記単位動作同士が連続性を維持してつながるように当該各単位動作を遷移させる順番で指定する
ことを特徴とする画像表示方法。
A first step of displaying an image;
From the whole or a part of the three-dimensional data representing the leading character image of each of the unit actions assigned to each of the plurality of types of unit actions performed by the character, the unit actions are sequentially designated at random, and the respective unit actions are designated. A second step of sequentially reading out the three-dimensional data corresponding to the above or supplementing the three-dimensional data with other three-dimensional data as necessary;
While sequentially generating a character image representing the corresponding unit action from a start image based on the read or complemented three-dimensional data, the displayed captured image is displayed using the character image sequence as an animation. And a third step of superimposing and displaying the unit operations. In the second step, the unit operations are specified in the order of transition so that the unit operations are connected while maintaining continuity. Image display method.
上記第2のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、上記リクエストに対応する上記単位動作を指定して、当該単位動作に対応する上記3次元データを読み出し又は補完する
ことを特徴とする請求項26に記載の画像表示方法。
In the second step,
When receiving a request based on the content of the user's operation and / or the situation inside and outside the device, specify the unit operation corresponding to the request and read or supplement the three-dimensional data corresponding to the unit operation. The image display method according to claim 26, characterized in that:
上記第3のステップでは、
ユーザの操作内容及び又は装置内外の状況に基づくリクエストを受けた場合には、各上記3次元データに基づき生成した上記キャラクタ画像列でなる上記アニメーションを基準として、上記リクエストに応じた吹出し画像を上記画像に重畳表示させる
ことを特徴とする請求項26に記載の画像表示方法。
In the third step,
When a request based on the operation content of the user and / or a situation inside or outside the device is received, a balloon image corresponding to the request is generated based on the animation including the character image sequence generated based on the three-dimensional data. The image display method according to claim 26, wherein the image is superimposed on an image.
JP2002362301A 2002-12-13 2002-12-13 Imaging device and method therefor, and image display device and method therefor Pending JP2004194193A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002362301A JP2004194193A (en) 2002-12-13 2002-12-13 Imaging device and method therefor, and image display device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002362301A JP2004194193A (en) 2002-12-13 2002-12-13 Imaging device and method therefor, and image display device and method therefor

Publications (1)

Publication Number Publication Date
JP2004194193A true JP2004194193A (en) 2004-07-08

Family

ID=32760791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002362301A Pending JP2004194193A (en) 2002-12-13 2002-12-13 Imaging device and method therefor, and image display device and method therefor

Country Status (1)

Country Link
JP (1) JP2004194193A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071597A (en) * 2007-09-13 2009-04-02 Canon Inc Image device, image processing method thereof, playback device, program and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009071597A (en) * 2007-09-13 2009-04-02 Canon Inc Image device, image processing method thereof, playback device, program and storage medium

Similar Documents

Publication Publication Date Title
JP4347724B2 (en) Image file generating apparatus and method, and image file reproducing apparatus and method
JP4938615B2 (en) Video recording / playback device
JP2009105880A (en) Display control device, display control method, and display control program
JP2007306496A (en) Camera, photographing control method, program, and recording medium
JP4735166B2 (en) Image display apparatus and program
JP2006081224A (en) Electronic still camera and image processing method
JP2008167059A (en) Image display device and method, and program
JP2004194193A (en) Imaging device and method therefor, and image display device and method therefor
JP2006197500A (en) Imaging apparatus, image processing method, and program
JP2007282279A (en) Information processing apparatus and recording medium
US7343050B2 (en) Image synthesizing apparatus, image synthesizing method and a computer readable recording medium having recorded a program
JPH11187307A (en) Image pickup device and its method
JP4427784B2 (en) Image processing apparatus and mobile phone equipped with image processing apparatus
JP2007096809A (en) Imaging apparatus, moving picture storage method, and moving picture storage program
JPH11341454A (en) Image information processor, information processor and recording medium
JPH10224690A (en) Information processing unit and recording medium
JP3661682B2 (en) High-speed image display in digital cameras
JP3729200B2 (en) Digital camera
JP2004078075A (en) On-screen display device
JP2005079714A (en) Digital camera
JP4038842B2 (en) Information processing device
JP2007318773A (en) Imaging apparatus, image processing method and program
JP3832510B2 (en) Digital camera
JP3365413B2 (en) High-speed image display in digital cameras
JPH1118041A (en) Information processing unit, information processing method and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080821