JP2013168942A - カメラのデータ処理装置及び方法 - Google Patents

カメラのデータ処理装置及び方法 Download PDF

Info

Publication number
JP2013168942A
JP2013168942A JP2013028295A JP2013028295A JP2013168942A JP 2013168942 A JP2013168942 A JP 2013168942A JP 2013028295 A JP2013028295 A JP 2013028295A JP 2013028295 A JP2013028295 A JP 2013028295A JP 2013168942 A JP2013168942 A JP 2013168942A
Authority
JP
Japan
Prior art keywords
image
unit
camera
display
compressed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013028295A
Other languages
English (en)
Inventor
Seungwook An
承 郁 安
Myoungwon Kim
明 源 金
Soojin Kim
収 真 金
Hyun-Ho Park
顕 鎬 朴
Woohyun Baek
宇 鉉 白
Sungkoo Lee
成 九 李
Haesun Lee
海 先 李
Minkeun Cho
敏 根 ゾ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013168942A publication Critical patent/JP2013168942A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】カメラ装置又はカメラを含む端末装置においてシャッタ・オン時点のイメージを遅延時間無しでキャプチャできる方法及び装置を提供する。
【解決手段】カメラ駆動時にフレーム周期毎にカメラセンサからイメージを獲得する過程と、獲得されたイメージをそれぞれ表示イメージ及び圧縮イメージに変換する過程と、表示イメージを表示部に表示し、圧縮イメージをバッファリングする過程とを備え、端末装置は、カメラ駆動時にフレーム毎にイメージを獲得するカメラと、獲得されたイメージを各々表示イメージ及び圧縮イメージに変換し、表示イメージ及び圧縮イメージを1つのフレームで生成して出力するイメージ処理部と、イメージ処理部から出力される表示イメージを表示部に表示し、圧縮イメージをバッファリングするアプリ処理部と、アプリ処理部から出力される表示イメージを表示する表示部とから構成される。
【選択図】図3

Description

本発明は、カメラ及びカメラを備える携帯端末機のデータの処理処置及び方法に係り、特にカメラで高精細画素のデータを処理できる装置及び方法に関する。
カメラ装置及びカメラを含む携帯端末装置は、高画質イメージを提供し、また、多様なユーザ便宜機能を提供している。現在カメラ装置のイメージセンサ(image sensor又はカメラセンサと称する)は、フルHD級以上の解像度(full High Definition resolution)を有するイメージを処理できる。
前記カメラ装置は、プレビューモードでは、カメラセンサが感知(sense)したイメージをそのまま表示し、ユーザがシャッタボタン(shutter button)を押せば、前記カメラセンサが感知したイメージを獲得(acquire)し、格納(save)する。この際、ユーザがシャッタボタンを押してから、フルサイズのイメージを感知、獲得して格納する、即ち、キャプチャ(capture)するまで遅延時間(シャッタディレイ(shutter delay)、又はシャッタラグ(shutter lag)といわれる)が存在する。即ち、シャッタ・オン時点からカメラセンサが被写体の撮影を完了する時点までの時間差が存在し、この時間差は、被写体の撮影環境及びイメージ処理部の処理時間などによって惹起される。従って、従来のカメラ装置及びカメラを備える携帯端末機は、この遅延時間があるので所望の時点でのイメージを獲得できないという問題点があった。
また、前記イメージをキャプチャする時点で、カメラが揺れたか、又は被写体の人物が目を閉じるなどの不要な動作が撮影された場合、前記キャプチャされたイメージを修正するのに限界があり、この場合、撮影時の状況は、完全に同一には再現できないので、カメラ撮影の限界を露呈するという問題点があった。
従って、本発明は、カメラ装置又はカメラを含む端末装置においてシャッタ・オン時点のイメージを上記の遅延時間無しでキャプチャできる装置及び方法を提案する。また、本発明は、カメラ装置又はカメラを備える端末装置において撮影されたイメージの内から所望のイメージを選択して格納できる装置及び方法を提案する。また、本発明の実施例によるカメラ装置又はカメラを備える端末装置においてイメージ撮影時にイメージに関連したカメラ及びセンサの撮影情報を獲得し、イメージと共に処理できる装置及び方法を提案する。
このために、本発明の実施例によるカメラ装置又はカメラを含む端末装置は、カメラセンサから獲得したイメージを処理し、フレーム毎に複数のイメージを生成し、生成されるイメージをそれぞれプレビューイメージ及びキャプチャイメージとして処理する。
また、本発明の実施例によるカメラ装置又はカメラを含む端末装置は、フレーム毎にカメラ及び装置のセンサから撮影情報を獲得し、獲得された撮影情報をイメージと共に処理する。
本発明の第1実施例による携帯端末機のイメージ撮影方法は、カメラ駆動時にフレーム周期毎にカメラセンサからイメージを獲得する過程と、前記獲得されたイメージをそれぞれ表示イメージ及び圧縮イメージに変換する過程と、前記表示イメージを表示部に表示し、前記圧縮イメージをバッファリングする過程とを備えることを特徴とする。
本発明の第1実施例による携帯端末装置は、カメラ駆動時にフレーム毎にイメージを獲得するカメラと、前記獲得されたイメージをそれぞれ表示イメージ及び圧縮イメージに変換し、前記表示イメージ及び圧縮イメージを1つのフレームで生成して出力するイメージ処理部と、前記イメージ処理部から出力される表示イメージを表示部に表示し、前記圧縮イメージをバッファリングするアプリケーション(以下、アプリと略称する)処理部と、前記アプリ処理部から出力される表示イメージを表示する表示部とで構成されることを特徴とする。
また、本発明の第2実施例による携帯端末装置のイメージ撮影方法は、カメラ駆動時にフレーム毎にカメラセンサからイメージを獲得する過程と、前記獲得されたイメージをそれぞれ表示イメージ及び圧縮イメージに変換し、前記イメージの撮影情報を生成し、前記表示イメージ、圧縮イメージ及び撮影情報を1つのフレームで出力する過程と、前記表示イメージを表示部に表示し、前記圧縮イメージ及び撮影情報をバッファリングする過程とを備えることを特徴とする。
また、本発明の第2実施例による携帯端末装置は、カメラ駆動時にカメラセンサからイメージを獲得するカメラ部と、前記カメラ部で獲得されたイメージを処理してそれぞれ表示イメージ及び圧縮イメージに変換し、前記カメラ部から撮影情報を受信し、前記表示イメージ、圧縮イメージ及び撮影情報を1つのフレームで生成して出力するイメージ処理部と、前記表示イメージを表示部に表示し、且つ前記圧縮イメージ及び撮影情報をバッファリングするアプリ処理部と、前記表示イメージを表示する表示部とで構成されることを特徴とする。
また、本発明の実施例によるカメラ装置は、カメラ駆動時にフレーム区間毎にカメラセンサからイメージを獲得するカメラ部と、少なくとも1つのセンサを備えるセンサ部と、前記カメラ部で獲得されたイメージを処理してそれぞれ表示イメージ及び圧縮イメージを生成し、前記イメージ撮影時に前記カメラ部及びセンサ部の出力から撮影情報を獲得し、前記表示イメージを表示部に表示し、前記圧縮イメージ及び撮影情報をバッファリングする処理部と、前記表示イメージを表示する表示部とで構成されることを特徴とする。
また、本発明の実施例による携帯端末装置は、外部装置と無線通信を行う通信部と、前記通信部を通じて携帯端末装置の通話及び通信を制御する端末制御部と、カメラ駆動時にフレーム周期毎にカメラセンサからイメージを獲得するカメラ部と、少なくとも1つのセンサを備え、センサ情報を生成するセンサ部と、前記カメラ部で獲得されたイメージを処理して表示イメージ及び圧縮イメージを生成し、前記イメージ撮影時に前記カメラ部から撮影情報を生成し、前記生成された表示イメージ、圧縮イメージ及び撮影情報を1つのフレームで生成して出力するイメージ処理部と、前記端末制御部と通信し、通信アプリを処理し、カメラ駆動時に前記表示イメージを表示部に表示し、前記表示イメージ、圧縮イメージ及び撮影情報をそれぞれバッファリングするアプリ処理部と、前記表示イメージを表示する表示部とで構成されることを特徴とする。
本発明の実施例によるカメラ装置又はカメラを含む端末装置は、フレーム毎にカメラセンサから獲得されるイメージを処理して複数のイメージ及び撮影情報を獲得し、撮影情報を利用して所望のイメージをキャプチャできる。従って、カメラ装置又はカメラを含む端末装置において撮影されるイメージを所望の時点でキャプチャしてゼロシャッタラグを具現でき、また、撮影されたイメージの内から所望のイメージを選択して格納できるという利点がある。
は、本発明の実施例によるカメラ装置の構成を示す図である。 は、本発明の実施例によるカメラ部の構成を示す図である。 は、本発明の実施例によるイメージ処理部及びアプリ処理部の構成を示す図である。 (a)は、本発明の実施例によってイメージ処理部で生成されるイメージフレームの構成を示す図であり、 (b)は、本発明の実施例によってフレームを構成するYUVイメージ、JPEGイメージ及び撮影情報を示す図であり、 (c)は、本発明の実施例によって毎フレームのデータ伝送フォーマットを示す図である。 は、本発明の実施例による表示イメージバッファ、圧縮イメージバッファ及び撮影情報バッファの構成を示す図である。 は、本発明の実施例によるカメラ装置の他の構成を示す図である。 は、図6のイメージ処理部及びアプリ処理部の構成を示す図である。 は、本発明の実施例においてイメージ及びアプリ処理を単一構成で処理するカメラ装置の構成を示す図である。 は、図8の構成において処理部の構成を示す図である。 は、カメラ装置で本発明の第1実施例によってフレーム毎に表示イメージ及び圧縮イメージ生成して処理する手続を示す流れ図である。 は、図10でイメージキャプチャ時にサムネイルイメージを表示しながらユーザの選択による圧縮イメージを格納する手続を示す流れ図である。 は、カメラ装置で本発明の第2実施例によってフレーム毎に表示イメージ、圧縮イメージ及び撮影情報を生成して処理する手続を示す流れ図である。 は、図12でイメージキャプチャ時に撮影情報を表示しながらユーザの選択による圧縮イメージを格納する手続を示す流れ図である。 (a)及び(b)は、本発明の実施例によって撮影情報のフラッシュ情報を利用してフラッシュタイミング問題を解決する方法を説明する図である。 は、本発明の実施例によって圧縮イメージを格納するバッファの構造を示す図である。 は、本発明の実施例によって撮影情報を利用して揺れ検出可否を判定し、キャプチャイメージを決定する手続を示す流れ図である。 は、本発明の実施例によるカメラ装置を備える携帯端末装置の更に他の構成を示す図である。
以下、本発明の好ましい実施例を、添付の図面を参照して詳しく説明する。図面において、同一又は類似の部材に対しては、できるだけ同一の参照符号が与えられている。
また、下記の説明では、イメージの画素数、メタデータの項目及びデータサイズなどの具体的な特定事項が示されているが、これは、本発明の全般的な理解を助けるために提供されたものに過ぎず、このような特定事項が無くとも本発明が実施され得ることは、この技術分野における通常の知識を有する者には、自明であろう。また、本発明を説明するにあたって、関連する公知機能あるいは構成を具体的に説明すると本発明の要旨を却って不明確にしてしまうと判断される場合、そのような詳細な説明を省略する。
本発明は、カメラ装置又はカメラを備える端末装置に関するもので、カメラのイメージセンサで獲得されるイメージを処理して複数のイメージを生成する。また、前記カメラ及び/又は装置のセンサに獲得される情報を撮影情報として生成する。ここで、前記複数のイメージは、カメラ駆動時に表示部に表示するための表示イメージ及び格納部に格納するための圧縮イメージを含む。また、前記撮影情報は、カメラからイメージ獲得時に当該フレームでイメージを撮影するときのカメラ及び/又は装置のセンサから獲得される撮影情報(以下、「撮影情報」は、「メタデータ(meta data)」、「埋め込みデータ(embedded data)」と同義で、互換的に使用される)である。また、前記圧縮イメージは、静止イメージを格納するために圧縮して得られたイメージであって、キャプチャイメージと前記圧縮イメージは、以下、同義で、互換的に使用される。
ここで前記表示イメージは、表示部に表示可能なように適切なサイズに調整(トリミング及び/又はスケーリング、crop and/or scaling)された、例えば、YUVイメージである。また、前記圧縮イメージは、前記カメラのフル解像度(Full−resolution)イメージ(例えばFHD(full high definition)、UHD(ultra high definition))又はそれ以上の解像度を有するイメージ)であって、圧縮符号化されたイメージであり、本発明の実施例においてはJPEGイメージとして説明される。本発明の実施例において前記表示イメージは、プレビューイメージであって、カメラのフル解像度イメージをスケーリングしたYUVイメージと仮定し、前記圧縮イメージは、キャプチャイメージであって、カメラのフル解像度イメージを圧縮符号化したJPEGイメージと仮定する。本発明の実施例においては、カメラ駆動時にフレーム毎にプレビューイメージ及びキャプチャイメージを生成及びバッファリングし、ユーザ又は予め設定された方法によってキャプチャイメージを選択して格納できる装置及び方法を提案する。
また、前記撮影情報は、前記イメージ撮影時に前記カメラ又は装置に装着されるセンサから獲得される情報であって、毎フレームのイメージそれぞれに対応して生成される。一般的にカメラ装置は、カメラセンサをセットするための情報だけを保有し、この情報は、Exif(Exchangeable Image File Format)データなどの様式に従う。
前記Exifデータは、カメラの製造元、カメラのモデル名、イメージエディタ(Software)、画像補正日付、Exif版数、撮影日付、イメージサイズ、露出時間(Exposure Time:シャッタスピード)、露出プログラム(Exposure Program)、レンズ焦点距離、絞り開放数値(F−Number)などの情報を含み得る。
しかし、上記の情報を格納するメモリ容量が限られているので、通常はキャプチャされたイメージだけが参照される。本発明の実施例においては、前記カメラ及び/又は装置のセンサから撮影情報を獲得し、この撮影情報を利用して効率的にイメージを選択及び処理できる装置及び方法を提供する。
本発明の第1実施例によるカメラ装置又はカメラを備える端末装置は、カメラ駆動時に(例えば、プレビューモードにおいて)カメラから獲得される毎フレームのイメージを処理して表示イメージ及び圧縮イメージを生成する。
この場合、カメラ装置は、フレーム周期毎にカメラからイメージを獲得し、獲得されたイメージを表示イメージ及び圧縮イメージに変換した後、表示イメージは、表示部に表示し、圧縮イメージは、バッファリングする。また、ユーザによってキャプチャ要求(即ち格納要求)が発生すれば、カメラ装置は、バッファリングされた圧縮イメージの内からキャプチャ要求された時点の圧縮イメージを選択して格納する。
このようにすると、ユーザのシャッタ・オン時点のイメージを選択及び格納できるので、シャッタ遅延問題を解消できる(即ち、ゼロシャッタラグを具現できる)。また、ユーザのキャプチャ要求が発生すれば、バッファリングされた圧縮イメージを表示し、ユーザが選択する圧縮イメージを格納できる。この場合、ユーザのシャッタ・オン時点でバッファリングされたイメージの内からユーザが所望するイメージを選択して格納できる。
また、本発明の第2実施例によるカメラ装置又はカメラを備える端末装置は、カメラ駆動時にフレーム周期毎にカメラセンサから獲得されるフレームのイメージを処理して表示イメージ及び圧縮イメージを生成し、また、カメラ及び/又は装置のセンサからイメージ獲得時点の撮影情報を生成する。
このようにすると、カメラ駆動時に、カメラ装置は、フレーム周期毎にカメラからイメージを獲得し、前記獲得されたイメージを表示イメージ及び圧縮イメージに変換し、同時に前記カメラ及び/又は装置のセンサから前記イメージ獲得時点における撮影情報を獲得する。
その後、前記カメラ装置は、前記表示イメージを表示部に表示し、前記圧縮イメージ及び撮影情報をバッファリングする。カメラ装置は、フレーム毎にイメージを獲得すれば、圧縮イメージ及び撮影情報を生成し、これをフレーム別に処理する。
ここで、前記カメラは、カメラのフル解像度イメージを出力し、前記表示イメージは、これを表示部に表示するために調整(トリミング及び/又はスケーリング)されたYUVイメージであり、前記圧縮イメージは、これを格納するために圧縮符号化されたJPEGイメージであり、前記撮影情報は、カメラの情報、フラッシュ情報、及び装置のセンサから発生する位置情報、カメラ装置の状態情報(ジャイロセンサ、加速度センサ、高度センサ、方向センサなどから生成される情報)の全部又は一部を含む。
また、ユーザからキャプチャ要求が発生すれば、カメラ装置は、バッファリングされた圧縮イメージの内からキャプチャ要求された時点の圧縮イメージを選択して格納するか、又は、バッファリングされた圧縮イメージの内から選択された圧縮イメージを格納するか、又は、撮影情報を表示し、選択される撮影情報に対応する圧縮イメージを格納するか、の何れかを実行できる。
以下、本発明を、図面を参照して詳しく説明する。図1は、本発明の実施例によるカメラ装置の構成を示す図である。
図1を参照すれば、カメラ部110は、イメージセンサ(図示せず)を具備し、カメラ駆動時にイメージセンサを通じてイメージを獲得する。センサ部120はカメラ部110に組み込まれるか、又は連結されており、カメラ装置に搭載された1つ以上のセンサからなり、前記センサは具体的には、GPS(Global Positioning System)受信機、ジャイロセンサ(gyro sensor)、加速度センサ(acceleration sensor)、高度センサ(altitude sensor)、及び方向センサ(direction sensor)の全部又は一部である。
イメージ処理部(Image Signal Processor:ISP)130は、カメラ部110から獲得されたイメージを処理し、表示部160に表示するための表示イメージ及びキャプチャ要求時に後述の格納部150に格納するための圧縮イメージを生成する。ここで、前記表示イメージは、YUVイメージであり得る。ここで、YUVは、表示部160の色空間(color_space)の表示方式の一つであって、Yは、明るさ(輝度、luminance)を示し、U及びVは、色差情報(chrominance)であり、Uは、輝度信号と青色成分の差の情報(Y−B)であり、Vは、輝度信号と赤色成分の差の情報(Y−R)を示す。
イメージ処理部130は、カメラ部110で獲得されたイメージをYUVイメージに色変換(color conversion)し、また、表示部160に表示するためのサイズに調整(トリミング及び/又はスケーリング)する。即ち、イメージ処理部130は、YUVイメージを生成し、表示部160の表示能力に合わせて適切なサイズに調整(以下、スケーリングで代表する)する。また、イメージ処理部130は、カメラ部110で出力されるイメージをコーディングし、圧縮イメージを生成する。
ここで、前記圧縮イメージは、ユーザがキャプチャ要求(即ち、シャッタ・オン時)時に格納するためのイメージであって、カメラ部110で出力されるフル解像度のイメージを所定の符号化方式で圧縮符号化したイメージであり得、この際、カメラ部110で出力されるフル解像度イメージは、超高画素(UHD)級以上の画素数を有するイメージであり得、コーダは、JPEGコーダを使用できる。
また、イメージ処理部130は、カメラ部110及びセンサ部120から前記イメージの撮影情報を獲得する。この際、前記撮影情報には、カメラ部110でイメージ撮影時に獲得されるexif情報に加えて、それ以外の多様な情報を追加できる。ここで、前記多様な情報は、センサ部120から獲得される情報であり得る。
イメージ処理部130は、フレーム周期毎に前記表示イメージ及び圧縮イメージを生成する。又は、イメージ処理部130は、フレーム周期毎に前記表示イメージ、圧縮イメージ、及び撮影情報を生成する。また、イメージ処理部130は、毎秒30フレーム(30fps)又はそれ以上のフレーム率(例えば60fps)で表示イメージ及び圧縮イメージ(又は、表示イメージ、圧縮イメージ及び撮影情報)を生成する。
アプリ処理部140は、カメラ駆動時にイメージ処理部130で生成された表示イメージ及び圧縮イメージ(又は、表示イメージ、圧縮イメージ、及び撮影情報)をバッファリングし、前記表示イメージを表示部160に出力して表示されるように制御する。また、ユーザのキャプチャ要求(格納要求)命令が発生すれば、アプリ処理部140は、バッファリング中の圧縮イメージの内、所定の条件に該当する圧縮イメージ(例えばシャッタ・オン時点(即ち、ユーザのキャプチャ要求時点)に対応するフレームイメージ)を格納部150に格納する。
入力部170は、アプリ処理部140にカメラ駆動命令、及びキャプチャ命令を発生する。また、入力部170は、ユーザの要求による撮影情報及び/又は前記バッファに格納された圧縮イメージのサムネイルイメージの表示を要求する命令を発生できる。ここで、カメラ駆動命令は例えば、カメラ電源オン又はカメラボタンオン入力であり、キャプチャ命令は例えば、シャッタボタンオン入力である。
表示部160は、プレビューモード時にアプリ処理部140から出力される表示イメージを表示する。また、表示部160は、キャプチャモード時にアプリ処理部140で出力される撮影情報及び/又はサムネイルイメージを表示できる。ここで、入力部170は、ユーザのタッチ入力を感知するタッチパネルであり得、表示部160は、プログラム実行中に発生するデータ及びイメージなどを表示するLCD又はOLEDパネルであり得る。ここで、入力部170及び表示部160は、一体型のタッチスクリーンであり得る。また、入力部170は、カメラ装置の外部に位置するボタンを含み得る。
格納部150は、アプリ処理部140にバッファリング中の圧縮イメージ(又は圧縮イメージ及び撮影情報)を、キャプチャ要求時に格納する。
図2は、本発明の実施例によるカメラ部110の構成を示す図である。
図2を参照すれば、カメラ駆動命令が発生すれば、カメラ部110の動作電源がオンし、イメージ処理部130は、モータ240を駆動し、モータ240の駆動によってアクチュエータ250が光学部210の動作を制御する。ここで、光学部210の動作は、ズーム、フォーカシングなどを含む。光学部210は、周辺のイメージを撮像し、イメージセンサ220は、光学部210で撮像されるイメージを感知し、電気的な信号に変換する。
選択的には、光学部210は例えばフォーカシング用に発光し、イメージセンサ220は、光学部210から出力された光を電気的信号に変換し、対応するイメージ信号を発生する。ここで、イメージセンサ220は、FHD、UHD又はそれ以上の解像度を有する公知のイメージセンサの何れかであり、以下の説明において「フル解像度」は、カメラ部110の当該イメージセンサ220がサポートする最大解像度を意味する。また、イメージセンサ220で感知されるイメージは、AD変換部230を通じてデジタルイメージに変換され、イメージ処理部130に伝達される。また、フラッシュ260は例えばイメージ処理部130によって駆動される。
図3は、本発明の実施例によるカメラ装置の内、イメージ処理部130及びアプリ処理部140の詳細構成を示す図である。
図3を参照すれば、イメージ処理部130の映像処理部(image processing part)320は、カメラ部110から出力されるイメージをYUVイメージに変換する。ここで、映像処理部320は、前処理部(pre−processing part)及び後処理部(post−processing part)で構成され得、その場合、前処理部は、カメラ部110から獲得されるイメージを前処理し、この際の前処理は、3A(AWB(auto white balance)、AE(auto exposure)、AF(Auto focusing))抽出及び処理、レンズシェーディング補償(lens shading correction)、デッドピクセル(dead_pixel)補正、バッドピクセル(bad_pixel)補正、ニー(knee)補正などを含む。
一方、後処理部は、前記前処理された色補間(color interpolation)、雑音除去、色補償、及び色変換(image conversion)によるYUVデータの生成などを行う。カメラ部110から出力されるイメージは、原(raw)イメージであって、イメージセンサ220で感知されるフル解像度の画素数を有し、映像処理部320は、これをイメージ処理し、表示部160で表示され得るYUVイメージに変換する。
また、イメージ処理部130は、静止イメージ(still image)を格納するための静止映像圧縮部(静止映像符号化器)340を具備し、静止映像圧縮部340は、JPEG、TIFFなど多様な静止映像符号化方法をサポートできる。本発明の実施例においては、静止映像圧縮部340は、JPEGコーダ340であると仮定する。JPEGコーダ340は、映像処理部320で出力されるイメージをJPEG映像に圧縮する。スケーラ330は、映像処理部320で出力される映像を表示部160で表示可能な適切なサイズのイメージにスケーリングする。スケーラ330は、前記映像データをスケーリング、トリミング(crop)及び/又はリサイジング(resizing)する構成又はこれらの構成の一部を備える。映像処理部320が色変換機能を行わない場合、スケーラ340は、表示イメージ生成部として構成され、この場合、前記表示イメージ生成部は、原イメージをYUVイメージに変換する色変換器及びスケーラを含む。
イメージ処理制御部310は、後述するアプリ制御部360の制御下に、カメラ部110の駆動を制御し、カメラ駆動モード時にイメージ処理部130の全般的な動作を制御する。また、イメージ処理制御部310は、カメラ部110の駆動時にカメラ部110で撮影されるイメージに関連した情報及びセンサ部120から発生する情報を入力されて、これを撮影情報として生成する。イメージ処理制御部310は、フレーム区間毎に当該フレームの前記圧縮イメージ及び表示イメージ(又は、圧縮イメージ、表示イメージ、及び撮影情報)を生成するように制御し、前記フレームは例えば、1秒に30フレーム又は60フレームで構成される。
多重化部(multiplexer)350は、イメージ処理制御部310の制御下に、フレーム区間毎に前記圧縮イメージ及び表示イメージ(又は、圧縮イメージ、表示イメージ、及び撮影情報)を多重化し、アプリ処理部140に伝送する。
ここで、イメージ処理部130は、図3に示されてはいないが、前記表示イメージをサムネイルイメージに変換するサムネイルイメージ生成部を更に備え得る。この場合、イメージ処理部100は、前記表示イメージからサムネイルイメージを生成し、JPEGコーダ340は、映像処理部320の出力イメージを圧縮し、また、前記圧縮されたイメージのヘッダー、前記サムネイルイメージ及び圧縮されたJPEGイメージで構成された圧縮イメージを生成する。
次に、アプリ処理部140の構成を説明する。アプリ処理制御部360は、入力部170の命令に従ってイメージ処理部130の動作を制御し、イメージ処理部130から出力されるイメージをバッファリングすると共に表示部160を通じて表示し、キャプチャ命令発生時に前記バッファリングされた圧縮イメージを格納部150に格納する。
逆多重化部(demultiplexer)355は、アプリ処理制御部360の制御下に、イメージ処理部130で伝送される表示イメージ及び圧縮イメージ(又は表示イメージ、圧縮イメージ、及び撮影情報)を逆多重化して出力する。パーサ(parser)370は、逆多重化部355で逆多重化されるイメージ及び情報を表示イメージ及び圧縮イメージ(又は、表示イメージ、圧縮イメージ及び撮影情報)にパーシング(分析)する。ここで、アプリ処理制御部360が逆多重化部355を制御し、イメージ処理部130で出力を、表示イメージ及び圧縮イメージ(又は、表示イメージ、圧縮イメージ、及び撮影情報)にソフトウェアパーシングする場合、パーサ370は、省略できる。
バッファ380は、表示イメージバッファ383及び圧縮イメージバッファ385(又は、表示イメージバッファ383、圧縮イメージバッファ385、及び撮影情報バッファ387)を備え得る。バッファ380は、アプリ処理制御部360の制御下にそれぞれパーシングされる表示イメージ、圧縮イメージ(又は表示イメージ、圧縮イメージ及び撮影情報)をバッファリングする。ここで、バッファ380は、N個のフレーム分の表示イメージ及び圧縮イメージ(又は、N個のフレーム分の表示イメージ、圧縮イメージ、及び撮影情報)をバッファリングできるサイズを有し、バッファ380の構造は、リングバッファ(ring buffer)構造を有する。バッファ380をリングバッファ構造で構成する理由は、受信されたフレームのイメージ及び情報のバッファリング量を、常に所定のフレーム数の分に維持するためである。
また、アプリ処理部140は、動画の格納要求時に動画データを圧縮するための動画圧縮部(動画符号化器)390を備えることができ、動画圧縮部390は、H.264、MPEGなど多様な動画符号化器で構成できる。本発明の実施例においては、動画圧縮部390がMPEGコーダ390である場合を仮定する。ユーザから動画格納要求が発生すれば、アプリ処理制御部360は、MPEGコーダ390を駆動し、MPEGコーダ390は、バッファ380の表示イメージバッファ383にバッファリングされている表示イメージを圧縮し、格納部150に格納する。
また、アプリ処理部140は、前記表示イメージをリサイジングし、サムネイルイメージを生成するサムネイルイメージ生成部395を更に備え得る。サムネイルイメージ生成部395は、表示イメージバッファ383で出力される表示イメージをリサイジングし、サムネイルイメージを生成し、前記サムネイルイメージは、前記JPEGイメージに含まれ、アプリ制御部360の制御下に表示部160に表示される。
この際、イメージをキャプチャする場合にも、イメージ処理部130は、引き続き表示イメージ及び圧縮イメージ(又は、表示イメージ、圧縮イメージ、及び撮影情報)を生成し、アプリ処理部140は、圧縮イメージ及び表示イメージを表示部160に同時に表示するように制御する。例えば、アプリ処理部140は、キャプチャモード時に前記表示イメージをプレビューイメージで表示部160に表示し、キャプチャされたイメージを表示部160にサムネイルイメージで表示する。又は、これと反対に、アプリ処理部140は、キャプチャモード時に前記キャプチャイメージを表示部160に表示し、前記表示イメージをサムネイル動画で表示部160に表示できる。即ち、アプリ処理部140は、前記表示イメージを利用してサムネイルイメージを生成し、キャプチャ時にJPEGヘッダー、サムネイルイメージ及び圧縮イメージを当該フレームの圧縮イメージとして格納部150に格納できる。
本発明によれば、アプリ処理部140は、キャプチャモード時に表示部160に表示イメージ及びキャプチャイメージを同時に表示でき、この場合、1つのイメージ(表示イメージ又はキャプチャイメージ)は、サムネイルイメージで表示できる。また、キャプチャモード時にアプリ処理部140は、該当するフレームの圧縮イメージをデコーディングした後、表示部160に静止イメージで表示することもできる。この際、前記キャプチャされる圧縮イメージには、カメラ装置のシャッタ遅延を考慮して設定されたフレームの圧縮イメージを充当でき、アプリ処理制御部360は、キャプチャ要求時に圧縮イメージバッファ385にバッファリングされた圧縮イメージの内から設定されたフレームの圧縮イメージを選択し、格納部150に格納できる。
図3で、イメージ処理部130及びアプリ処理部140に備えられる静止映像及び動画を圧縮する構成要素は、コーダで示されている。しかし、一般的に映像を圧縮及び圧縮解除(解凍)する構成要素は、1つのチップ(Coder & DECcoder:CODEC)で構成される。従って、イメージ処理部130の静止映像コーダ340(例えば、JPEGコーダ)は、静止映像コーデック(JPEGコーデック)で構成され得、アプリ処理部140の動画コーダ390(例えば、MPEGコーダ390)は、動画コーデック(MPEGコーデック)で構成され得る。
本発明の実施例においては、カメラ部110から撮影されるイメージを表示及び圧縮格納する動作を中心に説明がなされる。また、格納部150に格納された静止映像(例えばJPEGイメージ)を圧縮解除して表示するための構成を必要とする場合がある。このために、図面には示されていないが、アプリ処理部140は、静止映像デコーダ(又は静止映像コーデック)を更に備え得る。この場合、ユーザが入力部170を通じて格納部150に格納された圧縮イメージの再生を要求すれば、アプリ処理部140は、図示しない静止映像デコーダ(静止映像コーデック)を通じて圧縮イメージをデコーディング(圧縮解除)し、前記デコーディングされたイメージを表示部160に表示する。以下説明される本発明の実施例においては、前記静止映像をデコーディングして表示する動作の構成及び説明は、省略する。
図3の構成で、イメージ処理部130は上述したように、カメラ部110から出力されるイメージを受信し、プレビュー用表示イメージ及びキャプチャ用圧縮イメージを生成し、又は、表示イメージ、圧縮イメージ、及び撮影情報を生成する。
まず、表示イメージ及び圧縮イメージを生成処理する動作(第1実施例)の動作を説明する。
ユーザが入力部170を通じてカメラ駆動命令を発生すれば、アプリ処理制御部360は、イメージ処理部130にこれを通知し、イメージ処理制御部310は、カメラ部110を駆動する。また、カメラ部110から出力される原イメージは、映像処理部320に入力される。映像処理部320は、カメラ部110から入力される原イメージをYUVイメージに映像変換し、この際のイメージは、カメラ部110のフル解像度イメージであり得る。
また、JPEGコーダ340は、映像処理部320から出力されるYUVイメージをJPEG方式で圧縮符号化して圧縮イメージを生成し、スケーラ330は、映像処理部320から出力されるYUVイメージを所定のサイズにスケーリング(及び/又はリサイジング)し、表示部160に表示するための表示イメージを生成する。また、多重化部350は、イメージ処理制御部310の制御下に前記圧縮イメージ及び表示イメージを多重化し、アプリ処理部140に出力する。
ここで、イメージ処理部130は、フレーム区間毎に各フレームの表示イメージ及び圧縮イメージを生成し、ここで、前記フレームのフレーム率は例えば、30fps又は60fpsである。
逆多重化部355は、前記多重化されて伝達される表示イメージ及び圧縮イメージを逆多重化して出力し、パーサ370は、前記逆多重化されるイメージを表示イメージ及び圧縮イメージにパーシングする。また、前記パーシングされる表示イメージは、アプリ処理制御部360の制御下にバッファ380の表示イメージバッファ383にバッファリングされると同時に、表示部160に出力されて表示される。また、前記圧縮イメージは、アプリ処理制御部385の制御下にバッファ380の圧縮イメージバッファ385にバッファリングされる。
ここで、圧縮イメージバッファ385にバッファリングされる圧縮イメージは、カメラ装置でシャッタ遅延(shutter delay、shutter lag)を補償するために使用でき、また、ユーザがキャプチャ要求時にバッファリングされた圧縮イメージの内からユーザが所望のイメージを選択するために使用できる。
まず、ユーザのキャプチャ要求時に、アプリ処理部140は、圧縮イメージバッファ385にバッファリングされた圧縮イメージの内からシャッタ遅延を丁度補償するフレームの圧縮イメージをキャプチャする。カメラ装置においてキャプチャを要求した時点でユーザが表示部160(カメラ装置の場合、ビューファインダ(view finder))で見たイメージとカメラ部110で獲得されるイメージとは互いに異なり得る。
このシャッタ遅延を解消(即ち、ゼロシャッタラグ(zero shutter lag))するために、本発明の実施例においては、キャプチャ要求時にアプリ処理制御部360は、圧縮イメージバッファ385にバッファリングしている圧縮イメージの内からシャッタ遅延を補償するフレームの圧縮イメージを選択し、格納部150に格納する。例えば、シャッタ遅延が3フレームである場合、アプリ処理制御部360は、キャプチャ要求時に圧縮イメージバッファ385にバッファリングされた圧縮イメージの内から3フレーム前の圧縮イメージを選択し、格納部150に格納する。
第二に、ユーザによってキャプチャ要求発生時に、キャプチャする写真が正常に撮影されていない写真である場合がある。例えば、人物写真を撮影した場合、人物が目を閉じるか、揺れた写真が撮影され得る。この場合、ユーザは、他のより正常な圧縮イメージをキャプチャすることが好ましい。このために、本発明の実施例において、アプリ処理部140は、前記表示イメージを利用して圧縮イメージバッファ385にバッファリングされている圧縮イメージのサムネイルイメージを生成及びバッファリングする。即ち、アプリ処理部140のサムネイルイメージ生成部395は、表示イメージバッファ383で出力される表示イメージをリサイジング(スケーリング及びクロップ機能をも含むことができる)し、サムネイルイメージを生成する。
また後のキャプチャ要求時にアプリ処理制御部360は、前記サムネイルイメージを表示部160に表示し、ユーザによって選択されたサムネイルイメージに対応する圧縮イメージを格納部150に格納する。また、本発明の実施例においては、前記表示イメージを表示イメージバッファ383にバッファリングしている。従って、キャプチャ要求時に前記サムネイルイメージを使用せずに、前記表示イメージバッファ383にバッファリング中の表示イメージを表示部160に表示し(post view)、表示部160に表示される表示イメージを確認し、所望の圧縮イメージを選択した後、これを格納部150に格納することもできる。また、ヘッダー、サムネイル及び圧縮イメージで構成されるフレーム圧縮イメージを生成する場合、アプリ処理制御部360は、キャプチャ要求時に圧縮イメージバッファ385に格納された圧縮イメージの内、サムネイルイメージを表示部160に表示でき、この場合、ユーザは、前記表示されるサムネイルイメージを確認しながら所望のイメージを選択できる。
前述したように、本発明の第1実施例においては、プレビューモード時にフレーム周期毎にカメラ部110で生成される原イメージを処理して表示イメージ及び圧縮イメージを生成し、前記生成された表示イメージ及び圧縮イメージを所定のフレーム数の分だけバッファリングし、キャプチャ要求時に前記バッファリングされた圧縮イメージの内からキャプチャ要求時点又は定められた要求時点以前の圧縮イメージを選択して格納することによって、ゼロシャッタラグを具現でき、また、前記バッファリング中の圧縮イメージのサムネイルイメージ又は表示イメージを確認し、所望の圧縮イメージを選択して格納できる。
本発明の第1実施例においては、撮影情報を使用しない。この場合、前記圧縮イメージであるJPEGイメージは、通常のexifデータを含む。この場合、バッファ380の内の撮影情報バッファ387は使用しない。
次に、表示イメージ、圧縮イメージ、及び撮影情報を生成処理する場合(第2実施例)の動作を説明する。
ユーザが入力部170を通じてカメラ駆動命令を発生すれば(即ち、プレビューモードを実行すれば)、アプリ処理制御部360は、イメージ処理部130にこれを通知し、イメージ処理制御部310は、カメラ部110を駆動する。また、カメラ部110から出力されるイメージは、映像処理部320に入力される。
この際、イメージ処理部130は、フレーム区間毎に表示イメージ、圧縮イメージ、及び撮影情報を生成する。ここで、イメージ処理部130のフレームイメージ生成は例えば、30fps又はそれ以上(例えば60fps)で生成される。この際、映像処理部320は、カメラ部110から入力される原イメージを3A処理、カラー補間、及び/又は、原イメージをYUVイメージに映像変換する処理を行い、この際のイメージは、カメラ部110のフル解像度イメージであり得る。
また、静止映像コーダコーダ340は、映像処理部320から出力されるイメージを処理して圧縮イメージを生成する。この際、前記圧縮イメージは、JPEGイメージであるか、又は、前記JPEG方式と異なる方式の圧縮符号化器による場合もある。本発明の実施例においては、前述したように、JPEG方式で圧縮データを生成するものと仮定する。スケーラ330は、映像処理部320で出力されるイメージを所定のサイズにスケーリングし、表示イメージを生成する。この際、前記イメージをスケーリングする方法には、トリミング(クロップ(crop))、及びリサイズ方法があり、これらの内から1つの方法又は2つ以上の方法を組み合わせて表示イメージを生成することができる。
ここで、前記表示イメージは、表示部160に表示するためのイメージ及び/又は動画キャプチャ時に格納するイメージである。この際、イメージ処理部130のスケーラ330は、プレビューモードのための表示イメージ及び動画格納のための表示イメージのデータサイズ(data_size)を異なるサイズにすることもできる。また、前述したように、映像処理部320で色変換機能を行わない場合、スケーラ340は、表示イメージ生成部で構成できる。この場合、前記表示イメージ生成部は、前記色変換(color conversion、原イメージをYUVイメージに変換する機能)及びスケーラ機能を含む構成を有する。
また、イメージ処理部130は、フレーム区間毎に前記表示イメージ及び圧縮イメージ生成時に、カメラ装置がそのフレームの原イメージを撮影する時の各種センサ情報を獲得し、撮影情報として生成する。一般的に、従来のカメラ装置には、カメラ部110をセットするための情報は存在したが、カメラ部110が供給できる撮影時の各種センサ情報は利用されなかった。また、カメラ部110の出力イメージを格納するとき、exifデータを生成したが、撮影情報の格納のため許容される前記exifデータの量が制限されているので、キャプチャされたイメージからしか参照できないという限界があった。
本発明の第2実施例においてイメージ処理制御部310は、カメラ部110が駆動される場合、カメラ部110を含むカメラ装置に設置されたセンサ部120からの出力を入力されて、これから原フレームイメージの撮影情報を生成する。また、アプリ処理部140は、獲得された前記撮影情報を当該フレームのイメージと共に組込みデータ(メタデータ)としてバッファリングし、前記バッファリングされた撮影情報を利用してカメラ装置の機能を効率的に使用する。
本発明の第2実施例においては、カメラ部110から毎フレームのイメージを受信するイメージ処理部130は、表示用YUVイメージ及び圧縮イメージを生成し、さらに、当該フレームイメージの撮影情報を生成する。ここで、前記撮影情報(メタデータ)は例えば、下記表1のアイテムを含む。
Figure 2013168942
上記の撮影情報(メタデータ)を利用してユーザは、多様な機能を設定できる。即ち、ユーザは、頻繁に撮影した被写体情報とカメラメニュー情報を利用して状況にふさわしい設定値を探索できる。例えば、プレビュー時に人物の顔が探知されれば、カメラ装置は、過去の撮影情報に基づく人物DB(データベース)を参照し、当該人物の撮影時に頻繁に使用されるか、使用時に良い結果をもたらすメニューを自動的に設定できる。カメラ装置のユーザは、自分の家族、知り合い、恋人、芸能人などの人物写真を多く撮影している場合、人物DB内で当該人物撮影時に適合する情報を探すか、又は適合する情報がなければ、撮影時に役立つメニューをセットできる{例えば、微小撮影(smile shot)、美人撮影(beauty shot)、肖像シーンモード(portrait scene mode)、自動焦点モード(AF mode)、特定対象追跡(object tracking)、実効ISO感度(ISO_sensitivity_effect)、ホワイトバランス(white balance)、測光(exposure_metering)、ズーミング(zooming)、フラッシュ(flash)}。
また、プレビュー情報で人物イメージ情報を探知できない場合、カメラ装置は、風景写真撮影に関係する部分をチェックし、風景写真に適合するように設定できる。{例えば、屋外景観(outdoor visible)、フラッシュ(flash)、ISO感度効果(ISO_sensitivity_effect)、ホワイトバランス(white balance)、測光(exposure_metering)、風景シーンモード(landscape scene mode)、ファンフォーカスモード(Fan focus mode)}。上記のように撮影されたイメージは、ユーザのカメラ使用パターンに基づいて格納できる。{例えば、恋人の写真の場合、撮影と同時に恋人アルバムに格納されるか、指定されたSNSに投函されるか、又は、クラウド格納システムにアップロードされる}。また、カメラ装置は、連続撮影で撮影されたイメージを類似性に合わせて表示でき、この場合、ユーザは、アルバム又はポストビューでこの類似性をチェックできる。
イメージ処理部130の多重化部350は、イメージ処理制御部310の制御下に前記表示イメージ、圧縮イメージ、及び撮影情報を多重化し、アプリ処理部140に出力する。
図4(a)は、本発明の実施例によってイメージ処理部130で生成されるイメージフレームの構成を示す図であり、図4(b)は、本発明の実施例によってフレームを構成するYUVイメージ(YUV_data)、JPEGイメージ(JPEG_data)、及び撮影情報(Embedded_data)を示す図であり、図4(c)は、本発明の実施例によって毎フレームのデータ{YUVイメージ(YUV)、JPEGイメージ(JPEG)、及び撮影情報(Meta)}の伝送フォーマットを示す図である。
図4(a)〜図4(c)を参照すれば、イメージ処理部130は、フレーム区間毎にYUVイメージ、JPEGイメージ、及び撮影情報(=組込みデータ=メタデータ)を生成し、多重化部350は、前記生成されたYUVイメージ、JPEGイメージ、及び撮影情報を図4(a)のように多重化し、アプリ処理部140に伝送する。
この際、図4(b)に示したように、圧縮イメージであるJPEGイメージ(JPEG_data)は、原イメージであって、キャプチャ要求時に静止イメージとして格納するためのデータである。この際、前記JPEGイメージのサイズは、カメラ部110のイメージセンサ220によって決定され、8Mバイト以上のデータサイズを有し得る。また、YUVイメージ(YUV_data)は、表示部160に表示するためのデータであって、表示部160のサイズにスケーリングされる。また、前記YUVイメージ(YUV_data)は、プレビュー(preview)に加えてポストビュー(postview)に使用される。即ち、キャプチャ要求時に前記表示イメージバッファ383に格納している表示イメージを表示部160に表示(postview)できる。
また、撮影情報(Embedded_data)は、カメラ付加機能(Camera付加機能)であって、カメラ部110でイメージを獲得するときの各種撮影情報及びカメラ装置のセンサ部120が感知した情報から構成される。この際、前記撮影情報は、前記圧縮イメージに含めて格納されるか、又は、前記圧縮イメージと独立的に格納される。以下、本発明の実施例において前記撮影情報は、前記圧縮イメージと独立的に格納されるものと仮定して説明する。イメージ処理部130は、フレーム毎にカメラ部110及びセンサ部120が感知した情報を利用して前記表1のような構成を有する撮影情報を生成し、前記撮影情報を、フレーム単位で前記表示イメージ及び圧縮イメージと対応するように格納部150に格納する。その後、ユーザは、前記撮影情報を利用してイメージを効率的に格納及び処理できる。
また、図4(b)の構造を有する本発明の実施例によるカメラフレームデータは、イメージ処理部130で生成され、図4(c)の伝送フォーマットでアプリ処理部140に伝送される。例えば、前記YUVイメージ(YUV_data、YUV)データは、フレーム当たり2MB(Byte)を要し(フルHDの場合、1920*1080*2(YUV422フォーマットでは、1ピクセル当たり2Byte)=2MB)、JPEGイメージ(JPEG_data、JPEG)データは最大8MBを要し、撮影情報(Embedded_data、Meta)データは4Kを要する。この場合、イメージ処理部130で各フレームデータを伝送するときの必要バス帯域幅は、(1920*1080*2+8*1024*1024+4*1024)*30fps*8bit=3,009,576,960bps=2.87Gbpsになる。
イメージ処理部130で多重化されて伝送される表示イメージ、圧縮イメージ、及び撮影情報は、アプリ処理部140の逆多重化部355で逆多重化され、パーサ370で表示イメージ、圧縮イメージ、及び撮影情報にパーシングされ、バッファ380のそれぞれ対応する表示イメージバッファ383、圧縮イメージバッファ385、撮影情報バッファ387にバッファリングされる。バッファ380は、リングバッファの構造を有し、設定されたフレーム数のデータがバッファリングされれば、それ以上のフレームのデータは順次オーバライトされる。
図5は、本発明の実施例による圧縮表示イメージバッファ、圧縮イメージバッファ及び撮影情報バッファの構成を示す図である。図5を参照すれば、各バッファ383、385及び387は、それぞれn個(nは2以上の自然数)のフレームの対応するデータを格納できるn個のリングバッファ構造を有し、アプリ処理制御部360の制御下に対応するデータをバッファリングする。この際、n個のバッファにデータが一杯にバッファリングされれば、アプリ処理制御部360は、最初のバッファから次のフレームのデータをオーバライトする。
例えば、圧縮イメージバッファ385の場合、nフレーム分の圧縮イメージを格納できるリングバッファ構造を有し、発生する順に圧縮イメージJPEG1、・・・JPEGnがバッファリングされる。また、次に生成される圧縮イメージJPEGn+1、・・・JPEG2nは、オーバライトされる。また、表示イメージバッファ383、圧縮イメージバッファ385及び撮影情報バッファ387のフレームは、フレームカウント値によって同期される。従って、アプリ処理制御部360は、フレームカウント値を確認し、同一フレームの表示イメージ、圧縮イメージ、及び撮影情報を処理できる。
また、アプリ処理制御部360は、前記表示イメージを表示イメージバッファ380にバッファリングしながら表示部160に出力し、プレビューイメージとして表示させる。上記の状態でユーザがキャプチャ要求命令を発生すれば、アプリ制御処理部360は、これを感知し、圧縮イメージバッファ385にバッファリングされた圧縮イメージの内から設定されたフレームの圧縮イメージを格納部150に格納する。ここで、設定されたフレームは、ゼロシャッタラグを有するフレームにできる。前記圧縮イメージは圧縮JPEGイメージを含み、この場合、前記格納される圧縮イメージは、JPEGヘッダー、サムネイルイメージ、及びJPEGイメージなどで構成される。
本発明の第2実施例においては、キャプチャ要求発生時に、圧縮イメージバッファ385にバッファリングされた圧縮イメージを利用してゼロシャッタラグを具現でき、また、バッファリングされたフレームイメージの内からユーザによって選択される圧縮イメージを選択して格納でき、また、撮影情報を利用して圧縮イメージを選択して格納できる。この場合、ユーザは、キャプチャ時にゼロシャッタラグ、イメージ確認、撮影情報確認などの機能を予め設定するか、又は、キャプチャ時点でこれら機能を設定する。以下の説明で当該機能が予め設定された場合を仮定して説明する。
まず、ゼロシャッタラグ機能が設定された場合、キャプチャ要求命令発生時にアプリ処理制御部360は、入力部170を通じてこのキャプチャ要求命令を確認し、圧縮イメージバッファ385にバッファリングされた圧縮イメージの内から以前フレームで生成されてバッファリング中の圧縮イメージの内の1つを選択し、格納部150に格納する。 例えば、シャッタ遅延(シャッタラグ)が1フレームに設定された場合、キャプチャ要求命令が発生すれば、アプリ処理制御部360は、図5に示したバッファリングされた以前フレームの圧縮イメージJPEGi(i=1、2、・・・)データの内、直前フレームに対応するデータを格納部150に格納し、ゼロシャッタラグを具現する。
例えば、図5のJPEG2の時点でキャプチャ命令が発生すれば、アプリ処理制御部360は、圧縮イメージバッファ385にバッファリングされた圧縮イメージJPEG1データ及び撮影情報META1データを格納部150に格納する。この際、前記圧縮イメージJPEG1と同一のフレームカウント値を有する表示イメージYUV1データを一緒に格納することもできる。上記のようにキャプチャ要求時に、圧縮イメージバッファ385にバッファリングされた以前フレームの圧縮イメージの内、キャプチャ要求が発生した時点(shutter release時点)のフレームに対応する圧縮イメージを選択して格納することによって、シャッタラグを解決できる、即ち、ゼロシャッタラグを具現できる。
第二に、サムネイルイメージ又は表示イメージを表示しながら所望の圧縮イメージを選択する機能が設定された場合の動作を説明する。キャプチャされた写真が正常に撮影されない写真である場合、例えば、撮影されたイメージが揺れた写真であるか、人物写真において目を閉じた写真をキャプチャする場合がある。この写真撮影は、刹那の瞬間イメージを撮影しているので、全く同一の条件での写真の再撮影が不可能な状況が発生し得る。従って、このように写真を再び撮影できる条件下にない場合、ユーザは、バッファリング中の他の圧縮イメージをキャプチャできると好都合である。
本発明の実施例においては、圧縮イメージバッファ385にバッファリングされたイメージの内から所望の写真イメージを選択できる。このために、本発明の実施例においては、前記表示イメージを生成するとき、サムネイルイメージを生成する。また、キャプチャ要求時にアプリ処理制御部360は、圧縮イメージバッファ385にバッファリングされた圧縮イメージのサムネイルイメージを表示部160に表示し、ユーザによって選択されたサムネイルイメージに対応する圧縮イメージを格納する。また、キャプチャ要求時に表示イメージバッファ383にバッファリングされた表示イメージを順次に表示しながらユーザに所望の圧縮イメージを選択させることもできる。
上記の第二の機能は、ゼロシャッタラグ機能と共に設定できる。この場合、アプリ処理制御部360は、ゼロシャッタラグ機能を行って圧縮イメージを選択し、ユーザは前記圧縮イメージが所望のイメージでない場合に、サムネイル映像又は表示イメージを確認し、他の圧縮イメージを選択する。
第三に、特定の撮影情報を利用してキャプチャイメージを選択する機能が設定された場合、イメージキャプチャ要求時にアプリ処理部140は、前記撮影情報を確認し、圧縮イメージを選択する。例えば、フラッシュを利用してイメージを撮影した場合、アプリ処理制御部360は、撮影情報のフラッシュ情報を確認し、フラッシュが最大発光した時点の圧縮イメージを選択し、ユーザが揺れ検出機能を設定した場合、センサ部120の動きセンサの情報(例えば、ジャイロセンサ、加速度センサなど)を確認し、揺れのない圧縮イメージを選択する。また、前記撮影情報のデータサイズを確認し、バッファ380のイメージバッファリングを効率的に制御する。
上述したように図1及び図3は、本発明の実施例によるカメラ装置の構成を示す図である。ここで、イメージ処理部130は、カメラ部110から出力されるイメージを処理し、また、カメラ部110の動作を制御し、カメラ部110の撮影情報を獲得する機能を行う。また、センサ部120がイメージ処理部130に連結され、カメラ駆動時にカメラ部110及びセンサ部120から獲得される情報を撮影情報として生成する。また、アプリ処理部140は、イメージ処理部130の動作を制御し、また、イメージ処理部130から出力されるデータ(表示及び圧縮イメージと撮影情報)を処理する。
しかし、アプリ処理部140は、イメージ処理部130のアプリ(即ち、カメラ関連アプリ)以外に他のアプリを処理できる。このアプリは、センサ部120のアプリを含む。上記のアプリの例を説明すれば、センサ部120はGPSモジュールを含み、GPS信号を受信し、装置(ここでは、カメラ装置又はカメラ装置を含む端末装置など)の位置を表示する。また、センサ部120は、動きセンサを具備し、前記装置の状態を表示する。例えば、前記動きセンサは、装置の上下左右移動を感知し、ジャイロセンサは、3軸(X、Y、Z軸)に沿った回転移動を感知する。従ってアプリ処理部140は、前記動きセンサの出力を感知し、装置が位置する状態を表現するアプリを処理できる。この場合、センサ部120は、アプリ処理部140に直接接続される。
図6は、本発明の実施例によるカメラ装置又はカメラ装置を含む端末装置において、アプリ処理部140がセンサ部120の出力を処理する他の構成を示しており、図7は、図6の構成におけるイメージ処理部130及びアプリ処理部140の構成を示す図である。以下の説明では、カメラ駆動時に撮影情報を生成及び処理する動作を中心に説明する。即ち、図6及び図7で、撮影情報を生成する構成及び動作を除く残りの構成及び動作は、図1及び図3の構成及び動作と同一である。
図6及び図7を参照すると、ユーザが入力部170を通じてカメラ駆動命令を発生すれば(即ち、プレビューモードを実行すれば)、アプリ処理制御部360は、イメージ処理部130にこれを通知し、イメージ処理制御部310は、カメラ部110を駆動する。また、カメラ部110で出力されるイメージは、映像処理部320に入力される。
この際、イメージ処理部130は、フレーム周期毎に表示イメージ、圧縮イメージ、及び撮影情報を生成する。この際、フレーム周期毎に映像処理部320は、カメラ部110から入力される原イメージを3A処理、カラー補間処理、及び/又は原イメージをYUVイメージに映像変換する機能を行い、この際のイメージは、フルHD以上の解像度を有するイメージであり得る。また、JPEGコーダ340は、映像処理部320から出力されるイメージをJPEG方式で圧縮符号化し、キャプチャ要求時に格納するための圧縮イメージを生成し、スケーラ330は、映像処理部320で出力されるイメージのサイズを縮小し、表示部160にプレビューモードで表示するための表示イメージを生成する。この際、前述したように、映像処理部320で色変換機能を行わない場合、スケーラ340は、表示イメージ生成部として構成される。この場合、スケーラ340は、前記色変換機能(原イメージをYUVイメージに変換する機能)及びスケーラ機能を含む構成を有する。
また、イメージ処理部130は、フレーム周期毎に前記表示イメージ及び圧縮イメージを生成する一方で、カメラ部110でイメージを撮影する時の撮影情報を生成する。この場合、イメージ処理部130のイメージ処理制御部310は、カメラ駆動時にカメラ部110の動作を設定した情報(setting情報)及びカメラ部110から獲得する情報を用いて前記撮影情報を生成する。即ち、図6及び図7の構成を有する装置において、イメージ処理部130は、カメラ駆動時にカメラ部110を制御し、カメラ部110から獲得される情報(以下、第1撮影情報という)のみを利用して撮影情報を生成する。
また、イメージ処理部130は、フレーム周期毎にYUVイメージ、JPEGイメージ及び第1撮影情報を生成し、多重化部350は、前記生成されたYUVイメージ、JPEGイメージ、及び撮影情報を図4(a)のように多重化し、アプリ処理部140に伝送する。
ここで、前記カメラ装置又はカメラ装置を備える端末装置は、ユーザが持ち運びできる携帯装置であり得る。この際、前記装置は、ユーザが位置する地域によって位置が異なり、ユーザの移動手段(車両、飛行機、汽車、徒歩など)によって移動速度が異なり、ユーザの高度位置(建物の上、地下、山、海など)によって高度が異なり、ユーザの装置利用(上下左右移動、回転軸(X、Y、Z軸)に沿った回転移動によって端末装置の動き及び角度が異なり、端末機の方向(東西南北)が異なる。従って、前記カメラ装置又はカメラ装置を備える端末装置は、上記の位置・運動特性を感知するためのセンサ部120を備え、センサ部120は、多様なセンサを備える。
即ち、センサ部120は、端末の位置(地域)と移動を感知するためのGPS受信機、端末機の動きを感知するための動きセンサ(加速度センサ、ジャイロセンサなど)、端末の高度を測定するための高度センサ、端末の方向を感知するための方向センサ、端末の周辺の明るさを感知するための照度センサなどの多様なセンサを備える。また、前記カメラ装置又はカメラ装置を備える端末装置は、カメラ駆動時に撮影時の天候・気温情報とその他の付加情報をインターネット網又は通信網を通じて受信できる。このためには、前記カメラ装置及びカメラ装置を含む端末装置は、通信網又はインターネット網と接続するために図示しない通信部(wifiなど)を備える必要がある。上記のように、センサ部120及び/又は通信部を通じて獲得されるカメラ駆動時の情報は、以下、第2撮影情報という。
イメージ処理部130で多重化されて伝送される表示イメージ、圧縮イメージ、及び第1撮影情報は、アプリ処理部140の逆多重化部355で逆多重化され、パーサ370で表示イメージ、圧縮イメージ、及び撮影情報にパーシングされ、リングバッファ380のそれぞれ対応する表示イメージバッファ383、圧縮イメージバッファ385、撮影情報バッファ387にバッファリングされる。この際、アプリ処理部140のアプリ処理制御部360は、センサ部120(及び/又は図示しない通信部から受信される付加情報)の出力を第2撮影情報として生成し、前記パーシングされた前記第1撮影情報を前記撮影情報にバッファリングするとき、前記第2撮影情報を併合(merge)して撮影情報を生成する。即ち、アプリ処理部140は、フレーム毎にイメージ処理部130で伝送される第1撮影情報とアプリ処理部140で生成される第2撮影情報を併合し、撮影情報バッファ387にバッファリングする。この際、バッファ380は、図5のリングバッファの構造を有し、所定のフレーム数のデータがバッファリングされれば、それ以降のフレームのデータはオーバライトされる。また、表示イメージバッファ383、圧縮イメージバッファ385、及び撮影情報バッファ387のフレームは、フレームカウント値を通じて同期される。従って、アプリ処理制御部360は、フレームカウント値を確認し、同一フレームの表示イメージ、圧縮イメージ、及び撮影情報を処理できる。
また、アプリ処理制御部360は、前記表示イメージを表示イメージバッファ380にバッファリングしながら表示部160に出力し、プレビューイメージとして表示できるように制御する。上記の状態で、ユーザがキャプチャ要求命令を発生すれば、アプリ制御処理部360は、これを感知し、圧縮イメージバッファ385にバッファリングされた圧縮イメージの内から、設定に従い選択された特定の圧縮イメージを格納部150に格納する。ここで、前記特定の圧縮イメージとしては、ゼロシャッタラグ機能が設定された場合、アプリ処理部140は、キャプチャ命令が発生した時点(即ち、ユーザが表示部160又はビューファインダー(view finder)で確認された時点のフレーム圧縮イメージ(圧縮イメージバッファ385にバッファリングされた圧縮イメージ)を選択して格納する。また、ユーザが特定機能のイメージ撮影を設定した場合(例えば、フラッシュ、顔認識、揺れなど)、アプリ処理部140は、前記撮影情報の内から当該機能に関連した撮影情報を分析し、最適のイメージとして撮影されたフレームの圧縮イメージを選択して格納する。また、ユーザが手動設定をした場合、アプリ処理部140は、サムネイルイメージ及び/撮影情報などを表示し、ユーザによって選択されたフレームの圧縮イメージを格納する。この際、格納される圧縮イメージは、JPEGイメージであり得、この場合、前記格納される圧縮イメージは、JPEGヘッダー、サムネイルイメージ、及びJPEGイメージなどから構成される。
図1、図3及び図6、図7に示した構成を有するカメラ装置は、イメージ処理部130とアプリ処理部140を具備し、カメラ部110で感知されるイメージを処理する構成を示している。しかし、イメージ処理部130及びアプリ処理部140を一体化して、1つの処理部とする構成もあり得る。図8は、本発明の実施例においてイメージ及びアプリ処理を単一の処理部830で処理するカメラ装置の構成を示す図であり、図9は、図8の構成における処理部830の詳細構成を示す図である。
図8及び図9を参照すれば、カメラ部810は、カメラ駆動時に外部イメージを撮影し、センサ部820は、カメラ装置に装着されるセンサであって、前述したように、GPS受信機、ジャイロセンサ、加速度センサ、高度センサ、方向センサの内の1つ以上を含む。
処理部830は、カメラ部810から獲得されるイメージを処理し、表示部160に表示するための表示イメージ、キャプチャ要求時に格納するための圧縮イメージ、及び撮影情報を生成し、生成されたイメージ及び情報をバッファリングする。ここで、処理部830は、前記イメージ処理部及びアプリ処理部の機能を統合処理する構成を有する。処理部830は、フレーム周期毎に表示イメージ、圧縮イメージ、及び撮影情報を生成し、同一のフレームのイメージ及び情報を同期してバッファリングする
入力部860は、処理部830に対するカメラ駆動命令及びキャプチャ命令を発生する。また、入力部860は、イメージキャプチャ時にユーザの要求により、撮影情報及び/又はサムネイルイメージの表示を要求する命令を発生する。表示部850は、プレビューモード時に処理部830で出力される表示イメージを表示する。また、表示部850は、イメージキャプチャ時に処理部830で出力される撮影情報及び/又はサムネイルイメージを表示する。ここで、入力部860は、ユーザのタッチ入力を感知するタッチパネルであり得、表示部850は、プログラム実行中に発生するデータ及びイメージなどを表示するLCD又はOLEDパネルであり得る。ここで、入力部860及び表示部850は、一体型のタッチスクリーンであり得る。また、入力部860は、カメラ装置の外部に位置するボタンを含み得る。
格納部840は、キャプチャ要求時に処理部830にバッファリング中の圧縮イメージを格納する。
処理部830の構成を説明すれば、図9に示したように、図3及び図7と比較して、イメージ処理部からアプリ処理部にフレームイメージ及び撮影情報を多重化して伝送する多重化部350及びアプリ処理部で受信される多重化されたフレームイメージ及び情報を逆多重化する逆多重化部355とこれをパーシングするパーサ部370が省略されていることが分かる。また、その他のスケーラ930、JPEGコーダ940、表示イメージバッファ953、圧縮イメージバッファ955、撮影イメージバッファ957、MPEGコーダ960、サムネイルイメージ生成部970及び各構成部で行われる動作は、図3及び図7の構成の場合と同一である。
即ち、映像処理部920で処理されたフルHD級以上の解像度を有するイメージは、JPEGコーダ940で圧縮符号化されてJPEGイメージとして生成され、また、スケーラ930でそのサイズが調節され、表示イメージとして生成される。また、制御部910は、カメラ部810及びセンサ部820から前記イメージ撮影時の情報を獲得し、撮影情報を生成する。この際、前記JPEGイメージ、表示イメージ、及び撮影情報は、フレーム周期毎に生成され、同一のフレームで生成されるJPEGイメージ、表示イメージ、及び撮影情報は、同一のフレームカウント値を有する。従って、同一のフレームで生成されるJPEGイメージ、表示イメージ、及び撮影情報は、同期して処理される。また、前記JPEGイメージ、表示イメージ及び撮影情報は、制御部910の制御によってそれぞれバッファ950の対応するバッファでバッファリングされ、前記表示イメージは、表示部850に出力され、プレビューイメージとして表示される。
また、キャプチャ要求が発生すれば、制御部910は、圧縮イメージバッファ955から設定された以前フレームの圧縮イメージを選択し、格納部840に格納することによって、ゼロシャッタラグを具現する。また、制御部910は、ユーザの設定によって、前述したように、サムネイルイメージ生成部970で生成されるサムネイルイメージを表示するか又は表示イメージを表示(post view)し、ユーザが選択する圧縮イメージを格納する。また、制御部910は、ユーザの設定によってバッファリングされた撮影情報を表示し、撮影情報の確認後にユーザが選択される圧縮イメージを格納する。
前述したように、本発明の実施例によるカメラ装置は、カメラ駆動時にフレーム毎にプレビュー表示用イメージ、及び格納用圧縮イメージを生成し、また、フレーム毎に表示イメージ、圧縮イメージ、及び撮影情報を生成及びバッファリングする。従って、本カメラ装置は、キャプチャ(格納)要求時に前記バッファリングされたイメージを利用して、ゼロシャッタラグ機能を具現でき、又は、撮影時点前後に撮影されたイメージの内からユーザが所望するイメージを選択的に格納できる。
図10は、本発明の第1実施例に係わるカメラ装置において、フレーム毎に表示イメージ及び圧縮イメージを生成して処理する手続を示す流れ図である。
図10を参照すると、入力部170からカメラ駆動要請が入力されれば、アプリ処理部140は、1011段階で、これを感知し、これをイメージ処理部130に通知し、イメージ処理部130は、1013段階で、カメラ部110を駆動する。この際、イメージ処理部130は、カメラ部110の設定情報(例えば、焦点、ズーム、ホワイトバランスなど)に従ってカメラを駆動する。
カメラ部110が駆動されると、カメラ部110は、フルHD又はそれ以上の解像度を有するイメージを撮影し、イメージ処理部130は、1015段階で、これをフレーム単位で獲得し、1017段階で、当該フレームでの表示イメージ及び圧縮イメージを生成する。この際、フレーム率は、30fps又はそれ以上(例えば60fps)を有し得る。従って、イメージ処理部130は、1秒当たり30フレーム又はそれ以上のフレーム率で表示イメージ及び圧縮イメージを生成する。上記の生成された表示イメージ及び圧縮イメージは、多重化されてアプリ処理部140に伝達され、アプリ処理部140は逆多重化の後、1019段階で、前記表示イメージ及び圧縮イメージをそれぞれバッファリングし、前記表示イメージは、表示部160を通じてプレビューイメージとして表示される。
上記のように、カメラ装置が1215段階乃至1219段階からなるプレビューモードを行っている状態で、ユーザがキャプチャ要求命令を発生すると、アプリ処理部140は、1021段階でこれを感知し、1023段階で、前記バッファリング中の圧縮イメージの内から設定された圧縮イメージを選択し、格納部150に格納する。この際、前記圧縮イメージを設定する方法には、さまざまな方法がある。まず、ゼロシャッタラグ機能が設定された場合、キャプチャ要求命令発生時にアプリ処理部140は、バッファリングされた圧縮イメージの内から特定のフレームで生成されてバッファリング中の圧縮イメージを選択し、格納部150に格納する。例えば、シャッタ遅延(シャッタラグ)が1フレームに設定されている場合、キャプチャ要求命令が発生すれば、図5に示したようにバッファリングされた以前フレームの圧縮イメージデータの内から、直前フレームの圧縮イメージデータを格納部150に格納し、ゼロシャッタラグを具現する。又は、サムネイルイメージ又は表示イメージを表示しながらユーザに所望の圧縮イメージを選択させる機能も設定できる。
図10を1025段階に戻って参照すると、カメラオフ(動作終了)命令がユーザにより入力された場合、アプリ処理部140はこの命令入力を感知し、イメージ処理部130を介してカメラ部110を停止し、これで図10における本方法を終了する。一方、カメラ動作終了命令が入力されない場合、本方法は1015段階にループバックし、カメラ動作終了命令が入力され1025段階で感知されるまで、この1015乃至1025段階が繰り返される。
図11は、図10の1023段階において、設定された圧縮イメージが、表示されたサムネイルイメージの内から、ユーザが選択する圧縮イメージである場合の手続を示す流れ図である。
一般に、写真撮影時に撮影されたイメージが所望しない形態で撮影される場合がある。例えば、カメラ装置が揺れた状態で写真が撮影されるか、又は撮影時点で被写体の人物が目を閉じるか、動く場合、通常はその撮影された写真は廃棄される。しかし、写真を再撮影するとき、以前の撮影時点と同一条件での写真撮影は困難である。
図11を参照すれば、この場合、本発明の実施例においては、バッファリング中の圧縮イメージの内から所望のイメージを選択して格納できる。
即ち、本発明の実施例においては、前記表示イメージを利用してサムネイルイメージを生成する。また、キャプチャ要求時にアプリ処理部140は、1111段階で、前記バッファリングされた圧縮イメージに対応するサムネイルイメージを表示部160に表示する。また、ユーザが入力部170を通じて特定のサムネイルイメージを選択すれば、アプリ処理部140は、1113段階で、これを感知し、1115段階で、前記ユーザによって選択されたサムネイルイメージに対応する圧縮イメージを選択して格納部150に格納する。また、キャプチャ要求時にアプリ処理部140は、前記バッファリングされた表示イメージを順次に表示(postview)しながらユーザが所望の圧縮イメージを選択できる。
図11の手続で行われるキャプチャ機能は、ゼロシャッタラグ機能と共に設定できる。この場合、アプリ処理部140は、まず、ゼロシャッタラグ機能を行って圧縮イメージを選択し、前記圧縮イメージのユーザ所望のイメージでない場合、サムネイル映像又は表示イメージを確認し、他の圧縮イメージをユーザに選択させる。
上記の動作を繰り返して行いながら、カメラ装置は、プレビューモード及びキャプチャ動作を行う。また、ユーザによってカメラ駆動終了命令が発生すれば、アプリ処理部140は、1025段階で、これを感知し、1027段階で、イメージ処理部130を通じてカメラ部110の駆動をオフさせる。
図12は、カメラ装置において本発明の第2実施例に係わるカメラ装置においてフレーム毎に表示イメージ、圧縮イメージ、及び撮影情報を生成して処理する手続を示す流れ図である。
図12を参照すると、カメラ駆動命令が発生すれば、1211段階乃至1215段階を行いながらカメラ部110からイメージを獲得し、一方、1211段階においてカメラ駆動命令が入力されない場合は、カメラ駆動が養成されるまで1211段階が繰り返される。この際の動作は、図10に示した第1実施例の1011〜1015段階と同一に行われる。
その後、アプリ処理部140は、1217段階で、当該フレームでの表示イメージ、圧縮イメージ及び撮影情報を生成する。この際、フレーム率は、前述したように、30fps又はそれ以上(例えば60fps)であり、従って、イメージ処理部130は、1秒当たり30フレーム又はそれ以上の表示イメージ、圧縮イメージ、及び例えば表1の構成を有する撮影情報を生成する。また、上記のように生成される表示イメージ、圧縮イメージ、及び撮影情報は、多重化されてアプリ処理部140に伝達され、アプリ処理部140は、1219段階で、前記表示イメージ(プレビューイメージ)、圧縮イメージ、及び撮影情報(メタデータ)をそれぞれバッファリングし、前記表示イメージは、表示部160を通じてプレビューイメージとして表示する。
上記のように、カメラ装置が1015段階乃至1019段階からなるプレビューモードを行っている状態で、ユーザがキャプチャ要求命令を発生すると、アプリ処理部140は、1221段階でこれを感知し、1223段階で、前記バッファリング中の圧縮イメージの内から設定された圧縮イメージを選択して格納部150に格納する。この際、前記圧縮イメージを設定する方法には、さまざまな方法がある。
まず、ゼロシャッタラグ機能が設定された場合、キャプチャ要求命令発生時にアプリ処理部140は、バッファリングされた圧縮イメージの内から特定の、例えば直前の、フレームで生成されてバッファリング中の圧縮イメージを選択し、格納部150に格納する。
第二に、サムネイルイメージ又は表示イメージを表示しながらユーザが所望の圧縮イメージを選択する機能が設定されている場合、アプリ処理部140は、1223段階で、上記図11に示す手続を行う。
第三に、前記撮影情報を表示しながらユーザに所望の圧縮イメージを選択させる。
図13は、上記第三の方法、即ち、図12でイメージキャプチャ時に撮影情報を表示しながらユーザの選択による圧縮イメージを格納する場合の手続を示す流れ図である。
図13を参照すれば、アプリ処理部140は、撮影情報を利用して撮影されたイメージの内から最適のイメージを選択する機能を設定し、また、写真撮影後に手動で撮影情報を確認し、ユーザに最適のイメージを選択させる。まず、特定情報を活用してイメージを選択する機能が設定された場合、キャプチャ命令発生時にアプリ処理部140は、設定された機能に関する撮影情報を分析し、分析結果によって設定された機能に関して最適に撮影されたフレームの圧縮イメージを選択して格納する。これに関する例は、後述する図14(b)及び図16を用いて説明される。
また、手動機能に設定された場合、アプリ処理部140は、バッファリング中の前記撮影情報を表示しながらユーザに圧縮イメージを選択させる。例えば、フラッシュを利用してイメージを撮影した場合、アプリ処理部140は、撮影情報の内のフラッシュ情報を確認し、フラッシュが最大発光した時点の圧縮イメージを選択するように制御し、さらに、センサ部120からの情報(例えばジャイロセンサ、加速度センサなど)を確認し、揺れのない圧縮イメージを選択できるように制御する。
このために、アプリ処理部140は、1311段階で、前記撮影情報(メタデータ)を分析し、1313段階で、バッファリングされた撮影情報の内から所定の撮影情報項目を設定し、表示部160に表示する。例えば、フラッシュ撮影時に前記撮影情報の内からフラッシュ情報を設定し、表示部160に表示する。この際、前記フラッシュ情報は、イメージ撮影時に最大発光で撮影されたフレームの撮影情報の内からフラッシュ情報がセットされる。従って、ユーザは、表示部160を通じて最大発光で撮影されたフレームを確認できる。この際、ユーザが当該フレームを選択すれば、アプリ処理部140は、1315段階で、バッファリングされた圧縮イメージの内から前記選択されたフレームに対応する圧縮イメージを選択し、格納部150に格納する。
図13に示す手続で行われるキャプチャ機能は、ゼロシャッタラグ機能と共に設定できる。この場合、アプリ処理部140は、まず、ゼロシャッタラグ機能を行って圧縮イメージを選択し、前記圧縮イメージが所望のイメージでない場合に、撮影情報を表示しながらユーザに前記圧縮イメージの前後のフレームから圧縮イメージを選択させる。
前述の動作を繰り返して行いながら、カメラ装置は、プレビューモード動作及びキャプチャ動作を行う。また、ユーザによってカメラ駆動終了命令が発生すれば、アプリ処理部140は、1225段階で、これを感知し、1227段階で、イメージ処理部130を通じてカメラ部110の駆動をオフさせる。
上記のように、本発明の実施例によるカメラ装置は、フレーム毎にカメラ部110から撮影されるイメージを利用して表示イメージ、格納用圧縮イメージ、及び当該フレームでのイメージ撮影情報を生成してバッファリングする。従って、前記バッファリングされたイメージを利用してゼロシャッタラグ機能を具現でき、また、ユーザが所望するイメージの圧縮データを選択できる。また、前述したように、フレーム毎に格納される撮影情報(埋め込みデータ)値を分析し、カメラ機能に適用することによって、多様な状況に対する最適化されたソリューションを提起できる。
下記の例は、前記撮影情報を利用してカメラ装置の機能を改善する例である。
第一に、フラッシュ情報(表1の‘Flash’項目)を利用してフラッシュタイミング問題を解決する。
図14(a)及び図14(b)は、本発明の実施例によって撮影情報のフラッシュ情報を利用してフラッシュタイミング問題を解決する方法を説明する図である。
図14(a)を参照すれば、フラッシュ撮影時にイメージ処理部130は、カメラ部110のフラッシュ260を駆動する。この際、フラッシュ260は発光し、イメージ処理部130は、フル発光をするフレームで表1に示す撮影情報の内のフラッシュパラメータを特定値にセットする。また、イメージ処理部130は、内部のレジスター値を確認してフラッシュ260のフル発光状態を確認し、前記フル発光状態のフレームでイメージ処理部130は、撮影情報のフラッシュパラメータをフル発光にセットする。図14(a)は、フラッシュ260がフル発光したフレームに対して撮影情報のフラッシュパラメータが1にセットされる場合を示している。図14(b)は、撮影情報のフラッシュパラメータが図14aのように設定される場合にキャプチャされるイメージを決定する手続を示す示す流れ図である。
図14(b)を参照すれば、図10の1021段階で、キャプチャ要求が発生すれば、アプリ処理部140は、1023段階で、図14(b)に示す手続を行う。前記フラッシュ機能が設定された場合、アプリ処理部140は、1411段階で、フラッシュ機能が設定されたことを感知し、1413段階で、撮影情報のフラッシュパラメータを分析する。この際、前記フラッシュパラメータは、図14(a)に示したように、最大発光するフレームで1にセットされる構造を有する。この場合、アプリ処理部140は、1415段階で、前記フラッシュパラメータが1にセットされたフレーム(即ち、フラッシュが最大発光したフレーム)を確認し、1417段階で、当該フレームの圧縮イメージを選択し、格納部105に格納する。
この場合、当該フレームは前記シャッタがオンされたフレームと少し異なり得る。即ち、シャッタが押圧された時点でフラッシュが駆動されるので、フラッシュの最大発光時点は、シャッタが駆動されたフレームに続きいくつかのフレームが経過した時点になり得る。従って、フラッシュ駆動時にはユーザはシャッタ駆動時点(即ち、ゼロシャッタラグを具現するフレーム)の圧縮イメージ又はフラッシュの最大発光時点の圧縮イメージの何れかを選択できる。従って、前者の場合、まず、アプリ処理部140は、ゼロシャッタラグのフレーム圧縮イメージを選択して表示し、その後、ユーザが撮影情報を確認してフラッシュの最大発光時点のイメージを選択すれば、当該圧縮イメージを選択して格納する。また、後者の場合、アプリ処理部140は、フラッシュ駆動時に最大発光時点のフレームを選択して格納する。
前述したように、フラッシュ使用時にアプリ処理部140は、表示部160に撮影情報の内からフラッシュパラメータを図14aのように表示し、ユーザがフル発光したフレームを選択すれば、アプリ処理部140は、当該フレームの圧縮イメージを選択し、格納部150に格納する。従って、フラッシュを利用した写真のキャプチャ時にフラッシュのフル発光タイミングを合わせる必要がなく、フレーム毎に入る撮影情報(埋め込みデータ)中のフラッシュパラメータ値を利用すれば良い。即ち、フラッシュパラメータ値が、フラッシュのフル発光を示す時点のフレームの圧縮イメージを選択して格納すれば良いので、特別にフラッシュタイミングを合わせる必要がない。
第二に、ゼロシャッタラグ(ZSLと略す)環境にあっては、典型的なJPEG最大サイズ、例えば8MBを有する圧縮イメージをバッファリングするバッファが管理対象となる。図15は、本発明の実施例によって圧縮イメージを格納するバッファの構造を示す図である。
図15を参照すれば、本発明の実施例によるカメラ装置のZSL環境では、複数のイメージバッファを使用して一定個数N個のイメージをバッファに格納する。この際、前記JPEGイメージのサイズが最大8MBであると仮定すれば、圧縮イメージバッファ385は、図7に示したように、8M×Nサイズのバッファで構成されなければならない。例えば、8Mイメージを格納できる5個のバッファを使用するとすれば、8M×5を格納できるサイズで圧縮イメージバッファ355を構成しなければならない。
しかし、フレーム毎に生成されるJPEGイメージのサイズは、撮影するイメージによって参照番号1511に示すように可変的なサイズを有し、そのため、参照番号1513に示すように、バッファ内には使用されずに廃棄される領域が発生する。従って、表1に示す構造を有する撮影情報に含まれるデータサイズ情報を利用すれば、図15の参照番号1515に示すように、圧縮イメージバッファ355に格納でき、これにより、実際生成されたJPEGイメージのサイズ相当分値だけメモリを使用し、残ったメモリを次のフレームのイメージを格納するのに再使用できる。この場合、8M_JPEGイメージの実際の平均サイズを2MBと仮定すれば、8M×5のバッファを使用すると実際には20個程度のイメージを格納できる。
この際、前記フレームは、表1に示した撮影情報の内のフレームカウント(frame count)によってフレーム同期できる。即ち、JPEGイメージの場合、JPEGヘッダー、サムネイルイメージ、及びJPEGイメージで構成され、前記JPEGヘッダーがフレームカウント値を有するようにすれば、参照番号1515に示すように、前記圧縮イメージバッファに格納される圧縮イメージと、撮影情報及び表示イメージのフレーム同期を取ることができる。
第三に、センサ部120からの撮影情報を利用して揺れた写真をキャプチャする問題を解決できる。図16は、本発明の実施例によって撮影情報を利用して揺れのないイメージをキャプチャする手続を示す流れ図である。
図16を参照すれば、一般的にセンサ部120のジャイロセンサと加速度センサは、カメラ装置の揺れを感知できる。上述のように、図12に示す手続を行いながらカメラ装置が表示イメージ、圧縮イメージ、及び撮影情報を生成及びバッファリングし、前記表示イメージは、表示部160を通じてプレビューされる。
この際、揺れ検出機能が設定されていれば、アプリ処理部1400は、1611段階で、これを感知し、1613段階で、前記撮影情報に含まれた動きセンサ情報を分析する。この際、動きセンサは、加速度センサ及びジャイロセンサであり得る。この際、前記加速度センサは、カメラ装置の上下左右の動きを感知し、前記ジャイロセンサは、回転軸(X、Y、Z軸)に沿った回転動きを感知する。また、表1に示したように生成された撮影情報には、センサ部120で生成される加速度情報‘加速度センサー’及びジャイロセンサの情報‘Gyro_data’が含まれる。
上記の状態で、ユーザが写真キャプチャボタンを押すと、アプリ処理部140は、1611段階で揺れ検出機能が設定されているかを確認し、揺れ検出機能が設定されている場合、1613段階で、アプリ処理部140は最初にZSLフレームの撮影情報を選択し、前記選択された撮影情報の内からジャイロセンサの情報及び加速度センサの情報を抽出し、前記抽出された2つのデータ値を分析する。この際、前記ジャイロセンサ情報及び加速度センサ情報に対して揺れの有無を判定するための臨界値をそれぞれ設定しておき、アプリ処理部140は、1615段階で、撮影情報内の各センサ情報を対応する臨界値と比較し、揺れの有無を判断する。
この際、2つのセンサの撮影情報の内のいずれか1つのセンサ情報が臨界値より大きければ、アプリ処理部140は、1615段階で、当該フレームの撮影イメージが揺れたものと判断し、1619段階で、次のフレームの撮影情報を選択した後、1613段階を行う。この際、次のフレームとしては、ゼロシャッタラグの設定フレームのすぐ前又は後のフレームを選択する。フレームの選択は例えば、ZSL具現フレームの前フレームを選択し、その後、後フレームを選択する順に行う。
また、1615段階で、少なくとも一つのフレームに揺れがないと判定されれば、即ち前記当該フレームの撮影情報の内の、前記加速度センサ及びジャイロセンサの情報が何れも所定の臨界値の条件を満たす場合、アプリ処理部140は、1615段階で、当該フレームの撮影イメージは、揺れなく撮影されたイメージと見なし、1617段階で、当該フレームの圧縮イメージを格納部150に格納する。
以上説明したように、揺れ検出機能が設定された場合、アプリ処理部140は、キャプチャ要求時に、まず、ゼロシャッタラグフレームの撮影情報の内の動きセンサ情報である加速度センサとジャイロセンサの撮影情報を抽出し、これら2つのセンサの値の内のいずれか1つでも変化する値が大きければ、揺れがあると判断する。この場合、アプリ処理部140は、キャプチャ予定であるフレームより1個以前又は以後のフレームの撮影情報の内から前記ジャイロセンサ及び加速度センサの情報を抽出し、抽出された2つの情報を分析する。この際、2つのデータの変化値が所定の値より小さければ、揺れのない写真であると判断し、アプリ処理部140は、バッファリング中の当該フレームの圧縮イメージを選択し、格納部150に格納する。ここで、キャプチャする写真の揺れを判断するセンサ情報として、ジャイロセンサ及び加速度センサを使用する場合を例示して説明しているが、ジャイロセンサ又は加速度センサの情報だけで撮影されたイメージの揺れ有無を判断することもできる。
前述したように、カメラ装置でプレビューモード時に表示イメージ、圧縮イメージ、及び撮影情報を生成してバッファリングし、前記撮影情報は、カメラの揺れの有無を判断するためのセンサ部120の情報(加速度センサ及び/又はジャイロセンサの情報)を含む。また、前記プレビューモードでユーザがシャッタボタンをリリースすれば、アプリ処理部140は、所定のフレームの撮影情報(ここで、ゼロシャッタラグ機能を行う場合、シャッタボタンのリリース時点に該当するバッファリング中のフレームの撮影情報)を分析し、揺れの有無を判断する。この際、撮影情報の内の特定のセンサ情報を判断した結果、揺れ値が設定値以内なら、所定のフレームの圧縮イメージを格納し、揺れ値が設定値より大きければ、その以前フレームの撮影情報を分析し、揺れ有無を判断する。このような過程を繰り返してフレームの撮影情報を順次に分析しながら、揺れが設定値以内の値を有するフレームの圧縮イメージを選択して格納する。
第四に、上述したような撮影情報の値を累積及び分析することにより、カメラ装置の自動設定(auto setting)機能を具現できる。表1に示したような撮影情報は、フレーム毎に生成され、前記生成された撮影情報は格納部150に格納される。また、フレーム毎に生成される撮影情報値を分析し、予め特定のユーザ環境に適合するようにカメラ設定を自動的に構成する。例えば、以前100フレームの撮影情報値を分析し、最適化されたフレーム率(fps)、露光値(ev)、シーンモード(scene mode)、実効ISO感度(effect ISO)値などを獲得して自動的に適用する。
図17は、本発明の実施例によるカメラ装置を備える携帯端末装置の更に他の構成を示す図である。
図17を参照すれば、カメラ部110は、センサを具備し、カメラ駆動時にセンサを通じてイメージを獲得する機能を行う。センサ部120は、携帯端末装置に装着する1つ以上のセンサを含み、前記センサは、GPS受信機、ジャイロセンサ、加速度度センサ、高度センサ、方向センサ、照度センサの内の1つ以上である。ここで、センサ部120は、図1及び図3のように、イメージ処理部130に連結されるか、又は、図示したように図6及び図7の場合と同様に、アプリ処理部140に連結される。また、センサ部120を構成する一部のセンサをイメージ処理部130に連結し、残りのセンサをアプリ処理部140に連結する構成も有り得る。以下の説明では、センサ部120がアプリ処理部140に連結される構成を仮定して説明する。
イメージ処理部130は、カメラ部110から獲得されるイメージを処理し、フレーム毎に表示部160に表示するための表示イメージ、キャプチャ要求時に格納するための圧縮イメージ、及び当該フレームでイメージを撮影した撮影情報などを生成する。ここで、前記表示イメージは、YUVイメージであり得、前記圧縮イメージは、JPEGイメージであり得る。前記撮影情報は、カメラ部110でイメージ撮影時に獲得できるexif情報以外に、携帯端末装置のセンサ部120からの出力を含む多様な情報を更に含み得る。イメージ処理部130は、1秒に30フレーム(30fps)又はそれ以上のフレーム率(例えば60fps)で表示イメージ、圧縮イメージ及び撮影情報を生成する。
アプリ処理部140は、携帯端末装置の多様なアプリ機能を行う。また、アプリ処理部140は、センサ部120の出力を入力されて、ユーザの要求による多様なセンサ関連アプリケーションを処理することができる。例えば、GPS受信の出力を入力されて、ナビゲーション機能、端末機の位置による地域情報を探索するアプリを処理し、端末装置の動きによって現在実行されるアプリでの所定の機能を行うアプリなどを行う。特にアプリ処理部140は、本発明の実施例によってカメラ駆動時にイメージ処理部130でフレーム毎に生成される表示イメージ及び圧縮イメージ、又は、表示イメージ、圧縮イメージ、及び撮影情報をバッファリングし、前記表示イメージを表示部160に出力して表示されるように制御し、ユーザのキャプチャ要求命令が発生すれば、前記バッファリング中の圧縮イメージの内から所定の圧縮イメージを格納部150に格納する。この際、前記撮影情報をバッファリングする時、アプリ処理部140は、イメージ処理部130で生成される第1撮影情報と、センサ部120から出力される撮影時に設定された第2撮影情報とを生成し、前記第1撮影情報と第2撮影情報を統合して撮影情報としてバッファリングする機能を行う。
通信部1720は、外部装置又は基地局と通信機能を行う。通信部1720は、送信信号をRF帯域に上昇変換する変換器(frequency up converter)と電力増幅器などから構成される送信部と、RF受信信号を低雑音増幅する増幅器と、RF信号を基底帯域に下降変換する変換器(frequency down converter)と、などを備える。また、通信部1720は、前記送信信号を変調し、送信部に伝達する変調部及び前記受信部で出力される信号を復調する復調部を備える。ここで、前記変調/復調部は、通信方式によってWCDMA、GSM(登録商標)、LTE方式の変調/復調部であり得、また、WIFI、WIBROなどの変調/復調部であり得る。
端末制御部1710は、携帯端末装置の全般的な動作を制御し、音声通話及びデータ通信の機能を行う。ここで、端末制御部1710は、通信部1720の変調/復調部を含み得、この場合、通信部1720は、RF通信部のみを備える。端末制御部1710は、この場合、前記通信信号の変調/復調及び符号/復号化する機能を行う。
オーディオ処理部1730は、携帯端末装置の送受信機と連結され、端末制御部1710の制御下に音声通信時に通話音声を処理する。メモリ1740は、端末制御部1710及びアプリ処理部140のプログラムがローディングされるワークメモリ(work memory)であり得、この場合、メモリ1740は、RAMで構成される。
入力部170は、端末制御部1610及びアプリ処理部140に対して携帯端末装置の各種動作命令及びデータ入力信号を発生する。特にアプリ処理部140に対してカメラ駆動命令、キャプチャ命令を発生する。また、入力部170は、イメージキャプチャ時にユーザの要求による撮影情報及び/又はサムネイルイメージの表示を要求する命令を発生する。表示部160は、端末制御部1710及びアプリ処理部140の制御下に携帯端末装置の動作及びアプリ実行状態を表示する。特に表示部160は、本発明の実施例によってプレビューモード時にアプリ処理部140から出力される表示イメージを表示する。また、表示部160は、イメージキャプチャ時にアプリ処理部140から出力される撮影情報及び/又はサムネイルイメージを表示する。ここで、入力部170は、ユーザのタッチ入力を感知するタッチパネルであり得、表示部160は、プログラム実行中に発生するデータ及びイメージなどを表示するLCD又はOLEDパネルであり得る。ここで、入力部170及び表示部160は、一体型のタッチスクリーンになり得る。また、入力部170は、カメラ装置の外部に位置するボタンを含み得る。
格納部150は、携帯端末装置の動作プログラム及び本発明の実施例によるプログラムを格納するプログラムメモリと、プログラム実行のためのデータ及びプログラム実行中に発生するデータを格納するためのデータメモリとから構成される。この場合、格納部150は、フラッシュメモリなどの不揮発性メモリ(nonvolatile memory)で構成できる。特に格納部150は、本発明の実施例によってキャプチャ要求時にアプリ処理部140にバッファリング中の圧縮イメージを格納する。
図17に示す構成を有する携帯端末装置は、音声通話及びデータ通信サービスを実行でき、カメラ撮影モード時に本発明の実施例によってカメラ部110で撮影されるイメージを処理する。携帯端末機の電源オンなどのように携帯端末機の起動を行う場合、端末制御部1710は、格納部150で通話及び通信、そして携帯端末装置の動作プログラムをメモリ1740にローディングする。また、アプリ処理部140は、アプリ実行要求時に格納部150から当該アプリを駆動するためのプログラムをメモリ1740にローディングする。従って、メモリ1740は、システム動作時に携帯端末装置の動作プログラム及びアプリプログラムがローディングされるワークメモリ機能を行う。ここで、メモリ1740は、アプリ処理部140及び端末制御部1710で共有されるか、又は、それぞれ独立的に構成される。
アプリ処理部140は、本発明の実施例によるカメラ部110のイメージ処理アプリと携帯端末装置の多様なアプリを処理する。また、上記のような多様なアプリ処理を行うために、アプリ処理部140は、センサ部120の出力を入力され、センサ部120の出力に従ってアプリを行うか、又は、センサ部120の出力に従ってアプリの処理動作を制御する。また、端末制御部1710は、センサ部120の出力を入力され、通話又は通信サービスを行うか、又は、センサ部120の出力によって通話又は通信サービスを制御する。
発信通話時に、ユーザは、入力部170を通じて発信電話番号及び通話要求信号を発生し、これを感知する端末制御部1710は、通信部1720を制御して通話路を形成し、基地局を通じて発信通話機能を行う。また、着信通話が発生すれば、端末制御部1710は、通信部1720を通じてこれを感知し、オーディオ処理部1730を通じて着信警報を出力し、表示部160を通じて着信情報を表示する。この際、ユーザが入力部170を通じて応答をすれば、端末制御部1710は、通信部1720を通じて着信通話路を形成し、通話サービスを行う。データ通信の場合にも、前記通話と類似の動作で通信路を形成する。
また、前記携帯端末装置は、多様なアプリを行い得る。この際、ユーザが入力部170を通じて特定アプリの実行を要求すれば、アプリ処理部140は、当該アプリを実行し、その結果を表示部160に表示する。この際、ユーザがカメラ駆動要求命令を発生すれば、アプリ処理部140は、これを感知し、イメージ処理部130を通じてカメラ部110を駆動する。その際、イメージ処理部130は、フレーム毎にカメラ部110で撮影されるイメージを処理して表示イメージと圧縮イメージを生成し、またカメラ部110及びセンサ部120の出力を利用して当該フレームの撮影情報を生成する。アプリ処理部140は、前記フレーム毎に生成されて受信される表示イメージ、圧縮イメージ、及び撮影情報をバッファリングし、前記表示イメージを、表示部160を通じてプレビューイメージとして表示する。従って、前記携帯端末装置は、カメラ駆動要求時にフレーム毎にカメラ部110から生成される表示イメージ、圧縮イメージ、及び撮影情報をそれぞれバッファリングし、その内、表示イメージを表示部160にプレビューする。この際、アプリ処理部140は、所定の数のフレームイメージ(圧縮及び表示イメージ)及び情報(撮影情報)をバッファリングする。
この状態でユーザが入力部170を通じてキャプチャ命令を発生すれば、アプリ処理部140は、バッファリング中の圧縮イメージの内から前記キャプチャ要求が発生した時点のフレーム圧縮イメージを選択し、格納部150に格納する。従って、アプリ処理部140は、シャッタ・オン時点(即ち、シャッタが完全に押された時点)の圧縮イメージを選択して格納することによって、ゼロシャッタラグ(ZSL)機能を具現する。この際、アプリ処理部140は、表示部160に前記表示イメージを表示する状態で前記格納される圧縮イメージをサムネイルイメージで表示するか、又は、これと反対に、前記格納される圧縮イメージに対する表示イメージを表示部160に表示し、前記表示イメージのサムネイルイメージを動画形態で表示部160に表示する。
また、前記キャプチャ命令時にシャッタ・オン時点のイメージが所望しない形態に撮影される場合がある。即ち、前記シャッタ・オン時点に撮影された写真が揺れたか、又は、フラッシュを使用する場合には、シャッタが押された時点のイメージよりそれと隣接する他のフレームのイメージがより良好であり得る。この場合に備えて、ユーザは、プログラム登録(又は設定)モードでフラッシュ機能設定、揺れ検出機能などを設定できる。この際、フラッシュ機能が設定された場合、前記キャプチャ要求が発生すれば、アプリ処理部140は、前記撮影情報のフラッシュ情報を確認し、フル発光情報がセットされたフラッシュ情報のフレーム圧縮イメージを選択して格納する。また、前記揺れ検出機能が設定された場合、アプリ処理部140は、まず、シャッタ・オン時点のフレーム撮影情報の内の動きセンサ情報を分析し、揺れが有るか否かを判断し、判断結果によって揺れがあれば、隣接する次のフレーム(シャッタ・オン フレームの前後のフレーム)の揺れ有無を判断し、揺れがなければ、当該フレームの圧縮イメージを格納部150に格納する。
また、本発明の実施例においては、前記撮影情報の一部をアプリ処理部140で生成する。例えば、センサ部120の出力をアプリ処理部140で処理し、イメージ処理部130は、カメラ部110の出力を処理する場合、イメージ処理部130は、カメラ部110の出力から表示イメージ及び圧縮イメージを生成し、また、カメラ部110による撮影情報を生成し、アプリ処理部140は、前記表示イメージ及び圧縮イメージをバッファリングし、また、イメージ処理部130で生成されて伝送される撮影情報にセンサ部120で出力される撮影時のセンサ情報を含んで最終撮影情報を生成及びバッファリングする。この際、前記表示イメージ、圧縮イメージ、及び撮影情報は、フレームカウント値によってフレーム同期を行い、従って、アプリ処理部140は、前記バッファリングされる表示イメージ、圧縮イメージ、及び撮影情報を処理するとき、前記フレームカウント値によって同期されたフレームでそれぞれを処理する。
本明細書と図面に開示された本発明の実施例は、本発明の技術内容を容易に説明し、本発明の理解を助けるために特定例を提示したものに過ぎず、本発明の範囲を限定しようとするものではない。ここに開示された実施例以外にも、本発明の技術的思想に基づく他の変形例が実施可能であるということは、本発明の属する技術分野における通常の知識を有する者に自明であろう。
110、810 カメラ部
120、820 センサ部
130 イメージ処理部(ISP)
140 アプリ処理部
150、840 格納部
160、850 表示部
170、860 入力部
210 光学部
220 イメージセンサ
230 AD変換部
240 モータ
250 アクチュエータ
260 フラッシュ
310 イメージ処理制御部
320 映像処理部
330、930 スケーラ
340、940 静止映像圧縮部(静止映像符号化器)、JPEGコーダ
350 多重化部
355 逆多重化部
360 アプリ処理制御部
370 パーサ
380、950 バッファ
383、953 表示イメージバッファ
385、955 圧縮イメージバッファ
387、957 撮影情報バッファ
390、960 動画圧縮部(動画符号化器)、MPEGコーダ
395、970 サムネイルイメージ生成部
830 処理部
910 制御部
1710 端末制御部
1720 通信部
1730 オーディオ制御部
1740 メモリ

Claims (33)

  1. 携帯端末装置のイメージ撮影方法において、
    カメラ駆動時にフレーム周期毎にカメラセンサからイメージを獲得する過程と、
    前記獲得されたイメージをそれぞれ表示イメージ及び圧縮イメージに変換する過程と、
    前記表示イメージを表示部に表示し、前記圧縮イメージをバッファリングする過程と、を備えることを特徴とする方法。
  2. キャプチャ要求時に、
    前記バッファリングされた圧縮イメージのうち所定のフレームの圧縮イメージを選択して格納することを特徴とする請求項1に記載の方法。
  3. 携帯端末装置において、
    カメラ駆動時にフレーム毎にイメージを獲得するカメラと、
    前記獲得されたイメージをそれぞれ表示イメージ及び圧縮イメージに変換し、前記表示イメージ及び圧縮イメージをフレーム毎に生成して出力するイメージ処理部と、
    前記表示イメージを表示部及び圧縮イメージをバッファリングするアプリケーション(以下、アプリという)処理部と、
    前記アプリ処理部から出力される表示イメージを表示する表示部と、を備えることを特徴とする装置。
  4. 前記圧縮イメージをキャプチャイメージとして格納する格納部と、
    前記カメラ駆動信号を発生し、前記アプリ処理部に出力する入力部と、を更に備え、
    前記アプリ処理部は、前記入力部からキャプチャ要求信号発生時に、前記バッファリングされた圧縮イメージのうち所定のフレームの圧縮イメージを選択し、前記格納部に格納することを特徴とする請求項3に記載の装置。
  5. 前記所定のフレームは、ゼロシャッタラグを有するフレームであることを特徴とする請求項4に記載の装置。
  6. 前記イメージ処理部は、
    カメラで獲得されるイメージを処理する映像処理部と、
    前記映像処理部で出力されるイメージを圧縮し、前記圧縮イメージを生成する圧縮符号器と、
    前記映像処理部で出力されるイメージを表示イメージに変換するスケーラと、
    前記表示イメージ及び圧縮イメージを1つのフレームで多重化出力する多重化器と、を備えることを特徴とする請求項5に記載の装置。
  7. 前記アプリ処理部は、
    前記多重化された信号を逆多重化する逆多重化部と、
    前記逆多重化された表示イメージをバッファリングする表示イメージバッファと、
    前記圧縮イメージをバッファリングする圧縮イメージバッファと、
    前記カメラ駆動時に前記表示イメージを表示部に出力し、キャプチャ要求時に圧縮イメージバッファにバッファリングされた圧縮イメージのうち、ゼロシャッタラグのフレームに対応する圧縮イメージを選択し、前記格納部に格納するアプリ処理制御部と、を備えることを特徴とする請求項5に記載の装置。
  8. 前記圧縮イメージバッファは、リングバッファであり、前記圧縮イメージを所定のフレーム数だけバッファリングすることを特徴とする請求項7に記載の装置。
  9. 前記アプリ処理部は、前記表示イメージをサムネイルイメージとして生成するサムネイルイメージ生成部を更に備えることを特徴とする請求項8に記載の装置。
  10. 前記入力部からキャプチャ要求信号発生時に、前記アプリ処理制御部は、前記サムネイルイメージを前記表示部に表示し、前記入力部を通じて選択されるサムネイルイメージに対応するフレームのJPEGイメージを前記格納部にキャプチャイメージとして格納することを特徴とする請求項9に記載の装置。
  11. 携帯端末装置のイメージ撮影方法において、
    カメラ駆動時にフレーム毎にカメラセンサからイメージを獲得する過程と、
    前記獲得されたイメージをそれぞれ表示イメージ及び圧縮イメージに変換し、前記イメージの撮影情報を生成し、前記表示イメージ、圧縮イメージ、及び撮影情報をフレーム毎に出力する過程と、
    前記表示イメージを表示部に表示し、前記圧縮イメージ及び撮影情報をバッファリングする過程と、を備えることを特徴とする方法。
  12. キャプチャ要求時に、
    前記バッファリングされた圧縮イメージ及び表示イメージのうち、所定のフレームの圧縮イメージ及び撮影情報を選択して格納する過程を更に備えることを特徴とする請求項11に記載の方法。
  13. 前記所定のフレームは、ゼロシャッタラグを有するフレームであることを特徴とする請求項2又は12に記載の方法。
  14. 前記表示イメージは、YUVイメージであり、前記圧縮イメージは、JPEGイメージであることを特徴とする請求項13に記載の方法。
  15. 前記YUVイメージをサムネイルイメージとして生成する過程を更に備えることを特徴とする請求項14に記載の方法。
  16. キャプチャ要求時に前記サムネイルイメージを表示する過程を更に備え、
    前記表示されるサムネイルイメージのうち選択されたサムネイルイメージに対応するJPEGイメージをキャプチャイメージとして格納することを特徴とする請求項15に記載の方法。
  17. 前記撮影情報は、前記イメージ獲得時点でカメラ及び携帯端末装置のセンサから獲得される情報であることを特徴とする請求項13に記載の方法。
  18. キャプチャ要求時にバッファリングされたフレームのサムネイルイメージを表示する過程と、
    前記表示されるサムネイルイメージのうち、選択されたサムネイルイメージに対応するJPEGイメージ及び撮影情報をキャプチャイメージとして格納する過程と、を更に備えることを特徴とする請求項14に記載の方法。
  19. キャプチャ要求時に前記撮影情報を表示する過程と、
    前記表示される撮影情報のうち、選択されたフレームの撮影情報及びJPEGデータをキャプチャイメージとして格納する過程と、を更に備えることを特徴とする請求項17に記載の方法。
  20. 携帯端末装置において、
    カメラ駆動時にカメラセンサからイメージを獲得するカメラ部と、
    前記カメラ部で獲得されたイメージを処理してそれぞれ表示イメージ及び圧縮イメージに変換し、前記カメラ部から撮影情報を受信し、前記表示イメージ、圧縮イメージ、及び撮影情報をフレーム毎に生成して出力するイメージ処理部と、
    前記表示イメージ、圧縮イメージ、及び撮影情報をバッファリングするアプリ処理部と、
    前記表示イメージを表示する表示部と、を備えることを特徴とする装置。
  21. カメラ装置において、
    カメラ駆動時にフレーム区間毎にカメラセンサからイメージを獲得するカメラ部と、
    少なくとも1つのセンサを有するセンサ部と、
    前記カメラ部で獲得されたイメージを処理してそれぞれ表示イメージ及び圧縮イメージを生成し、前記イメージ撮影時に前記カメラ部及びセンサ部の出力から撮影情報を獲得し、前記表示イメージ、圧縮イメージ、及び撮影情報をバッファリングする処理部と、
    前記表示イメージを表示する表示部と、を備えることを特徴とする装置。
  22. 前記カメラ駆動及びキャプチャ要求信号を発生する入力部と、
    前記圧縮イメージをキャプチャイメージとして格納する格納部と、を更に備え、
    前記処理部は、前記入力部からキャプチャ要求信号発生時に、前記バッファリングされた圧縮イメージ及び撮影情報のうち、ゼロシャッタラグのフレームの圧縮イメージ及び撮影情報を選択し、前記格納部にキャプチャイメージとして格納することを特徴とする請求項21に記載の装置。
  23. 携帯端末装置において、
    外部装置と無線通信を行う通信部と、
    前記通信部を通じて携帯端末装置の通話及び通信を制御する端末制御部と、
    カメラ駆動時にフレーム周期毎にカメラセンサからイメージを獲得するカメラ部と、
    少なくとも1つのセンサを有し、センサ情報を生成するセンサ部と、
    前記カメラ部で獲得されたイメージを処理して表示イメージ及び圧縮イメージを生成し、前記イメージ撮影時に前記カメラ部から撮影情報を生成し、前記生成された表示イメージ、圧縮イメージ、及び撮影情報をフレーム毎に生成して出力するイメージ処理部と、
    前記端末制御部と通信し、通信アプリを処理し、カメラ駆動時に前記表示イメージを表示部に表示し、前記表示イメージ、圧縮イメージ、及び撮影情報をそれぞれバッファリングするアプリ処理部と、
    前記表示イメージを表示する表示部と、を備えることを特徴とする装置。
  24. カメラ駆動及びキャプチャ要求信号を発生する入力部と、
    前記圧縮イメージをキャプチャイメージとして格納する格納部と、を更に備え、
    前記アプリ処理部は、前記入力部からキャプチャ要求信号発生時に、前記バッファリングされた圧縮イメージのうち、所定のフレームの圧縮イメージ及び撮影情報を選択し、前記格納部にキャプチャイメージとして格納することを特徴とする請求項20又は23に記載の装置。
  25. 前記イメージ処理部は、
    カメラ部で獲得されるイメージを処理する映像処理部と、
    前記映像処理部から出力されるイメージを圧縮し、前記圧縮イメージを生成する圧縮符号器と、
    前記映像処理部から出力されるイメージを前記表示イメージとして生成するスケーラと、
    前記カメラ部の動作を制御し、イメージ獲得時点で前記カメラ部のセット情報を撮影情報として生成するイメージ処理制御部と、
    前記表示イメージ、圧縮イメージ、及び撮影情報をフレーム毎に多重化出力する多重化器と、を備えることを特徴とする請求項24に記載の装置。
  26. 前記映像処理部は、前記カメラで獲得されるイメージをYUVイメージに変換し、
    前記圧縮符号器は、変換された前記YUVイメージをJPEG方式で圧縮することを特徴とする請求項6又は25に記載の装置。
  27. 前記携帯端末装置に装着される少なくとも1つのセンサを更に備え、
    前記イメージ処理制御部は、前記カメラ部の第1撮影情報及び前記センサ部で感知される第2撮影情報を結合し、前記撮影情報を生成することを特徴とする請求項26に記載の装置。
  28. 前記イメージ処理部は、
    カメラ部で獲得されるイメージを処理する映像処理部と、
    前記前処理されたイメージを圧縮し、前記圧縮イメージを生成する圧縮符号器と、
    前記前処理されたイメージをスケーリングし、前記表示イメージを生成するスケーラと、
    前記カメラ部の動作を制御し、イメージ獲得時点で前記カメラ部のセット情報を撮影情報として生成するイメージ処理制御部と、
    前記表示イメージ、圧縮イメージ、及び撮影情報をフレーム毎に多重化出力する多重化器と、を備えることを特徴とする請求項23に記載の装置。
  29. 前記映像処理部は、前記カメラで獲得されるイメージをYUVイメージに変換し、
    前記圧縮符号器は、変換された前記YUVイメージをJPEG方式で圧縮することを特徴とする請求項28に記載の装置。
  30. 前記アプリ処理部は、
    前記イメージ処理部から出力される多重化された信号を表示イメージ、圧縮イメージ及び撮影情報に逆多重化する逆多重化部と、
    前記表示イメージをバッファリングする表示イメージバッファと、
    前記圧縮イメージをバッファリングする圧縮イメージバッファと、
    前記撮影情報をバッファリングする撮影情報バッファと、
    前記カメラ駆動時に前記表示イメージを表示部に出力し、キャプチャ要求時にバッファリングされた圧縮イメージ及び撮影情報のうち、ゼロシャッタラグのフレームの圧縮イメージ及び撮影情報を選択し、前記格納部にキャプチャイメージとして格納するアプリ処理制御部と、を備えることを特徴とする請求項25又は28に記載の装置。
  31. 携帯端末装置で装着される少なくとも1つのセンサを有するセンサ部を更に備え、
    前記アプリ処理制御部は、前記撮影情報をバッファリングするとき、前記イメージ処理部の撮影情報と前記センサ部の出力を併合して前記撮影情報を生成し、前記撮影情報を前記撮影情報バッファにバッファリングすることを特徴とする請求項30に記載の装置。
  32. 前記アプリ処理部は、サムネイルイメージ生成部を更に備え、
    前記アプリ処理制御部は、前記入力部からキャプチャ要求信号発生時に、前記サムネイルイメージを前記表示部に表示し、バッファリングされた圧縮イメージ及び撮影情報のうち、選択されたサムネイルイメージに対応するフレームの圧縮イメージ及び撮影情報をキャプチャイメージとして格納することを特徴とする請求項30又は31に記載の装置。
  33. 前記アプリ処理部は、前記入力部からのキャプチャ要求信号発生時に、前記撮影情報を表示部に表示し、バッファリングされた圧縮イメージ及び撮影情報のうち、選択された撮影情報に対応するフレームの圧縮イメージ及び撮影情報をキャプチャイメージとして格納することを特徴とする請求項30に記載の装置。
JP2013028295A 2012-02-15 2013-02-15 カメラのデータ処理装置及び方法 Withdrawn JP2013168942A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0015523 2012-02-15
KR1020120015523A KR20130094113A (ko) 2012-02-15 2012-02-15 카메라 데이터 처리 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2013168942A true JP2013168942A (ja) 2013-08-29

Family

ID=47877760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013028295A Withdrawn JP2013168942A (ja) 2012-02-15 2013-02-15 カメラのデータ処理装置及び方法

Country Status (8)

Country Link
US (1) US20130208165A1 (ja)
EP (1) EP2629507A2 (ja)
JP (1) JP2013168942A (ja)
KR (1) KR20130094113A (ja)
CN (1) CN103259975A (ja)
AU (1) AU2013200730B2 (ja)
TW (1) TW201334539A (ja)
WO (1) WO2013122394A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7953277B2 (en) * 2006-09-05 2011-05-31 Williams Robert C Background separated images for print and on-line use
KR101905621B1 (ko) * 2012-02-16 2018-10-11 삼성전자 주식회사 카메라의 프레임 이미지 전송 장치 및 방법
CN103067661B (zh) * 2013-01-07 2017-12-05 华为终端有限公司 图像处理方法、装置和拍摄终端
KR20150078275A (ko) * 2013-12-30 2015-07-08 삼성전자주식회사 움직이는 피사체 촬영 장치 및 방법
DE102014209600A1 (de) * 2014-05-20 2015-11-26 Robert Bosch Gmbh Sensorsystem mit einem Sensordatenpuffer
US9325876B1 (en) 2014-09-08 2016-04-26 Amazon Technologies, Inc. Selection of a preferred image from multiple captured images
US9517922B2 (en) 2014-11-13 2016-12-13 Cornerstone Cm, Inc. Evacuated bottle system
EP3057309B1 (en) 2015-02-12 2020-10-21 Samsung Electronics Co., Ltd. Method for controlling camera system, electronic device, and storage medium
CN106161911A (zh) * 2015-03-24 2016-11-23 联想(北京)有限公司 一种信息处理方法及电子设备
CN104902177B (zh) * 2015-05-26 2018-03-02 广东欧珀移动通信有限公司 一种智能拍照方法及终端
CN105187491A (zh) * 2015-08-06 2015-12-23 上海斐讯数据通信技术有限公司 上传图片的方法、系统及其服务器
KR102423364B1 (ko) 2015-08-12 2022-07-22 삼성전자 주식회사 영상을 제공하는 방법 및 이를 지원하는 전자 장치
WO2018086099A1 (zh) 2016-11-14 2018-05-17 深圳市大疆创新科技有限公司 图像处理方法、装置、设备及视频图传系统
CN106603910B (zh) * 2016-11-28 2020-09-04 上海传英信息技术有限公司 一种基于智能终端的照片保存方法
CN108124099B (zh) * 2017-12-14 2021-01-08 Tcl移动通信科技(宁波)有限公司 一种相机缩略图生成的方法、移动终端及存储介质
CN108737717A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 拍摄方法、装置、智能设备及存储介质
US11027656B1 (en) * 2019-12-10 2021-06-08 Texas Instruments Incorporated Flexible hub for handling multi-sensor data
CN111726523A (zh) * 2020-06-16 2020-09-29 Oppo广东移动通信有限公司 一种图像处理方法及装置、存储介质
WO2024087183A1 (en) * 2022-10-28 2024-05-02 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Imaging device, imaging device control method, and computer program product

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3824225B2 (ja) * 2002-10-04 2006-09-20 ソニー株式会社 デジタルカメラ
US20040070679A1 (en) * 2002-10-15 2004-04-15 Pope David R. Compensating for delays inherent in digital still camera imaging
JP4130207B2 (ja) * 2003-09-16 2008-08-06 富士通株式会社 画像処理表示装置および画像処理表示方法
US20050234896A1 (en) * 2004-04-16 2005-10-20 Nobuyuki Shima Image retrieving apparatus, image retrieving method and image retrieving program
KR100548006B1 (ko) * 2004-05-15 2006-02-01 삼성테크윈 주식회사 디지털 촬영 장치의 제어 방법 및 이 방법을 사용한디지털 촬영 장치
KR20060037511A (ko) * 2004-10-28 2006-05-03 삼성전자주식회사 복수의 촬상소자를 이용한 촬영장치 및 방법
KR100843438B1 (ko) * 2006-12-15 2008-07-03 삼성전기주식회사 셔터 랙이 없는 이미지를 획득하는 카메라 및 그 방법
US8681236B2 (en) * 2009-06-18 2014-03-25 Samsung Electronics Co., Ltd. Apparatus and method for reducing shutter lag of a digital camera
KR101661574B1 (ko) * 2009-11-10 2016-10-14 삼성전자주식회사 셔터-딜레이를 줄이기 위한 카메라 모듈
TWI418210B (zh) * 2010-04-23 2013-12-01 Alpha Imaging Technology Corp 避免快門延遲之影像擷取模組及影像擷取方法
JP5565226B2 (ja) * 2010-09-10 2014-08-06 富士通株式会社 画像データ処理装置および画像データ処理方法
US20140111670A1 (en) * 2012-10-23 2014-04-24 Nvidia Corporation System and method for enhanced image capture

Also Published As

Publication number Publication date
WO2013122394A1 (en) 2013-08-22
TW201334539A (zh) 2013-08-16
US20130208165A1 (en) 2013-08-15
EP2629507A2 (en) 2013-08-21
AU2013200730A1 (en) 2013-08-29
CN103259975A (zh) 2013-08-21
AU2013200730B2 (en) 2016-02-25
KR20130094113A (ko) 2013-08-23

Similar Documents

Publication Publication Date Title
JP2013168942A (ja) カメラのデータ処理装置及び方法
KR101905648B1 (ko) 카메라 장치의 동영상 촬영방법 및 장치
EP2629503B1 (en) Apparatus and method for transmitting a frame image of a camera
KR101953614B1 (ko) 카메라장치의 이미지처리장치 및 방법
KR101578600B1 (ko) 이미지 처리 장치, 이미지 처리 방법 및 컴퓨터로 읽을 수 있는 기록 매체
KR101893406B1 (ko) 카메라의 이미지처리 장치 및 방법
EP2654288B1 (en) Image processing apparatus and method of camera
US8526685B2 (en) Method and apparatus for selectively supporting raw format in digital image processor
KR101921935B1 (ko) 카메라의 동영상 촬영장치 및 방법.
KR101931631B1 (ko) 카메라 장치의 이미지 부호화장치 및 방법
KR101824506B1 (ko) 카메라의 멀티프레임 이미지 촬영 촬영 장치 및 방법
KR101894531B1 (ko) 카메라의 연속 촬영 장치 및 방법.
KR102058860B1 (ko) 카메라의 이미지 처리 장치 및 방법
JP7247609B2 (ja) 撮像装置、撮像方法およびプログラム
JPWO2020161969A1 (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
JP7498756B2 (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
JP6941744B2 (ja) 画像処理装置、撮影装置、画像処理方法及び画像処理プログラム
JP4246240B2 (ja) 撮像装置及び撮像プログラム
JP2010161526A (ja) デジタルカメラ
JP2018160731A (ja) 撮像装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160205

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20161208