本発明の実施形態の目的は、シーン識別アルゴリズムの効果のない実行を回避し、計算負荷を低減し、かつ、動作速度を増加させるように、写真撮影方法および電子装置を提供することである。
目的および他の目的は、独立請求項における機能を使用することによって達成される。さらなる実施は、従属請求項、本明細書、および添付の図面において反映されている。
第1態様に従って、写真撮影方法が提供される。本方法は、電子装置によって実行され、電子装置は、カメラを含んでいる。そして、カメラは、画像データを獲得するためにカメラのレンズに入射する光を変換するように構成され得る。カメラは、カメラレンズとして参照され得る。そして、本方法は、
前記カメラが安定した撮影状態に現在あるか否かを検出するステップと、
前記カメラが安定した撮影状態に現在あるときに、第1時点での画像データを獲得するステップと、
前記第1時点での画像データに基づいて、ターゲット撮影タイプを決定するステップと、
ユーザからの撮影指示を受信したときに、第2時点での画像データを獲得するステップと、
ターゲット画像データを獲得するために、前記ターゲット撮影タイプに対応する画像処理方法に従って、前記第2時点での画像データを処理するステップと、を含む。
カメラが安定した撮影状態にあるときだけシーン識別がイネーブル(enable)され、そうして、ユーザが撮影を開始していないが、シーン識別がイネーブルされている場合に生じる効果のない識別を回避することができ、電子装置の負荷を低減し、電子装置の動作速度を向上させることができる。
写真撮影方法は、また、画像を撮影する方法としても参照され得る。
安定した撮影状態とは、カメラが安定した撮影状態にあるときに、電子装置の動きに伴い、撮影された画像がぼやけない(not blurry)ことを意味し得る。代替的に、安定した撮影状態は、電子装置が静止状態または均一な運動状態にあることを意味し得る。
獲得は、光を画像データに変換するために、レンズモジュールに入射する光を、カメラによって、キャプチャし、捕捉し、または、撮影するといった動作(action)として理解され得る。カメラは、レンズモジュール、または、移動電話に取り付けられたレンズであってよい。
第1時点での画像データは、第1時点でカメラによってキャプチャされた(または、捕捉され、もしくは、撮影され、あるいは、ショット(shot)された)画像データであり得る。第2時点での画像データは、第2時点でカメラによってキャプチャされた画像データであり得る
第1時点での画像データおよび第2時点での画像データは、電子装置のカメラによって獲得され、または、電子装置のカメラを使用することによって獲得され得る。カメラが安定した撮影状態にあることは、また、電子装置が安定した撮影状態にあるものとしても理解され得る。
撮影されるシーンのシーンタイプは、ステージシーン、夜景シーン、青空(blue-sky)シーン(空模様(sky scene)としても参照され得る)、植物シーン(緑色植物シーンとても参照され得る)、食品シーン(グルメシーン、料理(cuisine)シーン、または食品材料シーンとしても参照され得る)、雪シーン、日出および日没シーン、花シーン、テキストシーン、およびビーチシーンの少なくとも1つであってよい。
代替的に、撮影されるシーンは、撮影されるオブジェクトであり得る。そして、第1時点は、カメラが安定状態にあると判断された時点または以降であってよい。第2時点は、ユーザからの撮影指示を受信した時点または以降であってよい。第2時点は、第1時点より遅い。
ターゲット撮影タイプは、第1時点での画像データに基づいて決定される。そして、従って、ターゲット撮影タイプは、第1時点での画像データに対応するターゲット撮影タイプとして参照され得る。第1時点での画像データによって示される画像は、1つのターゲット撮影タイプに対応し、または、少なくとも2つのターゲット撮影タイプに対応し得る。具体的には、画像が少なくとも2つのターゲット撮影タイプに対応するときに、第1時点での画像データによって示される画像内の少なくとも2つの画像領域は、少なくとも2つのターゲット撮影タイプに1対1で対応している。従って、第1時点での画像データに基づいて、第1時点での画像データに対応するターゲット撮影タイプを決定することは、第1時点での画像データに基づいて、第1時点での画像データによって示される画像内の少なくとも2つの画像領域の領域情報、および、少なくとも2つの領域にそれぞれ対応するターゲット撮影タイプを決定することを含む。領域情報は、画像領域の範囲を示すために使用され得る。これに応じて、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って、第2時点での画像データを処理することは、第2時点での画像データによって示される画像内の少なくとも2つの画像領域を獲得するために、少なくとも2つの画像領域の領域情報に基づいて、第2時点での画像データによって示される画像を分割すること、および、ターゲット画像データを獲得するために、少なくとも2つの領域に対応するターゲット撮影タイプにそれぞれ対応している処理方法に従って、少なくとも2つの第2画像領域をそれぞれ処理すること、を含み得る。1つの画像は少なくとも2つのターゲット撮影タイプに対応し、そうして、画像内の異なる領域について異なる処理ポリシーが使用され、そして、画像撮影効果がより良好であり得る。
ターゲット撮影タイプを決定した後で、本方法は、さらに、ターゲット撮影タイプを示すために使用される情報を表示すること、および、ターゲット撮影タイプの選択指示を受信した後で、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って、第2時点での画像データを処理すること、を含み得る。ターゲット撮影タイプの選択指示は、ユーザによってトリガーされ得る。
カメラが安定した撮影状態に現在あるか否かを検出する以前に、本方法は、さらに、カメラによって獲得された画像データによって示される画像を表示すること、を含み得る。ここにおける表示は、リアルタイム表示であってよい。表示のための画像データによって示される画像の解像度は、画像保管のための画像データ(例えば、第2時点での画像データ)の解像度よりも小さいことに留意すべきである。
ターゲット撮影タイプを決定した後で、本方法は、さらに、ターゲット撮影タイプを示すために使用されるアイコンを表示すること、を含み得る。ここにおける表示は、リアルタイム表示であってよい。具体的に、アイコンは、電子装置のディスプレイの右下隅に表示され得る。
ターゲット撮影タイプを決定した後で、本方法は、さらに、ターゲット撮影タイプに対応する画像処理方法に従って、プレビュー(previewing)用の画像データを獲得するために、カメラによって獲得された画像データを処理すること、および、プレビュー用の画像データによって示される画像を表示すること、を含み得る。プレビュー用の画像データが表示され、そうして、ユーザは、撮影効果(picture shooting effect)を前もって知覚することができ、ユーザが撮影した後にだけ撮影効果が分かることを回避し、それによって、ユーザ体験を改善している。ここにおける表示は、リアルタイム表示であってよい。処理用の画像データによって示される画像の解像度は、画像保管用の画像データ(例えば、第2時点での画像データ)の解像度よりも小さいことに留意すべきである。処理用の画像データは表示用の画像データであってよい。ターゲット撮影タイプに対応する画像処理方法は、ターゲット撮影タイプに対応した画像処理方法であってよく、そして、画像信号プロセッサISPによって実行される。
第1態様に従って、第1態様に係る第1の可能な実施態様において、前記第1時点での前記画像データに基づいて、ターゲット撮影タイプを決定する前記ステップは、前記第1時点での画像データに基づいて、撮影されるシーンの少なくとも2つの撮影タイプの候補および前記少なくとも2つの撮影タイプの信頼度を決定するステップと、前記少なくとも2つの撮影タイプの信頼度に基づいて、前記少なくとも2つの撮影タイプにおける前記ターゲット撮影タイプを決定するステップを含む。
少なくとも2つの撮影タイプの信頼度に基づいて、少なくとも2つの撮影タイプにおけるターゲット撮影タイプを決定することは、少なくとも2つの撮影タイプから、ターゲット撮影タイプとして最も高い信頼度を有する撮影タイプを決定することであり得る。代替的に、その信頼度が信頼閾値(事前設定されてよい)より大きい撮影タイプが、ターゲット撮影タイプとして使用されてよい。代替的に、その信頼度が最も高く、かつ、信頼度閾値より大きい撮影タイプが、ターゲット撮影タイプとして使用されてよい。1つまたは少なくとも2つのターゲット撮影タイプが存在し得る。
撮影タイプの候補は、第1時点での画像データによって示される撮影されるシーンの候補タイプを示すために使用され得る。
第1態様に係る第1の可能な実施態様に従って、第1態様に係る第2の可能な実施態様において、前記第1時点での前記画像データに基づいて、撮影されるシーンの少なくとも2つの撮影タイプの候補、および、前記少なくとも2つの撮影タイプの信頼度を決定する前記ステップは、撮影モード分類モデルの入力として前記第1時点での画像データを使用することにより、前記撮影モード分類モデルの出力を獲得するステップであり、前記撮影モード分類モデルの出力は、前記少なくとも2つの撮影タイプの候補および前記少なくとも2つの撮影タイプの信頼度を含み、前記撮影モード分類モデルは、撮影モード訓練セットを使用して訓練対象の撮影モード分類モデルを訓練することによって獲得され、かつ、前記撮影モード訓練セットは、第1訓練画像データおよび前記第1訓練画像データに対応する撮影タイプを含む、ステップを含む。シーン識別は、訓練(training)によって獲得されたモード分類モデルを使用して実行され、そうして、識別効果は、画像内の形状やオブジェクトを識別することによってシーンが識別される既存の方法を使用することによって達成される効果よりも正確である。
第1訓練画像データの1つのピースは、1つの撮影タイプに対応し、または、少なくとも2つの撮影タイプに対応し得る。具体的に、第1訓練画像データが少なくとも2つの撮影タイプに対応するとき、第1訓練画像データによって示される画像は、少なくとも2つの画像領域を含み得る。そして、少なくとも2つの画像領域は、少なくとも2つの撮影タイプに1対1で対応している。
第1態様に係る第2の可能な実施態様に従って、第1態様に係る第3の可能な実施態様において、前記撮影モード訓練セットは、さらに、前記撮影タイプに対応していないものとしてマーク付けされた第2訓練画像データを含む。従って、撮影されるシーンの撮影カテゴリは、訓練を通じて獲得されたモデルを使用することによって、より正確に識別され得る。
第1態様または第1態様に係る可能な実施態様のうちいずれか1つに従って、第1態様に係る第4の可能な実施態様において、前記撮影されるシーンのタイプは、食品シーンであり、かつ、ターゲット画像データを獲得するために、前記ターゲット撮影タイプに対応する画像処理方法に従って、前記第2時点での画像データを処理する前記ステップは、ターゲット画像データを獲得するために、前記第2時点での画像データによって示される画像のコントラストおよび色の彩度を増加させるステップを含む。そうした処理方法において、撮影された食品画像はより魅力的である。
第1態様または第1態様に係る可能な実施態様のうちいずれか1つに従って、第1態様に係る第5の可能な実施態様において、前記撮影されるシーンのタイプは、夜景であり、かつ、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って第2時点での画像データを処理するステップは、第2時点での画像データによって示される画像のダイナミックレンジおよびピクセル輝度値を調整するステップを含み、第2時点での画像データによって示される画像のダイナミックレンジを増加させ、かつ、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像における露出過多(over-exposed)領域または露出不足(under-exposed)領域を修復する。そうした処理方法において、露出過多領域または露出不足領域におけるオブジェクトは、ぼかし(blurry)の代わりに、より明確である。
第2時点での画像データに基づいてターゲット画像データを獲得する処理においては、さらに、ノイズ除去(denoising)処理が実行され得る。具体的には、比較的に低い輝度を有する領域内のノイズが低減し得る。
露出過多領域は、その輝度が閾値より大きい領域であり得る。露出不足領域は、その輝度が閾値より小さい領域であり得る。過剰露出領域および過少露出領域の測定のために使用される閾値は、同一の閾値であってよく、または、異なる閾値であってよい。
第1態様または第1態様に係る可能な実施態様のうちいずれか1つに従って、第1態様に係る第6の可能な実施態様において、前記撮影されるシーンのタイプは、青空シーンであり、かつ、ターゲット画像データを獲得するために、前記ターゲット撮影タイプに対応する画像処理方法に従って、前記第2時点での画像データを処理する前記ステップは、前記第2時点での画像データによって示された画像において、事前設定されたターゲット青空色値および空色値に基づいて調整係数を算出するステップと、ターゲット画像データを獲得するために、前記調整係数に基づいて、前記第2時点での画像データによって示された画像を処理するステップを含む。そうした処理方法において、獲得された空画像(sky image)は、より自然な青色である。
具体的に、調整係数を算出するための方法は、画像内の複数の空色値における1つの空色値を決定するステップ、および、空色値とターゲット青空色値とに基づいて調整係数を算出するステップを含み得る。そうして、調整係数に基づいて空色値が処理された後に獲得された色値は、ターゲット青空色値である。別の実施においては、空色値およびターゲット青空色値に基づいてルックアップテーブルがされ得る。ここで、ルックアップテーブルは、マッピングが実行される以前の色値とマッピングが実行された後の色値との間の対応を含み、そうして、空色値がルックアップテーブルに従って処理された後で獲得された色値は、ターゲット青空色値であり、そして、次いで、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像がルックアップテーブルに従って処理され得る。
第1態様または第1態様に係る可能な実施態様のうちいずれか1つに従って、第1態様に係る第7の可能な実施態様において、撮影されるシーンのタイプは、緑色植物シーンであり、かつ、ターゲット画像データを獲得するために、前記ターゲット撮影タイプに対応する画像処理方法に従って、前記第2時点での画像データを処理する前記ステップは、ターゲット画像データを獲得するために、前記第2時点での画像データによって示される画像の色温度と色の彩度を増加させるステップを含む。第2時点での画像データによって示される画像の色温度を増加させるステップは、色温度を暖色(warm color)により近い色温度へ調整することであり得る。色温度を調整するための特定の方法においては、ホワイトバランスが使用され得る。そうした処理方法において、獲得される画像内の植物は、より活発(vigorous)である。
第1態様または第1態様に係る可能な実施態様のうちいずれか1つに従って、第1態様に係る第8の可能な実施態様において、前記撮影されるシーンのタイプは、ステージシーンであり、かつ、ターゲット画像データを獲得するために、前記ターゲット撮影タイプに対応する画像処理方法に従って、前記第2時点での画像データを処理する前記ステップは、ターゲット画像データを獲得するために、前記第2時点での画像データによって示される画像のダイナミックレンジを増加させ、かつ、前記第2時点での画像データによって示される画像の露出過多の領域または露出不足の領域を修復するように、前記第2時点での画像データによって示される画像のダイナミックレンジおよびピクセル輝度値を調整するステップを含む。
第2時点での画像データに基づいてターゲット画像データを獲得するプロセスにおいては、さらに、ノイズ除去処理が実行され得る。
第1態様または第1態様に係る可能な実施態様のうちいずれか1つに従って、第1態様に係る第9の可能な実施態様において、前記カメラが安定した撮影状態に現在あるか否かを検出する前記ステップは、現時点の以前の時間セグメントにおける電子装置の動きの加速度値を獲得するステップと、前記加速度値の絶対値が加速度閾値以下であるか否かを判断するステップであり、そして、前記加速度値の絶対値が加速度閾値以下であるときに、前記カメラは安定した撮影状態に現在あり、ここで、加速度閾値はゼロより大きい実数である、ステップを含む。
現時点の以前の時間セグメントの持続時間は事前設定されてよい。加速閾値も、また、事前設定されてよい。
加速度値は、電子装置におけるジャイロスコープセンサを使用することによって獲得され得る。
カメラが安定した撮影状態に現在あるか否かの検出は、また、現時点での画像データを獲得するステップと、現時点での画像データを現時点の以前の時点で獲得された画像データと比較するステップを含み得る。そして、現時点での画像データと以前の時点での画像データとの整合度(matching degree)が整合閾値(matching threshold)を超える場合に、カメラは安定した撮影状態に現在ある。整合閾値は、事前設定されてよい。
本発明の第2態様は、電子装置を提供する。前記電子装置はカメラを含み、そして、本電子装置は、さらに、
前記カメラが安定した撮影状態に現在あるか否かを検出するように構成されている、検出モジュールと、
前記カメラが安定した撮影状態に現在あるときに、第1時点での画像データを獲得するように構成されている、獲得モジュールと、
前記第1時点で前記獲得モジュールによって獲得されたの前記画像データに基づいて、ターゲット撮影タイプを決定するように構成されている、決定モジュールであり、ここで、前記決定モジュールは、さらに、ユーザからの撮影指示を受信したときに、第2時点での画像データを獲得するように構成されている、決定モジュールと、
ターゲット画像データを獲得するために、前記決定モジュールによって決定された前記ターゲット撮影タイプに対応する画像処理方法に従って、前記第2時点での画像データを処理するステップ、を含む。
第2態様を参照すると、第2態様に係る第1の可能な実施態様において、前記決定モジュールは、前記第1時点での画像データに基づいて、撮影されるシーンの少なくとも2つの撮影タイプの候補および前記少なくとも2つの撮影タイプの信頼度を決定し、かつ、前記少なくとも2つの撮影タイプの信頼度に基づいて、前記少なくとも2つの撮影タイプにおける前記ターゲット撮影タイプを決定する、ように構成されている。
第2態様に係る第1の可能な実施形態を参照すると、第2態様に係る第2の可能な実施態様において、前記決定モジュールは、撮影モード分類モデルの入力として前記第1時点での画像データを使用することにより、前記撮影モード分類モデルの出力を獲得し、ここで、前記撮影モード分類モデルの出力は、前記少なくとも2つの撮影タイプの候補および前記少なくとも2つの撮影タイプの信頼度を含み、前記撮影モード分類モデルは、撮影モード訓練セットを使用して訓練対象の撮影モード分類モデルを訓練することによって獲得され、かつ、前記撮影モード訓練セットは、第1訓練画像データおよび前記第1訓練画像データに対応する撮影タイプを含む、ように構成されている。
第2態様に係る第2の可能な実施形態を参照すると、第2態様に係る第3の可能な実施態様において、前記撮影モード訓練セットは、さらに、前記撮影タイプに対応していないものとしてマーク付けされた第2訓練画像データを含む。
第2態様または第2態様に係る可能な実施態様のうちいずれか1つを参照すると、第2態様に係る第4の可能な実施態様において、前記撮影されるシーンのタイプは、食品シーンであり、かつ、前記処理モジュールは、ターゲット画像データを獲得するために、前記第2時点での画像データによって示される画像のコントラストおよび色の彩度を増加させる、ように構成されている。
第2態様または第2態様に係る可能な実施態様のうちいずれか1つを参照すると、第2態様に係る第5の可能な実施態様において、前記撮影されるシーンのタイプは、青空シーンであり、かつ、前記処理モジュールは、前記第2時点での画像データによって示された画像において、事前設定されたターゲット青空色値および空色値に基づいて調整係数を算出し、そして、ターゲット画像データを獲得するために、前記調整係数に基づいて、前記第2時点での画像データによって示された画像を処理する、ように構成されている。
第2態様または第2態様に係る可能な実施態様のうちいずれか1つを参照すると、第2態様に係る第6の可能な実施態様において、撮影されるシーンのタイプは、緑色植物シーンであり、かつ、前記処理モジュールは、ターゲット画像データを獲得するために、前記第2時点での画像データによって示される画像の色温度と色の彩度を増加させる、ように構成されている。
第2態様または第2態様に係る可能な実施態様のうちいずれか1つを参照すると、第2態様に係る第7の可能な実施態様において、前記処理モジュールは、ターゲット画像データを獲得するために、前記第2時点での画像データによって示される画像のダイナミックレンジを増加させ、かつ、前記第2時点での画像データによって示される画像の露出過多の領域または露出不足の領域を修復するように、前記第2時点での画像データによって示される画像のダイナミックレンジおよびピクセル輝度値を調整する、ように構成されている。
第2態様または第2態様に係る可能な実施態様のうちいずれか1つを参照すると、第2態様に係る第8の可能な実施態様において、前記検出モジュールは、現時点の以前の時間セグメントにおける前記電子装置の動きの加速度値を獲得し、かつ、前記加速度値の絶対値が加速度閾値以下であるか否かを判断するように構成されており、そして、前記加速度値の絶対値が加速度閾値以下であるときに、前記カメラは安定した撮影状態に現在あり、ここで、前記加速度閾値はゼロより大きい実数である。
本発明の第3態様は、カメラ、メモリ、およびプロセッサを含む電子デバイスを提供する。ここで、前記メモリは、一連の実行可能コードを保管するように構成されており、かつ、前記プロセッサは、メモリに保管された実行可能コードを実行するように構成されており、第1態様または第1態様に係る任意の可能な実施態様を実行する。
本発明の第4態様は、記憶媒体を提供する。前記記憶媒体は、実行可能コードを保管し、かつ、前記実行可能コードが実行されると、第1態様または第1態様に係る任意の可能な実施態様が実行され得る。
本発明の第5態様は、コンピュータプログラムを提供する。前記コンピュータプログラムは、第1態様または第1態様に係る任意の可能な実施態様を実行し得る。
本発明の第6態様は、コンピュータプログラム製品を提供する。そして、前記コンピュータプログラム製品は、第1態様または第1態様に係る任意の可能な実施態様を実行し得る命令を含む。
以下は、本発明の実施形態における技術的ソリューションを、本発明の実施形態における添付図面を参照して明確かつ完全に説明している。
電子装置は、通信機能を有する装置であってよい。例えば、電子装置は、以下のうち少なくとも1つを含み得る。端末、スマートフォン、タブレットパーソナルコンピュータ(PC)、移動電話(mobile phone)、ビデオテレフォニー、eReader、デスクトップPC、ラップトップPC、ネットブックコンピュータ、パーソナルデジタルアシスタント(PDA)、ポータブルマルチメディアプレーヤ(PMP)、ムービング・ピクチャ・エキスパート・グループ(MPEG-1またはMPEG-2)オーディオレイヤ3(MP3)プレーヤ、移動医療装置、およびカメラ、もしくは、ウェアラブル装置(例えば、ヘッドマウントディスプレイ(HMD)(例えば、電子メガネ)、電子衣類、電子ブレスレット、電子ネックレス、電子アプリケーションアクセサリー、電子タトゥー、およびスマートウオッチ)、である。
本開示の実施形態に従って、電子装置は、通信機能を有するインテリジェント家電(household appliance)であってよい。インテリジェント家電は、以下のうち少なくとも1つを含み得る。例えば、テレビ(TV)、デジタルビデオディスク(DVD)プレーヤ、オーディオプレーヤ、冷蔵庫、エアコン、掃除機、オーブン、電気ストーブ、洗濯機、空気清浄機、セットトップボックス、TVボックス(例えば、Samsung HomeSycTM、AppleTVTM、またはGoogleTVTM)、ゲームコンソール、電子辞書、電子キー、ビデオカメラ、または、電子写真フォトフレーム、である。
本発明において開示される実施形態に従って、電子装置は、以下のうち少なくとも1つを含み得る。種々の医療装置(例えば、磁気共鳴血管造影(MRA)、磁気共鳴画像(MRI)、コンピュータ断層撮影(CT)、写真撮影装置、および超音波装置)、ナビゲーション装置、グローバル・ポジショニング・システム(GPS)受信機、イベントデータレコーダ(EDR)、フライトデータレコーダ(FDR)、車両情報娯楽装置、船舶のために使用される電子装置(例えば、船舶に使用されるナビゲーション装置およびジャイロコンパス)、航空電子装置、セキュリティ装置、車両のために使用されるヘッダユニット、工業目的または家庭目的のためのロボット、金融機関の現金自動預払機(ATM)、または、店舗のポイント・オブ・セールス(POS)である。
本発明に開示される実施形態に従って、電子装置は、以下のうち少なくとも1つを含み得る。通信機能を有する備品(furniture)の一部またはアーキテクチャ/構造、電子ボード、電子署名受信装置、プロジェクタ、または、種々の測定装置(例えば、水道、電力、燃料ガス、または電波測定装置)である。電子装置は、上述の装置のうちの1つまたはそれ以上の上述の装置の組み合わせであってよい。さらに、電子装置は、フレキシブルな装置であってよい。加えて、当業者にとっては、電子装置は上述の装置に限定されないことが明らかである。
以下の説明においては、添付図面を参照して、電子装置が説明される。本開示の実施形態で使用される用語「ユーザ(“user”)」は、電子装置を使用する人間(person)、または、電子装置を使用する装置(apparatus)(例えば、人工知能電子装置)を示し得る。
図1は、本発明の一つの実施形態に従った、電子装置を含むネットワーク環境を示している。
図1を参照すると、電子装置101は、バス110、プロセッサ120、メモリ130、入力/出力(I/O)インターフェイス140、ディスプレイ150、通信インターフェイス160、第1カメラ170、第2カメラ171、等を含み得る。第1カメラ170および第2カメラ171は、代替的に、第1カメラモジュールおよび第2カメラモジュール、または、第1画像撮影モジュールおよび第2画像撮影モジュールとして参照され得る。代替的に、電子装置101は、単に第1カメラ170を含み、かつ、第2カメラ171を含まなくてよいことが理解されるべきである。
第1カメラ170は、ディスプレイ150の前方の画像を撮影するフロントエンドカメラであってよく、そして、第2カメラ171は、ディスプレイ150の背後の画像を撮影するリアエンドカメラであってよく、かつ、プロセッサ120と協働し得る。バス110は、上述のエレメントを相互に接続し、エレメント間の通信(例えば、制御メッセージ)を送信する回路であり得る。別の実施形態において、第1カメラ170および第2カメラ171は、それぞれ、リアエンドカメラであってよく、そして、プロセッサ120と協働し得る。
プロセッサ120は、バス110を使用することによって、上述の別のエレメント(例えば、メモリ130、I/Oインターフェイス140、ディスプレイ150、または、通信インターフェイス160)から命令(instruction)を受信し、受信した命令をデコードし、そして、デコードされた命令に対応するオペレーションまたはデータ処理を実行することができる。
メモリ130は、プロセッサ120または別のエレメント(例えば、I/Oインターフェイス140、ディスプレイ150、または、通信インターフェイス160)から受信した命令またはデータ、もしくは、プロセッサ120または別のエレメントによって生成された命令またはデータを保管することができる。メモリ130は、(例えば)プログラミングモジュールを含み得る。例えば、カーネル131、ミドルウェア132、アプリケーションプログラミングインターフェイス(API)133、またはアプリケーション134である。プログラミングモジュールは、ソフトウェア、ファームウェア、またはハードウェア、もしくは、ソフトウェア、ファームウェア、またはハードウェアのうち2つ又はそれ以上の組み合わせを使用することによって構成され得る。
カーネル131は、別のプログラミングモジュール(例えば、ミドルウェア132、API 133、またはアプリケーション134)に実装されたオペレーションまたは機能を実行するように構成されたシステムリソース(例えば、バス110、プロセッサ120、またはメモリ130)を制御または管理することができる。加えて、カーネル131は、ミドルウェア132、API 133、またはアプリケーション134が、電子装置101の各エレメントにアクセスし、そして、エレメントを制御または管理することを可能にするインターフェイスを提供し得る。
ミドルウェア132は、API 133またはアプリケーション134が、カーネル131と通信して、データを提供し、かつ、獲得し得るように、中間機能(intermediation function)を実行することができる。加えて、アプリケーション134から受信されたタスク要求(task request)に関連して、ミドルウェア132は、電子装置を使用し得るシステムリソース(例えば、バス110、プロセッサ120、またはメモリ130)のプライオリティ(priority)を、アプリケーション134の少なくとも1つに対して、割り当てる方法を(例えば)使用することによって、タスク要求の(例えば、スケジュールまたはバランス負荷)を制御することができる。
API 133は、カーネル131またはミドルウェア132によって提供される機能をアプリケーション134が制御することを可能にするインターフェイスであり、そして、ファイル制御、ウィンドウ制御、および、画像処理または文字制御のために使用される少なくとも1つのインターフェイスまたは機能(例えば、命令)を含み得る。
本開示の実施形態に従って、アプリケーション134は、ショートメッセージサービス(SMS)/マルチメディアメッセージサービス(MMS)アプリケーション、電子メール(email)アプリケーション、カレンダーアプリケーション、アラームアプリケーション、ヘルスケアアプリケーション(例えば、運動量または血糖値を測定するために使用されるアプリケーション)、または、環境情報アプリケーション(例えば、大気圧、湿度、または温度に関する情報を提供するアプリケーション)を含んでよい。追加的または代替的に、アプリケーション134は、電子装置101と外部電子装置(例えば、電子装置104)との間の情報交換に関連するアプリケーションであってよい。情報交換に関連するアプリケーションは、(例えば)外部電子装置に対して特定の情報を送信するために使用される通知リレー(relay)アプリケーション、または、外部電子装置を管理するために使用される装置管理アプリケーションを含み得る。
例えば、通知リレーアプリケーションは、電子装置101の異なるアプリケーション(例えば、SMS/MMSアプリケーション、電子メールアプリケーション、ヘルスケアアプリケーション、または環境情報アプリケーション)によって生成された通知情報を、外部電子装置(例えば、電子装置104)に対して、送信するために使用される機能を有し得る。追加的または任意的に、例えば、通知リレーアプリケーションは、外部電子装置(例えば、電子装置104)から通知情報を受信することができ、そして、ユーザに対して通知情報を提供する。装置管理アプリケーションは、外部電子装置によって提供される機能(例えば、外部電子装置(または一部のコンポーネント)の電源オン/電源オフまたはディスプレイの輝度(又は解像度))、および、外部電子装置および外部電子装置によって提供されるサービス(例えば、通信サービスまたはメッセージサービス)において動作するアプリケーションを管理(例えば、インストール、削除、または更新)することができる。
本開示の実施形態に従って、アプリケーション134は、外部電子装置(例えば、電子装置104)の属性(例えば、電子装置のタイプ)に応じて指定されたアプリケーションを含み得る。例えば、外部電子装置がMP3プレーヤである場合に、アプリケーション134は、音楽の再生に関連するアプリケーションを含み得る。同様に、外部電子装置が移動医療装置である場合に、アプリケーション134は、医療に関連するアプリケーションを含み得る。本開示のこの実施形態に従って、アプリケーション134は、電子装置101に指定されたアプリケーションおよび外部電子装置(例えば、サーバ106または電子装置104)から受け取ったアプリケーションのうち少なくとも1つを含んでよい。
I/Oインターフェイス140は、(例えば)バス110を使用することによって、プロセッサ120、メモリ130、および通信インターフェイス160に対して、I/Oユニット(例えば、センサ、キーボード、またはタッチスクリーン)を使用することによってユーザによって入力された命令またはデータを送信することができる。例えば、I/Oインターフェイス140は、プロセッサ120に対して、タッチスクリーンを使用することによって入力されたユーザのタッチデータを提供し得る。加えて、例えば、I/Oインターフェイス140は、I/Oユニット(例えば、スピーカまたはディスプレイ)を使用することによって、プロセッサ120、メモリ130、および通信インターフェイス160からバス110を使用することにより受信された命令またはデータを出力し得る。例えば、I/Oインターフェイス140は、スピーカを使用することによってユーザに対して、プロセッサ120によって処理された音声データを出力し得る。
ディスプレイ150は、ユーザに対して種々の情報(例えば、マルチメディアデータまたはテキストデータ)を表示し得る。通信インターフェイス160は、通信のために電子装置101および外部装置(例えば、電子装置104またはサーバ106)を接続することができる。例えば、通信インターフェイス160は、外部装置と通信するために、無線通信または有線通信を介してネットワーク162に接続され得る。無線通信は、(例えば)ワイヤレス・フィデリティ(Wi-Fi)、ブルートゥース(登録商標)(BT)、近接場通信(NFC)、GPSまたはセルラー通信(例えば、ロング・ターム・エボリューション(LTE)、LTEアドバンスト(LTE-A)、符号分割多元接続(CDMA)、ブロードバンドCDMA(WCDMA)、ユニバーサルモバイル通信システム(UMTS)、無線ブロードバンド(WiBro)、またはグローバル・システム・フォア・モバイルコミュニケーション(GSM))のうち少なくとも1つを含み得る。有線通信は、ユニバーサルシリアルバス(USB)、高精細度マルチメディアインターフェイス(HDMI)、レコメンデッドスタンダード232(RS-232)、および普通の電話サービス(POTS)のうち少なくとも1つを含み得る。
本開示のこの実施形態に従って、ネットワーク162は電気通信ネットワークであってよい。電気通信ネットワークは、コンピュータネットワーク、インターネット、インターネット・オブ・シングス、および電話ネットワークのうち少なくとも1つを含み得る。本開示のこの実施形態に従って、電子装置101と外部装置との間の通信のためのプロトコル(例えば、トランスポート層プロトコル、データリンク層プロトコル、または物理層プロトコル)は、アプリケーション134、アプリケーションプログラミングインターフェイス133、ミドルウェア132、カーネル131、または通信インターフェイス160のうち少なくとも1つによってサポートされ得る。
図2は、本発明の一つの実施形態に従った、電子装置の模式的な構造図である。例えば、電子装置は、図1に示される電子装置101の全部または一部分を備え得る。
図2を参照すると、電子装置201は、1つまたはそれ以上のアプリケーションプロセッサ(AP)210、通信モジュール220、加入者識別モジュール(subscriber identity module、SIM)224、メモリ230、センサモジュール240、入力ユニット250、ディスプレイ260、インターフェイス270、オーディオモジュール280、第1カメラモジュール290、第2カメラモジュール291、電気エネルギ管理モジュール295、バッテリー296、インジケータ297、およびモータ298を含み得る。
AP 210は、AP 210に接続された複数のハードウェアまたはソフトウェアエレメントを制御し、かつ、マルチメディアデータを含む様々なデータについて処理およびオペレーションを実行するために、オペレーティングシステム(OS)またはアプリケーションを駆動(drive)し得る。例えば、AP 210は、システムオンチップ(SoC)として実装され得る。本開示のこの実施形態に従って、AP 210は、さらに、グラフィックス処理ユニット(GPU)(図示なし)を含み得る。
通信モジュール220(例えば、通信インターフェイス160)は、ネットワークを使用して接続されている、電子装置201(例えば、電子装置101)と他の電子装置(例えば、電子装置104またはサーバ106)との間の通信においてデータの送受信(sending/receiving)を実行し得る。本開示のこの実施形態に従って、通信モジュール220は、セルラーモジュール221、Wi-Fiモジュール223、BTモジュール225、GPSモジュール227、NFCモジュール228、および無線周波数(RF)モジュール229を含み得る。
セルラーモジュール221は、通信ネットワーク(例えば、LTE、LTE-A、CDMA、WCDMA、UMTS、WiBro、またはGSM)を使用することによって、音声通信、画像通信、ショートメッセージサービス、またはインターネットサービスを提供し得る。加えて、セルラーモジュール221は、(例えば)加入者識別モジュール(例えば、SIMカード224)を使用することによって、通信ネットワークにおける電子装置について識別(identification)および認証(authentication)を実行し得る。本開示のこの実施形態に従って、セルラーモジュール221は、AP 210によって提供される少なくともいくつかの機能を実行し得る。例えば、セルラーモジュール221は、少なくともいくつかのマルチメディア制御機能を実行し得る。
本開示のこの実施形態に従って、セルラーモジュール221は、通信プロセッサ(CP)を含み得る。加えて、例えば、セルラーモジュール221は、SoCとして実装されてよい。図2において、エレメント(例えば、セルラーモジュール221(例えば、通信プロセッサ)、メモリ230、および電力エネルギ管理モジュール295)は、AP 210から独立したエレメントとして示されているが、AP 210は、上述のエレメント(例えば、セルラーモジュール221)の少なくとも一部を含むエレメントとして実装されてよい。
本開示のこの実施形態に従って、AP 210またはセルラーモジュール221(例えば、通信プロセッサ)は、揮発性メモリに対して、AP 210またはセルラーモジュール221に接続されている不揮発性メモリおよび他のエレメントのうち少なくとも1つから受信した命令またはデータをロードし、そして、その命令またはデータを処理することができる。加えて、AP 210またはセルラーモジュール221は、不揮発性メモリの中に、他のエレメントのうち少なくとも1つから受信したデータまたは他のエレメントのうち少なくとも1つによって生成されたデータを保管することができる。
Wi-Fiモジュール223、BTモジュール225、GPSモジュール227、またはNFCモジュール228は、それぞれ、(例えば)関連モジュールを使用して送受信されたデータを処理するように構成されたプロセッサを含み得る。図2において、セルラーモジュール221、Wi-Fiモジュール223、BTモジュール225、GPSモジュール227、またはNFCモジュール228は、独立したモジュールとして示されているが、セルラーモジュール221、Wi-Fiモジュール223、BTモジュール225、GPSモジュール227、またはNFCモジュール228のうち少なくともいくつか(例えば、2つまたはそれ以上のエレメント)は、集積回路またはICパッケージの中に含まれてよい。例えば、セルラーモジュール221、Wi-Fiモジュール223、BTモジュール225、GPSモジュール227、およびNFCモジュール228に対応するプロセッサの少なくともいくつか(例えば、セルラーモジュール221に対応する通信プロセッサおよびWi-Fiモジュール223に対応するWi-Fiプロセッサ)は、SoCとして実装され得る。
RFモジュール229は、データを送受信することができ、例えば、RF信号を送受信し得る。図示されていないが、RFモジュール229は、(例えば)トランシーバ、電力増幅器モジュール(PAM)、周波数フィルタ、または低ノイズ増幅器(LNA)を含み得る。加えて、RFモジュール229は、さらに、無線通信における自由空間(free space)内で電磁波を送受信するように構成されたコンポーネント(例えば、コンダクタ(conductor)および導線(conducting wire))を含み得る。図2におけるセルラーモジュール221、Wi-Fiモジュール223、BTモジュール225、GPSモジュール227、およびNFCモジュール228は、1つのRFモジュール229を共有している、セルラーモジュール221、Wi-Fiモジュール223、BTモジュール225、GPSモジュール227、またはNFCモジュール228のうち少なくとも1つは、別個のRFモジュールを使用することによって、RF信号を送受信し得る。
SIMカード224は、加入者識別モジュールを含むカードであり、かつ、電子装置の特定の位置に形成されたスロットの中へと挿入され得る。SIMカード224は、固有の識別情報(例えば、集積回路カード識別子(ICCID))またはユーザ情報(例えば、国際的モバイル加入者識別子(international mobile subscriber identity、IMSI))を含み得る。
メモリ230(例えば、メモリ130)は、埋め込みメモリ(embedded memory)232または外部メモリ234を含み得る。埋め込みメモリ232は、(例えば)以下のうち少なくとも1つを含み得る。揮発性メモリ(例えば、ダイナミックランダムアクセスメモリ(DRAM)、スタティックRAM(SRAM)、シンクロナスダイナミックRAM(SDRAM))、および、不揮発性メモリ(例えば、ワンタイムプログラマブル読み出し専用メモリ(OTPROM)、プログラマブルROM(PROM)、消去可能プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、マスクROM、フラッシュROM、およびNAND(NAND)フラッシュ、またはNOR(NOR)フラッシュ)のうち少なくとも1つを含み得る。
本開示のこの実施形態に従って、埋め込みメモリ232は、ソリッドステートドライバ(SSD)であってよい。外部メモリ234は、さらに、フラッシュドライバ(例えば、コンパクトフラッシュ(CF)、セキュリティデジタル(SD)、マイクロセキュリティデジタル(Micro-SD)、ミニセキュリティデジタル(Mini-SD)、イクストリミティデジタル(extremity digital、xD)、またはメモリスティック)を含み得る。外部メモリ234は、様々なインターフェイスを使用することによって、電子装置201に対して機能的に接続され得る。本開示のこの実施形態に従って、電子装置201は、さらに、記憶装置(または記憶媒体)、例えば、ハードディスクドライブを含み得る。
センサモジュール240は、物理量を測定し、または、電子装置201の動作状態を検出し、そして、測定または検出された情報を電気信号へと変換することができる。センサモジュール240は、(例えば)以下のうち少なくとも1つを含み得る。ジェスチャーセンサ240A、ジャイロスコープセンサ240B、大気圧センサ240C、磁気センサ240D、加速度センサ240E、保持センサ(holding sensor)240F、近接センサ240G、カラーセンサ240H(例えば、赤-緑-青(RGB)センサ)、生体センサ(living body sensor)240I、温度/湿度センサ240J、照度センサ240K、または紫外線(UV)センサ240M、である。追加的または任意的に、センサモジュール240は、(例えば)以下のものを含み得る。電子ノーズ(nose)センサ(図示なし)、筋電図(EMG)センサ(図示なし)、脳波(EEG)センサ(図示なし)、心電図(ECG)センサ(図示なし)、赤外線(IR)センサ(図示なし)、虹彩センサ(図示なし)、または指紋センサ(図示なし)、である。センサモジュール240は、さらに、センサモジュール240に属する少なくとも1つのセンサを制御するように構成された制御回路を含み得る。
入力装置250は、タッチパネル252、(デジタル)ペンセンサ254、キー256、または超音波入力装置258を含み得る。タッチパネル252は、キャパシタンス法、抵抗法、赤外線放射法、または超音波法のうち少なくとも1つを使用することによって、タッチ入力を検出することができる。加えて、タッチパネル252は、さらに、制御回路を含み得る。キャパシタンスタッチパネル(capacitance touch panel)は、物理的接触検出または近接検出を行うことができる。タッチパネル252は、さらに、触覚層(tactile layer)を含み得る。この場合に、タッチパネル252は、ユーザに対して触覚反応(tactile reaction)を提供することができる。
例えば、ユーザのタッチ入力を受け取るための方法と同一または類似の方法が使用されてよく、または、検出のために別個に使用される(デジタル)ペンセンサ254を実装するパネルが使用される。キー256は、(例えば)物理的なボタン、光学的なキー、またはキー領域を含み得る。超音波入力ユニット258は、電子装置201内のマイクロホン(例えば、マイクロホン288)を使用して音波(sound wave)を検出することによってデータを識別する入力ツールであり、かつ、無線検出を実行することができる。ここで、超音波入力ユニット258は超音波信号を生成する。本開示のこの実施形態に従って、電子装置201は、通信モジュール220に接続された外部装置(例えば、コンピュータまたはサーバ)から、通信モジュール220を使用することにより、ユーザ入力を受信し得る。
ディスプレイ260(例えば、ディスプレイ150)は、パネル262、ホログラム装置264、またはプロジェクタ266を含み得る。パネル262は、(例えば)液晶ディスプレイ(LCD)、またはアクティブマトリクス有機発光ダイオード(AM-OLED)であってよい。例えば、パネル262は、フレキシブル、半透明、またはウェアラブルなものとして実装され得る。パネル262およびタッチパネル252は、モジュールの中へ構成され得る。ホログラム装置264は、光の干渉を通じて、空気中に3次元画像を表示し得る。プロジェクタ266は、画像を表示するために、スクリーンに対して光を投射し得る。例えば、スクリーンは、電子装置201の内側または外側に配置されてよい。本開示のこの実施形態に従って、ディスプレイ260は、さらに、パネル262、ホログラム装置264、またはプロジェクタ266を制御するように構成された制御回路を含み得る。
インターフェイス270は、(例えば)HDMI 272、USB 274、光インターフェイス276、またはディー・サブ(D-sub)278を含み得る。インターフェイス270は、(例えば)図1に示される通信インターフェイス160内に含まれてよい。追加的または代替的に、インターフェイス270は、モバイル高精細度リンク(MHL)インターフェイス、SDカード/マルチメディアカード(MMC)インターフェイス、または赤外線データアソシエーション(IrDA)標準インターフェイスを含み得る。
オーディオモジュール280は、音響信号および電気信号を双方向に変換し得る。オーディオモジュール280の少なくとも一部分は、(例えば)図1に示されるI/Oインターフェイス140内に含まれてよい。オーディオモジュール280は、(例えば)スピーカ282、受信機284、ヘッドセット286、またはマイクロホン288を使用することによって入力または出力される音声情報を処理し得る。
第1カメラモジュール290および第2カメラモジュール291は、それぞれ、静止画像および動画を撮影することができる装置であり、そして、1つのモジュールとして製造され得る。本開示のこの実施形態に従って、第1カメラモジュール290および第2カメラモジュール291は、1つまたはそれ以上の画像センサ(例えば、フロントセンサまたはバックセンサ)、レンズ(図示なし)、画像信号プロセッサ(図示なし)、またはカメラフラッシュ(例えば、LEDまたはキセノンランプ)を含み得る。電気エネルギ管理モジュール295は、電子装置201の電気エネルギを管理することができる。図示されていないが、電力エネルギ管理モジュール295は、(例えば)電力エネルギ管理集積回路(PMIC)、充電器集積回路(IC)、バッテリーゲージ、または燃料ゲージを含み得る。
例えば、PMICは、集積回路またはSoC半導体の内部に搭載され得る。充電方式は、有線充電方式および無線充電方式に分けられる。充電IC(charging IC)は、バッテリーを充電し、そして、充電器からの過電圧または過電流の導入を防止することができる。本開示のこの実施形態に従って、充電ICは、有線充電方法および無線充電方法のうち少なくとも1つに適用される充電ICを含み得る。無線充電方法は、(例えば)磁気共鳴方法、磁気誘導方法、または電磁波方法であり、そして、追加的に、無線充電のために使用される追加の回路、例えば、回路(例えば、コイルリング、共振回路、または整流器)を含み得る。
バッテリーゲージは、(例えば)バッテリー296の残存電気量、および、充電中のバッテリー296の電圧、電流、または温度を測定することができる。バッテリー296は、電気を蓄積または生成し、そして、蓄積または生成された電気を電子装置201に対して供給し得る。バッテリー296は、(例えば)再充電可能(rechargeable)バッテリーまたは太陽電池を含み得る。
インジケータ297は、特定の状態、例えば、スタート状態、メッセージ状態、もしくは、電子装置201または電子装置201の一部(例えば、AP 210)の充電状態を表示し得る。モータ298は、電気信号を機械的な振動へと変換し得る。図示されていないが、電子装置201は、モバイルテレビ(mobile TV)をサポートするように構成されたプロセッサ(例えば、GPU)を含み得る。モバイルテレビをサポートするように構成されたプロセッサは、標準(例えば、デジタルマルチメディア放送(DMB)、デジタルビデオ放送(DVB)、およびメディアストリーム)に対応するメディアデータを処理し得る。
電子装置における上述のエレメントそれぞれは、1つまたはそれ以上のコンポーネントを使用して構成されてよく、そして、関連するエレメントの名称は、電子装置のタイプに応じて変更されてよい。電子装置は、上述のエレメントのうち少なくとも1つを含んでよく、そして、エレメントのいくつかは省略されてよく、もしくは、さらに、他の追加のエレメントが含まれてよい。加えて、電子装置におけるエレメントのいくつかは、実体(entity)を形成するように組み合わされてよく、そして、実体は、エレメントが組み合わされる前に、関連するエレメントの機能を同様に実行する。
以下の説明においては、電子装置の写真撮影方法および電子装置が説明される。電子装置は、電子装置(例えば、スマートフォンおよびタブレットPC)であり、そして、図1および図2に示されるエレメントの全部または一部分を含み得る。
図3は、写真撮影方法の模式的なフローチャートである。本方法は、上述の説明における電子装置(特には端末であり得る)によって実行され得る。そして、電子装置はカメラを含んでいる。カメラは、カメラのレンズに入射する光を変換し、画像データを獲得する(または、写真撮影を通じて獲得されることとして参照される)ように構成され得る。カメラは、移動電話(mobile phone)におけるカメラレンズ、カメラモジュール、またはレンズモジュールであってよく、もしくは、第1カメラ170または第2カメラ171のうち少なくとも1つ、あるいは、第1カメラモジュール290および第2カメラモジュール291のうち少なくとも1つであってよい。この方法のステップは以下の通りである。
S301.カメラが安定した撮影状態に現在あるか否かを検出する。本明細書における検出は、リアルタイム検出であってよい。具体的な実施プロセスにおいて、カメラが安定した撮影状態に現在あるか否かを検出することは、現時点(current time point)の以前の時間セグメント(time segment)におけるカメラまたは電子装置の動き(movement)の加速度値を獲得すること、および、加速度値の絶対値が加速度閾値以下(less than or equal)であるか否かを判断することを含んでよい。そして、加速度値の絶対値が加速度閾値以下である場合に、カメラは安定した撮影状態に現在あり、ここで、加速度閾値はゼロより大きい実数である。
現時点の以前の時間セグメントにおける動きの加速度値は、一つの値または値のグループ(すなわち、少なくとも2つの値)であってよい。加速度値を獲得する方法は、加速度値のグループを獲得するために、時間セグメントにおいて一つおきのサンプリング間隔で加速度値が獲得されることであってよい。サンプリング間隔の持続時間(duration)は事前設定され得る。
現時点の以前の時間セグメントの持続時間は、事前設定されてよい。加速度閾値も、また、事前設定されてよい。
現時点の以前の時間セグメントにおけるカメラまたは電子装置の動きの加速度値を獲得することは、電子装置におけるジャイロスコープセンサによって、現時点の以前の時間セグメントにおけるカメラまたは電子装置の動きの加速度値を獲得することであり得る。より正確には、ジャイロスコープを使用して獲得される加速度値は、角加速度(angular acceleration)値である。特定の実装プロセスにおいて、ジャイロスコープセンサは3軸ジャイロスコープセンサであってよく、そして、3軸ジャイロスコープセンサを使用することによって3方向における角加速度値が獲得され得る。現時点の以前の時間セグメントにおける3方向において3軸ジャイロスコープセンサによって獲得された角加速度値の絶対値が、全て加速度閾値以下である場合に、カメラは安定した撮影状態にある。3方向における角加速度値に対してそれぞれ対応する、3つの加速度閾値が存在し得る。
現時点の以前の時間セグメントにおけるカメラまたは電子装置の動きの加速度値を獲得することは、電子装置内の加速度センサによって、現時点の以前の時間セグメントにおけるカメラまたは電子装置の動きの加速度値を獲得することであり得る。特定の実施プロセスにおいて、加速度センサは、3軸加速度センサであってよい。3軸加速度センサを使用することにより3方向における加速度値が獲得され、そして、電子装置が現在設置されている環境において重力に対応する重力加速度値が垂直方向における加速度値から差し引かれて、垂直方向におけるカメラまたは電子装置の動きの加速度値を獲得する。他の方向の加速度値は処理されなくてよく、そして、現時点の以前の時間セグメントにおいて3方向における電子デバイスの動きの加速度値の絶対値が全て加速度閾値以下である場合に、カメラは安定した撮影状態にある。3つの加速度閾値が存在してよく、それぞれに、3方向の加速度値に対応している。重力加速度値は、事前設定されてよく、または、重力センサを使用することにより獲得されてよい。代替的に、電子装置が現在配置されている環境の重力に対応する重力加速度値は、電子装置内の大気圧センサによって獲得された大気圧に基づいて決定されてよい。
具体的な実施プロセスにおいては、代替的に、カメラが安定した撮影状態に現在あるか否かを検出することは、現時点での画像データを獲得すること、現時点での画像データを現時点の以前の時点で獲得された画像データと比較することを含み、そして、現時点での画像データと以前の時点での画像データとの整合度(matching degree)が整合閾値(matching threshold)を超える場合には、カメラは安定した撮影状態に現在ある。整合閾値は、事前設定されてよい。現時点での画像データを獲得することは、カメラを使用して現時点での画像データを獲得することを含んでよく、ここでは、以前の時点での画像データも、また、カメラを使用して獲得される。
S302.カメラが安定した撮影状態に現在あるときに、第1時点で画像データを獲得する。具体的な実施プロセスにおいて、第1時点での画像データが、電子装置のカメラによって獲得され得る。カメラは、2つの画像データストリームを生成することができる。一方の画像データストリームは、表示のため、つまり、プレビュー(preview)するための画像データを含み得る。他方の画像データストリームは、画像保管のため、つまり、写真撮影のための画像データを含み得る。表示のための画像データによって示される画像の解像度は、画像保管のための画像データの解像度よりも小さい。第1時点での画像データは、表示するための画像データであってよい。第1時点で画像データを獲得することは、カメラを使用して第1時点での画像データを獲得することであり得る。
S303.第1時点での画像データに基づいて、ターゲット撮影タイプ(target photographing type)を決定する。ターゲット撮影タイプは、第1時点での画像データによって示される撮影されるシーンのタイプを示すために使用されてよい。
第1時点での画像データに基づいてターゲット撮影タイプを決定することは、第1時点での画像データに基づいて、撮影されるシーンの少なくとも2つの撮影タイプの候補、および、少なくとも2つの撮影タイプの信頼度(confidence degree)を決定すること、そして、少なくとも2つの撮影タイプの信頼度に基づいて、少なくとも2つの撮影タイプにおいて記ターゲット撮影タイプを決定すること、を含み得る。具体的な実施プロセスにおいては、ダウンサンプリング(downsampling)された画像データを獲得するために、第1時点での画像データに対して、さらに、ダウンサンプリングが実行される。そして、次いで、ダウンサンプリングされた画像データに基づいて、第1時点での画像データに対応するターゲット撮影タイプが決定される。
具体的な実施形態において、第1時点での画像データに基づいて、撮影されるシーンの少なくとも2つの撮影タイプの候補、および、少なくとも2つの撮影タイプの信頼度を決定することは、撮影モード分類モデル(photographing mode classification model)の入力として、第1時点での画像データ(または、第1時点での画像データのダウンサンプリングされたデータ)を使用することにより、撮影モード分類モデルの出力を獲得することを含み得る。ここで、撮影モード分類モデルの出力は、少なくとも2つの撮影タイプの候補および少なくとも2つの撮影タイプの信頼度を含み、撮影モード分類モデルは、撮影モード訓練セット(training set)を使用して訓練対象(to-be-trained)の撮影モード分類モデルを訓練することによって獲得され、そして、撮影モード訓練セットは、第1訓練画像データおよび第1訓練画像データに対応する撮影タイプを含む。撮影モード訓練セットは、さらに、撮影タイプに対応していないものとしてマーク付けされた第2訓練画像データを含み得る。
具体的な実施プロセスにおいて、訓練対象の撮影モード分類モデルのタイプは、VGGnet、alexnet、inception resnet、resnet、densenet、またはmobilentであり得る。撮影モード訓練セットを使用して訓練対象の写真撮影モード分類モデルを訓練することは、撮影モード訓練セットを使用することによって、訓練対象の写真撮影モード分類モデルにおける係数(coefficient)を更新すること、であり得る。
別の実施形態において、第1時点での画像データに基づいてターゲット撮影タイプを決定することは、代替的に、撮影モード分類モデルの入力として、第1時点での画像データ(または、第1時点での画像データのダウンサンプリングされたデータ)を使用することにより、撮影モード分類モデルの出力を獲得することを含み得る。ここで、撮影モード分類モデルの出力は、ターゲット撮影モードとして使用されている。撮影モード分類モデルの出力は、撮影モード分類モデルの出力は、第1時点での画像データによって示される画像における少なくとも2つの画像領域の領域情報、および、少なくとも2つの画像領域(代替的に、1つの画像領域であってよい)にそれぞれ対応する撮影タイプを含む。撮影モード分類モデルは、撮影モード訓練セットを使用して訓練対象の撮影モード分類モデルを訓練することによって獲得され、そして、撮影モード訓練セットは、第3訓練画像データによって示される画像における少なくとも2つの画像領域の領域情報、および、少なくとも2つの画像にそれぞれ対応する撮影タイプを含む。撮影モード訓練セットは、さらに、撮影タイプに対応していないものとしてマーク付けされた第4訓練画像データを含み得る。撮影モード訓練セットは、さらに、撮影タイプに対応している第5訓練画像データを含み得る。領域情報は、領域情報に対応する画像領域に対応している領域範囲を示すために使用されてよく、そして、領域情報は、セグメンテーション(segmentation)マスク(または、マスクとして参照されるもの、マスク)であってよい。画像領域が分割される場合に、画像は、ピクセルまたはスーパーピクセルに基づいてセグメント化されてよい。上述の撮影モード分類モデルと比較して、このパラグラフにおける撮影モード分類モデルは、別の撮影モード分類モデルであってよいことに、留意すべきである。
別の実施において、写真モード分類モデルの出力は、代替的に、第1時点での画像データによって示される画像における少なくとも2つの画像領域の領域情報、少なくとも2つの画像領域のそれぞれに対応する少なくとも2つの撮影タイプの候補、および、少なくとも2つの撮影タイプの候補の信頼度を含み得る。少なくとも2つの撮影タイプの候補の信頼度に基づいて、各画像領域に対応する少なくとも2つの撮影タイプの候補において、各画像領域に対応するターゲット撮影タイプが決定され得る。
S304.ユーザからの撮影指示を受信したとき又は後で、第2時点での画像データを獲得する。第2時点での画像データは、画像保管のための画像データであってよい。ユーザからの撮影指示の受信は、電子装置によって実行され得る。具体的には、シャッターを示すために使用されるキーまたは(ディスプレイ上に表示される)仮想キーを、ユーザがクリックまたは押したか否かを検出することができ、そして、ユーザがキーまたは仮想キーをクリックまたは押した場合は、ユーザからの撮影指示が受信されたことを意味する。第2時点で画像データを獲得することは、カメラを使用して第2時点において画像データを獲得することであり得る。
S305.第2時点での画像データを、ターゲット撮影タイプに応じた画像処理方法に従って処理して、ターゲット画像データを獲得する。具体的な実施プロセスにおいて、第2時点での画像データを処理することは、カメラ内のハードウェアを制御すること(例えば、ハードウェアの構造を変更することによって、カメラ内のレンズの絞り値(aperture value)および焦点距離を変更すること)、または、カメラによって獲得された画像データの処理を含み得る。カメラによって獲得された画像データを処理することは、ハードウェア(例えば、画像信号プロセッサISPを使用することによって)またはソフトウェアを使用することによって実施され得る。
撮影されるシーンのタイプは、食品(food)シーンであってよく、そして、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って第2時点での画像データを処理することは、ターゲット画像データを獲得するように、第2時点での画像データによって示される画像のコントラストおよび色の彩度(color saturation)を増加させることを含み得る。
撮影されるシーンのタイプは夜景であってよく、そして、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って第2時点での画像データを処理することは、第2時点での画像データによって示される画像のダイナミックレンジおよびピクセル輝度値を調整することを含んでよく、第2時点での画像データによって示される画像のダイナミックレンジを増加させ、かつ、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像における露出過多(over-exposed)領域または露出不足(under-exposed)領域を修復する。具体的な実施プロセスにおいて、第2時点での画像データによって示される画像のピクセル輝度値は、ISPの輝度パラメータ(例えば、自動露出(AE))を呼び出すことによって調整され得る。
撮影されるシーンのタイプは青空(blue-sky)シーンであってよく、そして、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って第2時点での画像データを処理することは、第2時点での画像データによって示される画像において事前設定されたターゲット青空色値および空(sky)色値に基づいて調整係数を算出すること、および、ターゲット画像データを獲得するために、調整係数に基づいて、第2時点での画像データによって示される画像を処理すること、を含み得る。
撮影されるシーンのタイプは緑色植物シーンであってよく、そして、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って第2時点での画像データを処理することは、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像の色温度および色の彩度を増加させること、を含み得る。具体的な実施プロセスにおいて、第2時点での画像データによって示される画像の色温度は、ISPのホワイトバランスパラメータ(例えば、オートホワイトバランス(AWB))を呼び出すことによって調整され得る。
撮影されるシーンのタイプはステージシーンであってよく、そして、ターゲット画像データを獲得するために、ターゲット撮影タイプに対応する画像処理方法に従って第2時点での画像データを処理することは、第2時点での画像データによって示される画像のダイナミックレンジおよびピクセル輝度値を調整することを含んでよく、第2時点での画像データによって示される画像のダイナミックレンジを増加させ、かつ、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像における露出過多領域または露出不足領域を修復する。
より多くの写真撮影方法について、要約の関連する説明に対する参照、および詳細は、ここにおいて再度説明されないことが理解されよう。
図4に示されるように、本発明の一つの実施形態は、電子装置400を提供する。電子装置400は、上述の説明における電子装置101または201であってよく、または、電子装置400は、電子装置101及び/又は電子装置201におけるいくつかのエレメントまたはモジュールを含んでよい。装置は、検出モジュール401、獲得モジュール402、決定モジュール403、および処理モジュール404を含んでいる。装置内のモジュールによって実行されるオペレーションは、ソフトウェアによって実行されてよく、または、電子装置400のメモリ内に配置されており、そして、プロセッサによって呼び出されて、実行されるソフトウェアモジュールとして機能し得る。代替的に、装置内のモジュールによって実行されるオペレーションは、ハードウェアチップによって実行されてよい。
検出モジュール401は、カメラが安定した撮影状態に現在あるか否かを検出するように構成されている。電子装置400は、カメラを含み、そして、カメラは、カメラレンズ、第1カメラ170、第2カメラ171、第1カメラモジュール290、および第2カメラモジュール291のうち少なくとも1つであってよい。検出モジュール401は、ソフトウェアプログラミングによって実装され得る。別の言葉で言えば、検出モジュール401は、電子装置400のメモリ内に配置されており、そして、プロセッサによって呼び出されて、実行されるソフトウェアモジュールとして機能し得る。
具体的な実施プロセスにおいて、検出モジュール401は、電子装置400におけるジャイロスコープセンサを使用することにより、現時点以前の時間セグメントにおけるカメラまたは電子装置の動きの加速度値を獲得し、かつ、加速度値の絶対値が加速度閾値以下(less than or equal to)であるか否かを判断し得る。そして、加速度値の絶対値が加速度閾値以下である場合に、カメラは安定した撮影状態に現在ある。
具体的な実施プロセスにおいて、代替的に、検出モジュール401は、カメラを使用して現時点での画像データを獲得し、現時点での画像データを現時点の以前の時点で獲得された画像データと比較し得る。そして、現時点での画像データと以前の時点での画像データとの整合度が整合閾値より大きい場合に、カメラは安定した撮影状態に現在ある。
獲得モジュール402は、カメラが安定した撮影状態に現在あるときに、第1時点で画像データを獲得するように構成されている。獲得モジュール402は、上述の説明におけるカメラであってよく、すなわち、獲得モジュールは、カメラレンズ、第1カメラ170、第2カメラ171、第1カメラモジュール290、および第2カメラモジュール291のうち少なくとも1つであってよい。代替的に、獲得モジュール402は、カメラを使用することにより、第1時点で画像データを獲得し得る。
決定モジュール403は、第1時点で獲得モジュールによって獲得された画像データに基づいて、ターゲット撮影タイプを決定するように構成されている。
決定モジュール403は、第1時点での画像データに基づいて、撮影シーンの少なくとも2つの撮影タイプの候補および少なくとも2つの撮影タイプの信頼度を決定し、そして、少なくとも2つの撮影タイプの信頼度に基づいて、少なくとも2つの撮影タイプにおけるターゲット撮影タイプを決定するように構成され得る。具体的に、決定モジュール403は、撮影モード分類モデルの入力として第1時点での画像データを使用することにより、撮影モード分類モデルの出力を獲得するように構成され得る。ここで、撮影モード分類モデルの出力は、少なくとも2つの撮影タイプの候補および少なくとも2つの撮影タイプの信頼度を含む。撮影モード分類モデルは、撮影モード訓練セットを使用して訓練対象の撮影モード分類モデルを訓練することによって獲得され、そして、撮影モード訓練セットは、第1訓練画像データおよび第1訓練画像データに対応する撮影タイプを含む。撮影モード訓練セットは、さらに、撮影タイプに対応していないものとしてマーク付けされた第2訓練画像データを含む。
獲得モジュール402は、さらに、ユーザからの撮影指示が受信されたときに、第2時点での画像データを獲得するように構成されている。
処理モジュール404は、ターゲット画像データを獲得するために、決定モジュールによって決定されたターゲット撮影タイプに対応した画像処理方法に従って第2時点での画像データを処理するように構成されている。処理モジュール404は、ソフトウェアプログラミングによって実装され得る。別の言葉で言えば、処理モジュール404は、電子装置400のメモリ内に配置され、そして、プロセッサによって呼び出されて、実行されるソフトウェアモジュールとして機能し得る。処理モジュールは、両方ともISPを有している第1カメラモジュール290および第2カメラモジュール291のうち少なくとも1つであってよく、そして、処理モジュール404のオペレーションは、ISPによって実行される。代替的に、処理モジュール404は、メモリ内にソフトウェアモジュール、および、第1カメラモジュール290および第2カメラモジュール291のうち少なくとも1つを含む。
撮影されるシーンのタイプは、食品シーンであり、そして、処理モジュール404は、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像のコントラストおよび色の彩度を増加させるように構成され得る。
撮影されるシーンのタイプは青空シーンであり、そして、処理モジュール404は、第2時点での画像データによって示された画像において、事前設定されたターゲット青空色値および空色値に基づいて調整係数を算出し、そして、ターゲット画像データを獲得するために、調整係数に基づいて、第2時点での画像データによって示された画像を処理するように構成され得る。
撮影されるシーンのタイプは緑色植物シーンであり、そして、処理モジュール404は、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像の色温度と色の彩度を増加させるように構成されてよい。
撮影されるシーンのタイプはステージシーンであり、処理モジュール404は、第2時点での画像データによって示される画像のダイナミックレンジおよびピクセル輝度値を調整するように構成されてよく、ターゲット画像データを獲得するために、第2時点での画像データによって示される画像のダイナミックレンジを増加させ、第2時点での画像データによって示される画像の露出過多領域または露出不足領域を修復する。
この実施形態における電子装置の各モジュールのより多くの実行オペレーションについて、上述の方法の実施形態および要約の関連する説明に対する参照は、ここにおいて再度説明されないことが理解されよう。
図5は、本発明の一つの実施形態に従った、電子装置500のハードウェアの模式的な構造図である。電子装置500は、電子装置101および電子装置201における全てまたはいくつかのエレメントまたはモジュールを含み得る。図5に示されるように、電子装置500は、電子装置400の実装として機能し得る。そして、電子装置500は、プロセッサ502、メモリ504、入力/出力インターフェイス506、通信インターフェイス508、およびバス510を含んでいる。プロセッサ502、メモリ504、入力/出力インターフェイス506、および通信インターフェイス508は、バス510を使用することにより相互に通信接続されている。
プロセッサ502は、汎用中央処理装置(Central Processing Unit、CPU)、マイクロプロセッサ、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、または1つまたはそれ以上の集積回路であってよく、本発明の実施形態において提供される電子装置400内に含まれるモジュールによって実行される機能を実施するように、または、方法の実施形態および本発明の概要において提供される写真撮影方法を実行するように、関連プログラムを実行する。プロセッサ502は、集積回路チップであり、そして、信号処理能力を有し得る。実施プロセスにおいて、上述の方法の各ステップは、プロセッサ502におけるハードウェア形態の集積論理回路によって、または、ソフトウェア形態の命令によって実施され得る。プロセッサ502は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、もしくは、別のプログラマブルロジックコンポーネント、個別(discrete)ゲート、またはトランジスタロジックデバイス、あるいは、個別ハードウェアコンポーネントであってよく、そして、本発明の実施形態において開示される方法、ステップ、および論理ブロックダイアグラムを実装または実行することができる。汎用プロセッサは、マイクロプロセッサであってよく、または、プロセッサは、任意の従来のプロセッサ、等であってよい。本発明の実施形態で開示される方法におけるステップは、ハードウェア復号化(decoding)プロセッサを使用することにより直接的に実施されてよく、または、復号化プロセッサ内のハードウェアおよびソフトウェアモジュールの組み合わせを使用することにより実施されてよい。ソフトウェアモジュールは、当該技術分野における成熟した記憶媒体内に配置され得る。例えば、ランダムアクセスメモリ、フラッシュモリ、読み出し専用メモリ、プログラマブル読み出し専用メモリ、電気的消去可能プログラマブルメモリ、またはレジスタである。記憶媒体は、メモリ504内に配置されており、そして、プロセッサ502は、メモリ504内の情報を読み出して、プロセッサのハードウェアと組み合わせて上述の方法におけるステップを完了する。
メモリ504は、読み出し専用メモリ(Read Only Memory、ROM)、スタティック記憶装置、ダイナミック記憶装置、または、ランダムアクセスメモリ(Random Access Memory、RAM)であってよい。メモリ504は、オペレーティングシステムおよび別のアプリケーションプログラムを保管することができる。本発明の実施形態において提供される電子装置400内に含まれるモジュールによって実行される必要のある機能、または、方法の実施形態および本発明の概要において提供される写真撮影方法が、ソフトウェアまたはファームウェアを使用することにより実行されるときには、本発明の実施形態において提供される技術的ソリューションを実行するために使用されるプログラムコードがメモリ504内に保管され、そして、プロセッサ502は、電子装置400内に含まれるモジュールによって実行されることを必要とするオペレーションを実行し、または、本発明の方法の実施形態において提供される写真撮影方法を実行する。
入力/出力インターフェイス506は、入力データおよび情報を受信し、そして、オペレーション結果といったデータを出力するように構成されている。
通信インターフェイス508は、電子装置500と他の装置または通信ネットワークとの間の通信を実施するために、例えば、これに限定されるわけではないが、トランシーバを使用する。
バス510は、電子装置500のコンポーネント(例えば、プロセッサ502、メモリ504、入力/出力インターフェイス506、および通信インターフェイス508)間で情報を送信するために使用されるチャネル(channel)を含み得る。
図5に示される電子装置500は、特定の実施プロセスにおける、プロセッサ502、メモリ504、入力/出力インターフェイス506、通信インターフェイス508、およびバス510を単に示しているに過ぎないが、当業者であれば、電子装置500は、さらに、通常オペレーションのために必要な他のコンポーネント、例えば、ディスプレイ、カメラ、およびジャイロスコープセンサを含むことを理解すべきことに、留意すべきである。加えて、当業者であれば、特定の要件に従って、電子装置500は、さらに、別の追加的な機能を実施するためのハードウェアコンポーネント含み得ることを理解すべきである。さらに、当業者であれば、電子装置500は、本発明の実施形態を実施するために必要なコンポーネントを単に含むことができ、そして、図5に示される全てのコンポーネントを必ずしも含むわけではないことを理解すべきである。
簡単な説明のために、上述の方法の実施形態は、一連の動作(action)として表現されていることに留意すべきである。しかしながら、当業者であれば、本発明は説明された動作シーケンスに限定されるものではないことを正しく理解すべきである。なぜなら、本発明に従って、いくつかのステップは、他のシーケンスにおいて実施されてよく、または、同時に実施されてよいからである。加えて、当業者であれば、この明細書において使用される動作およびモジュールが本発明にとって必ずしも必要とされないことを理解すべきである。
当業者であれば、実施形態における方法に係る全てまたはいくつかのプロシージャは、関連するハードウェアを指示する(instructing)コンピュータプログラムによって実施され得ることを理解するだろう。プログラムは、コンピュータ読取り可能な記憶媒体において保管され得る。プログラムが実行されると、実施形態における方法に係るプロシージャが実行される。上述の記憶媒体は、磁気ディスク、光ディスク、読み出し専用メモリ(Read-Only Memory、ROM)、またはランダムアクセスメモリ(Random Access Memory、RAM)を含み得る。
本発明は、実施形態を参照して説明されているが、保護を請求する本発明を実施するプロセスにおいて、当業者であれば、添付の図面、開示された内容、および添付の請求項を検討することによって、開示された実施形態の別の変形を理解し、そして、実施し得る。請求項において、「含む(“comprising”)」は、別のコンポーネントまたは別のステップを排除するものではなく、そして、「一つ(“a”または“one”)」は、複数の事例を排除するものではない。単一のプロセッサまたは別のモジュールは、請求項において列挙されるいくつかの機能を実施することができる。いくつかの手段(measures)は、相互に異なる従属請求項において記録されているが、このことは、これらの手段がより良い効果を生成するように組み合わせられないことを意味するものではない。コンピュータプログラムは、光記憶媒体またはソリッドステート(solid-state)媒体といった適切な媒体において保管/分配され、そして、他のハードウェアと一緒に提供され、またはハードウェアの一部として使用され得る。もしくは、例えば、インターネット、あるいは、他の有線または無線通信システムを使用することにより他の方法で分配され得る。
本発明の原理および実装を説明するために、この明細書においては特定の例が使用されている。上述の実施形態の説明は、単に、本発明の方法および概念を理解するのを手助けするように意図されているに過ぎない。加えて、実施および適用範囲に関しては、本発明の思想に従って、当業者によって変更が成され得る。従って、この明細書は、本発明を限定するものとして解釈されてはならない。