JP2013258540A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2013258540A JP2013258540A JP2012132921A JP2012132921A JP2013258540A JP 2013258540 A JP2013258540 A JP 2013258540A JP 2012132921 A JP2012132921 A JP 2012132921A JP 2012132921 A JP2012132921 A JP 2012132921A JP 2013258540 A JP2013258540 A JP 2013258540A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- cpu
- electronic device
- liquid crystal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】カメラのライブビュー画像を見ている感覚で、提供される画像情報を閲覧すること。
【解決手段】電子機器10は、外部機器から画像を取得する画像取得手段22と、取得した画像に基づいて再生画像を表示する表示手段15と、本体の姿勢を検出する姿勢検出手段23と、姿勢検出手段23で検出された姿勢の変化に応じて取得画像と異なる視野の画像を表示するように、画像取得手段22および表示手段15を制御する制御手段16と、を備える。
【選択図】図3
【解決手段】電子機器10は、外部機器から画像を取得する画像取得手段22と、取得した画像に基づいて再生画像を表示する表示手段15と、本体の姿勢を検出する姿勢検出手段23と、姿勢検出手段23で検出された姿勢の変化に応じて取得画像と異なる視野の画像を表示するように、画像取得手段22および表示手段15を制御する制御手段16と、を備える。
【選択図】図3
Description
本発明は、電子機器に関する。
映像配信サーバから配信される映像の一部の領域を、ユーザーの指定によって再生領域として切り出し、ユーザーへ提示する映像に変形し、変形した映像を再生表示する技術が知られている(特許文献1参照)。ユーザーは、映像再生装置のキーボードやマウスなどのデバイスを操作することにより、配信された映像の中から切り出す領域を指定する。
従来技術では、キーボードやマウスなどを有していない携帯型の電子機器への適用が困難であった。
本発明による電子機器は、外部機器から画像を取得する画像取得手段と、取得した画像に基づいて再生画像を表示する表示手段と、本体の姿勢を検出する姿勢検出手段と、姿勢検出手段で検出された姿勢の変化に応じて取得画像と異なる視野の画像を表示するように、画像取得手段および表示手段を制御する制御手段と、を備えることを特徴とする。
本発明による電子機器では、例えばカメラのライブビュー画像を見ている感覚で、画像情報を閲覧できる。
以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施形態によるデジタルカメラ10を含めて構成した情報取得システムを例示する図である。情報取得システムは、情報提供者によって提供されている画像コンテンツを、デジタルカメラ10の液晶モニタに表示させて閲覧するとともに、許可される場合には閲覧した画像コンテンツを保存する。
画像コンテンツは、例えば、所定の仰角から所定の俯角までをカバーする天地方向の広角画像を、360度の全方位にわたって取得するように構成したカメラを用いて地上を移動しながら撮影し、該画像データを撮影位置情報と関連付けて記録したものである。図1において、ネットワークに画像コンテンツサーバ1、無線LANのアクセスポイント2、およびアクセスポイント3が、それぞれ接続されている。
画像コンテンツサーバ1は、情報提供者によってデータセンターなどに配置される。アクセスポイント2およびアクセスポイント3は、交通ターミナルや店舗等に設けられた無線アクセス端末や、ユーザー宅に設けられた無線アクセス端末に相当する。デジタルカメラ10は、アクセスポイント2やアクセスポイント3との間で無線通信を行う通信機能を有しており、情報利用者(デジタルカメラ10のユーザー)は、デジタルカメラ10からアクセスポイント2またはアクセスポイント3を介して画像コンテンツサーバ1へアクセスする。
図2は、例えばユーザー宅においてデジタルカメラ10によって観光地の画像情報を閲覧する場面を例示する図である。図2において、図示しない人物(Pとする)が、デジタルカメラ10を操作している。部屋には、人物P以外の人物5がテーブル6のそばに立っている。部屋の天井にはアクセスポイント2が設けられている。デジタルカメラ10は、アクセスポイント2を介してネットワークに接続されている。
<画像情報を閲覧する>
画像情報を閲覧するデジタルカメラ10は、後述する「非合成モード」に設定される。人物P(不図示)は、デジタルカメラ10の操作部材(例えば、液晶モニタ15に設けられているタッチ操作部材)を操作して、画像コンテンツサーバ1において画像コンテンツが用意されている観光地(例えばエジプト・アラブ共和国のギザ)を指定する。指定操作は、地図から探したり、地名を入力して探したり、検索ワード(例えばピラミッド)を入力したりすることによって行うように構成されている。地名や検索ワードを入力する場合は、図示しないマイクから音声で入力してもよい。
画像情報を閲覧するデジタルカメラ10は、後述する「非合成モード」に設定される。人物P(不図示)は、デジタルカメラ10の操作部材(例えば、液晶モニタ15に設けられているタッチ操作部材)を操作して、画像コンテンツサーバ1において画像コンテンツが用意されている観光地(例えばエジプト・アラブ共和国のギザ)を指定する。指定操作は、地図から探したり、地名を入力して探したり、検索ワード(例えばピラミッド)を入力したりすることによって行うように構成されている。地名や検索ワードを入力する場合は、図示しないマイクから音声で入力してもよい。
上述した指定操作によって観光地(本例ではギザ)の位置情報が画像コンテンツサーバ1へ送られると、画像コンテンツサーバ1は、図示しないデータベースに格納されている画像データのうち、撮影位置が当該位置情報に該当する画像データをデジタルカメラ10へ提供する。画像データは、上述したように全方位カメラで取得した天地方向の広角画像である。画像コンテンツサーバ1は、最初に提供する画像として、当地の代表画像(本例ではピラミッドを所定方向(方角)から所定の仰角(または俯角)で撮影した画像)をデジタルカメラ10へ提供する。
デジタルカメラ10は、画像コンテンツサーバ1から提供された画像(ピラミッド)を液晶モニタ15に再生表示する(図2)。人物P(不図示)がシャッターボタン20sを押下操作した場合、デジタルカメラ10は、液晶モニタ15に表示している画像のデータを保存する。
<カメラで撮像した画像と閲覧画像とを合成する>
撮像した画像を閲覧画像と合成するデジタルカメラ10は、後述する「合成モード」に設定される。人物P(不図示)がデジタルカメラ10の撮影レンズを人物5に向けると、デジタルカメラ10は、人物5、テーブル6および背景の壁を含むライブビュー画像を取得した上で、該ライブビュー画像の中から人物5の領域を抽出する。
撮像した画像を閲覧画像と合成するデジタルカメラ10は、後述する「合成モード」に設定される。人物P(不図示)がデジタルカメラ10の撮影レンズを人物5に向けると、デジタルカメラ10は、人物5、テーブル6および背景の壁を含むライブビュー画像を取得した上で、該ライブビュー画像の中から人物5の領域を抽出する。
デジタルカメラ10はさらに、図2に例示するように、抽出した人物5の画像を画像コンテンツサーバ1から提供されている画像(本例ではピラミッド)に重ねて液晶モニタ15に表示する。人物P(不図示)がシャッターボタン20sを押下操作した場合、デジタルカメラ10は、液晶モニタ15に表示している画像のデータを保存する。
本実施形態は、上述したデジタルカメラ10を用いて、あたかも現地へ出かけて撮影しているような感覚で、仮想撮影画像を閲覧または取得する点に特徴を有するので、以降の説明はこの点を中心に行う。図3は、デジタルカメラ10の要部構成を例示するブロック図である。
図3において、撮像光学系11は、撮像素子12の撮像面に被写体像を結像させる。CPU16は、シャッターボタン20s(図2)の半押し操作に連動して半押しスイッチ20aがオンすると、オートフォーカス(AF)処理を行わせて、撮像光学系11を構成するフォーカシングレンズ(不図示)を光軸方向(図3において矢印方向)に進退移動させる。これにより、撮像光学系11の焦点位置が自動調節される。フォーカシングレンズ(不図示)の駆動は、CPU16から指示を受けたレンズ駆動部21が行う。
撮像素子12は、CMOSイメージセンサなどによって構成される。撮像素子12は、撮像面上に結像された被写体像を撮像する。撮像素子12から出力された撮像信号は、A/D変換部13においてアナログ信号からデジタル信号に変換される。画像処理部14は、デジタル画像信号に対して所定の画像処理を行う。
液晶モニタ15は、CPU16からの指示に応じて、画像や操作アイコン、操作メニューなどを表示する。液晶モニタ15の表示面には、タッチ操作部材15aが積層されている。タッチ操作部材15aは、表示画面上のタッチ位置を示す操作信号をCPU16へ送出する。これにより、デジタルカメラ10に対する操作をタッチ操作で行える。
通信回路22は、CPU16からの指示に応じて、アンテナ22aを介してアクセスポイント2(図2)との間で無線通信を行う。フラッシュメモリ17は、CPU16が実行するプログラムや、実行処理に必要なデータなどを格納する。フラッシュメモリ17が格納するプログラムやデータの内容は、CPU16からの指示によって追加、変更が可能に構成されている。
CPU16は、例えばバッファメモリ18を作業領域として制御プログラムを実行し、カメラ各部に対する種々の制御を行う。画像処理部14は、デジタル画像信号に対する画像処理以外に、画像信号を格納した所定形式の画像ファイル(静止画像、または動画像)を生成する。記録再生部19は、CPU16からの指示に基づいて画像ファイルをメモリカード50に記録(保存)し、また、メモリカード50に記録(保存)されている画像ファイルを読み出す。
メモリカード50は、図示しないカードスロットに着脱自在に取り付けられる記録媒体である。CPU16は、記録再生部19によってメモリカード50から読み出された画像ファイルに基づいて、液晶モニタ15に画像を再生表示させる。
操作部材20は、半押しスイッチ20a、シャッターボタン20sの全押し操作に伴ってオンする全押しスイッチ20b、およびモード切替えスイッチなどを含み、各部材の操作に伴う操作信号をCPU16へ送出する。
半押しスイッチ20aからのオン信号(半押し操作信号)は、シャッターボタン20sが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。全押しスイッチ20bからのオン信号(全押し操作信号)は、シャッターボタン20sが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。
姿勢センサ23は、例えば重力方向を検出し、検出信号をCPU16へ送出する。姿勢センサ23が重力を検出する方向は、デジタルカメラ10の向きに応じて異なるので、CPU16は、姿勢センサ23の検出信号に基づいてデジタルカメラ10の姿勢を判定する。判定姿勢は、例えば撮像光学系11を上方へ向けた場合(ティルトアップ)、下方へ向けた(ティルトダウン)場合、右方へ向けた(右パン)場合、左方へ向けた(左パン)場合である。このため、姿勢センサ23による検出信号を姿勢検出信号と呼ぶ。
<姿勢検出信号に基づく表示制御>
CPU16は、姿勢検出信号に基づいて、以下のように液晶モニタ15による表示を制御する。図4は、CPU16が実行する制御処理の流れを説明するフローチャートである。CPU16は、操作部材20を構成するモード切替えスイッチが操作され、画像コンテンツサーバ1からの情報提供を受ける「合成モード」または「非合成モード」に設定されると、図4による処理を行うプログラムを起動する。
CPU16は、姿勢検出信号に基づいて、以下のように液晶モニタ15による表示を制御する。図4は、CPU16が実行する制御処理の流れを説明するフローチャートである。CPU16は、操作部材20を構成するモード切替えスイッチが操作され、画像コンテンツサーバ1からの情報提供を受ける「合成モード」または「非合成モード」に設定されると、図4による処理を行うプログラムを起動する。
図4のステップS11において、CPU16は、表示場所(本例では観光地)の指定操作を受け付けてステップS12へ進む。ステップS12において、CPU16は、画像コンテンツサーバ1から提供された上記観光地の画像データを入手してステップS13へ進む。ステップS13において、CPU16は、入手した画像データに基づく画像(本例ではピラミッド)を液晶モニタ15に再生表示させてステップS14へ進む。
ステップS14において、CPU16は「合成モード」か「非合成モード」かを判定する。CPU16は、「合成モード」に設定されている場合にステップS14を肯定判定してステップS15へ進み、「合成モード」に設定されていない場合にステップS14を否定判定してステップS18へ進む。
「合成モード」の場合のCPU16は、ステップS15においてライブビュー撮像を開始させる。具体的には、撮像素子12によって所定時間間隔(例えば毎秒30フレーム)で撮像を繰り返し行う指示を出し、ステップS16へ進む。ステップS16において、CPU16は、ライブビュー画像の各フレームから人物領域を逐次抽出してステップS17へ進む。抽出処理は、例えば公知の顔検出処理によって人物の顔を検出し、この顔を含む領域であって、画像の空間周波数が所定値以上となる領域を抽出する。
ステップS17において、CPU16は、人物領域が抽出されるたびに、再生表示中の画像の上から抽出した人物の画像を重ねるように合成し、合成画像を液晶モニタ15に逐次表示させてステップS18へ進む。人物を重ねる位置は、撮像素子12で撮像されたライブビュー画像における人物の位置に対応させる。
「合成モード」の場合は、上述したライブビュー撮像および画像合成をしながらステップS18からステップS27までの処理を行う。一方、「非合成モード」の場合は、ライブビュー撮像および画像合成をしないでステップS18からステップS27までの処理を行う。
ステップS18において、CPU16はティルト検出したか否かを判定する。CPU16は、姿勢センサ5からの姿勢検出信号に基づいて、傾斜角度が所定値を超えるティルトアップまたはティルトダウンを検出した場合に、ステップS18を肯定判定してステップS19へ進む。CPU16は、傾斜角度が所定値を超えるティルトアップもティルトダウンも検出しない場合には、ステップS18を否定判定してステップS20へ進む。
ステップS19において、CPU16は、液晶モニタ15に再生表示する画像の視野を上下に移動させる。具体的には、ティルトアップを検出したCPU16は、液晶モニタ15に再生表示中の画像より視野を上方へ移動させた画像データを画像コンテンツサーバ1から入手し、入手した画像データに基づく画像を液晶モニタ15に再生表示させる。上述したように、画像コンテンツサーバ1は天地方向の広角画像を有している。
図5(a)は、「合成モード」における液晶モニタ15の再生表示画面を説明する図であり、視野を移動させる前の画面を例示する。図5(a)によれば、ピラミッドの画像に重ねて人物が合成されている。合成された人物は、図2に例示した部屋でデジタルカメラ10によって取得されたライブビュー画像から抽出された人物5に相当する。
図5(d)は、「合成モード」において視野を上方へ移動させた場合の液晶モニタ15の再生表示画面を説明する図である。図5(a)の場合に比べて、ピラミッドの上部が表示されている。人物を重ね合成する位置は、上述したように撮像素子12で撮像されたライブビュー画像における人物の位置に対応させるので、ティルトアップにともなって相対的に画面の下部へ移動する。これにより、図示しない人物Pは、図2の部屋内に居ながらにして、あたかも観光地へ行ってピラミッドのライブビュー画像を見ている感覚で、ピラミッドと人物5の合成画像を観察できる。なお、ティルトアップを検出した場合の視野の移動量は、適宜調節してよい。
一方、ティルトダウンを検出したCPU16は、液晶モニタ15に再生表示中の画像より視野を下方へ移動させた画像データを画像コンテンツサーバ1から入手し、入手した画像データに基づく画像を液晶モニタ15に再生表示させて、ステップS20へ進む。図5(e)は、「合成モード」において視野を下方へ移動させた場合の液晶モニタ15の再生表示画面を説明する図である。図5(a)の場合に比べて、ピラミッドの下部が表示されている。人物を重ね合成する位置は、上述したように撮像素子12で撮像されたライブビュー画像における人物の位置に対応させるので、ティルトダウンにともなって相対的に画面の上部へ移動する。
ステップS20において、CPU16はパンニングを検出したか否かを判定する。CPU16は、姿勢センサ5からの姿勢検出信号に基づいて、パンニング角度が所定値を超える右パンまたは左パンを検出した場合に、ステップS20を肯定判定してステップS21へ進む。CPU16は、パンニング角度が所定値を超える右パンも左パンも検出しない場合には、ステップS20を否定判定してステップS22へ進む。
ステップS21において、CPU16は、液晶モニタ15に再生表示する画像の視野を左右に移動させる。具体的には、右パンを検出したCPU16は、液晶モニタ15に再生表示中の画像より視野を右方へ移動させた画像データを画像コンテンツサーバ1から入手し、入手した画像データに基づく画像を液晶モニタ15に再生表示させる。上述したように、画像コンテンツサーバ1は360度の全方位画像を有している。
図5(b)は、「合成モード」において視野を右方へ移動させた場合の液晶モニタ15の再生表示画面を説明する図である。図5(a)の場合に比べて、ピラミッドの右方が表示されている。人物を重ね合成する位置は、上述したように撮像素子12で撮像されたライブビュー画像における人物の位置に対応させるので、右パンにともなって相対的に画面の左部へ移動する。これにより、図示しない人物Pは、図2の部屋内に居ながらにして、あたかも観光地へ行ってピラミッドのライブビュー画像を見ている感覚で、ピラミッドと人物5の合成画像を観察できる。なお、右パンを検出した場合の視野の移動量は、適宜調節してよい。
一方、左パンを検出したCPU16は、液晶モニタ15に再生表示中の画像より視野を左方へ移動させた画像データを画像コンテンツサーバ1から入手し、入手した画像データに基づく画像を液晶モニタ15に再生表示させて、ステップS22へ進む。図5(c)は、「合成モード」において視野を左方へ移動させた場合の液晶モニタ15の再生表示画面を説明する図である。図5(a)の場合に比べて、ピラミッドの左方が表示されている。人物を重ね合成する位置は、上述したように撮像素子12で撮像されたライブビュー画像における人物の位置に対応させるので、左パンにともなって相対的に画面の右部へ移動する。
ステップS22において、CPU16はズーム操作されたか否かを判定する。CPU16は、操作部材20を構成するズームスイッチ(20w、20t)からの操作信号が入力された場合に、ステップS22を肯定判定してステップS23へ進む。CPU16は、ズーム操作信号を検出しない場合には、ステップS22を否定判定してステップS24へ進む。
ステップS23において、CPU16は、液晶モニタ15に再生表示中の画像に対して、いわゆる電子ズーム処理を施してステップS24へ進む。図6(a)は、「非合成モード」における液晶モニタ15の再生表示画面を説明する図であり、電子ズーム処理前の画面を例示する。図6(a)によれば、図2の部屋内に居ながらにして、あたかも観光地へ行ってピラミッドのライブビュー画像を見ている感覚で、ピラミッドの画像を閲覧できる。
図6(b)は、「非合成モード」においてズームスイッチがテレ側(20t)へ操作されたことに応じてズームアップさせた場合の液晶モニタ15の再生表示画面を説明する図である。図6(a)の場合に比べて、ピラミッドが拡大表示されている。図6(c)は、「非合成モード」においてズームスイッチがワイド側(20w)へ操作されたことに応じてズームダウンさせた場合の液晶モニタ15の再生表示画面を説明する図である。図6(a)の場合に比べて、ピラミッドが縮小表示されている。これにより、図2の部屋内に居ながらにして、あたかも観光地へ行ってピラミッドのライブビュー画像を見ている感覚で、ピラミッドの画像のズームアップおよびズームダウンをさせることができる。
ステップS24において、CPU16は移動を検出したか否かを判定する。CPU16は、例えば、アクセスポイント2からの信号に含められている位置情報や、姿勢センサ23からの姿勢検出信号に含まれる加速度情報に基づいてデジタルカメラ10の相対的な移動量を所定時間ごとに算出する。CPU16は、相対的な移動量の大きさが所定値(例えば5m)を超えた場合にステップS24を肯定判定してステップS25へ進む。CPU16は、相対的な移動量の大きさが所定値(例えば5m)を超えない場合には、ステップS24を否定判定してステップS26へ進む。
相対的な移動量は、現位置からの変位に所定の係数Kを乗算して求める。例えば、部屋の中では人物Pの移動範囲が限られる。そこで、実際にピラミッドの周囲を移動した場合の画像を観察し得るように、係数Kを適宜変更可能に構成しておく。これにより、例えばK=100とする場合には、実際に1m移動するだけでありながら、100m移動した場合と同様の移動量が算出される。このように、係数Kの値を変化させることで、室内における短い移動距離を、屋外における長い移動距離に対応させることができる。
ステップS25において、CPU16は、液晶モニタ15に再生表示する画像の視点を移動させる。CPU16は、画像コンテンツサーバ1から前回提供された画像データに対し、上記算出した移動量だけ離れた位置で撮影された画像データを入手し、該入手した画像データに基づく画像を液晶モニタ15に再生表示させてステップS26へ進む。これにより、図2に例示した部屋でデジタルカメラ10を構えて移動すると、異なる地点から撮影したピラミッドの画像を液晶モニタ15で閲覧できる。
ステップS26において、CPU16はシャッターボタン20sが押下されたか否かを判定する。CPU16は、全押しスイッチ20bからの操作信号が入力された場合に、ステップS26を肯定判定してステップS27へ進む。CPU16は、全押しスイッチ20bからの操作信号が入力されない場合には、ステップS26を否定判定してステップS28へ進む。
ステップS27において、CPU16は記録再生部19へ指示を送り、液晶モニタ15に表示中の画像データを格納した画像ファイルをメモリカード50に記録(保存)させて、ステップS28へ進む。
ステップS28において、CPU16は、終了操作が行われたか否かを判定する。CPU16は、画像コンテンツサーバ1からの情報提供を受ける「合成モード」、「非合成モード」がいずれも解除された場合にステップS28を肯定判定し、図4による処理を終了する。CPU16は、「合成モード」または「非合成モード」に設定されている場合は、ステップS28を否定判定してステップS11へ戻る。ステップS11へ戻る場合は、上述した処理を繰り返す。
以上説明した実施形態によれば、次の作用効果が得られる。
(1)デジタルカメラ10は、画像コンテンツサーバ1から画像を取得する通信回路22と、取得した画像に基づいて再生画像を表示する液晶モニタ15と、デジタルカメラ10本体の姿勢を検出する姿勢センサ23と、姿勢センサ23で検出された姿勢の変化に応じて取得画像と異なる視野の画像を表示するように、通信回路15および液晶モニタ15を制御するCPU16と、を備えるので、例えばカメラのライブビュー画像を見ている感覚で、画像コンテンツサーバ1から提供される画像を閲覧できる。
(1)デジタルカメラ10は、画像コンテンツサーバ1から画像を取得する通信回路22と、取得した画像に基づいて再生画像を表示する液晶モニタ15と、デジタルカメラ10本体の姿勢を検出する姿勢センサ23と、姿勢センサ23で検出された姿勢の変化に応じて取得画像と異なる視野の画像を表示するように、通信回路15および液晶モニタ15を制御するCPU16と、を備えるので、例えばカメラのライブビュー画像を見ている感覚で、画像コンテンツサーバ1から提供される画像を閲覧できる。
(2)上記(1)のデジタルカメラ10において、デジタルカメラ10本体の移動を検出する姿勢センサ23、CPU16をさらに備え、CPU16はさらに、姿勢センサ23、CPU16で検出された移動に応じて取得画像と異なる視点の画像を表示するように、通信回路15および液晶モニタ15を制御するようにしたので、例えばカメラのライブビュー画像を見ている感覚で、画像コンテンツサーバ1から提供される画像を閲覧できる。
(3)上記(1)、(2)のデジタルカメラ10において、人物5の像を撮像する撮像素子12をさらに備え、CPU16はさらに、液晶モニタ15に表示している画像に重ねて撮像素子12で撮像された人物5の画像を合成表示するように、液晶モニタ15を制御するようにしたので、例えばカメラのライブビュー画像を見ている感覚で、画像コンテンツサーバ1から提供される画像と人物5の合成画像を観察できる。
(4)上記(3)のデジタルカメラ10において、撮像素子12は、人物5の像を所定時間ごとに撮像し、CPU16は、撮像素子12で所定時間ごとに撮像された人物5の像を用いて逐次合成表示するように、液晶モニタ15を制御するようにしたので、カメラのライブビュー画像を見ている感覚で、画像コンテンツサーバ1から提供される画像と人物5の合成画像を観察できる。
(5)上記(3)、(4)のデジタルカメラ10において、撮像素子12で撮像された画像から所定の人物領域を抽出するCPU16をさらに備え、CPU16は、液晶モニタ15に表示している画像に重ねてCPU16で抽出された人物領域の画像を合成表示するように、液晶モニタ15を制御するようにしたので、画像コンテンツサーバ1から提供される画像の撮影地に人物5がいるかのような合成画像を観察できる。
(6)上記(1)〜(5)のデジタルカメラ10において、撮影を指示するためのシャッターボタン20sと、シャッターボタン20s(全押しスイッチ20b)からの信号に応じて、液晶モニタ15に表示している画像をメモリカード50へ記録する記録再生部19と、をさらに備えるので、あたかも画像コンテンツサーバ1から提供される画像の撮影地へ出かけて撮影しているような感覚で、液晶モニタ15に表示中の画像を保存できる。
(変形例1)
上述した説明では、画像コンテンツサーバ1から観光地の画像情報を提供する場面を説明した。屋外の史跡や名勝の他、テーマパークなどが該当する。これに加えて、観光地でなくても空港や港湾施設、駅などの案内用の画像情報を提供するようにしてもよい。いずれの場合も、カメラのライブビュー画像を見ている感覚で、画像情報を閲覧できる。
上述した説明では、画像コンテンツサーバ1から観光地の画像情報を提供する場面を説明した。屋外の史跡や名勝の他、テーマパークなどが該当する。これに加えて、観光地でなくても空港や港湾施設、駅などの案内用の画像情報を提供するようにしてもよい。いずれの場合も、カメラのライブビュー画像を見ている感覚で、画像情報を閲覧できる。
(変形例2)
また、屋外の画像情報だけでなく屋内の画像情報を画像コンテンツサーバ1から提供するようにしてもよい。例えば、博物館の展示フロアを案内する画像情報であって、所定の仰角から所定の俯角までをカバーする天地方向の広角画像を、360度の全方位にわたって取得するように構成したカメラを用いて、例えば館内の順路に沿って移動しながら撮影し、該画像データをフロア内の撮影位置情報と関連付けて記録したものである。変形例2の場合も、カメラのライブビュー画像を見ている感覚で、画像情報を閲覧できる。
また、屋外の画像情報だけでなく屋内の画像情報を画像コンテンツサーバ1から提供するようにしてもよい。例えば、博物館の展示フロアを案内する画像情報であって、所定の仰角から所定の俯角までをカバーする天地方向の広角画像を、360度の全方位にわたって取得するように構成したカメラを用いて、例えば館内の順路に沿って移動しながら撮影し、該画像データをフロア内の撮影位置情報と関連付けて記録したものである。変形例2の場合も、カメラのライブビュー画像を見ている感覚で、画像情報を閲覧できる。
なお、建物内で異なる階の画像情報を閲覧したい場合は、液晶モニタ15に上り階段の画像が表示された状態でその方向へ移動すれば上階のフロアの画像情報を入手して液晶モニタ15へ表示し、液晶モニタ15に下り階段の画像が表示された状態でその方向へ移動すれば下階のフロアの画像情報を入手して液晶モニタ15へ表示させる。また、図示しないマイクから音声で希望階を入力することによって、異なる階の画像情報を画像コンテンツサーバ1から入手して液晶モニタ15に表示させてもよい。
(変形例3)
画像コンテンツサーバ1から画像情報とともに音声情報が提供される場合には、液晶モニタ15に提供された画像を表示するとともに、提供された音声をデジタルカメラ10の図示しないスピーカから再生したり、外部のヘッドフォンなどへ向けて音声信号を出力するようにしてもよい。
画像コンテンツサーバ1から画像情報とともに音声情報が提供される場合には、液晶モニタ15に提供された画像を表示するとともに、提供された音声をデジタルカメラ10の図示しないスピーカから再生したり、外部のヘッドフォンなどへ向けて音声信号を出力するようにしてもよい。
(変形例4)
上述した説明では、シャッターボタン20sの押下操作に応じて液晶モニタ15に表示している画像のデータを保存するようにした。このような静止画像データの保存に加えて、動画像のデータとして保存するようにしてもよい。
上述した説明では、シャッターボタン20sの押下操作に応じて液晶モニタ15に表示している画像のデータを保存するようにした。このような静止画像データの保存に加えて、動画像のデータとして保存するようにしてもよい。
変形例4では、「動画合成モード」を新たに設ける。「動画合成モード」に設定されたCPU16は、液晶モニタ15に表示している画像のデータを所定時間間隔(例えば毎秒30フレーム)で記録することで、動画像ファイルとして保存する。上述したように、デジタルカメラ10は本体のティルト検出やパン検出をすると再生画像の視野を移動させ、本体の移動を検出すると再生画像の視点を移動させるので、このような視野、視点移動を伴う画像を複数フレームにわたって記録することにより、擬似的な動画像が得られる。なお、動画像として記録する際は、画像コンテンツサーバ1から画像情報とともに提供されている音声情報を動画像に関連付けて記録するとよい。
(変形例5)
以上の説明では、電子機器としてデジタルカメラ10を用いる例を説明したが、多機能携帯電話機やタブレット型コンピュータを用いて構成してもよい。
以上の説明では、電子機器としてデジタルカメラ10を用いる例を説明したが、多機能携帯電話機やタブレット型コンピュータを用いて構成してもよい。
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。
1…画像コンテンツサーバ
2、3…アクセスポイント
5…人物
10…デジタルカメラ
11…撮像光学系
12…撮像素子
15…液晶モニタ
16…CPU
19…記録再生部
20…操作部材
22…通信回路
23…姿勢センサ
50…メモリカード
2、3…アクセスポイント
5…人物
10…デジタルカメラ
11…撮像光学系
12…撮像素子
15…液晶モニタ
16…CPU
19…記録再生部
20…操作部材
22…通信回路
23…姿勢センサ
50…メモリカード
Claims (6)
- 外部機器から画像を取得する画像取得手段と、
前記取得した画像に基づいて再生画像を表示する表示手段と、
本体の姿勢を検出する姿勢検出手段と、
前記姿勢検出手段で検出された姿勢の変化に応じて前記取得画像と異なる視野の画像を表示するように、前記画像取得手段および前記表示手段を制御する制御手段と、
を備えることを特徴とする電子機器。 - 請求項1に記載の電子機器において、
前記本体の移動を検出する移動検出手段をさらに備え、
前記制御手段はさらに、前記移動検出手段で検出された前記移動に応じて前記取得画像と異なる視点の画像を表示するように、前記画像取得手段および前記表示手段を制御することを特徴とする電子機器。 - 請求項1または2に記載の電子機器において、
被写体像を撮像する撮像手段をさらに備え、
前記制御手段はさらに、前記表示手段に表示している画像に重ねて前記撮像手段で撮像された画像を合成表示するように、前記表示手段を制御することを特徴とする電子機器。 - 請求項3に記載の電子機器において、
前記撮像手段は、前記被写体像を所定時間ごとに撮像し、
前記制御手段は、前記撮像手段で前記所定時間ごとに撮像された画像を用いて逐次合成表示するように、前記表示手段を制御することを特徴とする電子機器。 - 請求項3または4に記載の電子機器において、
前記撮像手段で撮像された画像から所定の領域を抽出する抽出手段をさらに備え、
前記制御手段は、前記表示手段に表示している画像に重ねて前記抽出手段で抽出された領域の画像を合成表示するように、前記表示手段を制御することを特徴とする電子機器。 - 請求項1〜5のいずれか一項に記載の電子機器において、
撮影を指示するための操作部材と、
前記操作部材からの信号に応じて、前記表示手段に表示している画像を記録媒体へ記録する記録手段と、をさらに備えることを特徴とする電子機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012132921A JP2013258540A (ja) | 2012-06-12 | 2012-06-12 | 電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012132921A JP2013258540A (ja) | 2012-06-12 | 2012-06-12 | 電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013258540A true JP2013258540A (ja) | 2013-12-26 |
Family
ID=49954634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012132921A Pending JP2013258540A (ja) | 2012-06-12 | 2012-06-12 | 電子機器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013258540A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6330089B1 (ja) * | 2017-06-30 | 2018-05-23 | 株式会社コロプラ | 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法 |
-
2012
- 2012-06-12 JP JP2012132921A patent/JP2013258540A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6330089B1 (ja) * | 2017-06-30 | 2018-05-23 | 株式会社コロプラ | 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法 |
JP2019012441A (ja) * | 2017-06-30 | 2019-01-24 | 株式会社コロプラ | 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5406813B2 (ja) | パノラマ画像表示装置およびパノラマ画像表示方法 | |
US8976270B2 (en) | Imaging device and imaging device control method capable of taking pictures rapidly with an intuitive operation | |
US8638372B2 (en) | Image capture unit with changeable image capture direction | |
US8994785B2 (en) | Method for generating video data and image photographing device thereof | |
JP5851766B2 (ja) | 携帯機器 | |
JP6302564B2 (ja) | 動画編集装置、動画編集方法及び動画編集プログラム | |
JP2005122100A (ja) | 画像表示システム、画像表示装置およびプログラム | |
JP2009267792A (ja) | 撮像装置 | |
KR20190080779A (ko) | 전자기기 및 그 제어 방법 | |
JP2011087183A (ja) | 撮影装置、画像処理装置、およびプログラム | |
CN110365896B (zh) | 一种控制方法及电子设备 | |
JP2017175507A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2009272840A (ja) | 画像記録再生装置、画像記録再生方法、画像処理装置、および画像処理方法 | |
JP2014146989A (ja) | 撮像装置、撮像方法および撮像プログラム | |
JP2011035752A (ja) | 撮像装置 | |
JP2009230635A (ja) | 画像データ生成装置、画像データ生成方法、および画像データ生成用プログラム | |
JP6643008B2 (ja) | 画像処理装置、その制御方法、および制御プログラム、並びに記憶媒体 | |
JP2013258540A (ja) | 電子機器 | |
JP6836306B2 (ja) | 撮像制御装置、その制御方法、プログラム及び記録媒体 | |
JP6704301B2 (ja) | 撮像装置、及び撮像表示システム | |
JP5088051B2 (ja) | 電子カメラおよびプログラム | |
US8054332B2 (en) | Advanced input controller for multimedia processing | |
JP5646033B2 (ja) | 画像表示装置および画像表示方法 | |
JP7101285B2 (ja) | 表示装置 | |
JP5737961B2 (ja) | 撮影装置 |