JP2013031013A - 電子機器、電子機器の制御方法、電子機器の制御プログラム - Google Patents
電子機器、電子機器の制御方法、電子機器の制御プログラム Download PDFInfo
- Publication number
- JP2013031013A JP2013031013A JP2011166076A JP2011166076A JP2013031013A JP 2013031013 A JP2013031013 A JP 2013031013A JP 2011166076 A JP2011166076 A JP 2011166076A JP 2011166076 A JP2011166076 A JP 2011166076A JP 2013031013 A JP2013031013 A JP 2013031013A
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- camera
- face
- video display
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】他の仕事から電子機器の操作に切り替えた場合に、電子機器を、ユーザがすぐに操作できる方向(向き)に調整を行なう際、ユーザが感じる煩雑さを低減する。
【解決手段】電子機器は、映像表示部近傍に設けられたカメラで撮像を行なう撮像部を備える。また、前記カメラで撮像された撮像画像の一部を検出する検出範囲の顔を検出する顔検出部を備える。また、前記検出された顔が前記検出範囲の中心近傍に位置するように前記映像表示部と前記カメラを移動させるように指示する移動指示部を備える。
【選択図】図1
【解決手段】電子機器は、映像表示部近傍に設けられたカメラで撮像を行なう撮像部を備える。また、前記カメラで撮像された撮像画像の一部を検出する検出範囲の顔を検出する顔検出部を備える。また、前記検出された顔が前記検出範囲の中心近傍に位置するように前記映像表示部と前記カメラを移動させるように指示する移動指示部を備える。
【選択図】図1
Description
本発明の実施形態は、電子機器、電子機器の制御方法、電子機器の制御プログラムに関する。
近年、パーソナルコンピュータ(PC)等の電子機器が普及している。
また、ユーザは、他の仕事とこれらの電子機器の操作を切り替えて使用する使用状況が一般的である。例えば、ユーザが他の仕事から電子機器の操作に切り替えた場合に、これらの電子機器は、ユーザがすぐに操作できる方向(向き)に向いていないことがある。この場合、ユーザは電子機器の方向(向き)を調整する必要がある。
また、ユーザは、他の仕事とこれらの電子機器の操作を切り替えて使用する使用状況が一般的である。例えば、ユーザが他の仕事から電子機器の操作に切り替えた場合に、これらの電子機器は、ユーザがすぐに操作できる方向(向き)に向いていないことがある。この場合、ユーザは電子機器の方向(向き)を調整する必要がある。
しかし、この電子機器の方向(向き)の調整がユーザにとって煩雑であるという問題があった。
このため、電子機器の方向(向き)調整の際に、ユーザが感じる煩雑さを低減することが課題になっていた。
このため、電子機器の方向(向き)調整の際に、ユーザが感じる煩雑さを低減することが課題になっていた。
例えば、他の仕事から電子機器の操作に切り替えた場合に、電子機器が、ユーザがすぐに操作できる方向(向き)に向いていないことがある。この場合、ユーザは電子機器の方向(向き)を調整する必要がある。
しかし、この電子機器の方向(向き)の調整がユーザにとって煩雑であった。
このため、電子機器の方向(向き)の調整を行なう際に、ユーザが感じる煩雑さを低減することが課題になっていた。
このため、電子機器の方向(向き)の調整を行なう際に、ユーザが感じる煩雑さを低減することが課題になっていた。
実施形態の電子機器は、映像表示部近傍に設けられたカメラで撮像を行なう撮像部を備える。
また、前記カメラで撮像された撮像画像の一部を検出する検出範囲の顔を検出する顔検出部を備える。
また、前記検出された顔が前記検出範囲の中心近傍に位置するように前記映像表示部と前記カメラを移動させるように指示する移動指示部を備える。
また、前記カメラで撮像された撮像画像の一部を検出する検出範囲の顔を検出する顔検出部を備える。
また、前記検出された顔が前記検出範囲の中心近傍に位置するように前記映像表示部と前記カメラを移動させるように指示する移動指示部を備える。
以下、図面を参照し、実施の形態を説明する。
図1は、実施形態に係わる電子機器の一例を示す外観図である。
この実施の形態においては、電子機器10は、例えば、パーソナルコンピュータ(PC)等で構成され、ここでは、例えば、スレート型のPC(PC)で構成される。
図1は、実施形態に係わる電子機器の一例を示す外観図である。
この実施の形態においては、電子機器10は、例えば、パーソナルコンピュータ(PC)等で構成され、ここでは、例えば、スレート型のPC(PC)で構成される。
スレートPCとは、例えば、板状の本体表全面にタッチパネル式ディスプレイを搭載したモバイル端末である。
電子機器10は、例えば、図1(a)および図1(b)に示すように、ユーザの操作状況において、電子機器10を支持する支持体(ドッカー)20に支持されている。このとき、電子機器10は支持体(ドッカー)20と図示しない所定の接続端子を用い、電気的に接続される。
電子機器10は、例えば、図1(a)および図1(b)に示すように、ユーザの操作状況において、電子機器10を支持する支持体(ドッカー)20に支持されている。このとき、電子機器10は支持体(ドッカー)20と図示しない所定の接続端子を用い、電気的に接続される。
図1(a)は、例えば、上記支持体(ドッカー)20に支持された状態の電子機器10と(ドッカー)20をユーザが使用(操作)する状況において、電子機器10を、正面から見た正面図である。
また、図1(b)は、例えば、上記支持体(ドッカー)20に支持された状態の電子機器10と(ドッカー)20をユーザが使用(操作)する状況において、電子機器10を、側面から見た側面図である。
電子機器10には、例えば、LCD(Liquid Crystal Display)等で構成される映像表示部17が設けられ、映像等が表示される。また、この映像表示部17の近傍には、図1(a)に示すように、撮像を行なうことが可能な撮像部(カメラ)25が、この映像表示部17と一体に設けられる。
そして、電子機器10は、例えば、上記支持体(ドッカー)20が備えるチルト(回転)駆動部(図示せず)によって、上記図1(a)および図1(b)に示すようにチルト(回転)駆動11させることが可能である。このチルト(回転)駆動の指示は、例えば、電子機器10から指示される。
なお、このチルト(回転)駆動部を、例えば、電子機器10に構成することも可能である。
また、上記支持体(ドッカー)20は、例えば、スピーカ21aおよびスピーカ21bを構成し、電子機器10から出力された音声信号を音声に変換し、出力することが可能である。
また、上記支持体(ドッカー)20は、例えば、スピーカ21aおよびスピーカ21bを構成し、電子機器10から出力された音声信号を音声に変換し、出力することが可能である。
また、この支持体(ドッカー)20は、例えば、図示しないHDMI端子やUSB端子等の外部と接続可能な外部端子を備え、これらの外部端子を介して、電子機器10を外部機器と接続することが可能である。
図2は、実施形態に係わる電子機器の一例の構成を示すブロック図である。
電子機器(PC)10は、図2に示すように、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD(記憶装置))109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備える。
電子機器(PC)10は、図2に示すように、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD(記憶装置))109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備える。
CPU101は、電子機器(PC)10内の各部の動作を制御するプロセッサである。
CPU101は、BIOS−ROM107に格納されたBIOSを実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
CPU101は、BIOS−ROM107に格納されたBIOSを実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、電子機器(PC)10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。
このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ1にデジタル映像信号を送出することもできる。
このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ1にデジタル映像信号を送出することもできる。
HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ1にデジタル映像信号を、HDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。
さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。
例えば、USBコントローラ111Aは、例えば、デジタルカメラに格納されている画像データファイルを受信するために使用される。カードコントローラ111Bは、コンピュータ(ノートPC)本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC(113)は、ユーザによるパワーボタン14の操作に応じて電子機器(PC)10を電源オン/電源オフする機能を有している。
この実施の形態における表示制御は、例えばCPU101が主メモリ103やHDD109等に記録されたプログラムを実行させることにより行われる。
図3は、実施形態に係わる電子機器のカメラで撮像された撮像画像と顔認識を検出する顔認識検出範囲を示す図である。
ここでは、上記のように、映像表示部17の近傍に、例えば、映像表示部17と一体に設けられた撮像部(カメラ)25で撮像が行なわれ、例えば、図3に示すように、撮像画像30が出力される。
図3は、実施形態に係わる電子機器のカメラで撮像された撮像画像と顔認識を検出する顔認識検出範囲を示す図である。
ここでは、上記のように、映像表示部17の近傍に、例えば、映像表示部17と一体に設けられた撮像部(カメラ)25で撮像が行なわれ、例えば、図3に示すように、撮像画像30が出力される。
この実施の形態においては、この撮像部(カメラ)25で撮像された撮像画像30の少なくとも一部は、図3に示すように、予め設けられる顔認識検出範囲31で、人物(ユーザ)32の顔が検出される。この人物(ユーザ)32の顔の検出は、例えば、一般的な顔検出技術が用いられる。
ここで顔検出技術について説明する。
顔検出技術は、例えば、目や口など、人物の顔を構成する主要部位の位置を把握することで、顔領域を推定する。
顔検出技術においては、正面顔、横顔等が検出可能である。また、検出した顔が向いている方向を判定することも可能であるが、この実施の形態においては、ユーザの操作状況に鑑み、顔検出として、例えば、正面顔を検出する。
顔検出技術は、例えば、目や口など、人物の顔を構成する主要部位の位置を把握することで、顔領域を推定する。
顔検出技術においては、正面顔、横顔等が検出可能である。また、検出した顔が向いている方向を判定することも可能であるが、この実施の形態においては、ユーザの操作状況に鑑み、顔検出として、例えば、正面顔を検出する。
また、一般に、顔検出技術には、特に人数制限をする必要はない。しかし、この実施の形態においては、ユーザの操作状況に鑑み、顔検出として、例えば、カメラ25に最も近い(あるいは最も大きく撮影される)人物の顔を検出する。
また、この実施の形態に係る顔検出技術は、「大きめに写った正面顔だけを検出する」等、条件を限定した検出が可能である。また、例えば、一般に、電子機器10の映像表示部17のサイズが大きくなればユーザと映像表示部17の間の距離が長くなり、電子機器10の映像表示部17のサイズが小さくなればユーザと映像表示部17の間の距離が短くなることに鑑み、電子機器10の映像表示部17のサイズに応じて、上記「大きめに写った正面顔」の設定を行なうことも可能である。
そして、この実施の形態においては、例えば、上記CPU101は、上記検出された人物(ユーザ)32の顔が、上記検出範囲31の中心近傍に位置するように、例えば、電子機器(PC)10、すなわち、上記映像表示部17と上記カメラ25を移動させるように指示する。
上記検出範囲31は、上記電子機器10の主メモリ103に、予め設けられる。
また、上記CPUから出力される移動指示によって上記映像表示部17と上記カメラ25の向きが移動する。
また、上記支持体20は、上記映像表示部17と上記カメラ25の向きを移動駆動させるための駆動部を備えている。
また、上記カメラ25は上記映像表示部17の前方を撮像する。
また、上記検出範囲31は、上記撮像画像30の画面中央を含むように構成される。
図4は、実施形態に係わる電子機器において、検出された顔が検出範囲の中心近傍に位置するように映像表示部とカメラを移動させるように指示するようすを示す図である。
また、上記CPUから出力される移動指示によって上記映像表示部17と上記カメラ25の向きが移動する。
また、上記支持体20は、上記映像表示部17と上記カメラ25の向きを移動駆動させるための駆動部を備えている。
また、上記カメラ25は上記映像表示部17の前方を撮像する。
また、上記検出範囲31は、上記撮像画像30の画面中央を含むように構成される。
図4は、実施形態に係わる電子機器において、検出された顔が検出範囲の中心近傍に位置するように映像表示部とカメラを移動させるように指示するようすを示す図である。
図4(a)は、撮像画像30の左側の人物32が、顔認識検出範囲31内で検出されたようすを示している。
この実施の形態においては、電子機器10のCPU103は、上記のように、検出された人物32の顔が上記検出範囲31の中心近傍に位置するように電子機器10(映像表示部17とカメラ25)を移動させるように指示する。
この実施の形態においては、電子機器10のCPU103は、上記のように、検出された人物32の顔が上記検出範囲31の中心近傍に位置するように電子機器10(映像表示部17とカメラ25)を移動させるように指示する。
図4(b)は、上記指示により、撮像画像30の左側の人物32が、上記検出範囲31の中心近傍に位置するように電子機器10(映像表示部17とカメラ25)を移動させたようすを示している。
図4(b)に示すように、上記電子機器10(映像表示部17とカメラ25)の移動動作により、撮像画像30の左側の人物32が、上記検出範囲31の中心近傍に位置するようになっている。
図5は、実施形態に係わる電子機器において、上記と同様に、検出された顔が検出範囲の中心近傍に位置するように映像表示部とカメラを移動させるように指示するようすを示す図である。
図5(a)は、撮像画像30の右側の人物32が、顔認識検出範囲31内で検出されたようすを示している。
この実施の形態においては、電子機器10のCPU103は、上記のように、検出された人物32の顔が上記検出範囲31の中心近傍に位置するように電子機器10(映像表示部17とカメラ25)を移動させるように指示する。
この実施の形態においては、電子機器10のCPU103は、上記のように、検出された人物32の顔が上記検出範囲31の中心近傍に位置するように電子機器10(映像表示部17とカメラ25)を移動させるように指示する。
図5(b)は、上記指示により、撮像画像30の右側の人物32が、上記検出範囲31の中心近傍に位置するように電子機器10(映像表示部17とカメラ25)を移動させたようすを示している。
図5(b)に示すように、上記電子機器10(映像表示部17とカメラ25)の移動動作により、撮像画像30の右側の人物32が、上記検出範囲31の中心近傍に位置するようになっている。
図6は、実施形態に係わる電子機器において、顔が検出されない場合のCPU103の指示のようすを示す図である。
この実施の形態においては、撮像画像30に人物32は撮像されているが、後ろ向きであるため、顔が確認されない。すなわち、ユーザは、正面を向いておらず、操作状態にない。この場合は、上記のように、予め検出しないように設定されている。
この実施の形態においては、撮像画像30に人物32は撮像されているが、後ろ向きであるため、顔が確認されない。すなわち、ユーザは、正面を向いておらず、操作状態にない。この場合は、上記のように、予め検出しないように設定されている。
このため、人物32の顔が上記検出範囲31の中心近傍に位置するように電子機器10(映像表示部17とカメラ25)を移動させるような指示はされない。
図7は、実施形態に係わる電子機器の動作を説明するフローチャートである。
ステップS100は、ここでの開始ステップである。続いて、ステップS101に進む。
ステップS101は、映像表示装置17近傍の撮像部(カメラ)25で映像表示装置17前方を撮像するステップである。続いて、ステップS102に進む。
ステップS102は、撮像画像の一部を検出するために、予め設けられた検出範囲31内の顔を検出するステップである。ここでは、この検出範囲31は、画面(撮像画像)中央を含んでいる。続いて、ステップS103に進む。
図7は、実施形態に係わる電子機器の動作を説明するフローチャートである。
ステップS100は、ここでの開始ステップである。続いて、ステップS101に進む。
ステップS101は、映像表示装置17近傍の撮像部(カメラ)25で映像表示装置17前方を撮像するステップである。続いて、ステップS102に進む。
ステップS102は、撮像画像の一部を検出するために、予め設けられた検出範囲31内の顔を検出するステップである。ここでは、この検出範囲31は、画面(撮像画像)中央を含んでいる。続いて、ステップS103に進む。
ステップS103は、上記のように、人物32の顔(「正面顔」)が検出範囲31内に検出されたかを判別するステップである。人物32の顔(「正面顔」)が検出範囲31内に検出されたと判別される場合は、ステップS104に進む(Yes)。人物32の顔(「正面顔」)が検出範囲31内に検出されたと判別されない場合は、ステップS101に戻り、上記処理を繰り返す(No)。
ステップS104は、上記検出された人物32の顔(「正面顔」)は、上記検出範囲31の中心近傍からずれているかを判別するステップである。上記検出された人物32の顔(「正面顔」)は、上記検出範囲31の中心近傍からずれていると判別される場合は、ステップS105に進む(Yes)。上記検出された人物32の顔(「正面顔」)は、上記検出範囲31の中心近傍からずれていると判別されない場合は、ステップS101に進み、上記処理を繰り返す(No)。
ステップS105は、上記検出された人物32の顔(「正面顔」)が、上記検出範囲31の中心近傍になるように電子機器10(映像表示部17、カメラ25含む)の向きを移動させるように電子機器10のCPU103が指示体(ドッカー)20に指示するステップである。続いて、ステップS106に進む。
ステップS106は、上記支持体(ドッカー)20は、電子機器10の向きを移動させるステップである。続いて、ステップS101に進み、上記処理を繰り返す。
すなわち、この実施の形態においては、例えば、ユーザが電子機器10を操作するために、電子機器10の前に座った際に、電子機器10に備えられたカメラ25を用い、ユーザの顔を認識する(顔検出)。
すなわち、この実施の形態においては、例えば、ユーザが電子機器10を操作するために、電子機器10の前に座った際に、電子機器10に備えられたカメラ25を用い、ユーザの顔を認識する(顔検出)。
また、例えば、ユーザの顔の中心として鼻を認識し、この顔の中心に合わせ、そこが撮像画像(画面)の中心となるように支持体20を制御し、電子機器(PC)10をチルド(回転)させることが可能である。
これにより、電子機器10の方向(向き)は自動的に調整され、電子機器10の方向(向き)の調整を行なう際に、ユーザが感じる煩雑さを低減することが可能になる。
図8は、他の実施形態に係わる電子機器(テレビ)への適用のようすを示す図である。
図8に示すように、この実施の形態においては、電子機器としてテレビが用いられている。
ここでも、電子機器(テレビ)は、ユーザの操作状況において、電子機器(テレビ)を支持する支持体80に支持されている。ユーザは、特に、図示しないが、リモコン(リモートコントローラ)等を用いて電子機器(テレビ)を操作する。
図8に示すように、この実施の形態においては、電子機器としてテレビが用いられている。
ここでも、電子機器(テレビ)は、ユーザの操作状況において、電子機器(テレビ)を支持する支持体80に支持されている。ユーザは、特に、図示しないが、リモコン(リモートコントローラ)等を用いて電子機器(テレビ)を操作する。
電子機器(テレビ)には、例えば、LCD(Liquid Crystal Display)等で構成される映像表示部17が設けられ、映像等が表示される。また、この映像表示部17の近傍には、図1(a)に示すように、撮像を行なうことが可能な撮像部(カメラ)25が、この映像表示部17と一体に設けられる。
そして、電子機器(テレビ)は、例えば、上記支持体80が備えるチルト(回転)駆動部(図示せず)によって、チルト(回転)駆動11させることが可能である。このチルト(回転)駆動の指示は、例えば、電子機器(テレビ)から指示される。
なお、このチルト(回転)駆動部を、例えば、電子機器(テレビ)に構成することも可能である。
これにより、電子機器(テレビ)の方向(向き)は自動的に調整され、ユーザが感じる煩雑さを低減することが可能になる。
上記説明においては、電子機器10としてスレートPCやパーソナルコンピュータ、テレビを用いたが、この実施の形態はこれらに限られず、携帯電話や携帯型の電子機器等に適用することも可能である。
これにより、電子機器(テレビ)の方向(向き)は自動的に調整され、ユーザが感じる煩雑さを低減することが可能になる。
上記説明においては、電子機器10としてスレートPCやパーソナルコンピュータ、テレビを用いたが、この実施の形態はこれらに限られず、携帯電話や携帯型の電子機器等に適用することも可能である。
上記のように構成することによって、この実施の形態においては、電子機器10の方向(向き)の調整を行なう際に、ユーザが感じる煩雑さを低減することが可能になる。
なお、上記実施形態の制御処理の手順は全てソフトウェアによって実行することが可能である。このため、制御処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、上記実施形態と同様の効果を容易に実現することができる。
なお、上記実施形態は、記述そのものに限定されるものではなく、実施段階では、その趣旨を逸脱しない範囲で、構成要素を種々変形して具体化することが可能である。
また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。
例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
10…電子機器(スレートPC)、11…チルト(回転)、17…映像表示部(LCD)、20…支持体(ドッカー)、21a…スピーカ、21b…スピーカ。
Claims (10)
- 映像表示部近傍に設けられたカメラで撮像を行なう撮像部と、
前記カメラで撮像された撮像画像の一部を検出する検出範囲の顔を検出する顔検出部と、
前記検出された顔が前記検出範囲の中心近傍に位置するように前記映像表示部と前記カメラを移動させるように指示する移動指示部を備える電子機器。 - 前記検出範囲は、前記電子機器に予め設けられる請求項1に記載の電子機器。
- 前記移動指示によって前記映像表示部と前記カメラの向きが移動する請求項1に記載の電子機器。
- 前記映像表示部と前記カメラの向きを移動駆動させるための駆動部を備える支持体と接続可能に構成される請求項1に記載の電子機器。
- 前記カメラは前記映像表示部の前方を撮像する請求項1に記載の電子機器。
- 前記検出範囲は、前記撮像画像の画面中央を含む請求項1に記載の電子機器。
- 前記顔検出は、人物の顔を検出する請求項1に記載の電子機器。
- 前記移動は、前記電子機器のチルトを含む請求項1に記載の電子機器。
- 映像表示部近傍に設けられたカメラで撮像を行なうステップと、
前記カメラで撮像された撮像画像の一部を検出する検出範囲の顔を検出するステップと、
前記検出された顔が前記検出範囲の中心近傍に位置するように前記映像表示部と前記カメラを移動させるように指示するステップを備える電子機器の制御方法。 - 映像表示部近傍に設けられたカメラで撮像を行なうステップと、
前記カメラで撮像された撮像画像の一部を検出する検出範囲の顔を検出するステップと、
前記検出された顔が前記検出範囲の中心近傍に位置するように前記映像表示部と前記カメラを移動させるように指示するステップを備える電子機器の制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011166076A JP2013031013A (ja) | 2011-07-28 | 2011-07-28 | 電子機器、電子機器の制御方法、電子機器の制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011166076A JP2013031013A (ja) | 2011-07-28 | 2011-07-28 | 電子機器、電子機器の制御方法、電子機器の制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013031013A true JP2013031013A (ja) | 2013-02-07 |
Family
ID=47787619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011166076A Pending JP2013031013A (ja) | 2011-07-28 | 2011-07-28 | 電子機器、電子機器の制御方法、電子機器の制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013031013A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017183587A (ja) * | 2016-03-31 | 2017-10-05 | 富士機械製造株式会社 | 部品装着機 |
JP2021100179A (ja) * | 2019-12-20 | 2021-07-01 | 京セラ株式会社 | 認識システム、認識装置、認識及び制御処理方法 |
US11140314B2 (en) | 2019-11-29 | 2021-10-05 | Seiko Epson Corporation | Imaging display device, imaging display system, and control method of imaging display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055539A (ja) * | 2007-08-29 | 2009-03-12 | Sony Corp | 撮像装置及び撮像方法 |
JP2009094723A (ja) * | 2007-10-05 | 2009-04-30 | Mitsubishi Electric Corp | テレビ受像機 |
JP2011066516A (ja) * | 2009-09-15 | 2011-03-31 | Sony Corp | 表示装置および制御方法 |
-
2011
- 2011-07-28 JP JP2011166076A patent/JP2013031013A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009055539A (ja) * | 2007-08-29 | 2009-03-12 | Sony Corp | 撮像装置及び撮像方法 |
JP2009094723A (ja) * | 2007-10-05 | 2009-04-30 | Mitsubishi Electric Corp | テレビ受像機 |
JP2011066516A (ja) * | 2009-09-15 | 2011-03-31 | Sony Corp | 表示装置および制御方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017183587A (ja) * | 2016-03-31 | 2017-10-05 | 富士機械製造株式会社 | 部品装着機 |
US11140314B2 (en) | 2019-11-29 | 2021-10-05 | Seiko Epson Corporation | Imaging display device, imaging display system, and control method of imaging display device |
JP2021100179A (ja) * | 2019-12-20 | 2021-07-01 | 京セラ株式会社 | 認識システム、認識装置、認識及び制御処理方法 |
JP7364457B2 (ja) | 2019-12-20 | 2023-10-18 | 京セラ株式会社 | 認識システム、認識装置、認識方法、認識プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4818427B2 (ja) | 情報処理装置及び画面選択方法 | |
JP5259772B2 (ja) | 電子機器、操作支援方法及びプログラム | |
US9811187B2 (en) | Information processing apparatus, information processing method, and program | |
KR102020636B1 (ko) | 카메라에 기반한 전자 장치의 제어 방법, 저장 매체 및 전자 장치 | |
EP2713242A2 (en) | Smart screen rotation based on user orientation | |
JP2009245376A (ja) | 情報処理装置 | |
JP2005109830A (ja) | 電子機器 | |
JP4768861B2 (ja) | 情報処理装置および情報処理装置における音声出力制御方法 | |
KR102148001B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
US9411399B2 (en) | Portable electronic device and method of providing remaining amount of electric power of battery in portable electronic device | |
JP2015179330A (ja) | 電子機器および表示方法 | |
JP2015022442A (ja) | 電子機器、電子機器の制御方法、電子機器の制御プログラム | |
JP5197834B1 (ja) | 電子機器、電子機器の制御方法、電子機器の制御プログラム | |
JP2013031013A (ja) | 電子機器、電子機器の制御方法、電子機器の制御プログラム | |
CN109636715B (zh) | 图像数据的传输方法、装置及存储介质 | |
WO2015114815A1 (ja) | 情報処理装置 | |
WO2014097653A1 (ja) | 電子機器、制御方法およびプログラム | |
CN109189313B (zh) | 移动装置及其控制方法 | |
JP5221694B2 (ja) | 電子機器、オブジェクトの表示方法及びオブジェクトの表示プログラム。 | |
JP2014003501A (ja) | 電子機器、電子機器の制御方法、電子機器の制御プログラム | |
JP2015038649A (ja) | 電子機器、オブジェクト表示方法 | |
JP2012160911A (ja) | 電子機器、電子機器の制御方法 | |
JP2011124877A (ja) | 電子機器、固定制御方法 | |
JP2014102790A (ja) | 情報処理装置、プロファイル作成方法およびプログラム | |
JP2016092435A (ja) | 電子機器、映像共有方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130212 |