JP2012004798A - 情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法 - Google Patents
情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法 Download PDFInfo
- Publication number
- JP2012004798A JP2012004798A JP2010137294A JP2010137294A JP2012004798A JP 2012004798 A JP2012004798 A JP 2012004798A JP 2010137294 A JP2010137294 A JP 2010137294A JP 2010137294 A JP2010137294 A JP 2010137294A JP 2012004798 A JP2012004798 A JP 2012004798A
- Authority
- JP
- Japan
- Prior art keywords
- information
- display
- displayed
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0492—Change of orientation of the displayed image, e.g. upside-down, mirrored
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【課題】情報処理装置において、複数の者が当該情報処理装置によって表示される内容を見るときに、それぞれの者の表示装置に対する位置関係に対応させて情報を表示できるようにする。
【解決手段】カメラ1が撮影した画像に対して顔認識処理が実行され、複数の顔画像が含まれている場合には、各顔画像の軸の、カメラ1が撮影した画像において基準とされる軸に対する回転角度が検出される。そして、各顔画像について、検出された回転角度に従った角度で表示情報を表示する画面が、表示部6に表示される。画像1107が撮影された場合、表示部6には、顔画像617に対応して画面621が、顔画像618に対応して画面622が、顔画像619に対応して画面623が、そして、顔画像620に対応して画面624が、表示される。
【選択図】図10
【解決手段】カメラ1が撮影した画像に対して顔認識処理が実行され、複数の顔画像が含まれている場合には、各顔画像の軸の、カメラ1が撮影した画像において基準とされる軸に対する回転角度が検出される。そして、各顔画像について、検出された回転角度に従った角度で表示情報を表示する画面が、表示部6に表示される。画像1107が撮影された場合、表示部6には、顔画像617に対応して画面621が、顔画像618に対応して画面622が、顔画像619に対応して画面623が、そして、顔画像620に対応して画面624が、表示される。
【選択図】図10
Description
本発明は、情報処理装置および情報表示用プログラムに関し、特に、撮像部を備え、撮影された画像の解析結果に基づいて表示内容を変更する情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法に関する。
従来から、撮像部を備えた情報処理装置において、新たなセンサを用いることなく、表示部における表示を、当該表示部と情報処理装置の使用者との位置関係に応じた向きで行うための技術が種々開示されている。
たとえば、特許文献1では、携帯端末装置において、カメラ部が撮影した画像に基づいて使用者の顔の情報を取得し、少なくとも顔の向きと本体の向きの相対的な位置関係を把握し、当該位置関係に従って表示部の表示画面に表示さえる情報の向きを決定する技術が開示されている。
また、特許文献2では、携帯端末装置において、インカメラで撮影した顔要素の位置情報を検出し、顔要素の位置情報に基づいて自端末に対するユーザの顔画像の上下方向を判断し、当該上下方向に応じて表示画面における画像の上下方向を制御する技術が開示されている。
表示部に表示する方向を制御する技術としては、特許文献3に、関連する技術が開示されている。特許文献3には、2つの筐体のそれぞれに表示部が備えられた情報処理装置において、1つの表示部で表示を行なう状態と、2つの表示部で表示を行なう状態とを取り、前者の状態から後者の状態に切り替えられたときに、一方の表示部では通常の表示を行なうとともに、他方の表示部に、一方の表示部に表示された内容と同じ内容を、当該他方の画面を分割し、複数の方向で、表示させる技術が開示されている。
近年のノートパソコンなどの情報処理装置の利用態様としては、会議などで、複数の者の意見を逐次的に情報処理装置に入力し、文書の編集を行なう態様が考えられる。このような場合、編集の過程を当該複数の者によって共有するために、当該複数の者が、情報処理装置の表示装置の表示内容を見て、文書の編集過程を確認する必要が生じる。しかしながら、従来では、上記のように複数の者で情報処理装置の表示内容を共有しようとした場合に、表示装置に対するそれぞれの者の位置関係を考慮して表示を行なうことはできなかった。
上述の特許文献3によれば、表示装置に表示すべき内容が複数の方向で表示されるものの、各方向を、上記複数の者が表示部を見ている方向に応じた方向とすることはできなかった。
本発明は、かかる実情に鑑み考え出されたものであり、その目的は、複数の者が情報処理装置において表示される内容を見るときに、それぞれの者の表示装置に対する位置関係に対応させて情報を表示できる情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法を提供することである。
本発明に従った情報処理装置は、表示装置と、表示装置に表示させる情報を生成する生成部と、カメラと、カメラによって撮影された画像に対して顔画像を検出する顔認識処理を実行する顔認識処理部と、顔認識処理において検出された顔画像の数および向きに基づいて表示装置の表示内容を制御する制御部とを備え、制御部は、顔認識処理において1つの顔画像が検出された場合、検出された顔画像の向きに基づき、情報を表示装置に表示させる向きを決定して、情報を表示させ、顔認識処理において複数の顔画像が検出された場合、検出された顔画像の個数に基づき情報を表示装置に表示させる数を決定し、さらに、表示させる各情報の向きを検出された各顔画像の向きに基づいて決定して、複数個の情報を表示装置に表示させる。
また、本発明の情報処理装置では、制御部は、複数の情報のうち或る情報の表示の大きさを変更した場合、残りの情報については、形状を維持したまま、大きさを変更された或る情報とともに表示装置の表示領域に表示できる最大となるように表示の大きさを変更することが好ましい。
また、本発明の情報処理装置は、入力を受付ける操作部をさらに備え、基準となる向きは、操作部から表示装置に向かう向きであることが好ましい。
また、本発明の情報処理装置は、向きの組合せに関連付けて、表示装置に表示される情報の配置の組合せのパターンを記憶する画面分割パターン記憶部をさらに備え、制御部は、画面分割パターン記憶部に記憶された配置の組合せのパターンで、複数の情報を表示装置に表示させることが好ましい。
また、本発明の情報処理装置では、制御部は、顔認識処理において検出された顔画像の軸を決定し、検出された各顔画像の軸の撮影された画像における基準軸に対する回転角度を決定し、基準軸は、表示装置を基準となる向きで見ている被写体をカメラが撮影した画像における、当該被写体に対応する顔画像の軸であり、制御部は、情報を表示させる向きを、回転角度だけ回転させた画面で、表示装置に表示させることが好ましい。
また、本発明の情報処理装置では、制御部は、検出された各顔画像において、口から、両目を結ぶ線に対して引かれた垂線を、顔画像の軸とすることが好ましい。
また、本発明の情報処理装置では、制御部は、顔画像の軸の回転角度を正規化することが好ましい。
本発明に従った情報表示用プログラムは、表示装置と、カメラと、プロセッサと、メモリとを備えた装置において、メモリに記憶され、プロセッサによって実行されることによって装置を情報処理装置として機能させるプログラムであって、プログラムは、プロセッサに、カメラによって撮影された画像に対して顔画像を検出する顔認識処理を実行するステップと、顔認識処理において1つの顔画像が検出された場合に、検出された顔画像の向きに基づき、情報を表示装置に表示させる向きを決定して、情報を表示させるステップと、顔認識処理において複数の顔画像が検出された場合に、検出された顔画像の個数に基づき情報を表示装置に表示させる数を決定し、さらに、表示させる各情報の向きを検出された各顔画像の向きに基づいて決定して、複数個の情報を表示装置に表示させるステップとを実行させる。
本発明に従った情報処理装置の制御方法は、表示装置と、カメラと、プロセッサとを備えた情報処理装置を制御する制御方法であって、プロセッサに、カメラによって撮影された画像に対して顔画像を検出する顔認識処理を実行するステップと、顔認識処理において1つの顔画像が検出された場合に、検出された顔画像の向きに基づき、情報を表示装置に表示させる向きを決定して、情報を表示させるステップと、顔認識処理において複数の顔画像が検出された場合に、検出された顔画像の個数に基づき情報を表示装置に表示させる数を決定し、さらに、表示させる各情報の向きを検出された各顔画像の向きに基づいて決定して、複数個の情報を表示装置に表示させるステップとを実行させる。
本発明によれば、顔認識処理において検出された複数の顔画像のそれぞれについて、当該顔画像に対応する被写体のそれぞれが表示装置を見た向きに対応して、複数の画面が表示される。
これにより、複数人が表示装置を覗き込んだ場合であっても、それぞれの人が表示内容を容易に理解できる。
以下、本発明に従った情報処理装置の実施の形態について、図面を参照して説明する。なお、各図において、同一の機能を発揮する構成要素については、同一の符号を付し、詳細な説明は繰返さない。
[1.第1の実施の形態]
[1−1.情報処理装置の外観]
図1は、本発明の情報処理装置の第1の実施の形態の外観を示す図である。
[1−1.情報処理装置の外観]
図1は、本発明の情報処理装置の第1の実施の形態の外観を示す図である。
図1を参照して、情報処理装置100は、第1の筐体11と第2の筐体12から主に構成される。第1の筐体11と第2の筐体12とは、折畳み可能に構成される。
第2の筐体12の、上記のように折り畳まれた際に内側に位置する面には、複数のキーボードを含む操作部7が設けられている。情報処理装置100では、操作部7に対する操作がなされることにより、当該情報処理装置100に対する情報の入力が受付けられる。
第1の筐体11の、上記のように折り畳まれた際に内側に位置する面には、LCD(Liquid Crystal Display)などから構成される表示部6が設けられている。また、第1の筐体11には、表示部6と操作部7の間に、カメラ1が設けられている。カメラ1は、表示部6が存在する空間と同じ空間を撮影できるように設けられている。つまり、カメラ1は、表示部6を見る者を撮影できる位置に設けられている。なお、カメラ1は、複数の方向から表示部6を見る者を一度に撮影できるように、広角レンズを備えていることが好ましい。
なお、情報処理装置100についての図1に示された構成は一例である。情報処理装置100において、複数の筐体が折畳み可能に構成される必要はなく、また、表示部6、操作部7およびカメラ1の配置も、図1に示されたものに限定されない。
[1−2.ハードウェア構成]
図2は、情報処理装置100のハードウェア構成を示す図である。
図2は、情報処理装置100のハードウェア構成を示す図である。
図2を参照して、情報処理装置100は、図1のカメラ1、表示部6および操作部7の他に、当該情報処理装置の動作を全体的に制御するCPU(Central Processing Unit)3と、カメラ1の動作を制御するカメラ制御部2と、CPU3が実行するプログラムや種々のデータを記憶するメモリ4と、表示部6に表示される画面情報をする画像処理部5と、ネットワークを介して他の装置と通信するためのLAN(Local Area Network)カード等の通信制御部8と、アンテナ9とを含む。
[1−3.制御ブロック]
図3は、情報処理装置100の制御ブロック図である。
図3は、情報処理装置100の制御ブロック図である。
図3を参照して、メモリ4は、CPU3が実行するプログラムを記憶するプログラム記憶部40と、情報処理装置100における種々の設定内容を記憶する設定情報記憶部41と、後述するように顔画像の軸の回転角度を修正するための情報を記憶する角度修正情報記憶部42と、後述するように表示部6の表示領域を分割するパターンを規定する情報を記憶する画面分割パターン記憶部43とを含む。
CPU3は、顔認識処理部31、回転角度検出部32、画面分割制御部33、表示情報生成部34および画像情報生成部35を含む。本実施の形態では、CPU3がプログラム記憶部40に記憶されたプログラムを実行することにより、これらの要素として機能する。本発明に係る情報処理装置では、このような構成に限定されず、すべてのまたは一部の要素が、専用の回路などによって構成されてもよい。
情報処理装置100では、カメラ1によって撮影された画像は、カメラ制御部2を介して顔認識処理部31に送られる。顔認識処理部31は、当該画像について、顔認識処理を実行する。顔認識処理の内容については、公知の技術を適用できるため、ここでは詳細な説明は繰り返さない。なお、顔認識処理部31は、設定情報記憶部41に記憶されている、顔認識処理を実行するか否かの設定内容に関する情報を確認し、顔認識処理を実行する旨の設定情報が記憶されていることを条件として、顔認識処理を実行する。
そして、当該画像において顔画像が認識されると、回転角度検出部32において、当該顔画像の軸の、撮影された画像において基準軸に対する回転角度が検出される。なお、顔認識処理部31において複数の顔画像が検出された場合には、回転角度検出部32では、複数の顔画像のそれぞれについての回転角度が検出される。
上記の基準軸とは、図4(A)において矢印A01で示されるような、操作部7を操作する者が表示部6を見る向きにある顔がカメラ1によって撮影されたことによって得られる画像における、当該顔に対応する顔画像の軸とされる。このことを、図4を参照して、より具体的に説明する。
図4(B)は、図4(A)に示されるように、4人の者が表示部6を矢印A01,A02,A03,A04のそれぞれの向きから見ている状態でカメラ1が撮影した画像を模式的に示す図である。図4(B)の画像1001では、矢印A01の向きで表示部6を見た者の顔が顔画像617で示され、矢印A02の向きで表示部6を見た者の顔が顔画像618で示され、矢印A03の向きで表示部6を見た者の顔が顔画像619で示され、そして、矢印A04の向きで表示部6を見た者の顔が顔画像620で示されている。
また、図4(B)では、画像1001に対して、軸L01〜L04が示されている。軸L01〜L04は、画像1001に含まれるものではなく、顔画像617〜620のそれぞれについての軸であり、画像1001に対して説明のために示されている。
ここで、顔画像の軸の決定方法について、図4(C)を参照して説明する。図4(C)において、顔画像として認識された画像の中の、目として認識された領域が領域P1,P2であり、口として認識された領域を領域P3である。領域P1と領域P2の重心を通る線LHを生成し、そして、領域P3の重心から当該線LHに向けて垂直に引かれた線LVが、顔画像の軸とされる。なお、顔画像の軸は、方向が定義されている。領域P3の重心から線LHに向けられる方向が、顔画像の軸の方向である。
そして、本実施の形態では、軸L01、つまり、操作部7を操作する位置に居る者が表示部6を見た場合にカメラ1によって撮影された画像において、当該者に対応する顔画像に対して定義される軸が、上記の基準軸である。また、回転角度とは、画像1001における反時計方向の回転角度とされる。つまり、図4(B)では、軸L01の回転角度は0°であり、軸L04の回転角度は90°であり、軸L02の回転角度は180°であり、軸L03の回転角度は270°である。
そして、図4(A)において矢印A01で示される、操作部7を操作する位置に居る者が表示部6を見る向き、つまり、操作部7から表示部6に向かう向きが、表示部6における「基準となる向き」に相当する。
なお、回転角度の検出において、回転角度検出部32は、角度修正情報記憶部42に記憶された修正用の情報に基づいて修正した回転角度を、検出結果として出力する。修正用の情報としては、たとえば、表1に示すような、角度を正規化する情報が考えられる。
表1では、実際に検出された角度の範囲が、出力される角度に関連付けられている。具体的には、顔認識処理部31において顔画像の軸が315°〜44°と検出された場合には回転角度として回転角度検出部32から出力される回転角度は0°とされ、45°〜134°と検出された場合には回転角度として出力される回転角度は90°とされ、135°〜224°と検出された場合には回転角度として出力される回転角度は180°とされ、225°〜314°と検出された場合には回転角度として出力される回転角度は270°とされる。
画面分割制御部33は、回転角度検出部32で検出された顔画像の軸の回転角度に応じて表示部6の表示領域を分割する。画面分割パターン記憶部43には、回転角度検出部32において検出された回転角度の組合せに関連付けて、表示領域を分割するパターンが記憶されている。画面分割制御部33は、回転角度検出部32から出力される情報に基づいて回転角度の組合せを取得し、画面分割パターン記憶部43から当該組合せに関連付けられて記憶されたパターンを取得し、当該取得したパターンに従って、表示部6の表示領域を分割する情報を出力する。画面分割パターン記憶部43における記憶態様の一例を、表2に模式的に示す。
表2では、分割パターン1〜分割パターン15が回転角度の組合せに関連付けられている。なお、回転角度の組合せは、回転角度が1つ〜4つの場合を含む。各分割パターンに対応する、分割態様を具体的に規定するデータ(各分割パターンにおいて画面(領域)が配置される位置を特定する情報)は、メモリ4に記憶されている。
表示情報生成部34は、CPU3がメモリ4に記憶されるプログラムに従って実行するアプリケーションに基づいて、表示部6に表示させる画像情報を生成する。ここでいう画像情報を、以下、「表示情報」という。
画像情報生成部35は、画面分割制御部33が出力する情報(図13等に示すような、分割パターンに従った具体的な画面の配置)に、表示情報生成部51が生成した表示情報を嵌め込むことによって、表示部6に表示するべき画像情報を編集する。画像情報生成部35によって編集された画像情報を、画面情報と呼ぶ。画像情報生成部35は、画面情報を画像処理部5に出力する。
画像処理部5は、たとえば表示部6のドライバ回路によって構成される。画像処理部5は、画像情報生成部35が出力した画面情報に基づいて、表示部6の表示態様を制御する。つまり、画像処理部5は、画面情報に従った画像を表示部6に表示させる。
[1−4.分割パターンと表示部の表示内容]
以下、表2に示された分割パターンの一部について、その具体例を説明する。
以下、表2に示された分割パターンの一部について、その具体例を説明する。
1)分割パターン1
表2の分割パターン1は、回転角度が0°の顔画像のみが検出された場合の分割パターンである。
表2の分割パターン1は、回転角度が0°の顔画像のみが検出された場合の分割パターンである。
カメラ1が撮影した画像に、表示部6を図5(A)の矢印A1で示す向きから見た者の顔が撮影された場合、図5(B)に示されるように、撮影された画像1102には、当該者の顔画像601が含まれる。画像1102に対する顔認識処理がなされると、回転角度0°が出力される。これに応じて、分割パターン1が選択される。
分割パターン1は、図12に示されるように、表示部6の全体が1つの表示領域とする。そして、当該表示領域には、表示情報の上下の向きが、矢印AP1として示されるように、カメラ1と隣接する側が下側となるように、表示される。矢印AP1の向きは、矢印A1の向きと一致している。なお、表示部6は、横方向の寸法を4R、縦方向の寸法を3R、つまり、横と縦の寸法の比が4:3とされている。
分割パターン1に従った表示部6の表示態様を図5(C)に示す。図5(C)では、「ABCDEFGHIJK」という文字列を正立した状態で表示させる表示情報が、カメラ1と隣接する側を下側として、表示されている。
2)分割パターン3
表2の分割パターン3は、回転角度が180°の顔画像のみが検出された場合の分割パターンである。
表2の分割パターン3は、回転角度が180°の顔画像のみが検出された場合の分割パターンである。
カメラ1が撮影した画像に、表示部6を図6(A)の矢印A2で示す向きから見た者の顔が撮影された場合、図6(B)に示されるように、撮影された画像1103には、当該者の顔画像602が含まれる。画像1103に対する顔認識処理がなされると、回転角度180°が出力される。これに応じて、分割パターン3が選択される。
分割パターン3は、図12に示されるように、表示部6の全体が1つの表示領域とする。そして、当該表示領域には、表示情報の上下の向きが、矢印AP2として示されるように、カメラ1と隣接する側が上側となるように、表示される。矢印AP2の向きは、矢印A2の向きと一致している。
分割パターン3に従った表示部6の表示態様を図6(C)に示す。図6(C)では、図5(C)と同様に、「ABCDEFGHIJK」という文字列を正立した状態で表示させる表示情報が表示されている。ただし、分割パターン3では、分割パターン1と異なり、カメラ1と隣接する側が上側となる向きで、表示情報が表示されている。
3)分割パターン6
表2の分割パターン6は、0°と180°の2種類の回転角度の顔画像が検出された場合の分割パターンである。
表2の分割パターン6は、0°と180°の2種類の回転角度の顔画像が検出された場合の分割パターンである。
カメラ1が撮影した画像に、表示部6を図7(A)の矢印A3および矢印A4で示す向きから見た者の顔が撮影された場合、図7(B)に示されるように、撮影された画像1104には、顔画像603と顔画像604が含まれる。顔画像603は、矢印A3の向きで表示部6を見ている者の顔に対応する。顔画像604は、矢印A4の向きで表示部6を見ている者の顔に対応する。画像1104に対する顔認識処理がなされると、回転角度0°と180°が出力される。これに応じて、分割パターン6が選択される。
分割パターン6は、図13に示されるように、表示部6の表示領域内に、2つの領域61,62を形成する。領域61,62の形状は、いずれも、表示部6と同じ縦横比を有し面積が等しい矩形である。領域61,62は、いずれも、その端部(後述するように、それらの中で表示される画像の下端部)が、表示部6の表示領域の端部に当接している。これにより、各領域を、当該表示を見る者に近い位置で表示させることができる。なお、図13において、表示部6内のハッチングを施された部分は、表示部6の表示領域内の、領域61,62以外の領域である。分割パターン6では、このような部分には、背景が表示され、上記した表示情報は表示されない。
分割パターン6では、領域61における表示の上下の向きは、矢印AP1に従った、カメラ1に隣接する側を下側とした向きとされ、領域62における表示の上下の向きは、矢印AP2に従った、カメラ1に近い側を上側とした向きとされる。矢印AP1(図13)の向きは矢印A3(図7(A))の向きと同じであり、矢印AP2(図13)の向きは矢印A4(図7(A))の向きと同じである。
分割パターン6に従った表示部6の表示態様を図7(C)に示す。図7(C)では、表示部6内の領域605,606のそれぞれに、図5(C)と同様に、「ABCDEFGHIJK」という文字列を正立した状態で表示させる表示情報が表示されている。領域605,606は、それぞれ領域61,62に対応した領域である。
ただし、分割パターン6では、分割パターン1と異なり、領域605では、カメラ1と隣接する側が下側となる向きで表示情報が表示され、領域606では、カメラ1に近い側が上側となる向きで表示情報が表示されている。
4)分割パターン7
表2の分割パターン7は、0°と270°の2種類の回転角度の顔画像が検出された場合の分割パターンである。
表2の分割パターン7は、0°と270°の2種類の回転角度の顔画像が検出された場合の分割パターンである。
カメラ1が撮影した画像に、表示部6を図8(A)の矢印A5および矢印A6で示す向きから見た者の顔が撮影された場合、図8(B)に示されるように、撮影された画像1105には、顔画像607と顔画像608が含まれる。顔画像607は、矢印A5の向きで表示部6を見ている者の顔に対応する。顔画像608は、矢印A6の向きで表示部6を見ている者の顔に対応する。画像1105に対する顔認識処理がなされると、回転角度0°と270°が出力される。これに応じて、分割パターン7が選択される。
分割パターン7は、図14に示されるように、表示部6の表示領域内に、2つの領域63,64を形成する。領域63,64の形状は、いずれも、表示部6と同じ縦横比を有し面積が等しい矩形である。領域63,64は、いずれも、その端部(後述するように、それらの中で表示される画像の下端部)が、表示部6の表示領域の端部に当接している。図14において、表示部6内のハッチングを施された部分は、表示部6の表示領域内の、領域63,64以外の領域である。分割パターン7では、このような部分には、背景が表示され、上記した表示情報は表示されない。
分割パターン7では、領域63における表示の上下の向きは、矢印AP1に従った、カメラ1に隣接する側を下側とした向きとされ、領域64における表示の上下の向きは、矢印AP3に従った向きとされる。矢印AP3に従った向きは、表示部6の表示領域の下端をカメラ1に隣接する端部とした場合の、当該表示部6の表示領域の左端を下側とした向きである。矢印AP1(図14)の向きは矢印A5(図8(A))の向きと同じであり、矢印AP3(図14)の向きは矢印A6(図8(A))の向きと同じである。
分割パターン7に従った表示部6の表示態様を図8(C)に示す。図8(C)では、表示部6内の領域609,610のそれぞれに、図5(C)と同様に、「ABCDEFGHIJK」という文字列を正立した状態で表示させる表示情報が表示されている。領域609,610は、それぞれ領域63,64に対応した領域である。
ただし、分割パターン7では、分割パターン1と異なり、領域609では、カメラ1と隣接する側が下側となる向きで表示情報が表示され、領域610では、上記した表示部6の表示領域の左端が下側となる向きで表示情報が表示されている。
5)分割パターン13
表2の分割パターン13は、0°と180°と270°の3種類の回転角度の顔画像が検出された場合の分割パターンである。
表2の分割パターン13は、0°と180°と270°の3種類の回転角度の顔画像が検出された場合の分割パターンである。
カメラ1が撮影した画像に、表示部6を図9(A)の矢印A7、矢印A8および矢印A9で示す向きから見た者の顔が撮影された場合、図9(B)に示されるように、撮影された画像1106には、顔画像611と顔画像612と顔画像613が含まれる。顔画像611は、矢印A7の向きで表示部6を見ている者の顔に対応する。顔画像612は、矢印A8の向きで表示部6を見ている者の顔に対応する。顔画像613は、矢印A9の向きで表示部6を見ている者の顔に対応する。画像1106に対する顔認識処理がなされると、回転角度0°と180°と270°が出力される。これに応じて、分割パターン13が選択される。
分割パターン13は、図15に示されるように、表示部6の表示領域内に、3つの領域65,66,67を形成する。領域65,66,67の形状は、いずれも、表示部6と同じ縦横比を有し面積が等しい矩形である。領域65,66,67は、いずれも、その端部(後述するように、それらの中で表示される画像の下端部)が、表示部6の表示領域の端部に当接している。図15において、表示部6内のハッチングを施された部分は、表示部6の表示領域内の、領域65,66,67以外の領域である。分割パターン13では、このような部分には、背景が表示され、上記した表示情報は表示されない。
分割パターン13では、領域65における表示の上下の向きは、矢印AP1に従った、カメラ1に隣接する側を下側とした向きとされ、領域66における表示の上下の向きは、矢印AP2に従った、カメラ1に近い側を上側とした向きとされ、領域67における表示の上下の向きは、矢印AP3に従った向き、つまり、表示部6の表示領域の下端をカメラ1に隣接する端部とした場合の、当該表示部6の表示領域の左端を下側とした向きとされる。矢印AP1(図15)の向きは矢印A7(図9(A))の向きと同じであり、矢印AP2(図15)の向きは矢印A8(図9(A))の向きと同じであり、矢印AP3(図15)の向きは矢印A9(図9(A))の向きと同じである。
分割パターン13に従った表示部6の表示態様を図9(C)に示す。図9(C)では、表示部6内の領域614,615,616のそれぞれに、図5(C)と同様に、「ABCDEFGHIJK」という文字列を正立した状態で表示させる表示情報が表示されている。領域614,615,616は、それぞれ領域65,66,67に対応した領域である。
ただし、分割パターン13では、分割パターン1と異なり、領域614では、カメラ1と隣接する側が下側となる向きで表示情報が表示され、領域615では、カメラ1に近い側が上側となる向きで表示情報が表示され、領域616では、上記した表示部6の表示領域の左端が下側となる向きで表示情報が表示されている。
6)分割パターン12
分割パターン12は、図16に示されるように、表示部6の表示領域内に、3つの領域68,69,70を形成する。領域68,69,70の形状は、いずれも、表示部6と同じ縦横比を有し面積が等しい矩形である。領域68,69,70は、いずれも、その端部(後述するように、それらの中で表示される画像の下端部)が、表示部6の表示領域の端部に当接している。図16において、表示部6内のハッチングを施された部分は、表示部6の表示領域内の、領域68,69,70以外の領域である。分割パターン12では、このような部分には、背景が表示され、上記した表示情報は表示されない。
分割パターン12は、図16に示されるように、表示部6の表示領域内に、3つの領域68,69,70を形成する。領域68,69,70の形状は、いずれも、表示部6と同じ縦横比を有し面積が等しい矩形である。領域68,69,70は、いずれも、その端部(後述するように、それらの中で表示される画像の下端部)が、表示部6の表示領域の端部に当接している。図16において、表示部6内のハッチングを施された部分は、表示部6の表示領域内の、領域68,69,70以外の領域である。分割パターン12では、このような部分には、背景が表示され、上記した表示情報は表示されない。
分割パターン12では、領域68における表示の上下の向きは、矢印AP1に従った、カメラ1に隣接する側を下側とした向きとされる。領域69における表示の上下の向きは、矢印AP3に従った向き、つまり、表示部6の表示領域の下端をカメラ1に隣接する端部とした場合の、当該表示部6の表示領域の左端を下側とした向きとされ、領域70における表示の上下の向きは、矢印AP4に従った向き、つまり、表示部6の表示領域の右端を下側とした向きとされる。
7)分割パターン15
表2の分割パターン15は、0°と90°と180°と270°の4種類の回転角度の顔画像が検出された場合の分割パターンである。
表2の分割パターン15は、0°と90°と180°と270°の4種類の回転角度の顔画像が検出された場合の分割パターンである。
カメラ1が撮影した画像に、表示部6を図10(A)の矢印A10、矢印A11、矢印A12および矢印A13で示す向きから見た者の顔が撮影された場合、図10(B)に示されるように、撮影された画像1107には、顔画像617と顔画像618と顔画像619と顔画像620が含まれる。顔画像617は、矢印A10の向きで表示部6を見ている者の顔に対応する。顔画像618,619,620は、それぞれ矢印A11,A12,A13の向きで表示部6を見ている者の顔に対応する。画像1107に対する顔認識処理がなされると、回転角度0°と90°と180°と270°が出力される。これに応じて、分割パターン15が選択される。
分割パターン15は、図17に示されるように、表示部6の表示領域内に、4つの領域71,72,73,74を形成する。領域71,72,73,74の形状は、いずれも、表示部6と同じ縦横比を有し面積が等しい矩形である。領域71,72,73,74は、いずれも、その端部(後述するように、それらの中で表示される画像の下端部)が、表示部6の表示領域の端部に当接している。図17において、表示部6内のハッチングを施された部分は、表示部6の表示領域内の、領域71,72,73,74以外の領域である。分割パターン15では、このような部分には、背景が表示され、上記した表示情報は表示されない。
分割パターン15では、領域71における表示の上下の向きは、矢印AP1に従った、カメラ1に隣接する側を下側とした向きとされ、領域72における表示の上下の向きは、矢印AP2に従った、カメラ1に近い側を上側とした向きとされる。また、領域73における表示の上下の向きは、矢印AP3に従った向き、つまり、表示部6の表示領域の下端をカメラ1に隣接する端部とした場合の、当該表示部6の表示領域の左端を下側とした向きとされ、領域74における表示の上下の向きは、矢印AP4に従った向き、つまり、表示部6の表示領域の右端を下側とした向きとされる。矢印AP1(図17)の向きは矢印A10(図10(A))の向きと同じであり、矢印AP2(図17)の向きは矢印A11(図10(A))の向きと同じであり、矢印AP3(図17)の向きは矢印A12(図10(A))の向きと同じであり、矢印AP4(図17)の向きは矢印A13(図10(A))の向きと同じである。
分割パターン15に従った表示部6の表示態様を図10(C)に示す。図10(C)では、表示部6内の領域621,622,623,624のそれぞれに、図5(C)と同様に、「ABCDEFGHIJK」という文字列を正立した状態で表示させる表示情報が表示されている。領域621,622,623,624は、それぞれ領域71,72,73,74に対応した領域である。
ただし、分割パターン15では、分割パターン1と異なり、領域621では、カメラ1と隣接する側が下側となる向きで表示情報が表示され、領域622では、カメラ1に近い側が上側となる向きで表示情報が表示されている。また、領域623では、上記した表示部6の表示領域の左端が下側となる向きで表示情報が表示され、領域624では、上記した表示部6の表示領域の右端が下側となる向きで表示情報が表示されている。
なお、本実施の形態では、分割パターンはすべて画面分割パターン記憶部43に記憶されているものとしたが、本発明はこれに限定されない。後述する表示制御処理において、逐次、分割パターンが生成されても良い。
[1−5.回転角度の正規化]
回転角度検出部32による回転角度の正規化について説明する。
回転角度検出部32による回転角度の正規化について説明する。
図11(A)の矢印A14の向きで表示部6を見る者と矢印A15の向きで表示部6を見る者がカメラ1に撮影された場合、カメラ1によって撮影された場合、図11(B)に示されるように、画像1108には、前者の顔に対応する顔画像625と後者の顔に対応する顔画像626が含まれる。画像1108における基準となる軸が、矢印L100で示されている。そして、顔画像625の軸が矢印L101で、顔画像626の軸が矢印L102で、それぞれ示されている。
回転角度検出部32は、矢印L101と矢印L100のなす角θ1を検出する。そして、表1を参照して、なす角θ1が属する範囲を判定し、判定した範囲に対応する「出力される角度」を、回転角度の検出結果として出力する。図11(B)の矢印L101については、なす角θ1が属する範囲に対応する角度として「0°」が出力される。
回転角度検出部32は、矢印L102についても、矢印L100とのなす角θ2を検出する。そして、表1を参照して、なす角θ2が属する範囲を判定し、判定した範囲に対応する「出力される角度」を、回転角度の検出結果として出力する。図11(B)の矢印L102については、なす角θ1が属する範囲に対応する角度として「270°」が出力される。
このような処理は、画像1108の顔画像625,626の向きを、画像1108Aに顔画像625A,626Aとして示されるように調整する処理に相当する。
[1−6.表示制御の内容]
情報処理装置100では、表示部6における表示内容が、カメラ1が撮影した画像に含まれる顔画像の数および向きに応じて制御される。図18は、そのような制御のために実行される表示制御処理のフローチャートである。
情報処理装置100では、表示部6における表示内容が、カメラ1が撮影した画像に含まれる顔画像の数および向きに応じて制御される。図18は、そのような制御のために実行される表示制御処理のフローチャートである。
図18を参照して、情報処理装置100への電源の投入が開始されると、ステップS10で、表示部6が起動されて(表示部6への電源投入が開始されて)、表示部6での表示が開示される。
次に、ステップS20で、カメラ1が起動される(カメラ1への電源投入が開示されて)。
次に、ステップS30で、カメラ1による撮影が開始され、ステップS40へ処理が進められる。
ステップS40では、CPU3は、設定情報記憶部41に記憶されている情報を確認することにより、表示部6の表示領域を分割するような表示モードが可能か否かを判断する。具体的には、設定情報記憶部41には、多人数モードが可能か否かの情報が記憶されており、可能であるとする情報が記憶されていれば、CPU3は、ステップS50へ処理を進め、不可能であるとする情報が記憶されていれば、CPU3は、ステップS110へ処理を進める。
ステップS110では、CPU3は、カメラ1によって撮影された画像に対して顔認識処理を実行し、当該顔認識処理によって取得された顔画像の回転角度を判断して、ステップS120へ処理を進める。なお、複数の顔画像が取得された場合には、たとえば、その中の最も大きい顔画像についての回転角度を判断する。
顔画像の大きさは、たとえば、検出された顔画像における口と目の距離に基づいて決定される。具体的には、たとえば、図4(C)を参照して説明したような、線LHに対する領域P3の重心の距離を、口と目の距離とし、この距離に基づいて決定される。
ステップS120では、CPU3は、顔画像の上下方向に合致するように、表示を回転させて、表示部6に表示させる画像情報を生成し、ステップS130へ処理を進める。具体的には、ステップS120では、CPU3は、ステップS110で判断した回転角度に沿った上下方向で、表示情報生成部34が生成した表示情報が、最も大きく表示されるように、画像情報を生成する。
ステップS130では、CPU3は、ステップS120で生成した画面情報を表示部6に表示させるために画像処理部5に出力して、ステップS140へ処理を進める。
ステップS140では、CPU3は、情報処理装置100に対する電源OFFの操作がなされる等による、表示部6における表示を終了させる事態が生じたか否かを判断し、そうであると判断するとステップS150へ処理を進め、そのような事態がまだ生じていないと判断するとステップS30へ処理を戻す。
ステップS150では、CPU3は、表示部6への電源投入を停止し、そして、ステップS160でカメラ1への電源投入を停止して、表示制御処理を終了させる。
ステップS50では、CPU3は、カメラ1が撮影した画像に対して顔認識処理を実行し、当該撮影された画像に2人以上の顔画像が含まれているか否かを判断する。そして、2人以上の顔画像が含まれていると判断するとステップS60へ処理を進め、そうではないと判断するとステップS110へ処理を進める。
ステップS60では、CPU3は、設定情報記憶部41に記憶されている情報を確認することにより、多人数モードで動作する旨の設定情報が記憶されているか否かを判断し、そのような情報が記憶されていると判断するとステップS70へ処理を進め、記憶されていないと判断するとステップS100へ処理を進める。
ステップS100では、撮影された画像に含まれているとステップS50で判断した複数の顔画像の中の最も大きい顔画像を選択して、ステップS110へ処理を進める。
ステップS70では、CPU3は、撮影された画像に含まれているとステップS50で判断した複数の顔画像の中の、大きいものから順に4つの顔画像を選択して、ステップS80へ処理を進める。
ステップS80では、CPU3は、ステップS70で選択した4つの顔画像のそれぞれについて、図4等を参照して説明したような方法で回転角度を判断して、ステップS90へ処理を進める。
ステップS90では、CPU3は、ステップS80で判断した回転角度に従って表示部6の表示領域を分割し、回転角度に従った態様で表示情報を嵌め込む、画像情報生成処理を実行して、ステップS130へ処理を進める。画像情報生成処理の詳細については、図19を参照して説明する。
図19を参照して、画像情報生成処理では、CPU3は、まずステップS91において、表2を参照して、ステップS80で判断した回転角度の組合せに対応する画面の分割パターンを取得して、ステップS92へ処理を進める。
ステップS92では、CPU3は、取得した画面の分割パターンの、表示情報生成部34が生成した表示情報を、嵌め込むべき箇所に、嵌め込むべき方向で、嵌め込むことにより画面情報を生成して、図18へ処理をリターンさせる。なお、嵌め込むべき箇所および方向についての情報は、図5〜図17を参照して説明したように、各分割パターンに含まれている。
以上説明した本実施の形態の表示制御処理によれば、メモリ4に、多人数モードで動作する旨の設定情報が記憶されている場合には、カメラ1が撮影した画像に対して顔認識処理が実行され、複数の顔画像が含まれている場合には、各顔画像の軸の、カメラ1が撮影した画像において基準とされる軸に対する回転角度が検出される。そして、顔画像のそれぞれについて、検出された回転角度に従った角度で、表示情報を表示する画面が、表示部6に表示される。たとえば、画像1106(図10(B))がカメラ1によって撮影された場合、図10(C)に示されるように、表示部6には、顔画像617に対応して画面621が、顔画像618に対応して画面622が、顔画像619に対応して画面623が、そして、顔画像620に対応して画面624が、表示される。
ここでいう画面とは、図5(C)や図6(C)では、表示部6の表示領域と同じ領域を有する。また、図7(C)では、表示部6の表示領域の中の領域605,606であり、図8(C)では、表示部6の表示領域の中の領域609,610であり、図9(C)では、表示部6の表示領域の中の領域614,615,616であり、図10(C)では、表示部6の表示領域の中の領域621,622,623,624である。
なお、カメラ1によって撮影された画像に含まれる複数の顔画像についての回転角度が判断される場合、同じ回転角度(表1に従った正規化による同じ「出力すべき角度」)を有する複数の顔画像は、表示制御処理では、1つの顔画像として取り扱われても良い。また、このような取扱いは、ステップS80で行なわれても良いし、ステップS50で顔認識処理が行なわれることにより当該ステップS50で行なわれても良いし、ステップS70で顔認識処理が行なわれることにより当該ステップS70で行なわれても良い。
ステップS70において上記のような取扱いがなされた場合、CPU3は、大きい順に4つの顔画像を選択した後、当該4つの顔画像の中の回転角度が同じものを1つの顔画像として取り扱っても良い。この場合、回転角度が同じ複数の顔画像が1つの顔画像として取り扱われると、ステップS80以降の処理の対象となる顔画像は4つより少なくなる。一方、ステップS70において、大きい順に顔画像を選択する際に、すでに選択した顔画像の回転角度と同じ回転角度を検出された顔画像は選択しないようにしても良い。
また、図18の表示制御処理では、ステップS30〜ステップS130の処理は、表示が終了するまで継続して実行されることから、表示部6において表示がなされている間に、カメラ1によって顔画像を撮影される人数の変更があった場合には、表示部6における表示は、変更後の人数および(表示部6に対する)位置に対応するように更新される。
[2.第2の実施の形態]
以上説明した第1の実施の形態では、顔認識処理において取得された複数の顔画像について、各顔画像の軸の向きと同じ向きの画面を表示部6に表示させていた。そして、表示部6に表示される複数の画面(たとえば、図7(C)の領域605と領域606)は、同じ大きさとされていた。
以上説明した第1の実施の形態では、顔認識処理において取得された複数の顔画像について、各顔画像の軸の向きと同じ向きの画面を表示部6に表示させていた。そして、表示部6に表示される複数の画面(たとえば、図7(C)の領域605と領域606)は、同じ大きさとされていた。
本実施の形態では、このように表示される複数の画面は、顔認識処理において取得された顔画像の大きさに応じた大きさとされる。図20は、本実施の形態における画面情報生成処理のフローチャートである。本実施の形態は、第1の実施の形態に対して、画像情報生成処理の内容が変更される。
図20を参照して、画面情報生成処理では、CPU3は、ステップSA91で、表2を参照して、ステップS80で判断した回転角度の組合せに対応する画面の分割パターンを取得して、ステップSA92へ処理を進める。ここでは、図21に示されるように、たとえば分割パターン13が取得されたものとする。
ステップSA92では、CPU3は、ステップS70で選択した各顔画像の大きさの比率を算出して、ステップSA93へ処理を進める。
ステップSA93では、CPU3は、ステップS91で取得した分割パターンに含まれる各領域を、ステップSA92で取得した、各領域に対応する顔画像の大きさの比率に応じて変更して、ステップSA94へ処理を進める。
ここで、たとえば、図21の分割パターンに、領域75,領域76,領域77の3つの領域が含まれており、領域75,領域76,領域77は、縦に3T、横に4Tの寸法を有する長方形であるとする。また、表示部6の表示領域の大きさは、縦が6T、横が8Tであるとする。ここで、図中の矢印AP1〜AP3は、各領域において表示される表示情報の上側の向きを示している。そして、表示がなされる上下方向を領域の縦と言い、左右方向を横と言う。
そして、各領域に対応する顔画像の大きさの比率が1:1.1:1.2であるとする。この場合、ステップSA93の処理により、図21の分割パターンの各領域の大きさは、図22の領域75A,領域76A,領域77Aに示されるように変更される。領域75Aは、縦に3T、横に4Tの寸法を有する長方形のままであるが、領域76Aは、縦に3.3T、横に4.4Tの寸法を有する長方形とされ、そして、領域77Aは、縦に3.6T、横に4.8Tの寸法を有する長方形とされる。
そして、CPU3は、ステップSA94で、ステップSA93で大きさが変更された全領域が、領域間での割合を変更することなく表示部6の表示領域に収まるように、全領域の大きさが変更されて、ステップSA95へ処理を進める。
表示部6の表示領域は、図21に示されるように縦が6T、横が8Tである。一方、変更後は、図22に示されたように、縦が6.3T、横が8Tとなっている。よって、縦方向の寸法が、表示部6の表示領域の寸法をオーバーしている。そこで、領域75,領域76,領域77のすべてについて、表示部6の表示領域に収まるように、(6.0T/6.3T)倍される。これにより、図23に領域75B,領域76B,領域77Bとして示されるように、各領域の縦横の寸法が変更される。図23において、領域75Bは、縦に2.85T、横に3.80Tの寸法を有し、領域76Bは、縦に3.14T、横に4.18Tの寸法を有し、領域77Bは、縦に3.42T、横に4.56Tの寸法を有する長方形とされる。
図20に戻って、ステップSA95では、CPU3は、各領域(領域75B,領域76B,領域77B)に、矢印AP1〜AP3に従った向きに表示されるように、表示情報を挿入することにより、画面情報を生成して、図18に処理をリターンさせる。このような処理に基づく表示部6での表示内容を、図24に示す。
表示部6に表示される複数の領域について、各領域の大きさを変更した場合、変更後の各領域は、図23または図24に示すように、他の2つの領域と当接するように配列されても良いし、その中で表示情報の下端が表示される端部が表示部6の表示領域の端部に当接するように配列されても良い。
[3.第3の実施の形態]
情報処理装置100では、表示部6に複数の画面を表示する場合、各画面についての表示の大きさを変更する情報の入力を操作部7において受付ける。
情報処理装置100では、表示部6に複数の画面を表示する場合、各画面についての表示の大きさを変更する情報の入力を操作部7において受付ける。
[3−1.縮小する情報の入力]
たとえば、図25に示すように、表示部6において分割パターン13に従い、領域78,79,80が表示されているときに、領域78を縮小する情報を入力された場合の表示内容の変更について説明する。
たとえば、図25に示すように、表示部6において分割パターン13に従い、領域78,79,80が表示されているときに、領域78を縮小する情報を入力された場合の表示内容の変更について説明する。
なお、図25では、表示部6の表示領域の寸法が縦6T、横8Tであり、そして、領域78,79,80の表示領域の寸法がいずれも縦3T、横4Tであるとする。
たとえば、領域78を0.8倍の大きさにする情報を入力されると、まず図26に領域78A,79A,80Aとして示すように、指定された領域のみの寸法が指定された割合だけ変更される。図26では、領域78の寸法は縦2.4T、横3.2Tである。領域79,80の表示領域の寸法は、縦3T、横4Tである。
そして、CPU3は、縦方向と横方向の余剰率を算出する。図26を参照して、表示部6の横方向については、当該横方向の寸法8.0Tに対して、領域79Aの横方向の4.0Tと領域80Aの縦方向の3.0Tの和7.0Tであるため、余剰率は、{8.0T−(4.0T+3.0T)}/(4.0T+3.0T)=0.142と算出される。表示部6の縦方向については、当該縦方向の寸法6.0Tに対して、領域79Aの縦方向の3.0Tに対して空いている寸法(6.0T−3.0T−2.4T)である0.6Tであるため、余剰率は、0.6T/3.0T=0.2と算出される。また、領域80Aについての余剰率は、表示部6の縦方向の寸法6.0Tに対する領域80Aの横方向の寸法4.0Tの空き2.0Tに基づいて、2.0T/4.0T=0.5と算出される。
余剰率が最も小さい場所によって、指定された領域以外の領域の拡大倍率が決定される。上記の例では、最も小さい余剰率が0.142であったため、当該余剰率に1を加えた1.142倍が、拡大倍率とされる。
図27に、縮小を指定された以外の領域79A,80Aを当該拡大倍率で拡大させるように修正された分割パターンを、図27に、領域78B,79B,80Bとして示す。
各領域における矢印AP1〜AP3は、各領域において表示される表示情報の上下方向の向きを示す。当該方向に従って、各領域に表示情報が嵌め込まれた状態を、図28に示す。
なお、図27および図28では、領域78B,79B,80Bの表示部6における表示位置は、それぞれ、当該領域に表示される画像の下端部が表示部6の端部に当接するように配置されている。
また、各領域の左右方向(各領域についての矢印AP1〜AP3で示される上下方向に直行する方向)の表示位置は、表示部6の他の領域の表示される部分以外の部分の左右方向についての中央とされている。つまり、たとえば領域78Bの左右方向の表示位置は、図27において、表示部6内の領域80Bより右側の部分の、左右方向の中央に位置している。
以上図25〜図28を参照して説明した、表示部6に表示された複数の領域の中の或る領域を小さく表示させる場合としては、たとえば、当該或る領域が、操作部7を操作する者のために表示される領域である場合が考えられる。つまり、領域78(領域78A,78B)は、操作部7を操作し、矢印AP1の向きで表示部6を見る者に対して表示される領域である場合が考えられる。このような制御によれば、操作部7を操作する者が意図する操作内容に従った表示部6の表示内容の変更結果について、表示部6を見る他の者に対して確認を得るために、操作部7の操作者のための画面は小さく、他の者のために表示される画面を大きく、表示することができる。
[3−2.拡大する情報の入力]
たとえば、図29に示すように、領域81,82,83が表示されているときに、領域83を拡大する情報を入力された場合の表示内容の変更について説明する。
たとえば、図29に示すように、領域81,82,83が表示されているときに、領域83を拡大する情報を入力された場合の表示内容の変更について説明する。
なお、図29では、表示部6の表示領域の寸法が縦6T、横8Tである。領域81の寸法は、縦が1.8T、横が2.4Tである。領域82の寸法は、縦が4.2T、横が5.6Tである。領域83の寸法は、縦が2.4T、横が3.2Tである。
たとえば、領域78を1.5倍の大きさにする情報を入力されると、まず図30に領域81A,82A,83Aとして示すように、指定された領域のみの寸法が指定された割合だけ変更される。図30では、領域81Aの寸法は、縦が1.8T、横が2.4Tである。領域82Aの寸法は、縦が4.2T、横が5.6Tである。領域83Aの寸法は、領域83Aの指定された倍率である1.5倍されて、縦が3.6T、横が4.8Tである。
そして、CPU3は、すでに寸法を変更した領域83A以外の領域について、縦方向と横方向の超過率を算出する。
図30を参照して、表示部6の横方向については、領域83Aの縦方向以外の4.4Tに対する、領域82Aの横方向の5.6Tに関し、超過率は、5.6T/4.4T=1.27となる。表示部6の縦方向については、領域82Aの縦方向の4.2Tと領域81Aの縦方向1.8Tに関し、超過率は(4.2T+1.8T)/6.0T=1.0となる。よって、表示部6の横方向の方が超過率が高いため、縮小倍率は1.27とされる。
これにより、領域82Aと領域81Aの縦と横の寸法が(1/1.27)倍される。
このように変更された寸法が、図31に、領域81B,82B,83B示されている。
このように変更された寸法が、図31に、領域81B,82B,83B示されている。
そして、このような領域81B,82B,83Bに、矢印AP1〜AP3に従った向きで表示情報が嵌め込まれた、表示部6における表示態様が、図32に示されている。
なお、図31および図32では、領域81B,82B,83Bの表示部6における表示位置は、それぞれ、当該領域に表示される画像の下端部が表示部6の端部に当接するように配置されている。
また、各領域の左右方向(各領域についての矢印AP1〜AP3で示される上下方向に直行する方向)の表示位置は、表示部6の他の領域の表示される部分以外の部分の左右方向についての中央とされている。つまり、たとえば領域81Bの左右方向の表示位置は、図31において、表示部6内の領域83Bより右側の部分の、左右方向の中央に位置している。
[4.変形例等]
以上説明した各実施の形態では、情報処理装置100は、キーボードを含む操作部7を備えていたが、本発明に係る情報処理装置は必ずしもキーボード等の操作部を備えていなくとも良い。たとえば、その本体全体で表示装置を構成するような装置(タッチパネルを含み、当該タッチパネルによって情報を入力する装置)であっても良い。このような装置では、基準となる向きについては、当該装置の本体に付された製品ロゴや社名ロゴが入っている向きが基準とされたり、ユーザが当該装置を通常持つであろう持ち易い向きを基準とされたり、また、基準となる向きを設けなくても、どの方向でも使うことが出来るようにすることを考慮された装置でも構わない。
以上説明した各実施の形態では、情報処理装置100は、キーボードを含む操作部7を備えていたが、本発明に係る情報処理装置は必ずしもキーボード等の操作部を備えていなくとも良い。たとえば、その本体全体で表示装置を構成するような装置(タッチパネルを含み、当該タッチパネルによって情報を入力する装置)であっても良い。このような装置では、基準となる向きについては、当該装置の本体に付された製品ロゴや社名ロゴが入っている向きが基準とされたり、ユーザが当該装置を通常持つであろう持ち易い向きを基準とされたり、また、基準となる向きを設けなくても、どの方向でも使うことが出来るようにすることを考慮された装置でも構わない。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 カメラ、2 カメラ制御部、3 CPU、4 メモリ、5 画像処理部、6 表示部、7 操作部、31 顔認識処理部、32 回転角度検出部、33 画面分割制御部、34 表示情報生成部、35 画像情報生成部、40 プログラム記憶部、41 設定情報記憶部、42 角度修正情報記憶部、43 画面分割パターン記憶部、100 情報処理装置。
Claims (9)
- 表示装置と、
前記表示装置に表示させる情報を生成する生成部と、
カメラと、
前記カメラによって撮影された画像に対して顔画像を検出する顔認識処理を実行する顔認識処理部と、
前記顔認識処理において検出された顔画像の数および向きに基づいて前記表示装置の表示内容を制御する制御部とを備え、
前記制御部は、
前記顔認識処理において1つの顔画像が検出された場合、検出された顔画像の向きに基づき、前記情報を前記表示装置に表示させる向きを決定して、前記情報を表示させ、
前記顔認識処理において複数の顔画像が検出された場合、検出された顔画像の個数に基づき前記情報を前記表示装置に表示させる数を決定し、さらに、表示させる各情報の向きを検出された各顔画像の向きに基づいて決定して、複数個の前記情報を前記表示装置に表示させる、情報処理装置。 - 前記制御部は、複数の前記情報のうち或る情報の表示の大きさを変更した場合、残りの情報については、形状を維持したまま、大きさを変更された前記或る情報とともに前記表示装置の表示領域に表示できる最大となるように表示の大きさを変更する、請求項1に記載の情報処理装置。
- 入力を受付ける操作部をさらに備え、
前記基準となる向きは、前記操作部から前記表示装置に向かう向きである、請求項1または請求項2に記載の情報処理装置。 - 向きの組合せに関連付けて、前記表示装置に表示される前記情報の配置の組合せのパターンを記憶する画面分割パターン記憶部をさらに備え、
前記制御部は、前記画面分割パターン記憶部に記憶された配置の組合せのパターンで、複数の前記情報を前記表示装置に表示させる、請求項1〜請求項3のいずれかに記載の情報処理装置。 - 前記制御部は、前記顔認識処理において検出された顔画像の軸を決定し、検出された各顔画像の軸の前記撮影された画像における基準軸に対する回転角度を決定し、
前記基準軸は、前記表示装置を基準となる向きで見ている被写体を前記カメラが撮影した画像における、当該被写体に対応する顔画像の軸であり、
前記制御部は、前記情報を表示させる向きを、前記回転角度だけ回転させた画面で、前記表示装置に表示させる、請求項1〜請求項4のいずれかに記載の情報処理装置。 - 前記制御部は、検出された各前記顔画像において、口から、両目を結ぶ線に対して引かれた垂線を、前記顔画像の軸とする、請求項5に記載の情報処理装置。
- 前記制御部は、前記顔画像の軸の回転角度を正規化する、請求項5または請求項6に記載の情報処理装置。
- 表示装置と、カメラと、プロセッサと、メモリとを備えた装置において、前記メモリに記憶され、前記プロセッサによって実行されることによって前記装置を情報処理装置として機能させるプログラムであって、
前記プログラムは、前記プロセッサに、
前記カメラによって撮影された画像に対して顔画像を検出する顔認識処理を実行するステップと、
前記顔認識処理において1つの顔画像が検出された場合に、検出された顔画像の向きに基づき、前記情報を前記表示装置に表示させる向きを決定して、前記情報を表示させるステップと、
前記顔認識処理において複数の顔画像が検出された場合に、検出された顔画像の個数に基づき前記情報を前記表示装置に表示させる数を決定し、さらに、表示させる各情報の向きを検出された各顔画像の向きに基づいて決定して、複数個の前記情報を前記表示装置に表示させるステップとを実行させる、情報表示用プログラム。 - 表示装置と、カメラと、プロセッサとを備えた情報処理装置を制御する制御方法であって、
前記プロセッサに、
前記カメラによって撮影された画像に対して顔画像を検出する顔認識処理を実行するステップと、
前記顔認識処理において1つの顔画像が検出された場合に、検出された顔画像の向きに基づき、前記情報を前記表示装置に表示させる向きを決定して、前記情報を表示させるステップと、
前記顔認識処理において複数の顔画像が検出された場合に、検出された顔画像の個数に基づき前記情報を前記表示装置に表示させる数を決定し、さらに、表示させる各情報の向きを検出された各顔画像の向きに基づいて決定して、複数個の前記情報を前記表示装置に表示させるステップとを実行させる、情報処理装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010137294A JP2012004798A (ja) | 2010-06-16 | 2010-06-16 | 情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法 |
PCT/JP2011/060705 WO2011158574A1 (ja) | 2010-06-16 | 2011-05-10 | カメラを備えた情報処理装置、その制御方法、および、記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010137294A JP2012004798A (ja) | 2010-06-16 | 2010-06-16 | 情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012004798A true JP2012004798A (ja) | 2012-01-05 |
Family
ID=45347985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010137294A Pending JP2012004798A (ja) | 2010-06-16 | 2010-06-16 | 情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2012004798A (ja) |
WO (1) | WO2011158574A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015053188A1 (ja) | 2013-10-10 | 2015-04-16 | Necカシオモバイルコミュニケーションズ株式会社 | 表示装置及び画像変形方法 |
JP2016212174A (ja) * | 2015-05-01 | 2016-12-15 | パラマウントベッド株式会社 | 画像表示制御装置、画像表示システム及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186462A (ja) * | 2001-12-14 | 2003-07-04 | Minolta Co Ltd | 画像表示装置 |
JP2004054783A (ja) * | 2002-07-23 | 2004-02-19 | Seiko Epson Corp | ネットワーク対応表示装置およびネットワーク対応プロジェクタ |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010101949A (ja) * | 2008-10-21 | 2010-05-06 | Sharp Corp | 表示装置および表示方法 |
-
2010
- 2010-06-16 JP JP2010137294A patent/JP2012004798A/ja active Pending
-
2011
- 2011-05-10 WO PCT/JP2011/060705 patent/WO2011158574A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003186462A (ja) * | 2001-12-14 | 2003-07-04 | Minolta Co Ltd | 画像表示装置 |
JP2004054783A (ja) * | 2002-07-23 | 2004-02-19 | Seiko Epson Corp | ネットワーク対応表示装置およびネットワーク対応プロジェクタ |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015053188A1 (ja) | 2013-10-10 | 2015-04-16 | Necカシオモバイルコミュニケーションズ株式会社 | 表示装置及び画像変形方法 |
US9851887B2 (en) | 2013-10-10 | 2017-12-26 | Nec Corporation | Display device and image transforming method |
JP2016212174A (ja) * | 2015-05-01 | 2016-12-15 | パラマウントベッド株式会社 | 画像表示制御装置、画像表示システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2011158574A1 (ja) | 2011-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200409545A1 (en) | Display adaptation method and apparatus for application, and storage medium | |
CN107357540B (zh) | 一种显示方向的调整方法及移动终端 | |
JP6159323B2 (ja) | 情報処理方法及び情報処理装置 | |
US8730332B2 (en) | Systems and methods for ergonomic measurement | |
CN102981643B (zh) | 信息处理设备、信息处理装置和信息处理方法 | |
US20140344750A1 (en) | Display device and display method | |
CN114514508A (zh) | 提供应用的运行画面的电子装置及其操作方法 | |
EP2755164A2 (en) | Display apparatus and control method for adjusting the eyes of a photographed user | |
CN111324250A (zh) | 三维形象的调整方法、装置、设备及可读存储介质 | |
CN110523084B (zh) | 排行榜展示方法、装置、计算机设备及存储介质 | |
CN111045577A (zh) | 一种横竖屏切换方法、可穿戴设备和具有存储功能的装置 | |
CN111857910A (zh) | 信息的显示方法、装置及电子设备 | |
CN112578971A (zh) | 页面内容展示方法、装置、计算机设备及存储介质 | |
US8643679B2 (en) | Storage medium storing image conversion program and image conversion apparatus | |
CN112667835A (zh) | 作品处理方法、装置、电子设备及存储介质 | |
CN106557672A (zh) | 头戴式显示器的解锁控制方法及装置 | |
CN111353946A (zh) | 图像修复方法、装置、设备及存储介质 | |
CN113873148A (zh) | 录像方法、装置、电子设备和可读存储介质 | |
JP2010282459A (ja) | 携帯端末装置 | |
US11842039B2 (en) | Electronic device and method for operating screen capturing by electronic device | |
JP2012004798A (ja) | 情報処理装置、情報表示用プログラムおよび情報処理装置の制御方法 | |
JP2011227397A (ja) | 表示制御装置及び表示制御方法 | |
CN111991801A (zh) | 显示方法、装置及电子设备 | |
JP2009223469A (ja) | カメラ付携帯装置 | |
WO2018186004A1 (ja) | 電子機器及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140909 |