JP2022121468A - Information processing apparatus - Google Patents
Information processing apparatus Download PDFInfo
- Publication number
- JP2022121468A JP2022121468A JP2022095555A JP2022095555A JP2022121468A JP 2022121468 A JP2022121468 A JP 2022121468A JP 2022095555 A JP2022095555 A JP 2022095555A JP 2022095555 A JP2022095555 A JP 2022095555A JP 2022121468 A JP2022121468 A JP 2022121468A
- Authority
- JP
- Japan
- Prior art keywords
- application
- information
- imaging
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 17
- 238000003384 imaging method Methods 0.000 abstract description 65
- 238000000034 method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 16
- 238000001514 detection method Methods 0.000 description 12
- 230000003993 interaction Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 11
- 238000009434 installation Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Abstract
Description
本発明は、撮影装置と接続された端末装置において、アプリケーションの起動や設定を自動的に行う技術に関する。 The present invention relates to a technique for automatically starting an application and making settings in a terminal device connected to a photographing device.
PCにカメラを接続し、その撮影画像を用いて実行される様々なアプリケーションが存在する。例えば、テレビ電話はその一例である。また、特許文献1には、PCユーザの手の動きを検出することにより、検出した手の動きに応じた操作(クリック、選択、実行など)を可能とするアプリケーションが開示されている。 There are various applications that connect a camera to a PC and run using the captured image. For example, a videophone is one such example. Further, Patent Literature 1 discloses an application that detects hand movements of a PC user and enables operations (click, selection, execution, etc.) according to the detected hand movements.
1つのカメラに対して、それと連携して動作可能な複数のアプリケーションが存在する場合がある。この場合、1つのアプリケーションから他のアプリケーションに切り替えを行うには、ユーザはカメラの設置位置などを変更した後、手動でそのアプリケーションを立ち上げたり、そのアプリケーションのための設定を行ったりする必要があり、煩わしいという課題があった。 There may be multiple applications that can work in conjunction with a single camera. In this case, in order to switch from one application to another, the user must change the installation position of the camera, etc., then manually launch the application or configure the settings for that application. There was a problem that it was troublesome.
本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、撮影装置から得た情報に基づいて、その撮影装置と連携して動作するアプリケーションの起動・設定などを自動的に行うことを目的とする。 Examples of the problems to be solved by the present invention include the above. SUMMARY OF THE INVENTION It is an object of the present invention to automatically start and set an application that operates in cooperation with a photographing device based on information obtained from the photographing device.
請求項に記載の発明は、情報処理装置であって、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、を備えることを特徴とする。 According to a claim of the invention, there is provided an information processing apparatus comprising at least one of first information that is information about an image captured by a photographing unit and second information that is information about a photographing range photographed by the photographing unit. and an application control unit that provides a user with an application corresponding to the information acquired by the acquisition unit, among a plurality of applications that use information of the image captured by the imaging unit. characterized by
本発明の好適な実施形態では、情報処理装置は、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、を備える。 In a preferred embodiment of the present invention, the information processing device stores at least one of first information, which is information about an image captured by a capturing unit, and second information, which is information about a capturing range captured by the capturing unit. and an application control unit that provides a user with an application corresponding to the information acquired by the acquisition unit, among a plurality of applications that use the information of the image captured by the imaging unit.
上記の情報処理装置は、カメラなどの撮影部によって撮影された画像の情報である第1情報と、その撮影範囲に関する第2情報の少なくとも一方を取得し、取得した情報に対応するアプリケーションをユーザに提供する。よって、撮影部から得られる画像又は撮影範囲に関する情報に基づいて、その撮影部と連携して実行されるアプリケーションを自動的に提供することができる。ここで、アプリケーションを提供するとは、アプリケーションを起動すること、アプリケーションに対する必要な設定を行うことの少なくとも一方を含む。 The above information processing apparatus acquires at least one of first information, which is information of an image taken by an imaging unit such as a camera, and second information about the imaging range, and provides an application corresponding to the acquired information to a user. offer. Therefore, based on the information about the image or the imaging range obtained from the imaging unit, it is possible to automatically provide the application executed in cooperation with the imaging unit. Here, providing an application includes at least one of starting the application and making necessary settings for the application.
上記の情報処理装置の一態様では、前記アプリケーション制御部は、前記撮影部によって撮影された画像に情報出力装置が含まれている場合には第1のアプリケーションをユーザに提供し、前記撮影部によって撮影された画像に情報入力装置が含まれている場合には第2のアプリケーションをユーザに提供する。この態様では、撮影画像に情報出力装置が含まれるか、情報入力装置が含まれるかによって、異なるアプリケーションが提供される。 In one aspect of the information processing apparatus described above, the application control unit provides a first application to the user when an information output device is included in the image captured by the imaging unit, and the imaging unit A second application is provided to the user when the information input device is included in the photographed image. In this aspect, different applications are provided depending on whether the captured image includes the information output device or the information input device.
上記の情報処理装置の他の一態様では、前記第2情報は、前記撮影部の撮影方向に関する情報を含み、前記アプリケーション制御部は、前記撮影部が固定されている位置に対して上方を撮影している場合には第3のアプリケーションをユーザに提供し、前記固定部が固定されている位置に対して上方を撮影していない場合には第4のアプリケーションをユーザに提供する。この態様では、撮影部が上方、下方のいずれを撮影しているかに応じて、異なるアプリケーションが提供される。 In another aspect of the information processing device, the second information includes information about the shooting direction of the shooting unit, and the application control unit shoots an image above a position where the shooting unit is fixed. If so, the user is provided with the third application, and if the image above the position where the fixing portion is fixed is not being photographed, the user is provided with the fourth application. In this aspect, different applications are provided depending on whether the photographing unit is photographing upwards or downwards.
上記の情報処理装置の他の一態様では、前記アプリケーション制御部は、前記取得部が取得した情報に対応したアプリケーションの起動、及び、そのアプリケーションに対する設定の少なくとも一方を実行する。さらに他の一態様では、前記アプリケーション制御部は、前記取得部が取得した情報に対応したアプリケーションを実行する場合の前記撮影部に対する設定を行う。これにより、撮影した画像の情報又は撮影範囲に関する情報に基づいて、アプリケーションの起動や必要な設定が自動的に実行される。 In another aspect of the information processing apparatus, the application control unit executes at least one of starting an application corresponding to the information acquired by the acquisition unit and setting the application. In still another aspect, the application control section performs settings for the imaging section when executing an application corresponding to the information acquired by the acquisition section. As a result, the application is automatically activated and necessary settings are performed based on the information about the captured image or the information about the imaging range.
上記の情報処理装置の好適な例では、前記撮影部は、赤外線発光機能と、赤外線を透過するとともに可視光をカットする光学フィルタと、を備え、前記アプリケーション制御部は、前記赤外線発光機能のオンとオフ、及び、前記光学フィルタのオンとオフを設定する。 In a preferred example of the information processing device, the photographing unit includes an infrared light emission function and an optical filter that transmits infrared rays and cuts visible light, and the application control unit turns on the infrared light emission function. and off, and on and off of the optical filter.
他の好適な例では、情報処理装置は、情報入力装置又は情報出力装置を備え、前記第2の情報は、前記撮影部と、前記情報入力装置又は前記情報出力装置との相対的位置関係を示す情報を含み、前記取得部は、前記第1情報の画像解析により、前記相対的位置関係を示す情報を生成する。 In another preferred example, the information processing device includes an information input device or an information output device, and the second information is a relative positional relationship between the photographing unit and the information input device or the information output device. The obtaining unit generates information indicating the relative positional relationship by image analysis of the first information.
本発明の他の好適な実施形態では、撮影部と接続された情報処理装置によって実行される情報処理方法は、前記撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得工程と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御工程と、を有する。この方法によっても、撮影部から得られる画像又は撮影範囲に関する情報に基づいて、その撮影部と連携して実行されるアプリケーションを自動的に提供することができる。 In another preferred embodiment of the present invention, an information processing method executed by an information processing device connected to an imaging unit includes first information that is information of an image captured by the imaging unit; an acquiring step of acquiring at least one of second information that is information relating to an imaging range to be photographed by the imaging unit; and an application control step for providing the user with the application. This method also makes it possible to automatically provide an application that is executed in cooperation with the imaging unit based on the information about the image or imaging range obtained from the imaging unit.
本発明の他の好適な実施形態では、撮影部と接続され、コンピュータを備える情報処理装置によって実行される情報処理プログラムは、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得手段、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御手段、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の情報処理装置を実現することができる。このプログラムは記憶媒体に記憶することができる。 In another preferred embodiment of the present invention, the information processing program executed by an information processing apparatus connected to the imaging unit and provided with a computer includes first information that is information of an image captured by the imaging unit; Acquisition means for acquiring at least one of second information that is information relating to an imaging range to be photographed by an imaging unit; The computer functions as application control means for providing corresponding applications to the user. By executing this program on a computer, the above information processing apparatus can be realized. This program can be stored in a storage medium.
以下、図面を参照して本発明の好適な実施例について説明する。
[構成]
図1は、本発明の実施例に係るインタラクションシステムの構成を示す。インタラクションシステムは、撮影装置10と、情報処理装置としてのPC20とを備える。撮影装置10とPC20は、信号ケーブルなどにより有線接続されるか、又は無線通信により接続される。インタラクションシステムでは、撮影装置10が撮影した撮影画像がPC20へ送信される。PC20には、撮影装置10と連携して動作する複数のアプリケーションがインストールされている。ユーザが撮影装置10を所定の位置に設置し、撮影装置10からPC20へ撮影画像が送信されると、PC20は、受信した撮影画像に基づいて、内部にインストールされている複数のアプリケーションから、ユーザが実行しようと考えているアプリケーションを推定し、そのアプリケーションの起動、そのアプリケーションの実行のために必要な設定などを自動的に行う。
Preferred embodiments of the present invention will be described below with reference to the drawings.
[Constitution]
FIG. 1 shows the configuration of an interaction system according to an embodiment of the present invention. The interaction system includes a
図2は、撮影装置10の外観を示す。撮影装置10は、本体部11と、可動部12と、固定部14と、を備える。固定部14は、撮影装置10を何らかの形で固定するための部分である。本実施例では、固定部14はクリップとして構成されており、PC20の画面端部に挟んで固定したり、スタンドとしてデスクの上に置いたりできるようになっている。
FIG. 2 shows the appearance of the
可動部12は、ユーザが本体部11の向きや位置を調整するための部分であり、回転部12aと、支持部12bと、回転軸12cとを備える。回転部12aは、支持部12bに対して回転軸12cの回りに回転可能である。回転部12aは本体部11に固定されており、支持部13は固定部14に固定されている。これにより、本体部11は、固定部14に対して回転可能となっている。なお、本実施例では、回転部12は一軸の回転のみが可能に構成されているが、これ以外に多軸の回転機構やスライド機構を備えていても構わない。
The
本体部11は、複数の発光部15と、一対のカメラモジュール16とを備える。本体部11は、PC20側で実行されるアプリケーションに応じて、様々な撮影機能を有するものとする。本実施例では、本体部11は、一対のカメラモジュール16を設けてステレオカメラとし、さらに3つの赤外線LEDの発光部15を備えている。また、カメラモジュール16には、オン/オフの切替えが可能な、図示しない赤外線透過・可視光カットフィルタ(以下、単に「光学フィルタ」と呼ぶ。)が設けられている。光学フィルタのオン/オフは、PC20から供給される制御信号により切替えられる。
The
図3は、可動部12による回転の様子を示す。図3(A)は、固定部14に対して本体部11をほぼ垂直に起立させた状態を示し、本体部11のカメラモジュール16は矢印の方向を撮影する。図3(B)は、本体部11を固定部14に対して回転軸12c周りに180度回転させた様子を示しており、本体部11のカメラモジュール16は、回転状態(回転角度)に応じて矢印の方向を撮影する。なお、可動部12には図示しない回転エンコーダなどの回転角検出機構が設けられており、ユーザが設定した状態における回転部12aの回転角度を検出する。
FIG. 3 shows how the
図4は、PC20の機能構成を示すブロック図である。PC20は、通信部21と、入力部22と、表示部23と、制御部24とを備える。通信部21は、有線又は無線通信により、撮影装置10との間で制御信号や撮影画像の送受信を行う。入力部22はキーボードやマウスなどの情報入力装置であり、本実施例ではラップトップPCの本体に設けられたキーボード及び図示しないマウスである。表示部23は液晶ディスプレイなどの情報出力装置であり、本実施例ではラップトップPCの本体に設けられた液晶ディスプレイである。
FIG. 4 is a block diagram showing the functional configuration of the
制御部24は、PC20の構成全体を統括的に制御するものであり、具体的にはPC20のCPUなどにより構成される。制御部24は、自動設定ソフトウェアと、カメラと連携して動作するカメラアプリケーション(以下、単に「アプリケーション」とも呼ぶ。)A1~A4とを実行する。
The
自動設定ソフトウェアは、撮影装置10による撮影画像、撮影装置10の可動部12の状態などに基づいて、ユーザが使用したいインタラクション方法に対応するアプリケーションを推定し、そのアプリケーションを自動で起動したり、そのアプリケーションに必要な設定を自動で行ったりするものである。
The automatic setting software estimates an application corresponding to the interaction method that the user wants to use based on the image captured by the
カメラアプリケーションA1~A4は、インタラクションシステムが提供するインタラクション方法を実現するソフトウェアであり、本実施例ではそれぞれ以下のようになっている。
(A1):画面に対するジェスチャ操作アプリケーション
(A2):キーボード付近でのジェスチャ操作アプリケーション
(A3):視線入力アプリケーション
(A4):Webカメラアプリケーション
The camera applications A1 to A4 are software that implements an interaction method provided by the interaction system, and are configured as follows in this embodiment.
(A1): Gesture operation application for the screen (A2): Gesture operation application near the keyboard (A3): Gaze input application (A4): Web camera application
具体的に、アプリケーションA1は、ユーザが画面に対して指差しなどのジェスチャを行うことにより、表示部23の画面に表示されたメニューやアイコンなどの操作を行うアプリケーションである。なお、この場合のユーザによるジェスチャは、指を画面に接触させる必要はなく、空中で行えばよい。このアプリケーションにより、タッチパネルのような操作が可能となる。また、指などが画面に触れなくても、撮影画像から指の位置や軌跡を取得することができるので、タッチパネルでは不可能なインタラクションも実現することができる。 Specifically, the application A1 is an application for operating menus, icons, and the like displayed on the screen of the display unit 23 by the user performing gestures such as pointing to the screen. Note that the gesture by the user in this case does not need to touch the screen with a finger, and can be performed in the air. This application enables touch panel-like operations. In addition, even if the finger or the like does not touch the screen, the position and trajectory of the finger can be acquired from the captured image, so interaction that cannot be achieved with a touch panel can be realized.
アプリケーションA2は、ユーザがキーボード付近で例えば特定の手形状を作ったり、指をキーボードから浮かせて振るなどのジェスチャを行うことにより操作を行うアプリケーションである。このアプリケーションでは、キーボードから手を離す必要が無いので、キー入力をしながらスムーズな操作を行うことができる。 The application A2 is an application that is operated by the user making a gesture such as making a specific hand shape near the keyboard or waving a finger above the keyboard. With this application, you don't have to take your hands off the keyboard, so you can operate smoothly while typing.
アプリケーションA3は、ユーザの視線によりポインタを操作するアプリケーションである。具体的には、ユーザの顔の撮影画像からユーザの目の部分を抽出して視線の方向を検出し、検出された視線の方向に対応する操作入力を有効とする。 Application A3 is an application that operates a pointer according to the user's line of sight. Specifically, the eye portion of the user is extracted from the photographed image of the user's face to detect the line-of-sight direction, and the operation input corresponding to the detected line-of-sight direction is validated.
アプリケーションA4は、遠隔地と動画付きで対話を行う、いわゆるテレビ電話のようなアプリケーションである。対話を行わない時は、撮影装置10による撮影画像が表示部23に表示するのみとなる。
Application A4 is an application such as a so-called videophone that performs a dialogue with a remote location with moving images. When the dialogue is not performed, only the image captured by the
なお、各アプリケーションは、自身に対する設定を、自動設定ソフトウェアから受け取ることができる。 Note that each application can receive settings for itself from the auto-configuration software.
[自動設定処理]
次に、自動設定ソフトウェアによる自動設定処理について説明する。図5は、自動設定処理のフローチャートである。自動設定処理は、PC20のCPUなどの制御部24が自動設定ソフトウェアを実行することにより、繰り返し実行される。
[Auto setting process]
Next, automatic setting processing by automatic setting software will be described. FIG. 5 is a flowchart of automatic setting processing. The automatic setting process is repeatedly executed by the
まず、制御部24は、撮影装置10による撮影画像を取得する(ステップS11)。具体的には、制御部24が通信部21を通じて、撮影装置10から撮影画像を受信する。
First, the
次に、制御部24は、撮影装置10の可動部12の回転角度を取得する(ステップS12)。即ち、撮影装置10の可動部12に設けられた回転角検出機構により検出された回転角度が撮影装置10から送信され、制御部24は通信部21を介してその回転角度を取得する。
Next, the
次に、制御部24は撮影装置10の移動検知を行う(ステップS13)。具体的には、制御部24は、撮影装置10全体の移動や、可動部12の回転により、カメラモジュール16の撮影範囲が変化したことを検知する。即ち、制御部24は、撮影装置10から取得した撮影画像を分析し、撮影画像が大きく変化した場合に、撮影装置10が移動されたと判定する。より詳しくは、制御部24は、撮影画像や可動部の回転角度の時間的な変動量に基づいて、移動の有無を判定する。なお、移動が連続的に検知されている間は、制御部24は未だ撮影装置10の移動中であると判定し、撮影画像や可動部12の回転角度の変化が終了した時点で、移動が完了したものと判定するのが好ましい。
Next, the
撮影装置10の移動が検知されない場合(ステップS13:No)、処理は終了する。一方、撮影装置10の移動が検知された場合(ステップS13:Yes)、制御部24は、アプリケーション推定処理を行う(ステップS14)。なお、自動設定処理の開始直後、即ち、自動設定処理の最初の実行時には、ステップS13の移動検知を行わず、ステップS14のアプリケーション推定処理に進むものとする。
If the movement of the photographing
アプリケーション推定処理は、ユーザが意図するインタラクション方法を推定する処理である。前提として、各インタラクション方法に対応するアプリケーションと撮影装置10の設置状態(置き方)とが予め関連付けられているものとする。ここでは、前述の4つのアプリケーションA1~A4がPC20にインストールされているものとする。以下に、各アプリケーションと、撮影装置10の設置状態の関係を説明する。
Application estimation processing is processing for estimating the interaction method intended by the user. As a premise, it is assumed that the application corresponding to each interaction method and the installation state (placement method) of the photographing
(A1)画面に対するジェスチャ操作アプリケーション
このアプリケーションを実行する際には、図6(A)に例示するように、撮影装置10はPC20の表示部23の画面を撮影する位置に配置される。より具体的には、撮影装置10は、デスク上などのPC20の画面から数十cm離れた位置に、画面を見上げるように配置されることが想定される。この場合、撮影装置10の撮影画像は、PC20の画面を含むことになる。
(A1) Gesture Manipulation Application for Screen When executing this application, the photographing
(A2)キーボード付近でのジェスチャ操作アプリケーション
このアプリケーションでは、ユーザはキーボード上でジェスチャを行い、撮影装置10はその際のユーザの手や指を撮影する。よって、図6(B)に例示するように、撮影装置10は、PC20の画面の上部に、キーボードの領域を見下ろすように配置されると想定される。この場合、撮影装置10の撮影画像は、キーボードを含むことになる。
(A2) Gesture operation application near the keyboard In this application, the user makes a gesture on the keyboard, and the
(A3)視線入力アプリケーション
このアプリケーションは、ユーザの顔を撮影し、目(瞳孔)の動きに基づいて視線方向を検出する。よって、図7(A)に例示するように、撮影装置10は人物の正面から顔を見上げるように設置されると想定される。なお、視線検出を行う場合には、人物の瞳孔が瞼によって遮られないように撮影するために、下から見上げるように撮影装置10を設置するのが一般的である。よってこの場合、撮影装置10はその撮影方向が、撮影装置10自身が固定されている位置に対して上方に向くように固定されることになり、撮影装置10の可動部12は下から上を見上げるような回転角度となる。
(A3) Line-of-sight input application This application captures the user's face and detects the line-of-sight direction based on the movement of the eyes (pupils). Therefore, as illustrated in FIG. 7A, it is assumed that the photographing
(A4)Webカメラアプリケーション
このアプリケーションの使用時には、人物の顔全体を撮影することになる。よって、図7(B)に例示するように、撮影装置10はPC20の画面の上部などに、人物と正対するような角度で配置されると想定される。この場合、撮影装置10の可動部12は、正面を撮影するための回転角度、例えば図3(A)の状態における回転角度となる。
(A4) Web camera application When using this application, the entire face of a person is photographed. Therefore, as illustrated in FIG. 7B, it is assumed that the photographing
以上のように、アプリケーション毎に撮影装置10の設置状態が異なってくる。よって、アプリケーション推定処理により、制御部24は、撮影装置10による撮影画像、及び、撮影装置10の可動部12の回転角度に基づいて、ユーザが想定しているインタラクション方法、即ち、ユーザが実行しようとしているアプリケーションを判別することができる。
As described above, the installation state of the
図8は、アプリケーション推定処理のフローチャートである。まず、制御部24は、撮影装置10から取得した撮影画像にPC20の画面が含まれているか否かを判定する(ステップS21)。ここでは、例えばPC20の画面の四隅に赤外線LEDが設定されており、撮影装置10の光学フィルタをオンにして撮影を行うことにより、PC20の画面が含まれているか否かが容易に判定できるものとする。
FIG. 8 is a flowchart of application estimation processing. First, the
撮影画像にPC20の画面が含まれている場合(ステップS21:Yes)、制御部24はユーザがアプリケーションA1を使用するつもりであると推定してアプリケーションA1を選択する(ステップS22)。
If the captured image includes the screen of the PC 20 (step S21: Yes), the
一方、撮影画像にPC20の画面が含まれていない場合(ステップS21:No)、制御部24は、撮影画像にPC20のキーボードが含まれているか否かを判定する(ステップS23)。この場合も、PC20の画面の検出と同様に、例えば赤外線LEDをキーボードの四隅を含む周囲6~8か所に設置し、光学フィルタをオンにして撮影を行うことにより、撮影画像からキーボードの有無を検出できるものとする。なお、この例では、赤外線LEDの数によりPC20の画面とキーボードを判別できる。
On the other hand, if the captured image does not include the screen of the PC 20 (step S21: No), the
撮影画像にキーボードが含まれている場合(ステップS23:Yes)、制御部24は、ユーザがアプリケーションA2を使用するつもりであると推定してアプリケーションA2を選択する(ステップS24)。
If the captured image includes a keyboard (step S23: Yes), the
一方、撮影画像にキーボードが含まれていない場合(ステップS23:No)、制御部24は、撮影装置10から取得した可動部12の回転角度に基づいて、撮影装置10が下から見上げる角度になっているか否かを判定する(ステップS25)。例えば、図7(A)のように、撮影装置10がデスク上に置かれている場合、可動部12の回転角度は図3(B)に示すように180度に近い角度となる。よって、撮影装置10から取得した回転角度が180度に近い場合、制御部24は見上げる角度であると判定することができる。
On the other hand, when the keyboard is not included in the captured image (step S23: No), the
撮影装置10が見上げる角度になっている場合(ステップS25:Yes)、制御部24は、ユーザがアプリケーションA3を使用するつもりであると推定してアプリケーションA3を選択する(ステップS26)。
If the photographing
一方、撮影装置10が見上げる角度になっていない場合(ステップS25:No)、制御部24は、ユーザが残りのアプリケーションA4を使用するつもりであると推定してアプリケーションA4を選択する(ステップS27)。
On the other hand, if the photographing
そして、制御部24は、ステップS22、S24、S26、S27のいずれかで選択されたアプリケーションを起動する(ステップS28)。こうして、アプリケーション推定処理は終了し、処理は図5のステップS15へ進む。
ステップS15では、制御部24は、アプリケーション推定処理で選択されたアプリケーションに応じて、アプリケーション別の設定を行う。
Then, the
In step S15, the
(1)アプリケーション推定処理でアプリケーションA1が選択された場合、PC20の制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオンにするとともに、光学フィルタをオンにする。これにより、カメラモジュール16は、アプリケーションA1の実行中に、撮影画像として、自身から発光した赤外線の反射を撮影することができるため、背景の影響を比較的受けずに撮影画像からユーザの指などを検出することができるようになる。
(1) When the application A1 is selected in the application estimation process, the
さらに、制御部24は、撮影画像から、赤外線LEDの検出を利用して画面の位置情報を取得する。そして、撮影画像の座標から、画面を基準とした座標への座標変換パラメータを算出し、アプリケーションA1に設定する。これにより、制御部24は、アプリケーションA1の実行中に、撮影画像から検出したユーザの指などの位置を、画面に対する位置に変換することが可能となる。
Furthermore, the
(2)アプリケーション推定処理でアプリケーションA2が選択された場合、PC20の制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオフにするとともに、光学フィルタをオフにする。アプリケーションA2の場合、ジェスチャが行われる領域の背景はキーボードであるとわかっているため、比較的簡単な処理で撮影画像からユーザの指などを検出することができる。具体的には、撮影画像中の肌色領域をユーザの指などとして検出したり、キーボードの画像を既知の固定背景として撮影画像から除去したりすることができる。このため、赤外線発光や光学フィルタの機能は不要となる。
(2) When application A2 is selected in the application estimation process, the
さらに、制御部24は、赤外線LEDの位置に基づいてキーボードの四隅の位置を算出し、アプリケーションA2に設定しておく。これにより、ユーザによるジェスチャ操作の検出領域をキーボード内に限定することができる。さらに、キーボードの位置(撮影装置10との距離)を予め把握しておくことにより、アプリケーションA2の実行中に指を検出したときに、指の位置(撮影装置10との距離)を算出し、指がキーボードから浮いた状態であるか否かを判定することができる。これは、指によるジェスチャの開始を判定するために有効である。
Further, the
(3)アプリケーション推定処理でアプリケーションA3が選択された場合、制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオンにするとともに、光学フィルタをオンにする。また、カメラモジュール16を解像度優先の設定とする。これにより、アプリケーションA3の実行中に、照射した赤外線を反射している瞳孔を撮影することができる。また、高解像度の画像を使うことで、視線方向の検出の精度を高めることができる。
(3) When the application A3 is selected in the application estimation process, the
(4)アプリケーション推定処理でアプリケーションA4が選択された場合、制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオフにするとともに、光学フィルタをオフにする。これにより、アプリケーションA4の実行中に、撮影装置10で撮影したユーザの顔などの画像を可視光撮影し、テレビ電話の相手に送信することができる。
(4) When application A4 is selected in the application estimation process, the
[変形例]
(変形例1)
上記のアプリケーション推定処理では、アプリケーションA1~A4のいずれかが選択されると、ステップS28で制御部24が自動的にそのアプリケーションを起動している。その代わりに、制御部24はアプリケーションの起動を行わず、ユーザがそのアプリケーションを起動するのを待つこととしてもよい。この場合、ユーザがそのアプリケーションを起動したときに、制御部24は図5のステップS15に示すアプリケーション別の設定行えばよい。また、アプリケーションの起動前に行うことができる設定であれば、ユーザがそのアプリケーションを起動するのに先立って、予めアプリケーション別の設定を実施しておいてもよい。
[Modification]
(Modification 1)
In the application estimation process described above, when one of the applications A1 to A4 is selected, the
(変形例2)
上記の実施例では、PC20の所定箇所に設けたLEDを撮影画像から検出したり、撮影装置10の可動部12の回転角度を取得することにより、撮影装置10とPC20との位置関係を算出しているが、以下のような他の方法により撮影装置10の設置状態を検知しても良い。
(Modification 2)
In the above-described embodiment, the positional relationship between the photographing
一つの方法として、撮影画像を解析することにより、撮影装置10の設置状態を検知しても良い。具体的には、撮影画像の特徴により、PCの画面やキーボードを検出する。例えば、4辺の直線検出により画面を検出したり、多数の矩形を検出することによりキーボードを検出してもよい。また、画面表示の制御手段を設け、画面に検出が可能なマーカーを表示し、撮影画像からマーカーの有無やその位置を検出して、撮影装置10の画面に対する位置を算出してもよい。
As one method, the installation state of the
他の方法として、撮影装置10の固定部14にセンサを設け、物を挟んでいることや立てていることを検出しても良い。
As another method, a sensor may be provided in the fixed
また、PCとの関係に限らず、人物との位置関係を利用して、撮影装置10の設置状態を検知してもよい。例えば、撮影画像から顔検出を行い、所定時間(例えば10秒)以上にわたって人物の顔の位置・サイズの変動が無い又は小さい場合に、撮影装置10の人物に対する位置を把握できたものとする。また、顔の位置・サイズの他に、向きを検出しても良い。これにより、例えば顔が正面向きで所定サイズ以上の場合にはWebアプリケーションを選択し、顔を見上げる角度の場合には視線入力アプリケーションを選択しても良い。
In addition, the installation state of the
また、撮影装置10の設置状態の検知状況をユーザに知らせてもよい。少なくとも、撮影装置10の移動を検知したときに、撮影画像からの画面やキーボードの検知状況をPC20の表示部23に表示してもよい。例えば、撮影画像にLEDやマーカーの検出状態をスーパーインポーズしたものを表示部23に表示しても良い。これにより、ユーザは、移動させた撮影装置10が意図した被写体を含んでいるか否かを確認したり、撮影装置10の位置を微調整したりすることができる。
Also, the user may be notified of the detection status of the installation state of the
(変形例3)
上記の実施例では、撮影装置10の設定として、解像度、赤外線透過・可視光カットフィルタのオン/オフ、赤外線発光のオン/オフを行い、アプリケーションの設定としては撮影装置10に対する画面やキーボードの位置算出を行っているが、他にも機能を備え、自動設定ソフトウェアから設定を行うようにしてもよい。
(Modification 3)
In the above embodiment, as the settings of the
具体的には、撮影装置10がパン・チルト・ズームなどの機構を備える場合、アプリケーションに応じてこれらの機構を制御する。例えば視線入力アプリケーションでは、人物の目の周辺の高解像度画像を撮影するために顔付近にズームインする。一方、画面に対するジェスチャ操作アプリケーションを実行する場合には、ジェスチャが行われる領域全体を撮影するためにズームアウトする。
Specifically, when the photographing
また、赤外線発光の範囲や方向を制御可能としても良い。例えば、視線入力アプリケーションを実行する場合には顔付近を中心に赤外線を照射し、画面に対するジェスチャ操作アプリケーションを実行する場合には広く赤外線を照射する。 Also, the range and direction of infrared light emission may be controllable. For example, when executing a line-of-sight input application, infrared rays are emitted mainly around the face, and when executing a gesture operation application on the screen, infrared rays are emitted widely.
また、ステレオ撮影が不要なアプリケーションを使用するときには、一方のカメラモジュール16のみで撮影するように設定しても良い。
Also, when using an application that does not require stereo shooting, the setting may be such that only one
さらに、状況に応じて、露出制御方法を切り替えてもよい。例えば、赤外線透過・可視光カットフィルタをオンにし、赤外線照射して撮影を行う場合には、通常の可視光撮影の露出制御ではなく、赤外線撮影による被写体検出に適した露出制御としてもよい。 Furthermore, the exposure control method may be switched depending on the situation. For example, when the infrared transmission/visible light cut filter is turned on and infrared irradiation is performed, exposure control suitable for subject detection by infrared photography may be performed instead of normal exposure control for visible light photography.
10 撮影装置
11 本体部
12 可動部
14 固定部
16 カメラモジュール
20 PC
24 制御部
REFERENCE SIGNS
24 control unit
Claims (1)
前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、
を備えることを特徴とする情報処理装置。 an acquisition unit that acquires at least one of first information that is information about an image captured by a capturing unit and second information that is information about a capturing range captured by the capturing unit;
an application control unit that provides a user with an application corresponding to the information acquired by the acquisition unit among a plurality of applications that use information of an image captured by the image capturing unit;
An information processing device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022095555A JP2022121468A (en) | 2020-10-26 | 2022-06-14 | Information processing apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020178874A JP2021036440A (en) | 2020-10-26 | 2020-10-26 | Information processing apparatus |
JP2022095555A JP2022121468A (en) | 2020-10-26 | 2022-06-14 | Information processing apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020178874A Division JP2021036440A (en) | 2020-10-26 | 2020-10-26 | Information processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022121468A true JP2022121468A (en) | 2022-08-19 |
Family
ID=74716978
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020178874A Pending JP2021036440A (en) | 2020-10-26 | 2020-10-26 | Information processing apparatus |
JP2022095555A Pending JP2022121468A (en) | 2020-10-26 | 2022-06-14 | Information processing apparatus |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020178874A Pending JP2021036440A (en) | 2020-10-26 | 2020-10-26 | Information processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2021036440A (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4878409B2 (en) * | 1999-03-23 | 2012-02-15 | キヤノン株式会社 | Information control apparatus, information control method, and storage medium |
JP4936504B2 (en) * | 2005-09-26 | 2012-05-23 | キヤノン株式会社 | Cradle device and operation terminal program thereof, and camera system |
JP4979525B2 (en) * | 2007-09-20 | 2012-07-18 | 株式会社日立製作所 | Multi camera system |
-
2020
- 2020-10-26 JP JP2020178874A patent/JP2021036440A/en active Pending
-
2022
- 2022-06-14 JP JP2022095555A patent/JP2022121468A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2021036440A (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2405299B1 (en) | Information processing device, information processing method, and program | |
US9952663B2 (en) | Method for gesture-based operation control | |
WO2014054211A1 (en) | Information processing device, display control method, and program for modifying scrolling of automatically scrolled content | |
EP2615525B1 (en) | Touch free operation of devices by use of depth sensors | |
JP5412227B2 (en) | Video display device and display control method thereof | |
JP6372487B2 (en) | Information processing apparatus, control method, program, and storage medium | |
JP6390799B2 (en) | Input device, input method, and program | |
US20150109437A1 (en) | Method for controlling surveillance camera and system thereof | |
EP2364013A2 (en) | Information processing apparatus, method and program for imaging device | |
EP3201724A1 (en) | Gesture based manipulation of three-dimensional images | |
CN112099618A (en) | Electronic device, control method of electronic device, and storage medium | |
JP5817149B2 (en) | Projection device | |
KR20160027732A (en) | Display device and controlling method thereof | |
WO2020080107A1 (en) | Information processing device, information processing method, and program | |
JPWO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device | |
JP2018112894A (en) | System and control method | |
JP2016126687A (en) | Head-mounted display, operation reception method, and operation reception program | |
JP2022121468A (en) | Information processing apparatus | |
JP6319220B2 (en) | Transparent wearable terminal, data processing apparatus, and data processing system | |
US9300908B2 (en) | Information processing apparatus and information processing method | |
JP5229928B1 (en) | Gaze position specifying device and gaze position specifying program | |
JP2019050047A (en) | Information processing apparatus | |
JP2016045918A (en) | Information processing apparatus, information processing method, and information processing program | |
KR20140139743A (en) | Method for controlling display screen and display apparatus thereof | |
JP2018173907A (en) | Information processing apparatus, method for controlling information processing apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240109 |