JP2022121468A - Information processing apparatus - Google Patents

Information processing apparatus Download PDF

Info

Publication number
JP2022121468A
JP2022121468A JP2022095555A JP2022095555A JP2022121468A JP 2022121468 A JP2022121468 A JP 2022121468A JP 2022095555 A JP2022095555 A JP 2022095555A JP 2022095555 A JP2022095555 A JP 2022095555A JP 2022121468 A JP2022121468 A JP 2022121468A
Authority
JP
Japan
Prior art keywords
application
information
imaging
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022095555A
Other languages
Japanese (ja)
Inventor
誠 倉橋
Makoto Kurahashi
宏 永田
Hiroshi Nagata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022095555A priority Critical patent/JP2022121468A/en
Publication of JP2022121468A publication Critical patent/JP2022121468A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To automatically perform starting, setting, and the like of an application that cooperates with an imaging apparatus, on the basis of information obtained from the imaging apparatus.
SOLUTION: In an information processing apparatus, an acquisition section acquires at least one of first information which is information on an image captured by an imaging section and second information which is information on an imaging range to be captured by the imaging section. An application control section provides a user with an application corresponding to the information acquired by the acquisition section, out of a plurality of applications which use the information on the image captured by the imaging section. On the basis of the image obtained from the imaging section or information on the imaging range, an application to be executed in cooperation with the imaging section is automatically started or settings required for executing the application are automatically performed.
SELECTED DRAWING: Figure 5
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、撮影装置と接続された端末装置において、アプリケーションの起動や設定を自動的に行う技術に関する。 The present invention relates to a technique for automatically starting an application and making settings in a terminal device connected to a photographing device.

PCにカメラを接続し、その撮影画像を用いて実行される様々なアプリケーションが存在する。例えば、テレビ電話はその一例である。また、特許文献1には、PCユーザの手の動きを検出することにより、検出した手の動きに応じた操作(クリック、選択、実行など)を可能とするアプリケーションが開示されている。 There are various applications that connect a camera to a PC and run using the captured image. For example, a videophone is one such example. Further, Patent Literature 1 discloses an application that detects hand movements of a PC user and enables operations (click, selection, execution, etc.) according to the detected hand movements.

特表2010-500645号公報Japanese Patent Publication No. 2010-500645

1つのカメラに対して、それと連携して動作可能な複数のアプリケーションが存在する場合がある。この場合、1つのアプリケーションから他のアプリケーションに切り替えを行うには、ユーザはカメラの設置位置などを変更した後、手動でそのアプリケーションを立ち上げたり、そのアプリケーションのための設定を行ったりする必要があり、煩わしいという課題があった。 There may be multiple applications that can work in conjunction with a single camera. In this case, in order to switch from one application to another, the user must change the installation position of the camera, etc., then manually launch the application or configure the settings for that application. There was a problem that it was troublesome.

本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、撮影装置から得た情報に基づいて、その撮影装置と連携して動作するアプリケーションの起動・設定などを自動的に行うことを目的とする。 Examples of the problems to be solved by the present invention include the above. SUMMARY OF THE INVENTION It is an object of the present invention to automatically start and set an application that operates in cooperation with a photographing device based on information obtained from the photographing device.

請求項に記載の発明は、情報処理装置であって、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、を備えることを特徴とする。 According to a claim of the invention, there is provided an information processing apparatus comprising at least one of first information that is information about an image captured by a photographing unit and second information that is information about a photographing range photographed by the photographing unit. and an application control unit that provides a user with an application corresponding to the information acquired by the acquisition unit, among a plurality of applications that use information of the image captured by the imaging unit. characterized by

本発明の実施例に係るインタラクションシステムの構成を示す。1 shows the configuration of an interaction system according to an embodiment of the present invention; 撮影装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of an imaging device. 可動部による回転の様子を示す。The state of rotation by a movable part is shown. PCの機能構成を示すブロックである。It is a block showing the functional configuration of the PC. 自動設定処理のフローチャートである。6 is a flowchart of automatic setting processing; 撮影装置の設置状態の例を示す。An example of an installation state of an imaging device is shown. 撮影装置の設置状態の例を示す。An example of an installation state of an imaging device is shown. アプリケーション推定処理のフローチャートである。9 is a flowchart of application estimation processing;

本発明の好適な実施形態では、情報処理装置は、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、を備える。 In a preferred embodiment of the present invention, the information processing device stores at least one of first information, which is information about an image captured by a capturing unit, and second information, which is information about a capturing range captured by the capturing unit. and an application control unit that provides a user with an application corresponding to the information acquired by the acquisition unit, among a plurality of applications that use the information of the image captured by the imaging unit.

上記の情報処理装置は、カメラなどの撮影部によって撮影された画像の情報である第1情報と、その撮影範囲に関する第2情報の少なくとも一方を取得し、取得した情報に対応するアプリケーションをユーザに提供する。よって、撮影部から得られる画像又は撮影範囲に関する情報に基づいて、その撮影部と連携して実行されるアプリケーションを自動的に提供することができる。ここで、アプリケーションを提供するとは、アプリケーションを起動すること、アプリケーションに対する必要な設定を行うことの少なくとも一方を含む。 The above information processing apparatus acquires at least one of first information, which is information of an image taken by an imaging unit such as a camera, and second information about the imaging range, and provides an application corresponding to the acquired information to a user. offer. Therefore, based on the information about the image or the imaging range obtained from the imaging unit, it is possible to automatically provide the application executed in cooperation with the imaging unit. Here, providing an application includes at least one of starting the application and making necessary settings for the application.

上記の情報処理装置の一態様では、前記アプリケーション制御部は、前記撮影部によって撮影された画像に情報出力装置が含まれている場合には第1のアプリケーションをユーザに提供し、前記撮影部によって撮影された画像に情報入力装置が含まれている場合には第2のアプリケーションをユーザに提供する。この態様では、撮影画像に情報出力装置が含まれるか、情報入力装置が含まれるかによって、異なるアプリケーションが提供される。 In one aspect of the information processing apparatus described above, the application control unit provides a first application to the user when an information output device is included in the image captured by the imaging unit, and the imaging unit A second application is provided to the user when the information input device is included in the photographed image. In this aspect, different applications are provided depending on whether the captured image includes the information output device or the information input device.

上記の情報処理装置の他の一態様では、前記第2情報は、前記撮影部の撮影方向に関する情報を含み、前記アプリケーション制御部は、前記撮影部が固定されている位置に対して上方を撮影している場合には第3のアプリケーションをユーザに提供し、前記固定部が固定されている位置に対して上方を撮影していない場合には第4のアプリケーションをユーザに提供する。この態様では、撮影部が上方、下方のいずれを撮影しているかに応じて、異なるアプリケーションが提供される。 In another aspect of the information processing device, the second information includes information about the shooting direction of the shooting unit, and the application control unit shoots an image above a position where the shooting unit is fixed. If so, the user is provided with the third application, and if the image above the position where the fixing portion is fixed is not being photographed, the user is provided with the fourth application. In this aspect, different applications are provided depending on whether the photographing unit is photographing upwards or downwards.

上記の情報処理装置の他の一態様では、前記アプリケーション制御部は、前記取得部が取得した情報に対応したアプリケーションの起動、及び、そのアプリケーションに対する設定の少なくとも一方を実行する。さらに他の一態様では、前記アプリケーション制御部は、前記取得部が取得した情報に対応したアプリケーションを実行する場合の前記撮影部に対する設定を行う。これにより、撮影した画像の情報又は撮影範囲に関する情報に基づいて、アプリケーションの起動や必要な設定が自動的に実行される。 In another aspect of the information processing apparatus, the application control unit executes at least one of starting an application corresponding to the information acquired by the acquisition unit and setting the application. In still another aspect, the application control section performs settings for the imaging section when executing an application corresponding to the information acquired by the acquisition section. As a result, the application is automatically activated and necessary settings are performed based on the information about the captured image or the information about the imaging range.

上記の情報処理装置の好適な例では、前記撮影部は、赤外線発光機能と、赤外線を透過するとともに可視光をカットする光学フィルタと、を備え、前記アプリケーション制御部は、前記赤外線発光機能のオンとオフ、及び、前記光学フィルタのオンとオフを設定する。 In a preferred example of the information processing device, the photographing unit includes an infrared light emission function and an optical filter that transmits infrared rays and cuts visible light, and the application control unit turns on the infrared light emission function. and off, and on and off of the optical filter.

他の好適な例では、情報処理装置は、情報入力装置又は情報出力装置を備え、前記第2の情報は、前記撮影部と、前記情報入力装置又は前記情報出力装置との相対的位置関係を示す情報を含み、前記取得部は、前記第1情報の画像解析により、前記相対的位置関係を示す情報を生成する。 In another preferred example, the information processing device includes an information input device or an information output device, and the second information is a relative positional relationship between the photographing unit and the information input device or the information output device. The obtaining unit generates information indicating the relative positional relationship by image analysis of the first information.

本発明の他の好適な実施形態では、撮影部と接続された情報処理装置によって実行される情報処理方法は、前記撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得工程と、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御工程と、を有する。この方法によっても、撮影部から得られる画像又は撮影範囲に関する情報に基づいて、その撮影部と連携して実行されるアプリケーションを自動的に提供することができる。 In another preferred embodiment of the present invention, an information processing method executed by an information processing device connected to an imaging unit includes first information that is information of an image captured by the imaging unit; an acquiring step of acquiring at least one of second information that is information relating to an imaging range to be photographed by the imaging unit; and an application control step for providing the user with the application. This method also makes it possible to automatically provide an application that is executed in cooperation with the imaging unit based on the information about the image or imaging range obtained from the imaging unit.

本発明の他の好適な実施形態では、撮影部と接続され、コンピュータを備える情報処理装置によって実行される情報処理プログラムは、撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得手段、前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御手段、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記の情報処理装置を実現することができる。このプログラムは記憶媒体に記憶することができる。 In another preferred embodiment of the present invention, the information processing program executed by an information processing apparatus connected to the imaging unit and provided with a computer includes first information that is information of an image captured by the imaging unit; Acquisition means for acquiring at least one of second information that is information relating to an imaging range to be photographed by an imaging unit; The computer functions as application control means for providing corresponding applications to the user. By executing this program on a computer, the above information processing apparatus can be realized. This program can be stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。
[構成]
図1は、本発明の実施例に係るインタラクションシステムの構成を示す。インタラクションシステムは、撮影装置10と、情報処理装置としてのPC20とを備える。撮影装置10とPC20は、信号ケーブルなどにより有線接続されるか、又は無線通信により接続される。インタラクションシステムでは、撮影装置10が撮影した撮影画像がPC20へ送信される。PC20には、撮影装置10と連携して動作する複数のアプリケーションがインストールされている。ユーザが撮影装置10を所定の位置に設置し、撮影装置10からPC20へ撮影画像が送信されると、PC20は、受信した撮影画像に基づいて、内部にインストールされている複数のアプリケーションから、ユーザが実行しようと考えているアプリケーションを推定し、そのアプリケーションの起動、そのアプリケーションの実行のために必要な設定などを自動的に行う。
Preferred embodiments of the present invention will be described below with reference to the drawings.
[Constitution]
FIG. 1 shows the configuration of an interaction system according to an embodiment of the present invention. The interaction system includes a photographing device 10 and a PC 20 as an information processing device. The photographing device 10 and the PC 20 are connected by wire using a signal cable or the like, or by wireless communication. In the interaction system, a photographed image photographed by the photographing device 10 is transmitted to the PC 20 . A plurality of applications that operate in cooperation with the photographing device 10 are installed in the PC 20 . When the user installs the photographing device 10 at a predetermined position and the photographed image is transmitted from the photographing device 10 to the PC 20, the PC 20, based on the received photographed image, receives the user's image from a plurality of applications installed therein. presumes the application to be executed, automatically starts the application, and automatically performs settings required for execution of the application.

図2は、撮影装置10の外観を示す。撮影装置10は、本体部11と、可動部12と、固定部14と、を備える。固定部14は、撮影装置10を何らかの形で固定するための部分である。本実施例では、固定部14はクリップとして構成されており、PC20の画面端部に挟んで固定したり、スタンドとしてデスクの上に置いたりできるようになっている。 FIG. 2 shows the appearance of the imaging device 10. As shown in FIG. The imaging device 10 includes a body portion 11 , a movable portion 12 and a fixed portion 14 . The fixing part 14 is a part for fixing the photographing device 10 in some way. In this embodiment, the fixing portion 14 is configured as a clip, and can be fixed by pinching it between the screen edges of the PC 20, or can be placed on the desk as a stand.

可動部12は、ユーザが本体部11の向きや位置を調整するための部分であり、回転部12aと、支持部12bと、回転軸12cとを備える。回転部12aは、支持部12bに対して回転軸12cの回りに回転可能である。回転部12aは本体部11に固定されており、支持部13は固定部14に固定されている。これにより、本体部11は、固定部14に対して回転可能となっている。なお、本実施例では、回転部12は一軸の回転のみが可能に構成されているが、これ以外に多軸の回転機構やスライド機構を備えていても構わない。 The movable portion 12 is a portion for the user to adjust the orientation and position of the body portion 11, and includes a rotating portion 12a, a supporting portion 12b, and a rotating shaft 12c. The rotating portion 12a is rotatable around the rotating shaft 12c with respect to the supporting portion 12b. The rotating portion 12 a is fixed to the main body portion 11 , and the support portion 13 is fixed to the fixed portion 14 . Thereby, the body portion 11 is rotatable with respect to the fixed portion 14 . In this embodiment, the rotating part 12 is configured to be capable of rotating only on one axis, but it may be provided with a multi-axis rotating mechanism or a sliding mechanism.

本体部11は、複数の発光部15と、一対のカメラモジュール16とを備える。本体部11は、PC20側で実行されるアプリケーションに応じて、様々な撮影機能を有するものとする。本実施例では、本体部11は、一対のカメラモジュール16を設けてステレオカメラとし、さらに3つの赤外線LEDの発光部15を備えている。また、カメラモジュール16には、オン/オフの切替えが可能な、図示しない赤外線透過・可視光カットフィルタ(以下、単に「光学フィルタ」と呼ぶ。)が設けられている。光学フィルタのオン/オフは、PC20から供給される制御信号により切替えられる。 The body portion 11 includes a plurality of light emitting portions 15 and a pair of camera modules 16 . It is assumed that the main unit 11 has various photographing functions according to applications executed on the PC 20 side. In this embodiment, the main unit 11 is provided with a pair of camera modules 16 to form a stereo camera, and further includes three infrared LED light emitting units 15 . The camera module 16 is also provided with an infrared transmission/visible light cut filter (hereinafter simply referred to as an “optical filter”), not shown, which can be switched on/off. ON/OFF of the optical filter is switched by a control signal supplied from the PC 20 .

図3は、可動部12による回転の様子を示す。図3(A)は、固定部14に対して本体部11をほぼ垂直に起立させた状態を示し、本体部11のカメラモジュール16は矢印の方向を撮影する。図3(B)は、本体部11を固定部14に対して回転軸12c周りに180度回転させた様子を示しており、本体部11のカメラモジュール16は、回転状態(回転角度)に応じて矢印の方向を撮影する。なお、可動部12には図示しない回転エンコーダなどの回転角検出機構が設けられており、ユーザが設定した状態における回転部12aの回転角度を検出する。 FIG. 3 shows how the movable part 12 rotates. FIG. 3A shows a state in which the main body 11 is erected substantially vertically with respect to the fixed part 14, and the camera module 16 of the main body 11 photographs in the direction of the arrow. FIG. 3B shows a state in which the main body 11 is rotated 180 degrees around the rotation axis 12c with respect to the fixed part 14, and the camera module 16 of the main body 11 rotates according to the rotation state (rotation angle). to shoot in the direction of the arrow. The movable portion 12 is provided with a rotation angle detection mechanism such as a rotary encoder (not shown), which detects the rotation angle of the rotating portion 12a in a state set by the user.

図4は、PC20の機能構成を示すブロック図である。PC20は、通信部21と、入力部22と、表示部23と、制御部24とを備える。通信部21は、有線又は無線通信により、撮影装置10との間で制御信号や撮影画像の送受信を行う。入力部22はキーボードやマウスなどの情報入力装置であり、本実施例ではラップトップPCの本体に設けられたキーボード及び図示しないマウスである。表示部23は液晶ディスプレイなどの情報出力装置であり、本実施例ではラップトップPCの本体に設けられた液晶ディスプレイである。 FIG. 4 is a block diagram showing the functional configuration of the PC 20. As shown in FIG. The PC 20 includes a communication section 21 , an input section 22 , a display section 23 and a control section 24 . The communication unit 21 transmits and receives control signals and captured images to and from the imaging device 10 by wired or wireless communication. The input unit 22 is an information input device such as a keyboard and a mouse, and in this embodiment, it is a keyboard and a mouse (not shown) provided in the main body of the laptop PC. The display unit 23 is an information output device such as a liquid crystal display, and in this embodiment is a liquid crystal display provided in the main body of the laptop PC.

制御部24は、PC20の構成全体を統括的に制御するものであり、具体的にはPC20のCPUなどにより構成される。制御部24は、自動設定ソフトウェアと、カメラと連携して動作するカメラアプリケーション(以下、単に「アプリケーション」とも呼ぶ。)A1~A4とを実行する。 The control unit 24 comprehensively controls the entire configuration of the PC 20, and is specifically configured by the CPU of the PC 20 and the like. The control unit 24 executes automatic setting software and camera applications (hereinafter simply referred to as “applications”) A1 to A4 that operate in cooperation with the camera.

自動設定ソフトウェアは、撮影装置10による撮影画像、撮影装置10の可動部12の状態などに基づいて、ユーザが使用したいインタラクション方法に対応するアプリケーションを推定し、そのアプリケーションを自動で起動したり、そのアプリケーションに必要な設定を自動で行ったりするものである。 The automatic setting software estimates an application corresponding to the interaction method that the user wants to use based on the image captured by the image capturing device 10, the state of the movable part 12 of the image capturing device 10, etc. It automatically performs settings necessary for the application.

カメラアプリケーションA1~A4は、インタラクションシステムが提供するインタラクション方法を実現するソフトウェアであり、本実施例ではそれぞれ以下のようになっている。
(A1):画面に対するジェスチャ操作アプリケーション
(A2):キーボード付近でのジェスチャ操作アプリケーション
(A3):視線入力アプリケーション
(A4):Webカメラアプリケーション
The camera applications A1 to A4 are software that implements an interaction method provided by the interaction system, and are configured as follows in this embodiment.
(A1): Gesture operation application for the screen (A2): Gesture operation application near the keyboard (A3): Gaze input application (A4): Web camera application

具体的に、アプリケーションA1は、ユーザが画面に対して指差しなどのジェスチャを行うことにより、表示部23の画面に表示されたメニューやアイコンなどの操作を行うアプリケーションである。なお、この場合のユーザによるジェスチャは、指を画面に接触させる必要はなく、空中で行えばよい。このアプリケーションにより、タッチパネルのような操作が可能となる。また、指などが画面に触れなくても、撮影画像から指の位置や軌跡を取得することができるので、タッチパネルでは不可能なインタラクションも実現することができる。 Specifically, the application A1 is an application for operating menus, icons, and the like displayed on the screen of the display unit 23 by the user performing gestures such as pointing to the screen. Note that the gesture by the user in this case does not need to touch the screen with a finger, and can be performed in the air. This application enables touch panel-like operations. In addition, even if the finger or the like does not touch the screen, the position and trajectory of the finger can be acquired from the captured image, so interaction that cannot be achieved with a touch panel can be realized.

アプリケーションA2は、ユーザがキーボード付近で例えば特定の手形状を作ったり、指をキーボードから浮かせて振るなどのジェスチャを行うことにより操作を行うアプリケーションである。このアプリケーションでは、キーボードから手を離す必要が無いので、キー入力をしながらスムーズな操作を行うことができる。 The application A2 is an application that is operated by the user making a gesture such as making a specific hand shape near the keyboard or waving a finger above the keyboard. With this application, you don't have to take your hands off the keyboard, so you can operate smoothly while typing.

アプリケーションA3は、ユーザの視線によりポインタを操作するアプリケーションである。具体的には、ユーザの顔の撮影画像からユーザの目の部分を抽出して視線の方向を検出し、検出された視線の方向に対応する操作入力を有効とする。 Application A3 is an application that operates a pointer according to the user's line of sight. Specifically, the eye portion of the user is extracted from the photographed image of the user's face to detect the line-of-sight direction, and the operation input corresponding to the detected line-of-sight direction is validated.

アプリケーションA4は、遠隔地と動画付きで対話を行う、いわゆるテレビ電話のようなアプリケーションである。対話を行わない時は、撮影装置10による撮影画像が表示部23に表示するのみとなる。 Application A4 is an application such as a so-called videophone that performs a dialogue with a remote location with moving images. When the dialogue is not performed, only the image captured by the image capturing device 10 is displayed on the display unit 23 .

なお、各アプリケーションは、自身に対する設定を、自動設定ソフトウェアから受け取ることができる。 Note that each application can receive settings for itself from the auto-configuration software.

[自動設定処理]
次に、自動設定ソフトウェアによる自動設定処理について説明する。図5は、自動設定処理のフローチャートである。自動設定処理は、PC20のCPUなどの制御部24が自動設定ソフトウェアを実行することにより、繰り返し実行される。
[Auto setting process]
Next, automatic setting processing by automatic setting software will be described. FIG. 5 is a flowchart of automatic setting processing. The automatic setting process is repeatedly executed by the control unit 24 such as the CPU of the PC 20 executing automatic setting software.

まず、制御部24は、撮影装置10による撮影画像を取得する(ステップS11)。具体的には、制御部24が通信部21を通じて、撮影装置10から撮影画像を受信する。 First, the control unit 24 acquires an image captured by the imaging device 10 (step S11). Specifically, the control unit 24 receives the captured image from the imaging device 10 through the communication unit 21 .

次に、制御部24は、撮影装置10の可動部12の回転角度を取得する(ステップS12)。即ち、撮影装置10の可動部12に設けられた回転角検出機構により検出された回転角度が撮影装置10から送信され、制御部24は通信部21を介してその回転角度を取得する。 Next, the control section 24 acquires the rotation angle of the movable section 12 of the photographing device 10 (step S12). That is, the rotation angle detected by the rotation angle detection mechanism provided in the movable portion 12 of the imaging device 10 is transmitted from the imaging device 10 and the control section 24 acquires the rotation angle via the communication section 21 .

次に、制御部24は撮影装置10の移動検知を行う(ステップS13)。具体的には、制御部24は、撮影装置10全体の移動や、可動部12の回転により、カメラモジュール16の撮影範囲が変化したことを検知する。即ち、制御部24は、撮影装置10から取得した撮影画像を分析し、撮影画像が大きく変化した場合に、撮影装置10が移動されたと判定する。より詳しくは、制御部24は、撮影画像や可動部の回転角度の時間的な変動量に基づいて、移動の有無を判定する。なお、移動が連続的に検知されている間は、制御部24は未だ撮影装置10の移動中であると判定し、撮影画像や可動部12の回転角度の変化が終了した時点で、移動が完了したものと判定するのが好ましい。 Next, the control unit 24 performs movement detection of the photographing device 10 (step S13). Specifically, the control unit 24 detects that the photographing range of the camera module 16 has changed due to movement of the entire photographing device 10 or rotation of the movable unit 12 . That is, the control unit 24 analyzes the captured image acquired from the imaging device 10, and determines that the imaging device 10 has been moved when the captured image changes significantly. More specifically, the control unit 24 determines the presence or absence of movement based on the captured image and the amount of temporal variation in the rotation angle of the movable unit. Note that while the movement is continuously detected, the control unit 24 determines that the photographing device 10 is still moving. Preferably, it is determined to be complete.

撮影装置10の移動が検知されない場合(ステップS13:No)、処理は終了する。一方、撮影装置10の移動が検知された場合(ステップS13:Yes)、制御部24は、アプリケーション推定処理を行う(ステップS14)。なお、自動設定処理の開始直後、即ち、自動設定処理の最初の実行時には、ステップS13の移動検知を行わず、ステップS14のアプリケーション推定処理に進むものとする。 If the movement of the photographing device 10 is not detected (step S13: No), the process ends. On the other hand, when the movement of the imaging device 10 is detected (step S13: Yes), the control unit 24 performs application estimation processing (step S14). Immediately after starting the automatic setting process, that is, when the automatic setting process is executed for the first time, the movement detection in step S13 is not performed, and the process proceeds to the application estimation process in step S14.

アプリケーション推定処理は、ユーザが意図するインタラクション方法を推定する処理である。前提として、各インタラクション方法に対応するアプリケーションと撮影装置10の設置状態(置き方)とが予め関連付けられているものとする。ここでは、前述の4つのアプリケーションA1~A4がPC20にインストールされているものとする。以下に、各アプリケーションと、撮影装置10の設置状態の関係を説明する。 Application estimation processing is processing for estimating the interaction method intended by the user. As a premise, it is assumed that the application corresponding to each interaction method and the installation state (placement method) of the photographing device 10 are associated in advance. Here, it is assumed that the aforementioned four applications A1 to A4 are installed in the PC 20. FIG. The relationship between each application and the installation state of the imaging device 10 will be described below.

(A1)画面に対するジェスチャ操作アプリケーション
このアプリケーションを実行する際には、図6(A)に例示するように、撮影装置10はPC20の表示部23の画面を撮影する位置に配置される。より具体的には、撮影装置10は、デスク上などのPC20の画面から数十cm離れた位置に、画面を見上げるように配置されることが想定される。この場合、撮影装置10の撮影画像は、PC20の画面を含むことになる。
(A1) Gesture Manipulation Application for Screen When executing this application, the photographing device 10 is placed at a position for photographing the screen of the display section 23 of the PC 20, as illustrated in FIG. 6A. More specifically, it is assumed that the imaging device 10 is arranged at a position several tens of centimeters away from the screen of the PC 20, such as on a desk, so as to look up at the screen. In this case, the captured image of the imaging device 10 includes the screen of the PC 20 .

(A2)キーボード付近でのジェスチャ操作アプリケーション
このアプリケーションでは、ユーザはキーボード上でジェスチャを行い、撮影装置10はその際のユーザの手や指を撮影する。よって、図6(B)に例示するように、撮影装置10は、PC20の画面の上部に、キーボードの領域を見下ろすように配置されると想定される。この場合、撮影装置10の撮影画像は、キーボードを含むことになる。
(A2) Gesture operation application near the keyboard In this application, the user makes a gesture on the keyboard, and the imaging device 10 photographs the user's hands and fingers at that time. Therefore, as illustrated in FIG. 6B, it is assumed that the imaging device 10 is arranged above the screen of the PC 20 so as to look down on the keyboard area. In this case, the image captured by the image capturing device 10 includes the keyboard.

(A3)視線入力アプリケーション
このアプリケーションは、ユーザの顔を撮影し、目(瞳孔)の動きに基づいて視線方向を検出する。よって、図7(A)に例示するように、撮影装置10は人物の正面から顔を見上げるように設置されると想定される。なお、視線検出を行う場合には、人物の瞳孔が瞼によって遮られないように撮影するために、下から見上げるように撮影装置10を設置するのが一般的である。よってこの場合、撮影装置10はその撮影方向が、撮影装置10自身が固定されている位置に対して上方に向くように固定されることになり、撮影装置10の可動部12は下から上を見上げるような回転角度となる。
(A3) Line-of-sight input application This application captures the user's face and detects the line-of-sight direction based on the movement of the eyes (pupils). Therefore, as illustrated in FIG. 7A, it is assumed that the photographing device 10 is installed so as to look up from the front of the person. In the case of performing line-of-sight detection, it is common to install the photographing device 10 so as to look up from below in order to photograph a person's pupils without being blocked by eyelids. Therefore, in this case, the photographing device 10 is fixed so that the photographing direction faces upward with respect to the position where the photographing device 10 itself is fixed, and the movable part 12 of the photographing device 10 is moved from the bottom to the top. The angle of rotation is such that you can look up.

(A4)Webカメラアプリケーション
このアプリケーションの使用時には、人物の顔全体を撮影することになる。よって、図7(B)に例示するように、撮影装置10はPC20の画面の上部などに、人物と正対するような角度で配置されると想定される。この場合、撮影装置10の可動部12は、正面を撮影するための回転角度、例えば図3(A)の状態における回転角度となる。
(A4) Web camera application When using this application, the entire face of a person is photographed. Therefore, as illustrated in FIG. 7B, it is assumed that the photographing device 10 is arranged at the upper part of the screen of the PC 20 or the like at an angle facing the person. In this case, the movable portion 12 of the photographing device 10 has a rotation angle for photographing the front, for example, the rotation angle in the state shown in FIG. 3(A).

以上のように、アプリケーション毎に撮影装置10の設置状態が異なってくる。よって、アプリケーション推定処理により、制御部24は、撮影装置10による撮影画像、及び、撮影装置10の可動部12の回転角度に基づいて、ユーザが想定しているインタラクション方法、即ち、ユーザが実行しようとしているアプリケーションを判別することができる。 As described above, the installation state of the imaging device 10 differs for each application. Therefore, in the application estimation process, the control unit 24 determines the interaction method assumed by the user, that is, the interaction method that the user intends to perform, based on the image captured by the image capturing device 10 and the rotation angle of the movable part 12 of the image capturing device 10 . It is possible to determine the application that is

図8は、アプリケーション推定処理のフローチャートである。まず、制御部24は、撮影装置10から取得した撮影画像にPC20の画面が含まれているか否かを判定する(ステップS21)。ここでは、例えばPC20の画面の四隅に赤外線LEDが設定されており、撮影装置10の光学フィルタをオンにして撮影を行うことにより、PC20の画面が含まれているか否かが容易に判定できるものとする。 FIG. 8 is a flowchart of application estimation processing. First, the control unit 24 determines whether or not the captured image acquired from the imaging device 10 includes the screen of the PC 20 (step S21). Here, for example, infrared LEDs are set at the four corners of the screen of the PC 20, and by taking an image with the optical filter of the imaging device 10 turned on, it is possible to easily determine whether or not the screen of the PC 20 is included. and

撮影画像にPC20の画面が含まれている場合(ステップS21:Yes)、制御部24はユーザがアプリケーションA1を使用するつもりであると推定してアプリケーションA1を選択する(ステップS22)。 If the captured image includes the screen of the PC 20 (step S21: Yes), the control unit 24 presumes that the user intends to use the application A1, and selects the application A1 (step S22).

一方、撮影画像にPC20の画面が含まれていない場合(ステップS21:No)、制御部24は、撮影画像にPC20のキーボードが含まれているか否かを判定する(ステップS23)。この場合も、PC20の画面の検出と同様に、例えば赤外線LEDをキーボードの四隅を含む周囲6~8か所に設置し、光学フィルタをオンにして撮影を行うことにより、撮影画像からキーボードの有無を検出できるものとする。なお、この例では、赤外線LEDの数によりPC20の画面とキーボードを判別できる。 On the other hand, if the captured image does not include the screen of the PC 20 (step S21: No), the control unit 24 determines whether the captured image includes the keyboard of the PC 20 (step S23). In this case as well, similar to the detection of the screen of the PC 20, for example, infrared LEDs are installed at 6 to 8 locations around the keyboard, including the four corners, and the optical filter is turned on. can be detected. In this example, the screen and keyboard of the PC 20 can be distinguished from each other by the number of infrared LEDs.

撮影画像にキーボードが含まれている場合(ステップS23:Yes)、制御部24は、ユーザがアプリケーションA2を使用するつもりであると推定してアプリケーションA2を選択する(ステップS24)。 If the captured image includes a keyboard (step S23: Yes), the control unit 24 presumes that the user intends to use the application A2, and selects the application A2 (step S24).

一方、撮影画像にキーボードが含まれていない場合(ステップS23:No)、制御部24は、撮影装置10から取得した可動部12の回転角度に基づいて、撮影装置10が下から見上げる角度になっているか否かを判定する(ステップS25)。例えば、図7(A)のように、撮影装置10がデスク上に置かれている場合、可動部12の回転角度は図3(B)に示すように180度に近い角度となる。よって、撮影装置10から取得した回転角度が180度に近い場合、制御部24は見上げる角度であると判定することができる。 On the other hand, when the keyboard is not included in the captured image (step S23: No), the control unit 24 adjusts the angle at which the imaging device 10 is viewed from below based on the rotation angle of the movable part 12 acquired from the imaging device 10. (Step S25). For example, as shown in FIG. 7A, when the photographing device 10 is placed on a desk, the rotation angle of the movable portion 12 is close to 180 degrees as shown in FIG. 3B. Therefore, when the rotation angle acquired from the photographing device 10 is close to 180 degrees, the control unit 24 can determine that it is an upward angle.

撮影装置10が見上げる角度になっている場合(ステップS25:Yes)、制御部24は、ユーザがアプリケーションA3を使用するつもりであると推定してアプリケーションA3を選択する(ステップS26)。 If the photographing device 10 is at an upward angle (step S25: Yes), the control unit 24 presumes that the user intends to use the application A3 and selects the application A3 (step S26).

一方、撮影装置10が見上げる角度になっていない場合(ステップS25:No)、制御部24は、ユーザが残りのアプリケーションA4を使用するつもりであると推定してアプリケーションA4を選択する(ステップS27)。 On the other hand, if the photographing device 10 is not at an angle to look up (step S25: No), the control unit 24 presumes that the user intends to use the remaining application A4, and selects the application A4 (step S27). .

そして、制御部24は、ステップS22、S24、S26、S27のいずれかで選択されたアプリケーションを起動する(ステップS28)。こうして、アプリケーション推定処理は終了し、処理は図5のステップS15へ進む。
ステップS15では、制御部24は、アプリケーション推定処理で選択されたアプリケーションに応じて、アプリケーション別の設定を行う。
Then, the control unit 24 activates the application selected in any one of steps S22, S24, S26, and S27 (step S28). Thus, the application estimation process ends, and the process proceeds to step S15 in FIG.
In step S15, the control unit 24 performs setting for each application according to the application selected in the application estimation process.

(1)アプリケーション推定処理でアプリケーションA1が選択された場合、PC20の制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオンにするとともに、光学フィルタをオンにする。これにより、カメラモジュール16は、アプリケーションA1の実行中に、撮影画像として、自身から発光した赤外線の反射を撮影することができるため、背景の影響を比較的受けずに撮影画像からユーザの指などを検出することができるようになる。 (1) When the application A1 is selected in the application estimation process, the control unit 24 of the PC 20 sends a control signal to the imaging device 10 to turn on the infrared emission of the camera module 16 and turn on the optical filter. As a result, the camera module 16 can capture the reflection of the infrared rays emitted from itself as a captured image while the application A1 is running. can be detected.

さらに、制御部24は、撮影画像から、赤外線LEDの検出を利用して画面の位置情報を取得する。そして、撮影画像の座標から、画面を基準とした座標への座標変換パラメータを算出し、アプリケーションA1に設定する。これにより、制御部24は、アプリケーションA1の実行中に、撮影画像から検出したユーザの指などの位置を、画面に対する位置に変換することが可能となる。 Furthermore, the control unit 24 acquires the position information of the screen from the photographed image using the detection of the infrared LED. Then, from the coordinates of the photographed image, coordinate conversion parameters for coordinates with the screen as a reference are calculated and set in the application A1. As a result, the control unit 24 can convert the position of the user's finger or the like detected from the captured image into a position relative to the screen while the application A1 is running.

(2)アプリケーション推定処理でアプリケーションA2が選択された場合、PC20の制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオフにするとともに、光学フィルタをオフにする。アプリケーションA2の場合、ジェスチャが行われる領域の背景はキーボードであるとわかっているため、比較的簡単な処理で撮影画像からユーザの指などを検出することができる。具体的には、撮影画像中の肌色領域をユーザの指などとして検出したり、キーボードの画像を既知の固定背景として撮影画像から除去したりすることができる。このため、赤外線発光や光学フィルタの機能は不要となる。 (2) When application A2 is selected in the application estimation process, the control unit 24 of the PC 20 sends a control signal to the imaging device 10 to turn off the infrared emission of the camera module 16 and turn off the optical filter. In the case of application A2, since the background of the area where the gesture is performed is known to be the keyboard, the user's finger or the like can be detected from the captured image by relatively simple processing. Specifically, it is possible to detect a flesh-colored area in the captured image as the user's finger or the like, or remove the image of the keyboard from the captured image as a known fixed background. Therefore, functions such as infrared light emission and optical filters are not required.

さらに、制御部24は、赤外線LEDの位置に基づいてキーボードの四隅の位置を算出し、アプリケーションA2に設定しておく。これにより、ユーザによるジェスチャ操作の検出領域をキーボード内に限定することができる。さらに、キーボードの位置(撮影装置10との距離)を予め把握しておくことにより、アプリケーションA2の実行中に指を検出したときに、指の位置(撮影装置10との距離)を算出し、指がキーボードから浮いた状態であるか否かを判定することができる。これは、指によるジェスチャの開始を判定するために有効である。 Further, the control unit 24 calculates the positions of the four corners of the keyboard based on the positions of the infrared LEDs, and sets them in the application A2. Thereby, the detection area of the user's gesture operation can be limited within the keyboard. Furthermore, by grasping the position of the keyboard (distance from the imaging device 10) in advance, when the finger is detected during execution of the application A2, the position of the finger (distance from the imaging device 10) is calculated, It can be determined whether or not the finger is lifted from the keyboard. This is useful for determining the initiation of finger gestures.

(3)アプリケーション推定処理でアプリケーションA3が選択された場合、制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオンにするとともに、光学フィルタをオンにする。また、カメラモジュール16を解像度優先の設定とする。これにより、アプリケーションA3の実行中に、照射した赤外線を反射している瞳孔を撮影することができる。また、高解像度の画像を使うことで、視線方向の検出の精度を高めることができる。 (3) When the application A3 is selected in the application estimation process, the control unit 24 sends a control signal to the imaging device 10 to turn on the infrared emission of the camera module 16 and turn on the optical filter. Also, the camera module 16 is set to give priority to resolution. As a result, it is possible to photograph the pupil reflecting the irradiated infrared rays during execution of the application A3. Also, by using a high-resolution image, it is possible to improve the accuracy of detecting the line-of-sight direction.

(4)アプリケーション推定処理でアプリケーションA4が選択された場合、制御部24は、撮影装置10に制御信号を送り、カメラモジュール16の赤外線発光をオフにするとともに、光学フィルタをオフにする。これにより、アプリケーションA4の実行中に、撮影装置10で撮影したユーザの顔などの画像を可視光撮影し、テレビ電話の相手に送信することができる。 (4) When application A4 is selected in the application estimation process, the control unit 24 sends a control signal to the imaging device 10 to turn off the infrared emission of the camera module 16 and turn off the optical filter. As a result, while the application A4 is running, an image of the user's face or the like captured by the imaging device 10 can be captured with visible light and transmitted to the other party of the videophone call.

[変形例]
(変形例1)
上記のアプリケーション推定処理では、アプリケーションA1~A4のいずれかが選択されると、ステップS28で制御部24が自動的にそのアプリケーションを起動している。その代わりに、制御部24はアプリケーションの起動を行わず、ユーザがそのアプリケーションを起動するのを待つこととしてもよい。この場合、ユーザがそのアプリケーションを起動したときに、制御部24は図5のステップS15に示すアプリケーション別の設定行えばよい。また、アプリケーションの起動前に行うことができる設定であれば、ユーザがそのアプリケーションを起動するのに先立って、予めアプリケーション別の設定を実施しておいてもよい。
[Modification]
(Modification 1)
In the application estimation process described above, when one of the applications A1 to A4 is selected, the control unit 24 automatically activates that application in step S28. Alternatively, the control unit 24 may wait for the user to start the application without starting the application. In this case, when the user activates the application, the control section 24 may perform the setting for each application shown in step S15 of FIG. Also, if the settings can be made before starting the application, the setting for each application may be performed in advance before the user starts the application.

(変形例2)
上記の実施例では、PC20の所定箇所に設けたLEDを撮影画像から検出したり、撮影装置10の可動部12の回転角度を取得することにより、撮影装置10とPC20との位置関係を算出しているが、以下のような他の方法により撮影装置10の設置状態を検知しても良い。
(Modification 2)
In the above-described embodiment, the positional relationship between the photographing device 10 and the PC 20 is calculated by detecting the LED provided at a predetermined position of the PC 20 from the photographed image and obtaining the rotation angle of the movable portion 12 of the photographing device 10. However, the installation state of the photographing device 10 may be detected by other methods such as those described below.

一つの方法として、撮影画像を解析することにより、撮影装置10の設置状態を検知しても良い。具体的には、撮影画像の特徴により、PCの画面やキーボードを検出する。例えば、4辺の直線検出により画面を検出したり、多数の矩形を検出することによりキーボードを検出してもよい。また、画面表示の制御手段を設け、画面に検出が可能なマーカーを表示し、撮影画像からマーカーの有無やその位置を検出して、撮影装置10の画面に対する位置を算出してもよい。 As one method, the installation state of the imaging device 10 may be detected by analyzing the captured image. Specifically, the PC screen and keyboard are detected based on the features of the captured image. For example, the screen may be detected by detecting straight lines on four sides, or the keyboard may be detected by detecting many rectangles. Alternatively, screen display control means may be provided to display a detectable marker on the screen, detect the presence or absence of the marker and its position from the captured image, and calculate the position of the photographing device 10 with respect to the screen.

他の方法として、撮影装置10の固定部14にセンサを設け、物を挟んでいることや立てていることを検出しても良い。 As another method, a sensor may be provided in the fixed portion 14 of the photographing device 10 to detect that an object is sandwiched or is standing.

また、PCとの関係に限らず、人物との位置関係を利用して、撮影装置10の設置状態を検知してもよい。例えば、撮影画像から顔検出を行い、所定時間(例えば10秒)以上にわたって人物の顔の位置・サイズの変動が無い又は小さい場合に、撮影装置10の人物に対する位置を把握できたものとする。また、顔の位置・サイズの他に、向きを検出しても良い。これにより、例えば顔が正面向きで所定サイズ以上の場合にはWebアプリケーションを選択し、顔を見上げる角度の場合には視線入力アプリケーションを選択しても良い。 In addition, the installation state of the imaging device 10 may be detected using the positional relationship with the person, not limited to the relationship with the PC. For example, it is assumed that the position of the photographing device 10 with respect to the person can be grasped when the position and size of the person's face do not change or are small for a predetermined time (for example, 10 seconds) after face detection is performed from the photographed image. Also, the orientation may be detected in addition to the position and size of the face. As a result, for example, when the face is facing forward and has a predetermined size or larger, the web application may be selected, and when the face is at an angle of looking up, the line-of-sight input application may be selected.

また、撮影装置10の設置状態の検知状況をユーザに知らせてもよい。少なくとも、撮影装置10の移動を検知したときに、撮影画像からの画面やキーボードの検知状況をPC20の表示部23に表示してもよい。例えば、撮影画像にLEDやマーカーの検出状態をスーパーインポーズしたものを表示部23に表示しても良い。これにより、ユーザは、移動させた撮影装置10が意図した被写体を含んでいるか否かを確認したり、撮影装置10の位置を微調整したりすることができる。 Also, the user may be notified of the detection status of the installation state of the imaging device 10 . At least, when the movement of the photographing device 10 is detected, the screen from the photographed image and the detection status of the keyboard may be displayed on the display unit 23 of the PC 20 . For example, the display unit 23 may display a photographed image superimposed on the detected state of the LED or marker. Thereby, the user can confirm whether or not the moved photographing device 10 includes the intended subject, and finely adjust the position of the photographing device 10 .

(変形例3)
上記の実施例では、撮影装置10の設定として、解像度、赤外線透過・可視光カットフィルタのオン/オフ、赤外線発光のオン/オフを行い、アプリケーションの設定としては撮影装置10に対する画面やキーボードの位置算出を行っているが、他にも機能を備え、自動設定ソフトウェアから設定を行うようにしてもよい。
(Modification 3)
In the above embodiment, as the settings of the imaging device 10, the resolution, the on/off of the infrared transmittance/visible light cut filter, and the on/off of the infrared emission are performed. Although calculation is performed, other functions may be provided and settings may be performed from automatic setting software.

具体的には、撮影装置10がパン・チルト・ズームなどの機構を備える場合、アプリケーションに応じてこれらの機構を制御する。例えば視線入力アプリケーションでは、人物の目の周辺の高解像度画像を撮影するために顔付近にズームインする。一方、画面に対するジェスチャ操作アプリケーションを実行する場合には、ジェスチャが行われる領域全体を撮影するためにズームアウトする。 Specifically, when the photographing apparatus 10 has mechanisms such as pan/tilt/zoom, these mechanisms are controlled according to the application. For example, a gaze tracking application zooms in on a person's face to capture a high-resolution image around the person's eyes. On the other hand, when executing a gesture operation application on the screen, zoom out to photograph the entire area where the gesture is performed.

また、赤外線発光の範囲や方向を制御可能としても良い。例えば、視線入力アプリケーションを実行する場合には顔付近を中心に赤外線を照射し、画面に対するジェスチャ操作アプリケーションを実行する場合には広く赤外線を照射する。 Also, the range and direction of infrared light emission may be controllable. For example, when executing a line-of-sight input application, infrared rays are emitted mainly around the face, and when executing a gesture operation application on the screen, infrared rays are emitted widely.

また、ステレオ撮影が不要なアプリケーションを使用するときには、一方のカメラモジュール16のみで撮影するように設定しても良い。 Also, when using an application that does not require stereo shooting, the setting may be such that only one camera module 16 is used for shooting.

さらに、状況に応じて、露出制御方法を切り替えてもよい。例えば、赤外線透過・可視光カットフィルタをオンにし、赤外線照射して撮影を行う場合には、通常の可視光撮影の露出制御ではなく、赤外線撮影による被写体検出に適した露出制御としてもよい。 Furthermore, the exposure control method may be switched depending on the situation. For example, when the infrared transmission/visible light cut filter is turned on and infrared irradiation is performed, exposure control suitable for subject detection by infrared photography may be performed instead of normal exposure control for visible light photography.

10 撮影装置
11 本体部
12 可動部
14 固定部
16 カメラモジュール
20 PC
24 制御部
REFERENCE SIGNS LIST 10 photographing device 11 main body 12 movable part 14 fixed part 16 camera module 20 PC
24 control unit

Claims (1)

撮影部によって撮影された画像の情報である第1情報、及び、前記撮影部が撮影する撮影範囲に関する情報である第2情報の少なくとも一方を取得する取得部と、
前記撮影部によって撮影された画像の情報を利用する複数のアプリケーションのうち、前記取得部が取得した情報に対応したアプリケーションをユーザに提供するアプリケーション制御部と、
を備えることを特徴とする情報処理装置。
an acquisition unit that acquires at least one of first information that is information about an image captured by a capturing unit and second information that is information about a capturing range captured by the capturing unit;
an application control unit that provides a user with an application corresponding to the information acquired by the acquisition unit among a plurality of applications that use information of an image captured by the image capturing unit;
An information processing device comprising:
JP2022095555A 2020-10-26 2022-06-14 Information processing apparatus Pending JP2022121468A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022095555A JP2022121468A (en) 2020-10-26 2022-06-14 Information processing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020178874A JP2021036440A (en) 2020-10-26 2020-10-26 Information processing apparatus
JP2022095555A JP2022121468A (en) 2020-10-26 2022-06-14 Information processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020178874A Division JP2021036440A (en) 2020-10-26 2020-10-26 Information processing apparatus

Publications (1)

Publication Number Publication Date
JP2022121468A true JP2022121468A (en) 2022-08-19

Family

ID=74716978

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020178874A Pending JP2021036440A (en) 2020-10-26 2020-10-26 Information processing apparatus
JP2022095555A Pending JP2022121468A (en) 2020-10-26 2022-06-14 Information processing apparatus

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020178874A Pending JP2021036440A (en) 2020-10-26 2020-10-26 Information processing apparatus

Country Status (1)

Country Link
JP (2) JP2021036440A (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4878409B2 (en) * 1999-03-23 2012-02-15 キヤノン株式会社 Information control apparatus, information control method, and storage medium
JP4936504B2 (en) * 2005-09-26 2012-05-23 キヤノン株式会社 Cradle device and operation terminal program thereof, and camera system
JP4979525B2 (en) * 2007-09-20 2012-07-18 株式会社日立製作所 Multi camera system

Also Published As

Publication number Publication date
JP2021036440A (en) 2021-03-04

Similar Documents

Publication Publication Date Title
EP2405299B1 (en) Information processing device, information processing method, and program
US9952663B2 (en) Method for gesture-based operation control
WO2014054211A1 (en) Information processing device, display control method, and program for modifying scrolling of automatically scrolled content
EP2615525B1 (en) Touch free operation of devices by use of depth sensors
JP5412227B2 (en) Video display device and display control method thereof
JP6372487B2 (en) Information processing apparatus, control method, program, and storage medium
JP6390799B2 (en) Input device, input method, and program
US20150109437A1 (en) Method for controlling surveillance camera and system thereof
EP2364013A2 (en) Information processing apparatus, method and program for imaging device
EP3201724A1 (en) Gesture based manipulation of three-dimensional images
CN112099618A (en) Electronic device, control method of electronic device, and storage medium
JP5817149B2 (en) Projection device
KR20160027732A (en) Display device and controlling method thereof
WO2020080107A1 (en) Information processing device, information processing method, and program
JPWO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device
JP2018112894A (en) System and control method
JP2016126687A (en) Head-mounted display, operation reception method, and operation reception program
JP2022121468A (en) Information processing apparatus
JP6319220B2 (en) Transparent wearable terminal, data processing apparatus, and data processing system
US9300908B2 (en) Information processing apparatus and information processing method
JP5229928B1 (en) Gaze position specifying device and gaze position specifying program
JP2019050047A (en) Information processing apparatus
JP2016045918A (en) Information processing apparatus, information processing method, and information processing program
KR20140139743A (en) Method for controlling display screen and display apparatus thereof
JP2018173907A (en) Information processing apparatus, method for controlling information processing apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240109