JPH11341336A - Device and method for controlling camera, and storage medium - Google Patents

Device and method for controlling camera, and storage medium

Info

Publication number
JPH11341336A
JPH11341336A JP10148634A JP14863498A JPH11341336A JP H11341336 A JPH11341336 A JP H11341336A JP 10148634 A JP10148634 A JP 10148634A JP 14863498 A JP14863498 A JP 14863498A JP H11341336 A JPH11341336 A JP H11341336A
Authority
JP
Japan
Prior art keywords
camera
azimuth
holding
relative
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10148634A
Other languages
Japanese (ja)
Inventor
Yasuo Okuya
泰夫 奥谷
Takanari Ueda
隆也 上田
Keiichi Sakai
桂一 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10148634A priority Critical patent/JPH11341336A/en
Publication of JPH11341336A publication Critical patent/JPH11341336A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To control the direction of a camera by voice based on intuition. SOLUTION: When a voice is detected, a camera direction specification processor 40 takes out the present direction information from a camera and stores it in a camera direction storage device 42. A speaker direction specification processor 44 calculates the direction of a speaker by utilizing image recognition and/or voice directivity and stores it in a speaker direction storage device 46. A relative direction calculation processor 48 calculates relative direction between the camera and the speaker from camera direction information and speaker direction information and stores a relative direction information in a relative direction storage device 50. A voice recognition processor 52 performs recognition processing of inputted voice, identifies speaking content that shows the relative direction control of the camera and stores recognition result in a recognition result storage device 54. A relative representation analysis processor 56 calculates a camera direction control parameters from the relative direction information and the voice recognition result. A direction control parameter output processor 60 outputs a direction control parameter information to the camera.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ制御装置及
び方法並びに、そのカメラ制御方法を実現するプログラ
ムを記憶する記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera control apparatus and method, and a storage medium for storing a program for implementing the camera control method.

【0002】[0002]

【従来の技術】カメラの撮影方向を音声により指示する
カメラ制御装置では、従来、カメラから見た方位を指示
するようになっていた。
2. Description of the Related Art Conventionally, a camera control device for instructing a photographing direction of a camera by voice has conventionally been designed to indicate a direction viewed from the camera.

【0003】[0003]

【発明が解決しようとする課題】従って、従来例では、
例えば話者がカメラと対面している場合には、話者の意
図と逆方向にカメラの方位が制御されてしまうことがあ
る。
Therefore, in the prior art,
For example, when the speaker faces the camera, the direction of the camera may be controlled in a direction opposite to the intention of the speaker.

【0004】本発明は、このような不都合を解消し、よ
り実感に即したカメラ制御を可能にするカメラ制御装置
及び方法、並びに、その方法を実施するプログラム・ソ
フトウエアを記憶する記憶媒体を提示することを目的と
する。
The present invention proposes a camera control apparatus and method which solves such inconveniences and enables more realistic camera control, and a storage medium for storing program software for implementing the method. The purpose is to do.

【0005】[0005]

【課題を解決するための手段】本発明に係るカメラ制御
装置は、撮影方位を外部制御自在なカメラを制御するカ
メラ制御装置であって、現在の当該カメラの方位情報を
取り出すカメラ方位特定手段と、話者の方位を求める話
者方位特定手段と、当該カメラと当該話者の相対的な方
位を計算する相対方位計算手段と、音声入力手段と、当
該音声入力手段の入力音声から当該カメラの方位制御に
関係する発声内容を認識する音声認識処理手段と、当該
相対方位計算手段により計算された相対方位と当該音声
認識処理手段の認識結果から、当該話者の視点から見た
場合の当該カメラの方位制御を行なうための方位制御パ
ラメータを計算する相対表現解析処理手段と、当該相対
表現解析処理手段により計算された方位制御パラメータ
を示す情報を当該カメラに出力する方位制御パラメータ
出力処理手段とを有することを特徴とする。
SUMMARY OF THE INVENTION A camera control device according to the present invention is a camera control device for controlling a camera whose shooting direction can be controlled externally, and a camera direction specifying means for extracting current direction information of the camera. Speaker orientation identification means for obtaining the orientation of the speaker, relative orientation calculation means for calculating the relative orientation of the camera and the speaker, voice input means, and the input of the camera from the input voice of the voice input means. Voice recognition processing means for recognizing the utterance content related to the azimuth control, and the camera from the viewpoint of the speaker based on the relative orientation calculated by the relative azimuth calculation means and the recognition result of the voice recognition processing means. Relative expression analysis processing means for calculating an azimuth control parameter for performing azimuth control, and information indicating the azimuth control parameter calculated by the relative expression analysis processing means. And having a direction control parameter output processing means for outputting to the camera.

【0006】本発明に係るカメラ制御方法は、撮影方位
を外部制御自在なカメラを制御するカメラ制御方法であ
って、現在の当該カメラの方位情報を取り出すカメラ方
位特定ステップと、話者の方位を求める話者方位特定ス
テップと、当該カメラと当該話者の相対的な方位を計算
する相対方位計算ステップと、音声入力手段の入力音声
から当該カメラの方位制御に関係する発声内容を認識す
る音声認識処理ステップと、当該相対方位計算ステップ
により計算された相対方位と当該音声認識処理ステップ
の認識結果から、当該話者の視点から見た場合の当該カ
メラの方位制御を行なうための方位制御パラメータを計
算する相対表現解析処理ステップと、当該相対表現解析
処理ステップにより計算された方位制御パラメータを示
す情報を当該カメラに出力する方位制御パラメータ出力
処理ステップとを有することを特徴とする。
A camera control method according to the present invention is a camera control method for controlling a camera whose shooting direction can be controlled externally. The camera direction identification step for extracting current direction information of the camera and the direction of the speaker are determined. A desired speaker direction identification step, a relative direction calculation step for calculating a relative direction between the camera and the speaker, and a speech recognition for recognizing a speech content related to a direction control of the camera from an input voice of a voice input unit. From the processing step, the relative azimuth calculated in the relative azimuth calculation step and the recognition result of the voice recognition processing step, an azimuth control parameter for controlling the azimuth of the camera when viewed from the viewpoint of the speaker is calculated. The relative expression analysis processing step and information indicating the azimuth control parameter calculated in the relative expression analysis processing step And having a direction control parameter output processing step of outputting to.

【0007】本発明に係る記憶媒体には、上述のカメラ
制御方法を実施するプログラム・ソフトウエアが外部読
み出し自在に格納される。
[0007] In the storage medium according to the present invention, program software for implementing the above-described camera control method is stored in an externally readable manner.

【0008】[0008]

【発明の実施の形態】以下、図面を参照して本発明の実
施例を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0009】図1は、本発明の一実施の形態のハードウ
エアの概略構成ブロック図を示す。10はカメラ、20
はカメラ10を制御するカメラ制御装置である。
FIG. 1 is a block diagram showing a schematic configuration of hardware according to an embodiment of the present invention. 10 is a camera, 20
Is a camera control device for controlling the camera 10.

【0010】カメラ10は、撮像装置12、撮像装置1
2の光学パラメータ(フォーカス、アイリス、シャッタ
・スピード、ゲイン及びホワイトバランス等)を制御す
る光学パラメータ制御回路14、及び撮影方位(パン
角、チルト角及びズーム)を制御する方位制御回路16
を具備する。
The camera 10 includes an imaging device 12 and an imaging device 1
An optical parameter control circuit 14 for controlling the optical parameters (focus, iris, shutter speed, gain, white balance, etc.) and an azimuth control circuit 16 for controlling the imaging azimuth (pan angle, tilt angle and zoom)
Is provided.

【0011】カメラ制御回路20は、CPU22、RA
M24、ROM26、I/O28及び二次記憶装置30
を具備し、これらはバス32に接続している。更に、マ
イク34の出力がA/D変換器36によりディジタル信
号に変換されてバス32に接続する。I/O28は、制
御信号線を介してカメラ10の光学系パラメータ制御回
路14及び方位制御回路16と接続し、また、ビデオ信
号線を会して撮像装置12のビデオ出力に接続する。制
御信号線としては、RS232C又はパラレルIO等で
よい。映像信号にはNTSC形式又はYC分離方式等が
あるが、撮像装置12の映像信号出力形式はその何れで
も良い。ビデオ信号の通信方式は、特定の規格に限定さ
れない。ROM26には、図3に図示したフローチャー
トに示すような制御手順に従う制御プログラムが記憶さ
れる。
The camera control circuit 20 includes a CPU 22, an RA
M24, ROM 26, I / O 28 and secondary storage device 30
And these are connected to the bus 32. Further, the output of the microphone 34 is converted into a digital signal by the A / D converter 36 and connected to the bus 32. The I / O 28 connects to the optical system parameter control circuit 14 and the azimuth control circuit 16 of the camera 10 via a control signal line, and connects to a video output of the imaging device 12 via a video signal line. The control signal line may be RS232C or parallel IO. The video signal may be in the NTSC format or the YC separation format, but the video signal output format of the imaging device 12 may be any one. The video signal communication system is not limited to a specific standard. The ROM 26 stores a control program according to a control procedure as shown in the flowchart shown in FIG.

【0012】図2は、本実施の形態の概略機能ブロック
図を示す。カメラ方位特定処理部40は、方位制御回路
16から現在のカメラの方位情報を取り出す。カメラ方
位保持部42は、カメラ10の所定方位を基準としたと
きの、その基準からの相対的な方位に関する情報を保持
する。話者方位特定処理部44は、画像認識及び/又は
マイク34の指向性を利用して話者の方位を求める。例
えば、話者に対して所定の色、形状を有するワッペンな
どの識別体を着用させておく。そして、話者方位特性処
理部44は、カメラ10から取り込まれた画像に話者に
着用されたワッペンが存在するかどうかを判断する。ワ
ッペンが画像上に存在すると判断された場合、画像上の
ワッペンの位置及びカメラ10の現在のズーム倍率から
カメラ10の方位に対する話者の相対的な方位を求め
る。画像に話者が存在しない場合、現在のカメラ10の
方位を保持し、ワッペンが画像の中心に来るまでカメラ
10を回転する。中心にきた時の方位と、保持しておい
た方位から相対的な方位を求める。このようにして求め
られたカメラ10の方位に対する話者の相対的な方位
は、相対方位保持部50に格納される。後述するよう
に、話者がカメラ10の画角範囲内に存在しているかど
うかを判断してもよい。マイク34の指向性を用いて話
者の方位を求める場合、集音マイクあるいはマイクロフ
ォンアレイなどを利用するが、これは公知の技術であ
る。
FIG. 2 is a schematic functional block diagram of the embodiment. The camera direction identification processing unit 40 extracts the current direction information of the camera from the direction control circuit 16. The camera azimuth holding unit 42 holds information on a relative azimuth from a predetermined azimuth of the camera 10 as a reference. The speaker direction identification processing unit 44 obtains the direction of the speaker using image recognition and / or the directivity of the microphone 34. For example, the speaker is caused to wear an identifier such as an emblem having a predetermined color and shape. Then, the speaker direction characteristic processing unit 44 determines whether or not an emblem worn by the speaker exists in the image captured from the camera 10. When it is determined that the emblem exists on the image, the relative orientation of the speaker with respect to the orientation of the camera 10 is obtained from the position of the emblem on the image and the current zoom magnification of the camera 10. If no speaker is present in the image, the current orientation of the camera 10 is maintained and the camera 10 is rotated until the emblem is in the center of the image. A relative direction is obtained from the direction at the center and the stored direction. The relative azimuth of the speaker with respect to the azimuth of the camera 10 thus obtained is stored in the relative azimuth holding unit 50. As described later, it may be determined whether or not the speaker is within the range of the angle of view of the camera 10. When the direction of the speaker is obtained by using the directivity of the microphone 34, a sound collecting microphone or a microphone array is used, which is a known technique.

【0013】話者方位保持部46は、マイク34の指向
性を利用して得られた話者の方位情報を保持する。相対
方位計算部48は、カメラ10と話者との相対的な方位
(角度)を計算する。相対方位保持部50は、カメラ1
0と話者との相対的な方位(角度)を保持する。音声認
識処理部52は、音声を検知し、カメラ10の方位制御
に関係する発声内容を認識する。認識結果保持部54
は、音声認識処理部52の認識結果を保持する。相対表
現解析処理部56は、相対方位情報と認識結果からカメ
ラ10の方位制御を行なうための方位制御パラメータ値
を決定する。具体的には、その相対表現解析処理部56
に、音声コマンドとその音声コマンドに対応するカメラ
10の方位制御コマンドを図示しないテーブルに設け
る。そして、相対表現解析処理部56は、音声認識処理
部52の認識結果が上記テーブルの音声コマンドのどれ
であるかを判断し、判断した音声コマンドに対応するカ
メラ10の方位制御コマンドに基づく方位制御パラメー
タ値を決定する。例えば、音声コマンドが「こっち」と
判断された場合、カメラ10と話者との相対的な方位が
0になるような方位制御パラメータ値を決定する。音声
コマンドが「右」又は「左」というように話者とカメラ
10との位置関係によってカメラ10の制御すべき方向
が異なる音声コマンドであると判断された場合、相対方
位保持部50に格納されたカメラ10の方位に対する話
者の相対的な方位に応じて制御すべきカメラの方向を判
断し、所定角度、カメラ10の方位を制御している。例
えば、カメラ10の方位に対する話者の相対的な方位が
±90度を境にしてカメラの制御すべき方向を異ならせ
てもよい。
The speaker orientation holding unit 46 holds speaker orientation information obtained by using the directivity of the microphone 34. The relative azimuth calculator 48 calculates a relative azimuth (angle) between the camera 10 and the speaker. The relative orientation holding unit 50 includes the camera 1
The relative orientation (angle) between 0 and the speaker is held. The voice recognition processing unit 52 detects voice and recognizes utterance contents related to the azimuth control of the camera 10. Recognition result holding unit 54
Holds the recognition result of the voice recognition processing unit 52. The relative expression analysis processing unit 56 determines an azimuth control parameter value for controlling the azimuth of the camera 10 based on the relative azimuth information and the recognition result. Specifically, the relative expression analysis processing unit 56
Next, a voice command and a direction control command of the camera 10 corresponding to the voice command are provided in a table (not shown). Then, the relative expression analysis processing unit 56 determines which of the voice commands in the above table the recognition result of the voice recognition processing unit 52 is, and performs azimuth control based on the azimuth control command of the camera 10 corresponding to the determined voice command. Determine the parameter value. For example, when the voice command is determined to be “here”, a direction control parameter value is determined so that the relative direction between the camera 10 and the speaker becomes 0. If it is determined that the direction to be controlled by the camera 10 is different depending on the positional relationship between the speaker and the camera 10, such as “right” or “left”, the command is stored in the relative orientation holding unit 50. The direction of the camera to be controlled is determined according to the relative direction of the speaker with respect to the direction of the camera 10, and the direction of the camera 10 is controlled at a predetermined angle. For example, the direction to be controlled by the camera may be different when the relative direction of the speaker with respect to the direction of the camera 10 is ± 90 degrees.

【0014】方位制御パラメータ保持部58は、方位制
御パラメータ値を保持する。方位制御パラメータ出力処
理部60は、方位制御パラメータ保持部58に格納され
ている方位制御パラメータ値又はこれを示す情報をI/
O28を介して方位制御回路16に出力する。
The azimuth control parameter holding unit 58 holds azimuth control parameter values. The azimuth control parameter output processing unit 60 outputs the azimuth control parameter value stored in the azimuth control parameter holding unit 58 or information indicating this to the I / O
Output to the azimuth control circuit 16 via O28.

【0015】カメラ方位特定処理部40、話者方位特定
処理部44、相対方位計算部48、音声認識処理部5
2、相対表現解析処理部56及び方位制御パラメータ出
力処理部60は、本実施の形態では、ソフトウエアによ
り実現されており、そのためのプログラムがROM26
及び/又は二次記憶装置30に格納されている。カメラ
方位保持部42、話者方位保持部46、相対方位保持部
50、認識結果保持部54及び方位制御パラメータ保持
部58は、RAM24又は二次記憶装置30である。
A camera direction identification processing section 40, a speaker direction identification processing section 44, a relative direction calculation section 48, a voice recognition processing section 5
2. In the present embodiment, the relative expression analysis processing unit 56 and the azimuth control parameter output processing unit 60 are realized by software.
And / or stored in the secondary storage device 30. The camera direction holding unit 42, the speaker direction holding unit 46, the relative direction holding unit 50, the recognition result holding unit 54, and the direction control parameter holding unit 58 are the RAM 24 or the secondary storage device 30.

【0016】図3は、本実施の形態の動作フローチャー
トを示す。図3を参照して、本実施の形態の動作を説明
する。
FIG. 3 shows an operation flowchart of the present embodiment. The operation of the present embodiment will be described with reference to FIG.

【0017】話者の音声は、マイク34により取り込ま
れ、A/D変換器36によりディジタル信号に変換さ
れ、バス32を介してCPU22に入力される。音声認
識処理部52は、入力音が音声であるか否かを調べ、音
声が検知されるのを待つ(S1)。
The voice of the speaker is captured by a microphone 34, converted into a digital signal by an A / D converter 36, and input to the CPU 22 via the bus 32. The voice recognition processing unit 52 checks whether or not the input sound is a voice, and waits until a voice is detected (S1).

【0018】音声が検知されると(S1)、カメラ方位
特定処理部40はカメラ10の方位制御回路16から現
在のカメラ10の方位情報を取り出し、カメラ方位保持
部42に格納する(S2)。話者方位特定処理部44
が、画像認識及び/又はマイク34の指向性を利用し
て、話者の方位を求め、話者方位保持部46に格納する
(S3)。
When a voice is detected (S1), the camera azimuth identification processing unit 40 extracts the current azimuth information of the camera 10 from the azimuth control circuit 16 of the camera 10 and stores it in the camera azimuth holding unit 42 (S2). Speaker direction identification processing unit 44
However, using the image recognition and / or the directivity of the microphone 34, the direction of the speaker is obtained and stored in the speaker direction holding unit 46 (S3).

【0019】相対方位計算処理部48が、カメラ方位保
持部42に格納されているカメラ方位情報と話者方位保
持部46に格納されている話者方位情報とを読み出し、
カメラ10と話者との相対的な方位(角度)を計算し、
計算結果、即ち、相対方位情報を相対方位保持部50に
格納する(S4)。
A relative direction calculation processing unit 48 reads out the camera direction information stored in the camera direction holding unit 42 and the speaker direction information stored in the speaker direction holding unit 46,
The relative orientation (angle) between the camera 10 and the speaker is calculated,
The calculation result, that is, the relative azimuth information is stored in the relative azimuth holding unit 50 (S4).

【0020】音声認識処理部52が、入力された音声を
認識処理し、「もっと右」及び「こっち向いて」など、
相対的にカメラの方位制御を示す発声内容を識別して、
認識結果保持部54に格納する(S5)。
A voice recognition processing unit 52 performs a recognition process on the input voice, and performs "more right", "turn here" and the like.
Recognize the utterance contents indicating the direction control of the camera relatively,
It is stored in the recognition result holding unit 54 (S5).

【0021】相対表現解析処理部56が、相対方位保持
部50に格納されている相対方位情報と認識結果保持部
54に格納されている認識結果を読み出し、カメラ10
の方位制御パラメータを計算する(S6)。つまり、話
者の視点から見た場合の「右」や「こっち」などの方向
を計算し、それに応じた方位にカメラ10の方位を制御
する。計算結果は方位制御パラメータ保持部58に格納
される。
A relative expression analysis processing unit 56 reads out the relative orientation information stored in the relative orientation holding unit 50 and the recognition result stored in the recognition result holding unit 54, and
Is calculated (S6). That is, the direction such as “right” or “this way” when viewed from the speaker's viewpoint is calculated, and the azimuth of the camera 10 is controlled to the azimuth corresponding to the direction. The calculation result is stored in the azimuth control parameter holding unit 58.

【0022】次に、方位制御パラメータ出力処理部60
が、方位制御パラメータ保持部58に格納されている方
位制御パラメータ情報をI/O28を介してカメラ10
の方位制御回路16に出力する(S7)。
Next, the azimuth control parameter output processing unit 60
Transmits the azimuth control parameter information stored in the azimuth control parameter holding unit 58 to the camera 10 via the I / O 28.
(S7).

【0023】例えば、音声指示が「こっち向いて」の場
合の動作を、図4及び図5を参照して説明する。図4及
び図5は、カメラ10と話者の位置関係の平面図を示
す。図4は制御前の状態、図5は制御後の状態を示す。
図4において、カメラ10の撮影中心線が基準方位から
反時計方向に角度−α(時計方向に角度α)だけ回転し
ており、話者は、基準方位から反時計まわりにβ度の角
度に位置するものとする。
For example, the operation when the voice instruction is "turn here" will be described with reference to FIGS. 4 and 5 show plan views of the positional relationship between the camera 10 and the speaker. FIG. 4 shows a state before control, and FIG. 5 shows a state after control.
In FIG. 4, the photographing center line of the camera 10 is rotated counterclockwise by an angle -α (clockwise angle α) from the reference azimuth, and the speaker changes the angle of β degrees counterclockwise from the reference azimuth. Shall be located.

【0024】話者の「こっち向いて」という命令に対
し、上述の処理により、カメラ10は、中心線を基準方
位から時計方向に角度βの方位にその撮影中心線を回転
するように制御される。回転後の状態を図5に示す。
In response to the speaker's "turn here" command, the camera 10 is controlled by the above-described processing to rotate the center line of the photographing center line clockwise from the reference azimuth by an angle β. You. The state after rotation is shown in FIG.

【0025】「もっと右」という音声指示に対する動作
を説明する。図6及び図7は、カメラ10と話者の位置
関係の平面図を示す。図6に示すように、話者とカメラ
10の撮影中心線との角度差αが特定の角度β(ここで
は、カメラ10の視野角の半分の角度とする。)以内の
場合、つまり、話者がカメラ10の画角j範囲内に存在
する場合、「右」という命令に対して、カメラ制御装置
20はカメラ10を反時計まわりに所定角度だけ回転さ
せる。「左」という命令に対しては、カメラ制御装置2
0はカメラ10を時計まわりに回転させる。逆に、図7
に示すように、α>βの場合、つまり、話者がカメラ1
0の画角範囲外の場合、「右」という命令に対して、カ
メラ制御装置20はカメラ10を時計まわりに所定角度
だけ回転させ、「左」という命令に対して反時計まわり
に回転させる。
An operation in response to a voice instruction of "more right" will be described. 6 and 7 are plan views showing the positional relationship between the camera 10 and the speaker. As shown in FIG. 6, when the angle difference α between the speaker and the photographing center line of the camera 10 is within a specific angle β (here, it is assumed to be half the viewing angle of the camera 10), that is, the talk. When the user is within the range of the angle of view j of the camera 10, the camera control device 20 rotates the camera 10 counterclockwise by a predetermined angle in response to the command “right”. For the command "left", the camera controller 2
0 rotates the camera 10 clockwise. Conversely, FIG.
When α> β, that is, when the speaker
If the angle is out of the angle of view range of 0, the camera control device 20 rotates the camera 10 clockwise by a predetermined angle in response to the command “right”, and rotates the camera 10 counterclockwise in response to the command “left”.

【0026】上記実施の形態では、話者の視点から見た
場合の「右」又は「左」を、カメラ10と話者との相対
位置関係を加味してカメラ10の制御方向に勘案してカ
メラ10の方位を制御したが、必ずしも話者が自分の視
点から見た場合の「右」や「左」でカメラ10を制御す
るとは限らない。例えば、話者が、カメラ10の言語理
解能力が低いだろうと気を利かせて、カメラ10の視点
から見た場合の「右」又は「左」で命令することが考え
られる。この場合、先の実施の形態のままでは、「右」
という命令に対し「左」に回転してしまう。これでは、
話者の意図と異なる制御が行なわれてしまう。
In the above embodiment, the “right” or “left” when viewed from the viewpoint of the speaker is considered in the control direction of the camera 10 in consideration of the relative positional relationship between the camera 10 and the speaker. Although the azimuth of the camera 10 is controlled, the speaker 10 does not always control the camera 10 with “right” or “left” when viewed from his / her own viewpoint. For example, it is conceivable that the speaker gives a command that “right” or “left” when viewed from the viewpoint of the camera 10 while being careful that the language understanding ability of the camera 10 is low. In this case, in the previous embodiment, “right”
Is rotated "left" in response to the command. In this,
Control different from the speaker's intention is performed.

【0027】このような場合に、話者の「違う、逆」又
は「反対」という音声を認識し、それ以降は視点をカメ
ラ側に切り替えてカメラ制御を行なうことが望まれる。
つまり、「右」という命令に対してそのまま「右」に撮
影方位を回転するようにする。
In such a case, it is desirable to recognize the voice of the speaker saying "different, opposite" or "opposite", and thereafter switch the viewpoint to the camera side to perform camera control.
That is, in response to the command of “right”, the shooting direction is rotated to “right” as it is.

【0028】図8は、その変更実施の形態の概略機能ブ
ロック図を示す。図2と同じ構成要素には同じ符号を付
してある。新たに、視点抽出処理部62と視点保持部6
4が導入されている。また、相対表現解析処理部56a
が、視点保持部64に記憶される視点情報を参照して、
カメラ10の採るべき方位を計算するように修整されて
いる。
FIG. 8 is a schematic functional block diagram of the modified embodiment. The same components as those in FIG. 2 are denoted by the same reference numerals. A new viewpoint extraction processing unit 62 and a new viewpoint holding unit 6
4 have been introduced. The relative expression analysis processing unit 56a
Refers to the viewpoint information stored in the viewpoint holding unit 64,
It has been modified to calculate the azimuth to be taken by the camera 10.

【0029】図9は、図8に示す変更実施の形態の動作
フローチャートを示す。S11〜S15は、図2のS1
〜S5と同じである。音声認識(S15)の後、視点抽
出処理部62が、認識結果保持部54に格納されている
認識結果から、相対表現に関する視点情報(カメラか話
者か)を取り出し、視点保持部64に格納する(S1
6)。相対表現解析処理部56aは、相対方位保持部5
0に格納されている相対方位情報、認識結果保持部54
に格納されている認識結果、及び視点保持部64に格納
されいてる視点情報から、カメラ10の方位制御パラメ
ータを計算する(S17)。以後、図2の場合と同様
に、計算された方位制御パラメータに従ってカメラ10
の方位が変更される。
FIG. 9 shows an operation flowchart of the modified embodiment shown in FIG. S11 to S15 correspond to S1 in FIG.
Same as S5. After the voice recognition (S15), the viewpoint extraction processing unit 62 extracts viewpoint information (camera or speaker) related to the relative expression from the recognition result stored in the recognition result holding unit 54, and stores the viewpoint information in the viewpoint holding unit 64. Yes (S1
6). The relative expression analysis processing unit 56a includes a relative orientation holding unit 5
0, relative orientation information, recognition result holding unit 54
Then, the azimuth control parameters of the camera 10 are calculated from the recognition result stored in the camera and the viewpoint information stored in the viewpoint holding unit 64 (S17). Thereafter, as in the case of FIG.
Is changed.

【0030】視点の変更は、話者の発言内容に応じてリ
アルタイムに行なっても良いが、予め話者又は利用者が
視点を話者又はカメラに設定しておくようにしてもよ
い。
The viewpoint may be changed in real time according to the content of the speaker's remark, but the speaker or the user may set the viewpoint to the speaker or the camera in advance.

【0031】図8に示す実施の形態では、ある動作に対
する話者の発言内容(例えば、「違う、逆」及び「反
対」など)に対応して、視点を変更しているが、本発明
は、これに限定されない。例えば、「カメラ側から見て
右」又は「こっちから見て左」などの、同時に視点と方
向を指定する表現に応じてカメラ10を制御するように
してもよい。
In the embodiment shown in FIG. 8, the viewpoint is changed in accordance with the content of a speaker's remark (eg, "different, opposite", "opposite", etc.) for a certain action. , But is not limited to this. For example, the camera 10 may be controlled in accordance with an expression that simultaneously specifies a viewpoint and a direction, such as “right when viewed from the camera side” or “left when viewed from here”.

【0032】図8に示す実施の形態では、視点を保持す
るようにしているが、本発明は、これに限定されない。
例えば、相対的方向に関する命令それぞれについての動
作を個別に保持してもよい。つまり、カメラ制御のため
の話者命令と、その時のカメラの回転動作をセットにし
た命令動作テーブルを用いて、視点を逐次、更新しても
よい。
In the embodiment shown in FIG. 8, the viewpoint is maintained, but the present invention is not limited to this.
For example, the operation for each instruction related to the relative direction may be separately held. In other words, the viewpoint may be sequentially updated using a speaker operation command for camera control and an instruction operation table in which the rotation operation of the camera at that time is set.

【0033】上記各実施の形態では、データ保持手段を
メモリ(RAM)上に配置したが、任意の記憶媒体に配
置してよい。
In each of the above embodiments, the data holding means is arranged on a memory (RAM), but may be arranged on any storage medium.

【0034】上記各実施の形態では、各部を同一の計算
機上に構成しているが、本発明は、これに限定されな
い。例えば、ネットワーク上に分散した計算機や処理装
置などに分かれて各部を構成してもよい。
In each of the above embodiments, each unit is configured on the same computer, but the present invention is not limited to this. For example, each unit may be configured by being divided into computers and processing devices distributed on a network.

【0035】上記各実施の形態では、プログラムを制御
メモリ(ROM)に保持しているが、本発明は、これに
限定されない。例えば、任意の記憶媒体に格納できる。
同様の動作の全部又は一部をハードウエアで実現しても
よい。
In the above embodiments, the program is stored in the control memory (ROM), but the present invention is not limited to this. For example, it can be stored in any storage medium.
All or a part of the same operation may be realized by hardware.

【0036】本発明は、複数の機器から構成されるシス
テムに適用しても、1つの機器からなる装置に適用して
もよい。前述した実施の形態の機能を実現するソフトウ
エアのプログラムコードを記録した記憶媒体を、システ
ム或いは装置に供給し、そのシステム、或いは装置のコ
ンピュータ(またはCPUやMPU)が記憶媒体に格納
されたプログラムコードを読み出し実行することによっ
ても、達成されることは言うまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of one device. A storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or an apparatus, and a computer (or CPU or MPU) of the system or the apparatus stores the program stored in the storage medium. It goes without saying that this can also be achieved by reading and executing the code.

【0037】この場合、記憶媒体から読み出されたプロ
グラムコード自体が、前述した実施の形態の機能を実現
することになり、そのプログラムコードを記録した記憶
媒体は本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0038】プログラムコードを供給するための記録媒
体としては、例えば、フロッピーディスク、ハードディ
スク、光ディスク、光磁気ディスク、CDーROM、C
DーR、磁気テープ、不揮発性のメモリカード及びRO
Mなどを用いることができる。
As a recording medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, C
DR, magnetic tape, nonvolatile memory card and RO
M or the like can be used.

【0039】また、コンピュータが読み出したプログラ
ムコードを実行することにより、前述した実施の形態の
機能が実現されるだけでなく、そのプログラムコードの
指示に基づき、コンピュータ上で稼働しているOS(オ
ペレーティング・システム)などが、実際の処理の一部
または全部を行ない、その処理によって前述した実施の
形態の機能が実現される場合も含まれることは言うまで
もない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. It is needless to say that the system may perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0040】更に、記録媒体から読み出さんたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書き込まれた後、そのプログラムコードの指示
に基づき、その機能拡張ボードや機能拡張ユニットに備
わるCPUなどが、実際の処理の一部または全部を行な
い、その処理によって前述した実施の形態の機能が実現
される場合も含まれることは言うまでもない。
Further, after the program code read from the recording medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0041】[0041]

【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、相対的な方位を考慮し、話者の視
点から見た場合のカメラ制御が可能となる。その結果、
話者の直感的な指示に即応するカメラ制御を実現でき
る。更に、相対的な方位を決定する際に視点情報を取り
入れることにより、より柔軟なカメラ制御を実現でき
る。
As can be easily understood from the above description, according to the present invention, it is possible to control the camera from the viewpoint of the speaker in consideration of the relative orientation. as a result,
Camera control can be realized in response to intuitive instructions from the speaker. Furthermore, by incorporating viewpoint information when determining the relative orientation, more flexible camera control can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施の形態のハードウエアの概略
構成ブロック図である。
FIG. 1 is a schematic configuration block diagram of hardware according to an embodiment of the present invention.

【図2】 本実施の形態の概略機能ブロック図である。FIG. 2 is a schematic functional block diagram of the present embodiment.

【図3】 図2に示す実施の形態の動作フローチャート
である。
FIG. 3 is an operation flowchart of the embodiment shown in FIG. 2;

【図4】 図2に示す実施の形態のカメラ制御(制御
前)の説明図である。
FIG. 4 is an explanatory diagram of camera control (before control) of the embodiment shown in FIG. 2;

【図5】 図2に示す実施の形態のカメラ制御(制御
後)の説明図である。
FIG. 5 is an explanatory diagram of camera control (after control) of the embodiment shown in FIG. 2;

【図6】 図2に示す実施の形態の別のカメラ制御の説
明図である。
FIG. 6 is an explanatory diagram of another camera control of the embodiment shown in FIG. 2;

【図7】 図2に示す実施の形態の更に別のカメラ制御
の説明図である。
FIG. 7 is an explanatory diagram of still another camera control of the embodiment shown in FIG. 2;

【図8】 本発明の変更実施の形態の概略機能ブロック
図である。
FIG. 8 is a schematic functional block diagram of a modified embodiment of the present invention.

【図9】 図9に示す変更実施の形態の動作フローチャ
ートである。
FIG. 9 is an operation flowchart of the modified embodiment shown in FIG. 9;

【符号の説明】[Explanation of symbols]

10:カメラ 12:撮像装置 14:光学パラメータ制御回路 16:方位制御回路 20:カメラ制御回路 22:CPU 24:RAM 26:ROM 28:I/O 30:二次記憶装置 32:バス 34:マイク 36:A/D変換器 40:カメラ方位特定処理部 42:カメラ方位保持部 44:話者方位特定処理部 46:話者方位保持部 48:相対方位計算部 50:相対方位保持部 52:音声認識処理部 54:認識結果保持部 56:相対表現解析処理部 56a:相対表現解析処理部 58:方位制御パラメータ保持部 60:方位制御パラメータ出力処理部 62:視点抽出処理部 64:視点保持部 10: Camera 12: Imaging device 14: Optical parameter control circuit 16: Direction control circuit 20: Camera control circuit 22: CPU 24: RAM 26: ROM 28: I / O 30: Secondary storage device 32: Bus 34: Microphone 36 : A / D converter 40: Camera direction specifying processing unit 42: Camera direction specifying unit 44: Speaker direction specifying processing unit 46: Speaker direction storing unit 48: Relative direction calculating unit 50: Relative direction storing unit 52: Voice recognition Processing unit 54: Recognition result storage unit 56: Relative expression analysis processing unit 56a: Relative expression analysis processing unit 58: Azimuth control parameter storage unit 60: Azimuth control parameter output processing unit 62: Viewpoint extraction processing unit 64: Viewpoint storage unit

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 撮影方位を外部制御自在なカメラを制御
するカメラ制御装置であって、 現在の当該カメラの方位情報を取り出すカメラ方位特定
手段と、 話者の方位を求める話者方位特定手段と、 当該カメラと当該話者の相対的な方位を計算する相対方
位計算手段と、 音声入力手段と、 当該音声入力手段の入力音声から当該カメラの方位制御
に関係する発声内容を認識する音声認識処理手段と、 当該相対方位計算手段により計算された相対方位と当該
音声認識処理手段の認識結果から、当該話者の視点から
見た場合の当該カメラの方位制御を行なうための方位制
御パラメータを計算する相対表現解析処理手段と、 当該相対表現解析処理手段により計算された方位制御パ
ラメータを示す情報を当該カメラに出力する方位制御パ
ラメータ出力処理手段とを有することを特徴とするカメ
ラ制御装置。
1. A camera control device for controlling a camera capable of externally controlling a shooting direction, comprising: camera direction specifying means for obtaining current direction information of the camera; and speaker direction specifying means for obtaining a direction of a speaker. A relative azimuth calculating means for calculating a relative azimuth between the camera and the speaker; a voice input means; and a voice recognition process for recognizing utterance contents related to azimuth control of the camera from an input voice of the voice input means. Means for calculating an azimuth control parameter for controlling the azimuth of the camera from the viewpoint of the speaker from the relative azimuth calculated by the relative azimuth calculating means and the recognition result of the voice recognition processing means. Relative expression analysis processing means, and azimuth control parameter output processing for outputting information indicating the azimuth control parameter calculated by the relative expression analysis processing means to the camera The camera control apparatus characterized by a means.
【請求項2】 更に、当該音声認識処理手段の認識結果
から視点を指示する命令を抽出する視点抽出手段と、 視点情報を保持する視点保持手段とを有することを特徴
とする請求項1に記載のカメラ制御装置。
2. The apparatus according to claim 1, further comprising: viewpoint extracting means for extracting a command for designating a viewpoint from a recognition result of said speech recognition processing means; and viewpoint retaining means for retaining viewpoint information. Camera control device.
【請求項3】 更に、視点を設定する視点設定手段を有
することを特徴とする請求項1に記載のカメラ制御装
置。
3. The camera control device according to claim 1, further comprising viewpoint setting means for setting a viewpoint.
【請求項4】 更に、相対方向に関する命令と動作をセ
ットにした命令動作テーブルを保持するテーブル保持手
段と、認識結果及び相対方位をもとに当該命令動作テー
ブルを更新するテーブル更新手段とを有することを特徴
とする請求項1乃至3の何れか1項に記載のカメラ制御
装置。
4. An apparatus according to claim 1, further comprising: a table holding unit for holding an instruction operation table in which an instruction and an operation related to the relative direction are set; and a table updating unit for updating the instruction operation table based on the recognition result and the relative azimuth. The camera control device according to claim 1, wherein:
【請求項5】 更に、当該カメラ方位特定手段により特
定されるカメラ方位情報を保持するカメラ方位保持手段
と、 当該話者方位特定手段により特定される話者方位情報を
保持する話者方位保持手段と、 当該相対方位計算手段により計算された相対方位を保持
する相対方位保持手段と、 当該音声認識処理手段の認識結果を保持する認識結果保
持手段と、 当該相対表現解析処理手段により計算された方位制御パ
ラメータを保持する方位制御パラメータ保持手段と、と
を有する請求項1に記載のカメラ制御装置。
5. A camera azimuth holding means for holding camera azimuth information specified by the camera azimuth specifying means, and a speaker azimuth holding means for holding speaker azimuth information specified by the speaker azimuth specifying means. Relative orientation holding means for holding the relative orientation calculated by the relative orientation calculation means; recognition result holding means for holding the recognition result of the voice recognition processing means; and the orientation calculated by the relative expression analysis processing means. The camera control device according to claim 1, further comprising: an azimuth control parameter holding unit that holds a control parameter.
【請求項6】 撮影方位を外部制御自在なカメラを制御
するカメラ制御方法であって、 現在の当該カメラの方位情報を取り出すカメラ方位特定
ステップと、 話者の方位を求める話者方位特定ステップと、 当該カメラと当該話者の相対的な方位を計算する相対方
位計算ステップと、 音声入力手段の入力音声から当該カメラの方位制御に関
係する発声内容を認識する音声認識処理ステップと、 当該相対方位計算ステップにより計算された相対方位と
当該音声認識処理ステップの認識結果から、当該話者の
視点から見た場合の当該カメラの方位制御を行なうため
の方位制御パラメータを計算する相対表現解析処理ステ
ップと、 当該相対表現解析処理ステップにより計算された方位制
御パラメータを示す情報を当該カメラに出力する方位制
御パラメータ出力処理ステップとを有することを特徴と
するカメラ制御方法。
6. A camera control method for controlling a camera capable of externally controlling a photographing direction, comprising: a camera direction specifying step for extracting current direction information of the camera; and a speaker direction specifying step for obtaining a direction of a speaker. A relative azimuth calculating step of calculating a relative azimuth of the camera and the speaker; a voice recognition processing step of recognizing utterance content related to azimuth control of the camera from an input voice of voice input means; A relative expression analysis processing step of calculating an azimuth control parameter for performing azimuth control of the camera when viewed from the viewpoint of the speaker, based on the relative azimuth calculated by the calculation step and the recognition result of the voice recognition processing step; An azimuth control parameter for outputting information indicating the azimuth control parameter calculated in the relative expression analysis processing step to the camera; And a data output processing step.
【請求項7】 更に、当該音声認識処理ステップの認識
結果から視点を指示する命令を抽出する視点抽出ステッ
プと、 視点情報を保持する視点保持ステップとを有することを
特徴とする請求項6に記載のカメラ制御方法。
7. The apparatus according to claim 6, further comprising: a viewpoint extracting step of extracting a command for designating a viewpoint from a recognition result of the voice recognition processing step; and a viewpoint holding step of holding viewpoint information. Camera control method.
【請求項8】 更に、視点を設定する視点設定ステップ
を有することを特徴とする請求項6に記載のカメラ制御
方法。
8. The camera control method according to claim 6, further comprising a viewpoint setting step of setting a viewpoint.
【請求項9】 更に、相対方向に関する命令と動作をセ
ットにした命令動作テーブルを保持するテーブル保持ス
テップと、認識結果及び相対方位をもとに当該命令動作
テーブルを更新するテーブル更新ステップとを有するこ
とを特徴とする請求項6乃至8の何れか1項に記載のカ
メラ制御方法。
9. A table holding step for holding an instruction operation table in which an instruction and an operation related to a relative direction are set, and a table updating step for updating the instruction operation table based on a recognition result and a relative azimuth. The camera control method according to any one of claims 6 to 8, wherein:
【請求項10】 更に、当該カメラ方位特定ステップに
より特定されるカメラ方位情報を保持するカメラ方位保
持ステップと、 当該話者方位特定ステップにより特定される話者方位情
報を保持する話者方位保持ステップと、 当該相対方位計算ステップにより計算された相対方位を
保持する相対方位保持ステップと、 当該音声認識処理ステップの認識結果を保持する認識結
果保持ステップと、 当該相対表現解析処理ステップにより計算された方位制
御パラメータを保持する方位制御パラメータ保持ステッ
プと、とを有する請求項6に記載のカメラ制御方法。
10. A camera azimuth holding step for holding camera azimuth information specified by the camera azimuth specifying step, and a speaker azimuth holding step for holding speaker azimuth information specified by the speaker azimuth specifying step. A relative orientation holding step of holding the relative orientation calculated by the relative orientation calculation step; a recognition result holding step of holding the recognition result of the voice recognition processing step; and an orientation calculated by the relative expression analysis processing step The camera control method according to claim 6, further comprising: an azimuth control parameter holding step of holding a control parameter.
【請求項11】 撮影方位を外部制御自在なカメラを制
御するカメラ制御方法であって、 現在の当該カメラの方位情報を取り出すカメラ方位特定
ステップと、 話者の方位を求める話者方位特定ステップと、 当該カメラと当該話者の相対的な方位を計算する相対方
位計算ステップと、 音声入力手段の入力音声から当該カメラの方位制御に関
係する発声内容を認識する音声認識処理ステップと、 当該相対方位計算ステップにより計算された相対方位と
当該音声認識処理ステップの認識結果から、当該話者の
視点から見た場合の当該カメラの方位制御を行なうため
の方位制御パラメータを計算する相対表現解析処理ステ
ップと、 当該相対表現解析処理ステップにより計算された方位制
御パラメータを示す情報を当該カメラに出力する方位制
御パラメータ出力処理ステップとを有するカメラ制御方
法を実施するプログラム・ソフトウエアを外部読み出し
自在に記憶することを特徴とする記憶媒体。
11. A camera control method for controlling a camera whose shooting direction can be controlled externally, comprising: a camera direction specifying step for extracting current direction information of the camera; and a speaker direction specifying step for obtaining a direction of a speaker. A relative azimuth calculating step of calculating a relative azimuth of the camera and the speaker; a voice recognition processing step of recognizing utterance content related to azimuth control of the camera from an input voice of voice input means; A relative expression analysis processing step of calculating an azimuth control parameter for performing azimuth control of the camera when viewed from the viewpoint of the speaker, based on the relative azimuth calculated by the calculation step and the recognition result of the voice recognition processing step; An azimuth control parameter for outputting information indicating the azimuth control parameter calculated in the relative expression analysis processing step to the camera; A storage medium storing program software for implementing a camera control method having a meter output processing step so as to be externally readable.
【請求項12】 更に、当該音声認識処理ステップの認
識結果から視点を指示する命令を抽出する視点抽出ステ
ップと、 視点情報を保持する視点保持ステップとを有することを
特徴とする請求項11に記載の記憶媒体。
12. The apparatus according to claim 11, further comprising: a viewpoint extracting step of extracting a command for designating a viewpoint from a recognition result of the speech recognition processing step; and a viewpoint holding step of holding viewpoint information. Storage media.
【請求項13】 更に、視点を設定する視点設定ステッ
プを有することを特徴とする請求項11に記載の記憶媒
体。
13. The storage medium according to claim 11, further comprising a viewpoint setting step of setting a viewpoint.
【請求項14】 更に、相対方向に関する命令と動作を
セットにした命令動作テーブルを保持するテーブル保持
ステップと、認識結果及び相対方位をもとに当該命令動
作テーブルを更新するテーブル更新ステップとを有する
ことを特徴とする請求項11乃至13の何れか1項に記
載の記憶媒体。
14. A method according to claim 1, further comprising: a table holding step for holding an instruction operation table in which an instruction and an operation related to the relative direction are set; and a table updating step for updating the instruction operation table based on the recognition result and the relative azimuth. The storage medium according to any one of claims 11 to 13, wherein:
【請求項15】 更に、当該カメラ方位特定ステップに
より特定されるカメラ方位情報を保持するカメラ方位保
持ステップと、 当該話者方位特定ステップにより特定される話者方位情
報を保持する話者方位保持ステップと、 当該相対方位計算ステップにより計算された相対方位を
保持する相対方位保持ステップと、 当該音声認識処理ステップの認識結果を保持する認識結
果保持ステップと、 当該相対表現解析処理ステップにより計算された方位制
御パラメータを保持する方位制御パラメータ保持ステッ
プと、とを有する請求項11に記載の記憶媒体。
15. A camera azimuth holding step for holding camera azimuth information specified by the camera azimuth specifying step, and a speaker azimuth holding step for holding speaker azimuth information specified by the speaker azimuth specifying step. A relative orientation holding step of holding the relative orientation calculated by the relative orientation calculation step; a recognition result holding step of holding the recognition result of the voice recognition processing step; and an orientation calculated by the relative expression analysis processing step The storage medium according to claim 11, comprising: an azimuth control parameter holding step of holding a control parameter.
JP10148634A 1998-05-29 1998-05-29 Device and method for controlling camera, and storage medium Withdrawn JPH11341336A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10148634A JPH11341336A (en) 1998-05-29 1998-05-29 Device and method for controlling camera, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10148634A JPH11341336A (en) 1998-05-29 1998-05-29 Device and method for controlling camera, and storage medium

Publications (1)

Publication Number Publication Date
JPH11341336A true JPH11341336A (en) 1999-12-10

Family

ID=15457189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10148634A Withdrawn JPH11341336A (en) 1998-05-29 1998-05-29 Device and method for controlling camera, and storage medium

Country Status (1)

Country Link
JP (1) JPH11341336A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284473A (en) * 2008-04-23 2009-12-03 Canon Inc Camera control apparatus and method
JP2014102517A (en) * 2014-01-20 2014-06-05 Nikon Corp Electronic apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284473A (en) * 2008-04-23 2009-12-03 Canon Inc Camera control apparatus and method
JP2014102517A (en) * 2014-01-20 2014-06-05 Nikon Corp Electronic apparatus

Similar Documents

Publication Publication Date Title
EP4054177B1 (en) Audio processing method and device
JP2019186929A (en) Method and device for controlling camera shooting, intelligent device, and storage medium
US20230328429A1 (en) Audio processing method and electronic device
CN107831902B (en) Motion control method and device, storage medium and terminal
US11587560B2 (en) Voice interaction method, device, apparatus and server
JP7348754B2 (en) Image processing device and its control method, program, storage medium
US11750926B2 (en) Video image stabilization processing method and electronic device
JPH07131746A (en) Electronic camera
CN108922531B (en) Slot position identification method and device, electronic equipment and storage medium
JP2009094574A (en) Imaging apparatus, exchange method of image data, and program
CN109547843B (en) Method and device for processing audio and video
WO2022007518A1 (en) Image photographing method and apparatus, terminal, and storage medium
CN111251307A (en) Voice acquisition method and device applied to robot and robot
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP2023549810A (en) Animal face style image generation method, model training method, device and equipment
CN111988518A (en) Electronic device with camera module capable of switching visual lines and method for recording video
JP2019106604A (en) Imaging apparatus, method for controlling imaging apparatus, and program
JP3757565B2 (en) Speech recognition image processing device
JP2018074439A (en) Imaging apparatus and control method of the same
JPH11341336A (en) Device and method for controlling camera, and storage medium
JP6261191B2 (en) Display control apparatus, display control method, and program
CN116095497A (en) Exposure control method, device and terminal equipment
KR20190101802A (en) Electronic device and method for providing augmented reality object thereof
JP7489928B2 (en) Information processing device, system, device control device, and program for operating a device by voice
JP2015210467A (en) Imaging device, imaging control device, program and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050802