JP6450604B2 - Image acquisition apparatus and image acquisition method - Google Patents

Image acquisition apparatus and image acquisition method Download PDF

Info

Publication number
JP6450604B2
JP6450604B2 JP2015014488A JP2015014488A JP6450604B2 JP 6450604 B2 JP6450604 B2 JP 6450604B2 JP 2015014488 A JP2015014488 A JP 2015014488A JP 2015014488 A JP2015014488 A JP 2015014488A JP 6450604 B2 JP6450604 B2 JP 6450604B2
Authority
JP
Japan
Prior art keywords
image
subject
unit
region
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015014488A
Other languages
Japanese (ja)
Other versions
JP2016139975A (en
Inventor
達之 上村
達之 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015014488A priority Critical patent/JP6450604B2/en
Publication of JP2016139975A publication Critical patent/JP2016139975A/en
Application granted granted Critical
Publication of JP6450604B2 publication Critical patent/JP6450604B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像取得装置及び画像取得方法に関する。
The present invention relates to an image acquisition device and an image acquisition method .

デジタルカメラにおいて、被写体から到来した光は、撮影レンズによって収束する。その結果、撮像素子の撮像面に被写体像が結像する。撮像素子は、撮像面に結像した被写体像に基づいて画像データを生成する。この画像データに対しては、記録用や表示用に種々の画像処理が行われる。   In a digital camera, light coming from a subject is converged by a photographing lens. As a result, a subject image is formed on the imaging surface of the image sensor. The imaging element generates image data based on the subject image formed on the imaging surface. This image data is subjected to various image processing for recording and display.

一般に、魚眼レンズは、約180°の広がりを持つ半球全体に及ぶ被写体の像を1つの円形のイメージサークル内に結像させる。このイメージサークルと撮像面との位置関係には、円周魚眼と対角魚眼とが存在する。例えば特許文献1に記載のレンズ鏡筒は、魚眼ズームレンズのズーム操作環を回転させる操作によって、APS−C、APS−H、又はフルサイズの撮像素子に対して対角魚眼とすることと、フルサイズの撮像素子に対して円周魚眼とすることとを簡単に切り換えることができるように構成されている。   In general, a fisheye lens forms an image of a subject covering the entire hemisphere having an extent of about 180 ° in one circular image circle. There are a circumferential fisheye and a diagonal fisheye in the positional relationship between the image circle and the imaging surface. For example, the lens barrel described in Patent Document 1 is made to be a diagonal fisheye with respect to an APS-C, APS-H, or full-size image sensor by rotating the zoom operation ring of the fisheye zoom lens. And a circular fisheye for a full-size image sensor can be easily switched.

特開2012−22108号公報JP2012-22108A

例えば魚眼レンズのように、広い画角を有するレンズを用いると、多くの被写体の画像を一度に取得することができる。このようにして取得された画像から必要な画像を切り出して再配置することで、新たな画像を作成することができる。   For example, when a lens having a wide angle of view, such as a fisheye lens, is used, images of many subjects can be acquired at once. A new image can be created by cutting out and rearranging a necessary image from the image thus obtained.

本発明は、1枚の画像から複数の画像を切り出してそれらの向きを整えて再配置することで新たな画像を作成することができる画像取得装置及び画像取得方法を提供することを目的とする。
It is an object of the present invention to provide an image acquisition apparatus and an image acquisition method capable of creating a new image by cutting out a plurality of images from one image, arranging their orientations, and rearranging them. .

本発明の一態様によれば、画像取得装置は、第1の被写体と前記第1の被写体の周囲に位置する第2の被写体とを同時に撮影して、撮影画像を生成する撮像部と、前記撮影画像から、前記第1の被写体を含む第1の画像と前記第2の被写体を含む第2の画像とを切り出すトリミング部と、前記第1の画像の向きである画像方向を決定する方向決定部と、前記画像方向に基づいて前記第1の画像と前記第2の画像との向きを整えて、前記第1の画像と前記第2の画像とを合成することで編集画像を作成する画像合成部とを備える。   According to an aspect of the present invention, an image acquisition device captures a first subject and a second subject located around the first subject at the same time, and generates a captured image; A trimming unit that cuts out a first image including the first subject and a second image including the second subject from the captured image, and a direction determination for determining an image direction that is an orientation of the first image An image that creates an edited image by composing the first image and the second image by aligning the orientation of the first image and the second image based on the image direction and the first image And a synthesis unit.

本発明の一態様によれば、画像取得方法は、第1の被写体と前記第1の被写体の周囲に位置する第2の被写体とを同時に撮影して、撮影画像を生成することと、前記撮影画像から、前記第1の被写体を含む第1の画像と前記第2の被写体を含む第2の画像とを切り出すことと、前記第1の画像の向きである画像方向を決定することと、前記画像方向に基づいて前記第1の画像と前記第2の画像との向きを整えて、前記第1の画像と前記第2の画像とを合成することで編集画像を作成することとを含む。   According to one aspect of the present invention, an image acquisition method includes simultaneously capturing a first subject and a second subject located around the first subject to generate a captured image; and Cutting out a first image including the first subject and a second image including the second subject from the image, determining an image direction which is an orientation of the first image, Adjusting an orientation of the first image and the second image based on an image direction, and synthesizing the first image and the second image to create an edited image.

本発明によれば、1枚の画像から複数の画像を切り出してそれらの向きを整えて再配置することで新たな画像を作成することができる画像取得装置及び画像取得方法を提供できる。
According to the present invention, it is possible to provide an image acquisition device and an image acquisition method capable of creating a new image by cutting out a plurality of images from one image, arranging their orientations, and rearranging them.

一実施形態に係る撮像装置の構成例の概略を示すブロック図。1 is a block diagram illustrating an outline of a configuration example of an imaging apparatus according to an embodiment. 撮像装置の使用態様の一例を説明するための図。FIG. 10 is a diagram for describing an example of a usage mode of an imaging device. 撮像装置の使用態様の一例を説明するための図。FIG. 10 is a diagram for describing an example of a usage mode of an imaging device. 撮像装置の使用態様の一例を説明するための図。FIG. 10 is a diagram for describing an example of a usage mode of an imaging device. 撮像装置を書画カメラとして用いた場合に取得される撮影画像の一例を示す図。The figure which shows an example of the picked-up image acquired when an imaging device is used as a document camera. 撮影画像に基づいて作成される編集画像の一例を示す図。The figure which shows an example of the edit image produced based on a picked-up image. 撮像装置の動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation | movement of an imaging device. 周辺領域の内径の定め方の一例について説明するための図。The figure for demonstrating an example of how to determine the internal diameter of a peripheral region. 周辺領域の内径の定め方の一例について説明するための図。The figure for demonstrating an example of how to determine the internal diameter of a peripheral region. 周辺領域の外径及び内径について説明するための図。The figure for demonstrating the outer diameter and internal diameter of a peripheral region. 周辺領域の画像から周辺画像を作成することについて説明するための図。The figure for demonstrating producing a peripheral image from the image of a peripheral region. 周辺領域の画像から周辺画像を作成することについて説明するための図。The figure for demonstrating producing a peripheral image from the image of a peripheral region. 周辺画像について説明するための図。The figure for demonstrating a periphery image. 中央画像について説明するための図。The figure for demonstrating a center image.

本発明の一実施形態に係る画像取得装置としての撮像装置について説明する。図1は、本実施形態に係る画像取得装置としての撮像装置1の構成例の概略を示す図である。撮像装置1は、制御部2と、撮像部4と、表示部5と、タッチパネル6と、記録部7と、操作部8と、姿勢検出部9と、通信部10と、一時記憶部11と、マイクロホン12とを有する。   An imaging apparatus as an image acquisition apparatus according to an embodiment of the present invention will be described. FIG. 1 is a diagram illustrating an outline of a configuration example of an imaging apparatus 1 as an image acquisition apparatus according to the present embodiment. The imaging device 1 includes a control unit 2, an imaging unit 4, a display unit 5, a touch panel 6, a recording unit 7, an operation unit 8, an attitude detection unit 9, a communication unit 10, and a temporary storage unit 11. And a microphone 12.

撮像部4は、魚眼光学系41と、撮像素子42とを備える。魚眼光学系41は、複数枚のレンズを有し、被写体から入射した光束を収束させて、被写体像を撮像素子42の撮像面に結像させる。魚眼光学系41は、180°以上の画角の被写体を撮像素子42の撮像面に写し込ませることができる円周魚眼レンズである。魚眼光学系41は、180°よりも大きな画角を有することが好ましい。撮像素子42は、例えばCCD又はCMOSイメージセンサを含み、撮像面に結像した被写体像に係るアナログ画像データを生成する。撮像部4は、AD変換回路を有し、撮像素子42により生成されたアナログ画像データをデジタル画像データである撮影画像データに変換する。撮像部4によって取得された画像を、以下では撮影画像と称することにする。   The imaging unit 4 includes a fisheye optical system 41 and an imaging element 42. The fish-eye optical system 41 has a plurality of lenses, converges a light beam incident from a subject, and forms a subject image on the imaging surface of the image sensor 42. The fish-eye optical system 41 is a circumferential fish-eye lens that can capture a subject having an angle of view of 180 ° or more on the imaging surface of the imaging device 42. The fisheye optical system 41 preferably has an angle of view greater than 180 °. The imaging element 42 includes, for example, a CCD or CMOS image sensor, and generates analog image data related to the subject image formed on the imaging surface. The imaging unit 4 includes an AD conversion circuit, and converts analog image data generated by the imaging element 42 into captured image data that is digital image data. Hereinafter, an image acquired by the imaging unit 4 will be referred to as a captured image.

表示部5は、例えば液晶ディスプレイ(LCD)又は有機ELディスプレイ等を含む。表示部5は、表示面に例えば撮影画像データに基づいて撮影画像を表示する。また、表示部5は、撮影画像に係る情報や、撮像装置1の状態や操作に係る情報等を表示してもよい。また、表示部5は、複数の表示面を有していてもよい。   The display unit 5 includes, for example, a liquid crystal display (LCD) or an organic EL display. The display unit 5 displays a captured image on the display surface based on, for example, captured image data. Further, the display unit 5 may display information related to the captured image, information related to the state and operation of the imaging device 1, and the like. The display unit 5 may have a plurality of display surfaces.

タッチパネル6は、表示部5の表示面に重ねて設けられている。タッチパネル6は、ユーザが指先又はペン先等で触れたパネル上の位置情報を検出する。タッチパネル6の検出方式は、例えば抵抗膜方式、静電容量方式、光学方式、電磁誘導方式等のうち何れの検出方式であってもよい。   The touch panel 6 is provided to overlap the display surface of the display unit 5. The touch panel 6 detects position information on the panel touched by the user with a fingertip or a pen tip. The detection method of the touch panel 6 may be any detection method among a resistive film method, a capacitance method, an optical method, an electromagnetic induction method, and the like.

記録部7は、電源を切っても内容が保存される記録媒体、例えばFLASHメモリである。記録部7は、撮像装置1を動作させるためのプログラム、撮影画像データ、後述する引き伸ばし率等の各種パラメータ、後述する撮影画像から作成した編集画像等、種々の情報を記録する。なお、記録部7とは別に、着脱可能な記録部が設けられ、撮影画像や編集画像のデータは、この着脱可能な記録部に記録されてもよい。一時記憶部11は、撮影した画像、その画像に所定の画像処理を施した画像、制御部2による演算結果等の情報を一時記憶する。   The recording unit 7 is a recording medium in which contents are stored even when the power is turned off, for example, a FLASH memory. The recording unit 7 records various information such as a program for operating the imaging apparatus 1, captured image data, various parameters such as an enlargement rate described later, and an edited image created from the captured image described later. Note that a detachable recording unit may be provided separately from the recording unit 7, and the data of the captured image and the edited image may be recorded in the detachable recording unit. The temporary storage unit 11 temporarily stores information such as a captured image, an image obtained by performing predetermined image processing on the image, a calculation result by the control unit 2, and the like.

操作部8は、例えば各種ボタン、ダイヤル、スライダ等を含む。操作部8は、例えばレリーズボタンや、モードダイヤルを含む。ユーザによる操作が操作部8に対して行われたとき、この操作は制御部2によって検出される。   The operation unit 8 includes, for example, various buttons, a dial, a slider, and the like. The operation unit 8 includes, for example, a release button and a mode dial. When an operation by the user is performed on the operation unit 8, this operation is detected by the control unit 2.

姿勢検出部9は、加速度センサを含む。姿勢検出部9は、撮像装置1の姿勢を算出するために用いられる撮像装置1にかかる加速度を検出する。姿勢検出部9は、検出した加速度の情報を制御部2へと伝達する。この姿勢検出部9は、重力加速度などを利用して装置の向きや角度などを判定し、地磁気センサなどで撮影方位まで判定可能であるが、機器が真上や真下に向けられている場合、中央部で撮影されているものの上下は検出が難しい。本発明は、このように装置の姿勢とは別に上下判定しなければならない対象物も正しく表示や記録などをする場合に有効になる。   The posture detection unit 9 includes an acceleration sensor. The posture detection unit 9 detects an acceleration applied to the imaging device 1 that is used to calculate the posture of the imaging device 1. The posture detection unit 9 transmits the detected acceleration information to the control unit 2. This posture detection unit 9 can determine the orientation and angle of the device using gravitational acceleration and the like, and can determine the shooting direction with a geomagnetic sensor or the like, but when the device is directed directly above or below, It is difficult to detect the top and bottom of what is photographed in the center. The present invention is effective in the case of correctly displaying and recording an object that must be determined up and down separately from the posture of the apparatus.

通信部10は、外部の装置と有線接続して又は無線接続して、外部の装置とデータの送受信を行う。通信の方式は、一般に知られている種々の方式が採用され得る。   The communication unit 10 transmits / receives data to / from an external device by wired connection or wireless connection with the external device. As a communication method, various generally known methods can be adopted.

マイクロホン12は、音を電気信号に変換する。音の到来方向に基づいて音源を特定できるように、撮像装置1は、複数のマイクロホン12を含むことが好ましい。   The microphone 12 converts sound into an electrical signal. The imaging device 1 preferably includes a plurality of microphones 12 so that a sound source can be specified based on the direction of arrival of sound.

撮像装置1の外装部には、マグネット又はフック等が設けられている。撮像装置1は、マグネット又はフック等によりスタンドその他の機材に取り付けられ得る。   A magnet or a hook is provided on the exterior portion of the imaging apparatus 1. The imaging device 1 can be attached to a stand or other equipment by a magnet or a hook.

制御部2は、Central Processing Unit(CPU)、又はApplication Specific Integrated Circuit(ASIC)等を含む。制御部2は、画像処理部21と、状態判定部22と、顔検出部23と、音源特定部24と、トリミング部25と、歪み補正部26と、方向決定部27と、画像合成部28とを含む。画像処理部21と、状態判定部22と、顔検出部23と、音源特定部24と、トリミング部25と、歪み補正部26と、方向決定部27と、画像合成部28とは、それぞれ1つの回路によって実現されてもよいし、それらのうち複数が1つの回路で実現されてもよい。   The control unit 2 includes a central processing unit (CPU) or an application specific integrated circuit (ASIC). The control unit 2 includes an image processing unit 21, a state determination unit 22, a face detection unit 23, a sound source identification unit 24, a trimming unit 25, a distortion correction unit 26, a direction determination unit 27, and an image composition unit 28. Including. The image processing unit 21, the state determination unit 22, the face detection unit 23, the sound source identification unit 24, the trimming unit 25, the distortion correction unit 26, the direction determination unit 27, and the image composition unit 28 are each 1 It may be realized by one circuit, or a plurality of them may be realized by one circuit.

画像処理部21は、撮影画像データに対するデモザイク処理や、撮影画像データに係るノイズ、ホワイトバランス、階調、色等の各種撮影パラメータを調整する画像処理等を行う。   The image processing unit 21 performs demosaic processing on captured image data, image processing for adjusting various shooting parameters such as noise, white balance, gradation, and color related to the captured image data.

状態判定部22は、姿勢検出部9から取得した加速度情報に基づいて、撮像装置1の姿勢の状態を判定する。   The state determination unit 22 determines the posture state of the imaging device 1 based on the acceleration information acquired from the posture detection unit 9.

顔検出部23は、撮影画像に含まれる顔を検出する。顔検出には、例えば目、鼻又は口等の顔の特徴に基づくパターンマッチングが用いられる。顔検出部23は、顔の位置、顔の向き等に係る情報を取得する。また、顔検出部23は、顔以外の被写体を検出してもよい。例えば、顔検出部23は、撮影画像に対して文字の特徴に基づくパターンマッチングを行って文字を検出してもよい。顔検出部23は、文字の向き等に係る情報を取得する。   The face detection unit 23 detects a face included in the captured image. For face detection, for example, pattern matching based on facial features such as eyes, nose or mouth is used. The face detection unit 23 acquires information related to the face position, face orientation, and the like. The face detection unit 23 may detect a subject other than the face. For example, the face detection unit 23 may detect characters by performing pattern matching based on character characteristics on the captured image. The face detection unit 23 acquires information related to the direction of characters.

音源特定部24は、複数のマイクロホンによって取得された音データを解析し、音源の方向を特定する。すなわち、音源特定部24は、マイクロホンによって取得された音情報に基づいて、第2の被写体のうち音を発生している音源を特定する。   The sound source specifying unit 24 analyzes sound data acquired by a plurality of microphones and specifies the direction of the sound source. That is, the sound source specifying unit 24 specifies a sound source that is generating sound among the second subject based on the sound information acquired by the microphone.

トリミング部25は、顔検出部23によって特定された被写体の情報やその他の情報に基づいて、撮影画像から複数の画像を切り出す。本実施形態では、画像の中央付近に位置する被写体(第1の被写体と称することにする)と、その被写体の周囲に位置する被写体(第2の被写体と称することにする)とが同時に撮影された画像が撮影画像として取得される。トリミング部25は、第1の被写体を含む画像(第1の画像と称することにする)と、第2の被写体を含む画像(第2の画像と称することにする)とを切り出す。   The trimming unit 25 cuts out a plurality of images from the photographed image based on the subject information specified by the face detection unit 23 and other information. In the present embodiment, a subject located near the center of the image (referred to as a first subject) and a subject located around the subject (referred to as a second subject) are photographed simultaneously. The acquired image is acquired as a captured image. The trimming unit 25 cuts out an image including the first subject (referred to as the first image) and an image including the second subject (referred to as the second image).

歪み補正部26は、トリミング部25が切り出した画像(第1の画像及び第2の画像)について、歪みを補正する歪み補正を行う。撮像装置1では、魚眼光学系41が用いられているので、歪みのない画像を得るためには、撮影画像に対して歪み補正を行う必要がある。   The distortion correction unit 26 performs distortion correction for correcting distortion for the images (first image and second image) cut out by the trimming unit 25. Since the imaging apparatus 1 uses the fisheye optical system 41, it is necessary to perform distortion correction on the captured image in order to obtain an image without distortion.

方向決定部27は、トリミング部25によって切り出され、歪み補正部26によって歪み補正がされた画像(第1の画像及び第2の画像)について、状態判定部22から取得した撮像装置1の姿勢に係る情報や、顔検出部23から取得した被写体に係る情報に基づいて、画像の上下方向といった画像方向を特定して、画像に対して上下情報を付加する。   The direction determination unit 27 uses the posture of the imaging device 1 acquired from the state determination unit 22 for the images (first image and second image) cut out by the trimming unit 25 and subjected to distortion correction by the distortion correction unit 26. Based on the information and the information on the subject acquired from the face detection unit 23, the image direction such as the vertical direction of the image is specified, and the vertical information is added to the image.

画像合成部28は、上下情報を参照しながら、切り出された第1の画像と第2の画像とを合成して、新たな編集画像を作成する。   The image synthesis unit 28 creates a new edited image by synthesizing the cut out first image and second image while referring to the vertical information.

図2A乃至図2Cを参照して、撮像装置1の利用例について説明する。ユーザUは、撮像装置1の魚眼光学系41の光軸の方向を自由に決めることができる。図2Aは、ユーザUが撮像装置1を保持した状態で撮影を行う場合の一例を示す。図2Aに示す場合では、ユーザUは、魚眼光学系41の光軸が水平方向となるように、撮像装置1を保持している。このように、撮像装置1は、魚眼レンズを備えた一般的なカメラと同様に用いられ得る。   A usage example of the imaging apparatus 1 will be described with reference to FIGS. 2A to 2C. The user U can freely determine the direction of the optical axis of the fish-eye optical system 41 of the imaging device 1. FIG. 2A illustrates an example of a case where the user U performs shooting while holding the imaging device 1. In the case illustrated in FIG. 2A, the user U holds the imaging device 1 so that the optical axis of the fisheye optical system 41 is in the horizontal direction. Thus, the imaging device 1 can be used in the same manner as a general camera provided with a fisheye lens.

図2Bは、ユーザUが撮像装置1を保持した状態で撮影を行う場合の別の例を示す。この場合、ユーザUは、撮像装置1の魚眼光学系41の光軸の方向を天頂へ向けた状態での撮影を行っている。このとき、撮像装置1によって、水平方向全周にわたる画像が取得され得る。   FIG. 2B shows another example in which the user U performs shooting while holding the imaging device 1. In this case, the user U is shooting in a state where the direction of the optical axis of the fish-eye optical system 41 of the imaging device 1 is directed to the zenith. At this time, an image over the entire circumference in the horizontal direction can be acquired by the imaging device 1.

図2Cは、撮像装置1が書画カメラとして用いられている場合の一例を示す。図2Cでは、机S1にスタンドS2が取り付けられている。撮像装置1は、マグネット又はフック等によりスタンドS2に取り付けられている。撮像装置1は、魚眼光学系41が鉛直下向きとなるように、スタンドS2に固定されている。図2Cに示す状況では、机S1の上には、写真O1が置かれている。また、机S1の周囲には、複数の人物O2、O3及びO4がいる。撮像装置1が備える魚眼光学系の画角が180°よりも大きいとき、撮像装置1が配置される高さは、例えば人物O2、O3及びO4の目線の高さ付近とされる。   FIG. 2C shows an example when the imaging apparatus 1 is used as a document camera. In FIG. 2C, a stand S2 is attached to the desk S1. The imaging device 1 is attached to the stand S2 with a magnet or a hook. The imaging device 1 is fixed to the stand S2 such that the fisheye optical system 41 is vertically downward. In the situation shown in FIG. 2C, a photograph O1 is placed on the desk S1. In addition, there are a plurality of persons O2, O3, and O4 around the desk S1. When the angle of view of the fish-eye optical system included in the imaging device 1 is larger than 180 °, the height at which the imaging device 1 is arranged is, for example, near the height of the eyes of the persons O2, O3, and O4.

撮像装置1は、上記の状態で円周魚眼の画角で撮影を行う。このときに得られる撮影画像の一例を図3Aに模式的に示す。円周魚眼であるので、得られる撮影画像I1は円形であり、魚眼光学系41の光学系の設計に応じた画角の画像が得られる。また、円形の撮影画像I1の周囲は、いわゆるけられた状態となる。図3Aに示すように、撮影画像I1の中央付近には、机S1の上に置かれた写真O1が写っている。さらに、写真O1の周囲には、机S1の周囲にいる複数の人物O2,O3,O4が写っている。このように得られた画像には、一台のカメラ利用だけで、机上の写真やドキュメント(書類)と、それを鑑賞する人の様子が捉えられる。したがって、遠隔地でこの画像を取得することにより、会議やパーティなどの様子を知ることができ、それに声などで参加することができる。多くのTV会議システムは、参加者の顔を写すことに注力しており、こうした資料などを中心に皆で語らう用途を想定してはいない。   The imaging device 1 performs imaging with the angle of view of the circumferential fisheye in the above state. An example of the captured image obtained at this time is schematically shown in FIG. 3A. Since it is a circumferential fisheye, the obtained captured image I1 is circular, and an image with an angle of view according to the design of the optical system of the fisheye optical system 41 is obtained. Further, the periphery of the circular captured image I1 is in a so-called discolored state. As shown in FIG. 3A, a photograph O1 placed on the desk S1 is shown near the center of the photographed image I1. Further, a plurality of persons O2, O3, and O4 around the desk S1 are shown around the photograph O1. The images obtained in this way can capture photos and documents (documents) on the desk and the state of the person who appreciates them, using only one camera. Therefore, by acquiring this image at a remote place, it is possible to know the state of a meeting, party, etc., and participate in it by voice or the like. Many TV conference systems focus on capturing the faces of participants, and do not envisage applications where everyone talks about such materials.

本実施形態に係る撮像装置1は、図3Aに示したような撮影画像I1から、図3Bに示すような編集画像I2を生成する。編集画像I2は、机S1の上に置かれた写真O1の画像である中央画像C2と、写真O1を見る人物O2,O3,O4の画像である周辺画像P2とが並べて表されるものである。ここで、中央画像C2は、図3Aに示した撮影画像I1の中央領域C1のうち、写真O1の部分だけが切り出され、歪みが補正されることで得られた画像である。また、周辺画像P2は、図3Aに示した撮影画像I1のうち円環状の周辺領域P1の部分が長方形に変形されているものとなっている。さらに、中央画像C2と周辺画像P2とは、被写体の上下の向きが揃えられている。   The imaging apparatus 1 according to the present embodiment generates an edited image I2 as shown in FIG. 3B from the captured image I1 as shown in FIG. 3A. The edited image I2 represents a central image C2 that is an image of the photograph O1 placed on the desk S1 and a peripheral image P2 that is an image of the persons O2, O3, and O4 who view the photograph O1. . Here, the center image C2 is an image obtained by cutting out only the portion of the photograph O1 in the center region C1 of the captured image I1 shown in FIG. 3A and correcting the distortion. Further, the peripheral image P2 is such that the annular peripheral region P1 of the captured image I1 shown in FIG. 3A is deformed into a rectangle. Further, the center image C2 and the peripheral image P2 are aligned in the vertical direction of the subject.

以下、本実施形態に係る撮像装置1の動作の一例について説明する。ここで説明する動作は、主に図2Cに示した書画カメラとして用いられた場合の動作である。図4は、本実施形態の撮像装置1の動作を示すフローチャートである。例えば電源がオンになったとき、制御部2は、記録部7に記録されたプログラムを読み込んで、以下のカメラ制御処理を開始する。   Hereinafter, an example of the operation of the imaging apparatus 1 according to the present embodiment will be described. The operations described here are mainly operations when used as the document camera shown in FIG. 2C. FIG. 4 is a flowchart showing the operation of the imaging apparatus 1 of the present embodiment. For example, when the power is turned on, the control unit 2 reads the program recorded in the recording unit 7 and starts the following camera control process.

ステップS101において、制御部2は、撮影モードが選択されているか否かを判定する。ステップS101において、撮影モードが選択されていると判定されたとき、処理はステップS102に進む。   In step S101, the control unit 2 determines whether the shooting mode is selected. If it is determined in step S101 that the shooting mode is selected, the process proceeds to step S102.

ステップS102において、制御部2は、撮像部4に撮像を開始させる。撮像部4を用いて、円周魚眼の画角の撮影画像I1が生成される。   In step S102, the control unit 2 causes the imaging unit 4 to start imaging. Using the imaging unit 4, a captured image I1 having a circumferential fisheye angle of view is generated.

ステップS103において、制御部2は、姿勢検出部9から加速度情報を取得する。制御部2は、加速度情報に基づいて撮像装置1の姿勢の状態を判定する。   In step S <b> 103, the control unit 2 acquires acceleration information from the posture detection unit 9. The control unit 2 determines the posture state of the imaging device 1 based on the acceleration information.

ステップS104において、制御部2は、撮影方向を判別するために、魚眼光学系41の光軸が鉛直方向を向いているか否かを判定する。鉛直方向を向いているとき、処理はステップS105に進む。ここで、鉛直方向を向いているか否かの判断は、厳密な鉛直方向に限らず、おおよそ鉛直方向を向いているか否かの判断でよく、以下についても同様である。   In step S104, the control unit 2 determines whether or not the optical axis of the fisheye optical system 41 is oriented in the vertical direction in order to determine the shooting direction. When it faces in the vertical direction, the process proceeds to step S105. Here, the determination as to whether or not it is oriented in the vertical direction is not limited to the strict vertical direction, but may be a determination as to whether or not it is substantially oriented in the vertical direction, and the same applies to the following.

ステップS105において、制御部2は、撮影画像I1における周辺部に人物がいるか否かを判定する。人物がいないとき、処理はステップS107に進む。一方、人物がいるとき、処理はステップS106に進む。   In step S105, the control unit 2 determines whether or not there is a person in the peripheral portion of the captured image I1. If there is no person, the process proceeds to step S107. On the other hand, when there is a person, the process proceeds to step S106.

ステップS106において、制御部2は、周辺画像P2を作成し、上下情報を付加する。周辺画像P2の作成方法について説明する。周辺画像P2は、撮影画像I1から円環状に切り出した領域の画像に基づいて作成する。ここで、切り出す領域である円環の幅をどのような値にするかが問題となる。   In step S106, the control unit 2 creates the peripheral image P2 and adds the vertical information. A method for creating the peripheral image P2 will be described. The peripheral image P2 is created based on an image of a region cut out in an annular shape from the captured image I1. Here, what is the value of the width of the ring that is the area to be cut out becomes a problem.

一例として、本実施形態では以下のようにして切り出す円環の幅を決定する。すなわち、切り出す円環の外周の半径をR0としたときに、半径R0は、撮像素子42によって得られたイメージサークルの半径とする。一方、切り出す円環の内周の半径をR1としたときに、R1の基準をR0の半分(R0=2×R1)とする。この基準から、R1の値を微調整する。具体的には、撮影画像I1の周縁部に写っている人物を顔検出の結果を利用して特定し、周辺画像P2にこの人物の胸像が写るような値にR1を調整する。   As an example, in the present embodiment, the width of the ring to be cut out is determined as follows. That is, when the radius of the outer periphery of the cut out ring is R0, the radius R0 is the radius of the image circle obtained by the image sensor 42. On the other hand, when the radius of the inner periphery of the cut out ring is R1, the reference of R1 is half of R0 (R0 = 2 × R1). From this reference, the value of R1 is finely adjusted. Specifically, a person appearing in the peripheral portion of the photographed image I1 is specified using the result of face detection, and R1 is adjusted to a value such that a bust of this person appears in the peripheral image P2.

図5A及び図5Bに円環の幅の設定の一例について説明するための模式図を示す。図5Aは、撮影画像I1の周縁部に写っている人物O5が小さい場合であり、図5Bは、撮影画像I1の周縁部に写っている人物O5が大きい場合である。イメージサークルは、円環状の周辺領域P1と円形の中央領域C1とに分割されている。図5Aに示すように、人物O5の大きさが比較的小さいとき、周辺領域P1の内径R1は比較的大きくなるように調整される。一方、図5Bに示すように、人物O5の大きさが比較的大きいとき、周辺領域P1の内径R1は比較的小さくなるように調整される。このようにして調整された周辺領域P1の画像に基づいて周辺画像P2が作成され、中央領域C1の画像に基づいて中央画像C2が作成される。なお、ここでは、周辺領域P1と中央領域C1とは重ならないものとして説明したが、周辺領域P1と中央領域C1とはその一部において重なっていてもよい。   5A and 5B are schematic diagrams for explaining an example of setting the width of the ring. FIG. 5A shows a case where the person O5 shown in the peripheral part of the photographed image I1 is small, and FIG. 5B shows a case where the person O5 shown in the peripheral part of the photographed image I1 is large. The image circle is divided into an annular peripheral region P1 and a circular central region C1. As shown in FIG. 5A, when the size of the person O5 is relatively small, the inner diameter R1 of the peripheral region P1 is adjusted to be relatively large. On the other hand, as shown in FIG. 5B, when the size of the person O5 is relatively large, the inner diameter R1 of the peripheral region P1 is adjusted to be relatively small. A peripheral image P2 is created based on the image of the peripheral area P1 adjusted in this way, and a central image C2 is created based on the image of the central area C1. Here, the peripheral area P1 and the central area C1 have been described as not overlapping, but the peripheral area P1 and the central area C1 may overlap in part.

なお、上述したR1の基準をR0の半分としたことは次のような意味を持つ。すなわち、魚眼光学系41の画角が180°であるとき、図6に示すように、周辺領域P1として選択されるのは、水平面から下向きに45°の範囲である。   It should be noted that the fact that the above R1 reference is half of R0 has the following meaning. That is, when the angle of view of the fish-eye optical system 41 is 180 °, the peripheral region P1 is selected in the range of 45 ° downward from the horizontal plane as shown in FIG.

次に、撮影画像I1における周辺領域P1の画像から、周辺画像P2を作成する方法について簡単に説明する。図7Aに示すように、周辺領域P1の1箇所に半径方向に切断線を設定する。周辺領域P1内の各点の座標を、内周と外周とを対向する辺とし切断線をもう一方の対向する辺とする長方形内の各点の座標に変換するなど、例えば円筒変換と呼ばれる座標変換等を行う。   Next, a method for creating the peripheral image P2 from the image of the peripheral region P1 in the captured image I1 will be briefly described. As shown in FIG. 7A, a cutting line is set in the radial direction at one location in the peripheral region P1. For example, the coordinates of each point in the peripheral area P1 are converted into the coordinates of each point in a rectangle having the inner and outer sides as opposed sides and the cutting line as the other opposed side. Perform conversion and so on.

ここで得られる長方形は、例えば図7Bに示すように、周辺領域P1の外周及び内周に対応する辺の長さが2πR0の長方形である。この辺の長さは、内径R1及び変数kを用いて2πR1×kとも表される。ここで、変数kについては、R0=k×R1の関係が成り立つ。この変数kを引き伸ばし率と称することにする。引き伸ばし率kが大き過ぎると、撮影画像I1から周辺画像P2への変形が大きくなるため、好ましくない。このため、本実施形態では、上述のとおり、引き伸ばし率kの基準値を2とし、引き伸ばし率kを2の前後で調整していることになる。   The rectangle obtained here is, for example, as shown in FIG. 7B, a rectangle whose side corresponding to the outer periphery and inner periphery of the peripheral region P1 is 2πR0. The length of this side is also expressed as 2πR1 × k using the inner diameter R1 and the variable k. Here, the relationship of R0 = k × R1 holds for the variable k. This variable k will be referred to as the stretching rate. If the stretch rate k is too large, the deformation from the captured image I1 to the peripheral image P2 becomes large, which is not preferable. For this reason, in the present embodiment, as described above, the reference value of the stretching rate k is set to 2, and the stretching rate k is adjusted around 2.

切断線は、人物が写っていない領域とすることが好ましい。切断線と人物とが重なってしまうと、作成される周辺画像P2においては、人物が切断された画像となってしまう。そこで、切断線の設定は、検出された人物の位置に基づいてもよい。また、例えば、スタンドS2が写っている部分を切断線として設定してもよい。また、机の角の所に人が座ることは少ないので、机の角の部分に合わせて切断線が設定されてもよい。   The cutting line is preferably an area where no person is shown. If the cutting line and the person overlap, the person is cut in the created peripheral image P2. Therefore, the setting of the cutting line may be based on the position of the detected person. Further, for example, a portion where the stand S2 is shown may be set as a cutting line. Further, since a person rarely sits at the corner of the desk, a cutting line may be set according to the corner of the desk.

図4に戻って、カメラ制御処理について説明を続ける。ステップS106において、制御部2は、上述のようにして撮影画像I1に基づいて、周辺画像P2を作成する。このように、周辺画像P2は、第1の被写体の周囲に位置する第2の被写体を含む第2の画像に相当する。   Returning to FIG. 4, the description of the camera control process will be continued. In step S106, the control unit 2 creates the peripheral image P2 based on the captured image I1 as described above. Thus, the peripheral image P2 corresponds to a second image including the second subject located around the first subject.

さらに、ステップS106において、制御部2は、周辺画像P2に上下情報を付加する。上下情報は、作成された長方形の周辺画像P2の上下を特定する情報である。周辺画像P2の上下は例えば次のようにして特定される。例えば周辺画像P2に含まれる人物については、顔検出がされ、人物像が特定されているので、これらの情報に基づいて、周辺画像P2の上下が特定され得る。また、撮像装置1の姿勢に基づいて上下が特定されてもよい。すなわち、図2Cに示すように、撮影方向が鉛直下向きであるとき、周辺画像P2の上方向は、撮影画像I1の外周側となる。ステップS106の後、処理はステップS107に進む。   Further, in step S106, the control unit 2 adds the vertical information to the peripheral image P2. The vertical information is information for specifying the vertical direction of the created rectangular peripheral image P2. The upper and lower sides of the peripheral image P2 are specified as follows, for example. For example, for a person included in the peripheral image P2, since face detection is performed and a human image is specified, the top and bottom of the peripheral image P2 can be specified based on these pieces of information. Further, the upper and lower sides may be specified based on the posture of the imaging device 1. That is, as shown in FIG. 2C, when the shooting direction is vertically downward, the upward direction of the peripheral image P2 is the outer peripheral side of the captured image I1. After step S106, the process proceeds to step S107.

ステップS107において、制御部2は、撮像装置1の姿勢によって特定される撮影方向は、鉛直下向であるか否かを判定する。鉛直下向きでないとき、処理はステップS113に進む。一方、鉛直下向きであるとき、処理はステップS108に進む。すなわち、図2Cに示すように、撮像装置1が書画カメラとして用いられているとき、処理はステップS108に進む。   In step S <b> 107, the control unit 2 determines whether or not the shooting direction specified by the posture of the imaging device 1 is vertically downward. If not vertically downward, the process proceeds to step S113. On the other hand, when it is vertically downward, the process proceeds to step S108. That is, as shown in FIG. 2C, when the imaging device 1 is used as a document camera, the process proceeds to step S108.

ステップS108において、制御部2は、中央領域C1に被写体となる対象物があるか否かを判定する。撮像装置1は書画カメラとして用いられているので、中央領域C1には、文字、図形、記号、写真等を含む文書や図面、写真やドキュメント等の被写体が配置されていることが想定される。これは一般的に書類等は机の上などに上向きに置かれる(重力を利用)ので、上から下を撮影する方が自然だという理由に基づいている。書画カメラは、通常、このような環境下を想定して設計されている。今回の実施例のように、書画カメラのレンズを広角化すると、上述のように上から下に向けて撮影する場合、周辺部の対象物まで撮影できるメリットが出てくる。周辺物は、書類等と同様に重力方向に立った状態の対象物が画面中央から周辺に向かって放射状に伸びた画像となる。したがって、その画像に応じた光軸を中心にして同じ単純な補正処理を行うことにより、得られた画像を自然な画像に変換することができる。もちろん、天井に貼られた標語などを撮影する場合には逆の関係になる。重力に逆らって壁にとめられているポスターや投射されたドキュメントなどを撮影する場合は、こうした考え方とは異なるが、ポスターだけを撮影するのであれば、それを撮影できる配置にしてもよい。これらの場合はカメラの姿勢判定を使って上下判定がされ得る。一方、文字を読み取る技術を使えば、机上や天井の文字でも、文字の上下は決まっているので、そのパターンをデータベース照合などで判定してドキュメントや文字の上下関係を判定することができる。もちろん、図2Cのように写真などを撮影する場合でも写っている人の顔の上下や空がどこにあるかや影の出方などによって上下判定が可能となる。中央領域C1に対象物がないとき、処理はステップS113に進む。一方、中央領域C1に対象物があるとき、処理はステップS109に進む。   In step S108, the control unit 2 determines whether or not there is an object to be a subject in the central area C1. Since the imaging apparatus 1 is used as a document camera, it is assumed that a document or drawing including characters, figures, symbols, photographs, and the like, and subjects such as photographs and documents are arranged in the central area C1. This is based on the reason that it is more natural to shoot from top to bottom because documents are generally placed on a desk or the like (using gravity). A document camera is usually designed for such an environment. When the lens of the document camera is widened as in the present embodiment, when shooting from the top to the bottom as described above, there is a merit that the object in the peripheral portion can be shot. The peripheral object is an image in which a target object standing in the direction of gravity extends radially from the center of the screen toward the periphery in the same manner as a document or the like. Therefore, by performing the same simple correction process around the optical axis corresponding to the image, the obtained image can be converted into a natural image. Of course, when shooting a slogan or the like affixed to the ceiling, the relationship is reversed. When shooting a poster or a projected document that is held on a wall against gravity, this is different from this way of thinking. However, if only a poster is shot, it may be arranged so that it can be shot. In these cases, the up / down determination can be performed by using the posture determination of the camera. On the other hand, if a technique for reading characters is used, the upper and lower characters of a character on a desk or a ceiling are determined, so that the pattern can be determined by database collation or the like to determine the vertical relationship between documents and characters. Of course, even when taking a photograph or the like as shown in FIG. 2C, it is possible to determine whether the person is in the upper or lower position, where the sky is, or how the shadow appears. When there is no object in the central area C1, the process proceeds to step S113. On the other hand, when there is an object in the central area C1, the process proceeds to step S109.

ステップS109において、制御部2は、撮影画像I1の中央領域C1に含まれる対象物の画像を抽出し、歪みを補正して中央画像C2を作成する。このように、中央画像C2は、第1の被写体を含む第1の画像に相当する。この中央画像と周辺画像では、その境界をどこにするかが問題となるが、書画カメラでは説明がシンプルで、ドキュメントや写真の縁やそれが置かれた机の縁を境界とすればよい。ドキュメントや写真の縁やそれが置かれた机の縁は、多くの場合、そのほかの部分と色調や明るさが異なる上、四辺形であるからそれを想定した切り分けをすればよい。また、厳密に境界を設定しなくとも、各部位から切り紙風に切り出してもよい。   In step S109, the control unit 2 extracts an image of the object included in the central region C1 of the captured image I1, and corrects the distortion to create the central image C2. Thus, the central image C2 corresponds to a first image including the first subject. In the central image and the peripheral image, the problem is where to make the boundary. However, in the document camera, the description is simple, and the border of the document or photograph or the desk on which the document is placed may be used as the boundary. In many cases, the edge of the document or photo or the desk edge on which it is placed has a different color tone or brightness from the other parts, and it is a quadrilateral, so it can be separated by assuming it. Further, it is possible to cut out from each part in a cut paper style without strictly setting the boundary.

ステップS110において、中央画像C2の上下の向きを判定できるか否かを判定する。例えば中央画像C2に人物や文字の画像が含まれているとき、その人物や文字を検出し、その人物や文字の向きに基づいて、中央画像C2の上下の向きを判定できる。中央画像C2の上下の向きを判定できないとき、処理はステップS112に進む。一方、中央画像C2の上下の向きを判定できるとき、処理はステップS111に進む。   In step S110, it is determined whether or not the vertical direction of the center image C2 can be determined. For example, when an image of a person or character is included in the central image C2, the person or character can be detected, and the vertical direction of the central image C2 can be determined based on the direction of the person or character. When the vertical direction of the center image C2 cannot be determined, the process proceeds to step S112. On the other hand, when the vertical direction of the center image C2 can be determined, the process proceeds to step S111.

ステップS111において、制御部2は、中央画像C2のデータに対して、上下情報を付加する。その後、処理はステップS112に進む。   In step S111, the control unit 2 adds up / down information to the data of the central image C2. Thereafter, the process proceeds to step S112.

このような装置では、撮影されるものを一括して扱うより、個々の領域ごとに必要に応じた処理を施して表現した方が好ましい場合がある。ここでは、機器の姿勢では上下左右の判定が困難な中央部の対象物と、上下左右が機器の姿勢などで判定可能な周辺の対象物とを分けて処理を行っている。特に画角が広いと、様々なものが画面の中に写り込み、人間の視覚とは異なる画像となるため、このように整理して理解しやすい表示にすることがユーザーインターフェースとしても好ましい。ステップS112において、制御部2は、周辺画像P2と中央画像C2とを合成して、それらを含む1枚の編集画像I2を作成する。すなわち、図2Cに示すような状況において、撮影により図3Aのような撮影画像I1が得られたとする。このとき、制御部2は、撮影画像I1を周辺領域P1と中央領域C1とに分割する。制御部2は、周辺領域P1からは、図8Aに示すような周辺画像P2を作成し、中央領域C1からは、図8Bに示すような中央画像C2を作成する。そして、周辺画像P2と中央画像C2とを上下を揃えて合成することで、図3Bに示すような編集画像I2を作成する。その後、処理はステップS113に進む。   In such an apparatus, there are cases where it is preferable to perform processing according to necessity for each area and to express it, rather than collectively processing what is photographed. Here, the processing is performed by dividing the central object, which is difficult to determine in the device orientation, up and down, left and right, and the peripheral object, which can be determined in the device orientation, etc. In particular, when the angle of view is wide, various images appear in the screen, resulting in an image that is different from human vision. Therefore, it is preferable for the user interface to display the images in an easy-to-understand manner. In step S112, the control unit 2 combines the peripheral image P2 and the central image C2, and creates a single edited image I2 including them. That is, it is assumed that a photographed image I1 as shown in FIG. 3A is obtained by photographing in the situation shown in FIG. 2C. At this time, the control unit 2 divides the captured image I1 into a peripheral region P1 and a central region C1. The control unit 2 creates a peripheral image P2 as shown in FIG. 8A from the peripheral region P1, and creates a central image C2 as shown in FIG. 8B from the central region C1. Then, the peripheral image P2 and the central image C2 are synthesized with the top and bottom aligned to create an edited image I2 as shown in FIG. 3B. Thereafter, the process proceeds to step S113.

ステップS113において、制御部2は、編集画像I2を、表示部5又は撮像装置1の外部に設けられた表示装置に表示させる。この表示装置は、例えば写真O1を囲む人物O2,O3,O4が表示画像を視聴できるように設けられた表示装置である。人物O2,O3,O4は、表示装置を用いて編集画像I2を見ることができる。また、編集画像I2を表示する代わりに、又は編集画像I2を表示するとともに、編集画像I2を記録部7に記録してもよい。   In step S113, the control unit 2 displays the edited image I2 on the display unit 5 or a display device provided outside the imaging device 1. This display device is a display device provided so that, for example, persons O2, O3, and O4 surrounding the photograph O1 can view the display image. Persons O2, O3, and O4 can view the edited image I2 using a display device. Further, instead of displaying the edited image I2 or displaying the edited image I2, the edited image I2 may be recorded in the recording unit 7.

ステップS114において、制御部2は、ユーザによって行われるレリーズ操作を検出したか否かを判定する。レリーズ操作を検出していないとき、処理はステップS116に進む。一方、レリーズ操作を検出したとき、処理はステップS115に進む。   In step S114, the control unit 2 determines whether or not a release operation performed by the user has been detected. When the release operation is not detected, the process proceeds to step S116. On the other hand, when the release operation is detected, the process proceeds to step S115.

ステップS115において、制御部2は、上述のようにして生成した編集画像I2のデータを記録部7に記録する。その後、処理はステップS116に進む。   In step S115, the control unit 2 records the data of the edited image I2 generated as described above in the recording unit 7. Thereafter, the process proceeds to step S116.

ステップS116において、制御部2は、撮影モードを終了するか否かを判定する。撮影モードを終了しないとき、処理はステップS103に戻る。一方、撮影モードを終了するとき、処理はステップS117に進む。   In step S116, the control unit 2 determines whether or not to end the shooting mode. If the shooting mode is not terminated, the process returns to step S103. On the other hand, when ending the shooting mode, the process proceeds to step S117.

ステップS117において、制御部2は、撮像装置1の電源をオフにするか否かを判定する。電源をオフにしないとき、処理はステップS101に戻る。一方、オフにするとき、制御部2は、電源をオフにしてカメラ制御処理を終了する。   In step S117, the control unit 2 determines whether or not to turn off the power of the imaging apparatus 1. When the power is not turned off, the process returns to step S101. On the other hand, when turning off, the control unit 2 turns off the power and ends the camera control process.

ステップS104において、撮像装置1の光軸が鉛直方向にないと判定されたとき、処理はステップS118に進む。ステップS118において、撮影により得られた撮影画像I1の上下を判定する。撮影画像I1の上下は、撮像装置1の姿勢や撮影画像I1に含まれる人物の向き等に基づいて判定される。ステップS119において、制御部2は、撮影画像I1の上下を考慮して、撮影画像I1を表示部5に表示させる。   If it is determined in step S104 that the optical axis of the imaging device 1 is not in the vertical direction, the process proceeds to step S118. In step S118, the top and bottom of the photographed image I1 obtained by photographing is determined. The top and bottom of the captured image I1 is determined based on the orientation of the imaging device 1, the orientation of a person included in the captured image I1, and the like. In step S119, the control unit 2 displays the captured image I1 on the display unit 5 in consideration of the top and bottom of the captured image I1.

ステップS120において、制御部2は、ユーザによって行われるレリーズ操作を検出したか否かを判定する。レリーズ操作を検出していないとき、処理はステップS103に戻る。一方、レリーズ操作を検出したとき、処理はステップS121に進む。ステップS121において、制御部2は、撮影処理を実行し、撮影画像I1のデータを記録部7に記録する。その後、処理はステップS116に進む。   In step S120, the control unit 2 determines whether or not a release operation performed by the user has been detected. When the release operation is not detected, the process returns to step S103. On the other hand, when the release operation is detected, the process proceeds to step S121. In step S <b> 121, the control unit 2 performs a shooting process and records data of the captured image I <b> 1 in the recording unit 7. Thereafter, the process proceeds to step S116.

ステップS101において、撮影モードが選択されていないと判定されたとき、処理はステップS122に進む。ステップS122において、制御部2は、再生モードにおける処理を実行する。再生モードでは、記録部7に記録された画像を表示する。ここでは再生モードにおける動作の説明を省略する。再生モードにおける動作の後、処理はステップS117に進み、前述の電源がオフであるか否かの判定が行われる。   If it is determined in step S101 that the shooting mode is not selected, the process proceeds to step S122. In step S122, the control unit 2 executes processing in the reproduction mode. In the reproduction mode, the image recorded in the recording unit 7 is displayed. Here, the description of the operation in the reproduction mode is omitted. After the operation in the reproduction mode, the process proceeds to step S117, and it is determined whether or not the power is off.

以上のとおり、本実施形態によれば、撮像装置1は、一般的な魚眼レンズを備えたカメラとして用いられるだけでなく、書画カメラとしても用いられ得る。撮像装置1が書画カメラとして用いられるとき、撮像装置1の正面に置かれた対象物の他に、それを取り囲む、例えば人物の画像も取得され、当該対象物の画像と当該人物の画像とが合成された編集画像が作成される。このような撮像装置1を例えば会議で用いれば、会議資料と共に会議の参加者の様子を表示装置に表示したり記録装置に記録したりできる。このことは、特に遠隔地との間で画像及び音声の通信を介して行われる、いわゆるテレビ会議において便利である。なお、ここで、光軸が鉛直方向であるかを判定して、上下の表現が分からない例を示したが、それ以外にも、機器の姿勢以外から上下判定を行う必要がある画像部位がある場合、その他の方法をとってもよい。水中でユーザが無理な姿勢から撮影した魚の上下や、撮影部、光学部を遠隔操作で動かしながら撮影するような用途の場合、撮影者の構え方が、通常想定されたものとは異なる場合がある。なお、書画カメラの場合は、文書や机の境界などが、この画像部位の切り分けの目安として使えるので説明が簡単であったが、それに限るものではない。例えば、潜水しながら撮影する魚は、魚の形で上下を揃えて拡大しながら、潜水した仲間の画像は機器の姿勢を基準に上下を決めて表示するなどの用途がある。この場合は、魚の形などから対象領域が削られないような範囲で余裕をもって切り出すような方法が考えられる。つまり、この実施例では、第1の被写体の存在する第1の画像領域と前記第1の被写体とは異なる第2の被写体を含む第2の領域とを同時に撮影して、撮影画像を生成する撮像部と、前記撮影画像から、前記第1の画像領域と前記第2の画像領域とを判定して切り出すトリミング部を有し、前記第1の画像領域と第2の画像領域をそれぞれ上下判定を行って画像方向を決定する方向決定部を有する装置を提供するものである。前記画像の方向に基づいて前記第1の画像と前記第2の画像との向きを整えて、前記第1の画像と前記第2の画像とを合成することで編集画像を作成する画像合成部とを備える画像取得装置ということになるが、一方の画像の上下の向きは機器の姿勢で判定し、一方の画像の上下の向きはその画像領域に含まれる対象物の画像の上下から決定されている特徴もある。   As described above, according to the present embodiment, the imaging device 1 can be used not only as a camera including a general fisheye lens but also as a document camera. When the imaging device 1 is used as a document camera, in addition to an object placed in front of the imaging device 1, for example, an image of a person surrounding the object is also acquired, and the image of the object and the image of the person are obtained. A combined edited image is created. If such an imaging device 1 is used in a conference, for example, the state of participants in the conference can be displayed on a display device or recorded in a recording device together with conference materials. This is particularly convenient in so-called video conferencing, which takes place via remote image and audio communication. Here, an example has been shown in which it is determined whether the optical axis is in the vertical direction and the upper and lower representations are not known, but there are other image parts that need to be determined from other than the posture of the device. In some cases, other methods may be used. When shooting underwater while shooting from an unreasonable posture by the user, or by moving the shooting unit and optical unit by remote control, the photographer's attitude may differ from what is normally assumed. is there. In the case of a document camera, the document and desk boundaries can be used as a guide for segmentation of the image portion, so the explanation is simple. However, the present invention is not limited to this. For example, a fish that is photographed while diving has a purpose of displaying an image of a fellow who dives in a vertical direction based on the posture of the device while enlarging the image in the shape of a fish. In this case, a method can be considered in which the target area is cut out with a margin so that the target area is not cut from the shape of the fish. In other words, in this embodiment, a first image area where the first subject exists and a second area including a second subject different from the first subject are simultaneously photographed to generate a photographed image. An imaging unit, and a trimming unit that determines and cuts out the first image region and the second image region from the captured image, and determines the first image region and the second image region, respectively, up and down The apparatus which has a direction determination part which performs image processing and determines an image direction is provided. An image composition unit that prepares an edited image by adjusting the orientation of the first image and the second image based on the direction of the image and compositing the first image and the second image However, the vertical orientation of one image is determined by the orientation of the device, and the vertical orientation of one image is determined from the top and bottom of the image of the target object included in the image area. There are also features.

なお、撮像装置1は、上述のような書画カメラとしてのみ用いられるのであれば、表示部5やタッチパネル6が備えられていなくてもよい。また、魚眼光学系41、撮像部4及び姿勢検出部9等と、画像処理を行う演算部とは、別体として設けられ、これらが無線又は有線によって通信し、上記の撮像装置1と同様の機能を果たしてもよい。   Note that the imaging device 1 may not include the display unit 5 and the touch panel 6 as long as the imaging device 1 is used only as a document camera as described above. In addition, the fish-eye optical system 41, the imaging unit 4, the posture detection unit 9, and the like, and the calculation unit that performs image processing are provided as separate units, and these communicate with each other wirelessly or by wire, and are the same as the imaging device 1 described above. You may fulfill the function.

また、上述の実施形態は一例であり、様々な変形例が考えられる。例えば、図3Bには、編集画像I2の一例として、1つの中央画像C2と1つの周辺画像P2とが並べられる例を示したがこれに限らない。例えば、周辺画像は、2つに分割されてそれらが並べて表示されるように合成されてもよいし、人物ごとに画像が切り出されてそれらが並べて表示されるように合成されてもよい。中央画像についても同様である。また、周辺画像の被写体は、人物に限らない。   Moreover, the above-mentioned embodiment is an example and various modifications can be considered. For example, although FIG. 3B shows an example in which one central image C2 and one peripheral image P2 are arranged as an example of the edited image I2, the present invention is not limited to this. For example, the peripheral images may be combined so that they are divided into two and displayed side by side, or may be combined so that the images are cut out for each person and displayed side by side. The same applies to the center image. The subject of the peripheral image is not limited to a person.

また、上述の例では、撮像装置1の光学系の光軸が鉛直となるように設置される例を示したが、これに限らない。撮像装置1は、光軸が斜めになるように設置されてもよい。この場合も、例えば周辺の人物などの画像の認識には種々の画像認識の技術等が用いられ、画像の上下方向が判定されて、これらの上下方向に基づいて画像の方向が整えられて、編集画像が合成され得る。また、写真などの対象物は撮像装置1の撮像領域の中央に配置されてもよいし、偏った位置に配置されてもよい。対象物が撮像領域内の偏った位置に配置される場合、画像認識の技術等が用いられて、撮影画像の中から対象物の画像が切り出されたり、その周辺の人物の画像が切り出されたりする。   In the above-described example, the example in which the optical axis of the optical system of the imaging apparatus 1 is installed vertically is shown, but the present invention is not limited to this. The imaging device 1 may be installed such that the optical axis is inclined. Also in this case, for example, various image recognition techniques are used for recognizing an image of a person in the vicinity, the vertical direction of the image is determined, the direction of the image is adjusted based on these vertical directions, An edited image can be synthesized. In addition, an object such as a photograph may be arranged at the center of the imaging region of the imaging device 1 or may be arranged at a biased position. When the object is placed at a biased position in the imaging area, an image recognition technique or the like is used to cut out the image of the object from the captured image or the image of a person around it. To do.

また、周辺画像として、発言をしている人物が大きく含まれるような編集画像が作成されてもよい。この場合、制御部2は、マイクロホン12から得られた音データを参照して、音源の位置を判定する。制御部2は、周辺領域のうち、音源の位置に対応する領域の画像を切り出す。制御部2は、この切り出して作成した周辺画像を編集画像の中に合成する。このような撮像装置1が会議で用いられると、編集画像には、撮像装置1の正面に置かれた対象物の画像と、その周囲にいる会議の参加者のうち発言をした人の画像とが含まれることになる。   Also, an edited image that includes a large amount of the person who is speaking may be created as the peripheral image. In this case, the control unit 2 refers to the sound data obtained from the microphone 12 and determines the position of the sound source. The control unit 2 cuts out an image of an area corresponding to the position of the sound source among the peripheral areas. The control unit 2 synthesizes the cut-out peripheral image into the edited image. When such an imaging device 1 is used in a conference, the edited image includes an image of an object placed in front of the imaging device 1 and an image of a person who has made a speech among conference participants around it. Will be included.

また、上述の本実施形態では、撮像装置1が備える光学系は魚眼光学系であるものとしたが、撮像装置1には、例えば一般的な広角レンズが用いられてもよい。その場合も画像の歪みを取るための画像変換に係る処理が異なるが、他の動作は上述の撮像装置1と同様である。   In the above-described embodiment, the optical system included in the imaging device 1 is a fisheye optical system. However, for example, a general wide-angle lens may be used for the imaging device 1. In this case as well, the processing related to image conversion for taking image distortion is different, but the other operations are the same as those of the imaging apparatus 1 described above.

また、上述の実施形態では、中央画像と周辺画像とは1つの編集画像に合成されて表示や記録がされているが、これに限らない。中央画像と周辺画像とは、別々の画像として、異なる表示装置に表示されたり、異なる画像として保存されたりしてもよい。   In the above-described embodiment, the central image and the peripheral image are combined into one edited image and displayed or recorded. However, the present invention is not limited to this. The central image and the peripheral image may be displayed on different display devices as separate images or may be stored as different images.

以上、各実施形態で説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムを用いて実現され得る。このプログラムは、種々の記録媒体や記録部に収められ得る。この記録媒体又は記録部への記録の方法は様々であり、製品出荷時に記録されてもよく、配布された記録媒体が利用されて記録されてもよく、インターネットを介したダウンロードが利用されて記録されてもよい。   As described above, among the technologies described in the embodiments, the control mainly described in the flowchart can be realized using a program. This program can be stored in various recording media and recording units. There are various methods of recording on this recording medium or recording unit, which may be recorded at the time of product shipment, may be recorded using a distributed recording medium, or may be recorded using download via the Internet. May be.

また、上述の実施形態は、例えばスマートフォンやタブレット端末といった情報携帯端末にも適用され得る。情報携帯端末には、ウェアラブル端末も含まれる。また、コンシューマ用のカメラ等に限らず、監視カメラや、検査用等の産業用機器や、各種医療用の観察装置にも適用され得る。特に、広い視野で撮影され、画面の場所によって適応的に上下判定をして表示や記録するような用途に向いている。特に、ユーザが持って撮影する場合以外や、ユーザが操作するとしても遠隔の機器を操作する場合、過酷な環境下では、機器の姿勢と画像の上下が異なる場合があり、また、広角の画像取得では様々な対象物が写りこむので、各対象物ごとに上下を決めて表示する方が良い場合に有効活用できる。このような画面の切り分けを行えば、その領域ごとに、上下の扱いを変える他、拡大や縮小、または歪み補正など、適切な画像処理などが可能であり、よりユーザが鑑賞や観察がしやすくなるというメリットがある。これらの処理を手動で調整できるようにしてもよいことは言うまでもない。なお、領域ごとに歪み補正するのはよく使われる技術であるが、ここでは、領域ごとに別画像として扱って、さらに合成などを行っている点などが異なっている。   Moreover, the above-mentioned embodiment may be applied also to information portable terminals, such as a smart phone and a tablet terminal, for example. The information portable terminal includes a wearable terminal. Further, the present invention can be applied not only to a consumer camera, but also to a surveillance camera, an industrial device for inspection, and various medical observation devices. In particular, it is suitable for applications where images are taken with a wide field of view, and are displayed and recorded by adaptively determining up and down depending on the location of the screen. In particular, when the user takes a picture or when a user operates a remote device, the pose of the device may be different from the top and bottom of the image in a harsh environment. Since various objects are captured in the acquisition, it can be effectively used when it is better to display each object by determining the top and bottom. If the screen is divided in this way, it is possible to perform appropriate image processing such as enlargement, reduction, or distortion correction in addition to changing the top and bottom handling for each area, making it easier for users to view and observe There is a merit that Needless to say, these processes may be manually adjusted. Although it is a commonly used technique to correct distortion for each region, it differs here in that it is handled as a separate image for each region and further combined.

1…撮像装置、2…制御部、4…撮像部、5…表示部、6…タッチパネル、7…記録部、8…操作部、9…姿勢検出部、10…通信部、11…一時記憶部、12…マイクロホン、21…画像処理部、22…状態判定部、23…顔検出部、24…音源特定部、25…トリミング部、26…歪み補正部、27…方向決定部、28…画像合成部、41…魚眼光学系、42…撮像素子。   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Control part, 4 ... Imaging part, 5 ... Display part, 6 ... Touch panel, 7 ... Recording part, 8 ... Operation part, 9 ... Attitude detection part, 10 ... Communication part, 11 ... Temporary storage part , 12 ... Microphone, 21 ... Image processing unit, 22 ... State determination unit, 23 ... Face detection unit, 24 ... Sound source identification unit, 25 ... Trimming unit, 26 ... Distortion correction unit, 27 ... Direction determination unit, 28 ... Image composition Part 41... Fisheye optical system 42.

Claims (6)

第1の被写体と前記第1の被写体の周囲に位置する第2の被写体とを同時に撮影して、撮影画像を生成する撮像部と、
前記撮影画像から、前記第1の被写体を含む第1の画像と前記第2の被写体を含む第2の画像とを切り出すトリミング部と、
前記第1の画像の向きである画像方向を決定する方向決定部と、
前記画像方向に基づいて前記第1の画像と前記第2の画像との向きを整えて、前記第1の画像と前記第2の画像とを合成することで編集画像を作成する画像合成部と
を備え
前記トリミング部は、文字、図形、記号又は写真を前記第1の被写体とし、人物を前記第2の被写体とする、
画像取得装置。
An imaging unit that simultaneously captures a first subject and a second subject located around the first subject to generate a captured image;
A trimming unit that cuts out a first image including the first subject and a second image including the second subject from the captured image;
A direction determining unit that determines an image direction that is a direction of the first image;
An image composition unit that prepares an edited image by adjusting the orientation of the first image and the second image based on the image direction and combining the first image and the second image; equipped with a,
The trimming unit uses a character, a figure, a symbol, or a photograph as the first subject, and a person as the second subject.
Image acquisition device.
前記撮像部は、魚眼光学系を含み、
前記トリミング部が切り出した前記第1の画像と前記第2の画像との歪みを補正する歪み補正部をさらに備え、
前記画像合成部は、前記歪み補正部が歪みを補正した前記第1の画像と前記第2の画像とを合成する、
請求項1に記載の画像取得装置。
The imaging unit includes a fisheye optical system,
A distortion correction unit that corrects distortion between the first image and the second image cut out by the trimming unit;
The image composition unit synthesizes the first image and the second image in which the distortion correction unit corrects the distortion,
The image acquisition apparatus according to claim 1.
前記方向決定部は、パターンマッチングに基づいて前記画像方向を決定する、請求項1又は2に記載の画像取得装置。   The image acquisition device according to claim 1, wherein the direction determination unit determines the image direction based on pattern matching. 第1の被写体と前記第1の被写体の周囲に位置する第2の被写体とを同時に撮影して、撮影画像を生成する撮像部と、
前記撮影画像から、前記第1の被写体を含む第1の画像と前記第2の被写体を含む第2の画像とを切り出すトリミング部と、
前記第1の画像の向きである画像方向を決定する方向決定部と、
前記画像方向に基づいて前記第1の画像と前記第2の画像との向きを整えて、前記第1の画像と前記第2の画像とを合成することで編集画像を作成する画像合成部と、
音情報を取得するマイクロホンと、
前記音情報に基づいて前記第2の被写体のうち音を発生している音源を特定する音源特定部と
を備え、
前記トリミング部は、前記音源に応じた画像を前記第2の画像として切り出す、
画像取得装置。
An imaging unit that simultaneously captures a first subject and a second subject located around the first subject to generate a captured image;
A trimming unit that cuts out a first image including the first subject and a second image including the second subject from the captured image;
A direction determining unit that determines an image direction that is a direction of the first image;
An image composition unit that prepares an edited image by adjusting the orientation of the first image and the second image based on the image direction and combining the first image and the second image; ,
A microphone to acquire sound information;
A sound source specifying unit for specifying a sound source generating a sound among the second subject based on the sound information;
Bei to give a,
The trimming unit cuts out an image corresponding to the sound source as the second image;
Image acquisition device.
第1の被写体が存在する第1の領域と前記第1の被写体とは異なる第2の被写体を含む第2の領域とを同時に撮影して、撮影画像を生成する撮像部と、
前記撮影画像から、前記第1の領域に係る第1の画像と前記第2の領域に係る第2の画像とを判定して切り出すトリミング部と、
前記第1の画像と前記第2の画像とのうち一方の上下の向きを前記撮像部の姿勢に基づいて決定し、前記第1の画像と前記第2の画像とのうち他方の上下の向きを前記第1の画像又は前記第2の画像における前記第1の被写体又は前記第2の被写体の向きに基づいて決定する、上下判定によって画像方向を決定する方向決定部と、
前記画像方向に基づいて前記第1の画像と前記第2の画像との向きを整えて、前記第1の画像と前記第2の画像とを合成することで編集画像を作成する画像合成部と
を備える画像取得装置。
An imaging unit that simultaneously captures a first region where the first subject exists and a second region including a second subject different from the first subject, and generates a captured image;
A trimming unit that determines and cuts out a first image related to the first region and a second image related to the second region from the captured image;
The vertical direction of one of the first image and the second image is determined based on the posture of the imaging unit, and the vertical direction of the other of the first image and the second image is determined. A direction determining unit that determines an image direction by up / down determination, and determining based on an orientation of the first subject or the second subject in the first image or the second image;
An image composition unit that prepares an edited image by adjusting the orientation of the first image and the second image based on the image direction and combining the first image and the second image; An image acquisition apparatus comprising:
撮像部によって第1の被写体が存在する第1の領域と前記第1の被写体とは異なる第2の被写体を含む第2の領域とを同時に撮影して、撮影画像を生成することと、
前記撮影画像から、前記第1の領域に係る第1の画像と前記第2の領域に係る第2の画像とを判定して切り出すことと、
前記第1の画像と前記第2の画像とのうち一方の上下の向きを前記撮像部の姿勢に基づいて決定し、前記第1の画像と前記第2の画像とのうち他方の上下の向きを前記第1の画像又は前記第2の画像における前記第1の被写体又は前記第2の被写体の向きに基づいて決定する、上下判定によって画像方向を決定することと、
前記画像方向に基づいて前記第1の画像と前記第2の画像との向きを整えて、前記第1の画像と前記第2の画像とを合成することで編集画像を作成することと
を含む画像取得方法。
Capturing simultaneously a first region where the first subject is present and a second region including a second subject different from the first subject by the imaging unit to generate a captured image;
Determining and cutting out a first image related to the first region and a second image related to the second region from the captured image;
The vertical direction of one of the first image and the second image is determined based on the posture of the imaging unit, and the vertical direction of the other of the first image and the second image is determined. Determining the image direction by up / down determination, and determining based on the orientation of the first subject or the second subject in the first image or the second image;
Adjusting the orientation of the first image and the second image based on the image direction and synthesizing the first image and the second image to create an edited image. Image acquisition method.
JP2015014488A 2015-01-28 2015-01-28 Image acquisition apparatus and image acquisition method Active JP6450604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015014488A JP6450604B2 (en) 2015-01-28 2015-01-28 Image acquisition apparatus and image acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015014488A JP6450604B2 (en) 2015-01-28 2015-01-28 Image acquisition apparatus and image acquisition method

Publications (2)

Publication Number Publication Date
JP2016139975A JP2016139975A (en) 2016-08-04
JP6450604B2 true JP6450604B2 (en) 2019-01-09

Family

ID=56559425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015014488A Active JP6450604B2 (en) 2015-01-28 2015-01-28 Image acquisition apparatus and image acquisition method

Country Status (1)

Country Link
JP (1) JP6450604B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7030451B2 (en) * 2017-08-18 2022-03-07 セコム株式会社 Image processing equipment
CN115176457A (en) * 2020-02-28 2022-10-11 索尼集团公司 Image processing apparatus, image processing method, program, and image presentation system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3671682B2 (en) * 1998-07-21 2005-07-13 コニカミノルタビジネステクノロジーズ株式会社 Image recognition device
JP2002010059A (en) * 2000-06-20 2002-01-11 Sharp Corp Image processing device
JP4862645B2 (en) * 2006-12-19 2012-01-25 ヤマハ株式会社 Video conferencing equipment

Also Published As

Publication number Publication date
JP2016139975A (en) 2016-08-04

Similar Documents

Publication Publication Date Title
JP6627352B2 (en) Image display device, image display method, and program
US9712751B2 (en) Camera field of view effects based on device orientation and scene content
JP6942940B2 (en) Image processing equipment, image processing methods and programs
KR102235231B1 (en) Imaging control apparatus and control method therefor
US20050088542A1 (en) System and method for displaying an image composition template
JP6723512B2 (en) Image processing apparatus, image processing method and program
CN106034206B (en) Electronic device and image display method
WO2017114048A1 (en) Mobile terminal and method for identifying contact
US20170150047A1 (en) Electronic apparatus and method for controlling electronic apparatus thereof
WO2004015987A1 (en) Image combination device, image combination method, image combination program, and recording medium containing the image combination program
JP2017208619A (en) Image processing apparatus, image processing method, program and imaging system
US10440307B2 (en) Image processing device, image processing method and medium
US20150022627A1 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP2016126510A (en) Image generation apparatus, image generation method, and program
CN113850726A (en) Image transformation method and device
CN112351188A (en) Apparatus and method for displaying graphic elements according to objects
JP6450604B2 (en) Image acquisition apparatus and image acquisition method
JP2016010010A (en) Imaging apparatus with voice input and output function and video conference system
US20200364832A1 (en) Photographing method and apparatus
JP7128347B2 (en) Image processing device, image processing method and program, imaging device
JP6213640B2 (en) Image processing apparatus, image processing method, imaging apparatus, and system
JP2015019215A (en) Imaging apparatus and imaging method
JP2019168999A (en) Imaging device, imaging method and program
JP7054437B2 (en) Image processing equipment, image processing methods and programs
JP2017058801A (en) Image display apparatus, image display method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R151 Written notification of patent or utility model registration

Ref document number: 6450604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250