JP2023142257A - 表示装置、及び表示装置の制御方法 - Google Patents
表示装置、及び表示装置の制御方法 Download PDFInfo
- Publication number
- JP2023142257A JP2023142257A JP2022049063A JP2022049063A JP2023142257A JP 2023142257 A JP2023142257 A JP 2023142257A JP 2022049063 A JP2022049063 A JP 2022049063A JP 2022049063 A JP2022049063 A JP 2022049063A JP 2023142257 A JP2023142257 A JP 2023142257A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- user
- image
- video
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 321
- 238000012937 correction Methods 0.000 claims abstract description 253
- 230000008859 change Effects 0.000 claims description 59
- 238000010079 rubber tapping Methods 0.000 claims description 3
- 238000012888 cubic function Methods 0.000 claims description 2
- 238000003860 storage Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 152
- 238000001514 detection method Methods 0.000 description 275
- 230000008569 process Effects 0.000 description 242
- 238000003384 imaging method Methods 0.000 description 237
- 238000012545 processing Methods 0.000 description 226
- 230000015654 memory Effects 0.000 description 87
- 230000033001 locomotion Effects 0.000 description 86
- 230000003287 optical effect Effects 0.000 description 62
- 230000006641 stabilisation Effects 0.000 description 61
- 238000011105 stabilization Methods 0.000 description 61
- 238000005520 cutting process Methods 0.000 description 48
- 238000011161 development Methods 0.000 description 44
- 238000004364 calculation method Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 25
- 238000000605 extraction Methods 0.000 description 24
- 239000013598 vector Substances 0.000 description 20
- 230000007246 mechanism Effects 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 210000003128 head Anatomy 0.000 description 15
- 238000012546 transfer Methods 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 13
- 230000003111 delayed effect Effects 0.000 description 13
- 201000003152 motion sickness Diseases 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000003825 pressing Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 238000002360 preparation method Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 239000012141 concentrate Substances 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 210000003109 clavicle Anatomy 0.000 description 5
- 238000002955 isolation Methods 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000020169 heat generation Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000002265 prevention Effects 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 206010025482 malaise Diseases 0.000 description 3
- 238000004091 panning Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013016 damping Methods 0.000 description 2
- 229920001971 elastomer Polymers 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 241000872198 Serjania polyphylla Species 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000806 elastomer Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 239000004945 silicone rubber Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1662—Details related to the integrated keyboard
- G06F1/1671—Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Geometry (AREA)
Abstract
【課題】所望の位置で切り出された切り出し動画を、簡易な操作で生成することができる。【解決手段】表示装置は、動画を撮影するユーザの顔方向に基づいて設定される前記動画の切り出し領域の情報を前記動画に付加した動画データを取得する取得手段と、前記動画データの再生時に、前記切り出し領域を示す枠を表示する表示制御手段と、前記切り出し領域を補正するための前記枠に対する操作を受け付ける操作手段と、前記操作によって補正された前記切り出し領域の補正情報を、前記動画データに付加する補正手段と、前記切り出し領域の情報及び前記補正情報に基づいて、前記動画から切り出し動画を生成する生成手段とを有する。【選択図】図59A
Description
本発明は、表示装置、及び表示装置の制御方法に関する。
従来からカメラの撮像は、撮影者がカメラを撮像する方向に向け続ける必要があるため、撮像操作に手が取られることで撮像行為以外に手がまわせなかったり、撮像に意識を集中させられるためにその場に居る体験には意識を集中できなかったりしていた。
たとえば、撮像操作で言えば、撮影者である親は、子供を撮像している間は子供と一緒に遊ぶことはできなくなるし、子供と一緒に遊ぼうとすると撮像ができなくなるといった課題が生じる。
また、撮像への意識集中でいえば、スポーツ観戦中に撮像をしていると、撮影者は、応援できなかったり、ゲーム内容を覚えていなかったりするし、スポーツ観戦へ意識を集中すると撮像できないといった課題が生じる。同様に、グループ旅行中に撮像をしていると、撮影者は、他のメンバーと同じレベルでの感動を体験できないし、体験を優先すると撮像が疎かになるといった課題が生じる。
このような課題を解決する方法としては、頭部固定アクセサリーを用いてアクションカメラを頭部に固定して観察している方向を撮像することで、撮影者が撮像操作に手が取られることなく撮像する方法がある。また、全天球型撮影カメラで広範囲を撮像することで、体験中は体験に集中し、体験が終わってから撮像された全天球映像から必要な映像部分を切り出し編集し、体験したことの映像を残すという方法もある。
ただ前者の方法は、図47(a)に示すような、アクションカメラ901の本体が固定された頭部固定アクセサリーを頭に装着するという煩わしい行為が必要になる。また図47(b)に示すように、撮影者が頭部固定アクセサリー902によってアクションカメラ901を頭部に装着すると、見栄えも悪い上、撮影者の髪型も乱れるなどの問題も起きる。さらには、撮影者が頭に装着されている頭部固定アクセサリー902とアクションカメラ901について、その重さなどの存在が気になったり、第3者に対して見栄えが悪くて気になったりしていた。そのため、図47(b)に示す状態では撮影者は体験に集中できなかったり、図47(b)に示す状態となること自体に撮影者が抵抗を感じたりするなどの理由で撮像そのものをし辛くなるという課題があった。
一方、後者の方法は、画像変換や切り出し位置指定などの一連の作業が必要となる。例えば、図48に示すような、レンズ904と、撮影用ボタン905とを備える全天球型撮影カメラ903が知られている。レンズ904は、全天球型撮影カメラ903の筐体両面に構成される一対の半天球撮影用の魚眼レンズの一つであり、この一対の魚眼レンズを用いて全天球型撮影カメラ903は全天球撮影を行う。つまり、この一対の魚眼レンズの投影画像を合成して全天球撮影が行われる。
図49は、全天球型撮影カメラ903で撮像された映像の変換作業の例を示す図である。
図49(a)は、全天球型撮影カメラ903による全天球撮影により得られた映像の例であり、被写体である撮影者906、子供907、木908が含まれている。この映像は、1対の魚眼レンズの投影画像を合成して得られた半天球光学系の映像であるため、撮影
者906は大きく歪曲している。また、撮影者906が撮像しようとしていた被写体である子供907は、半天球光学系の周辺部に胴体部があったことで、胴体部が左右に大きく歪曲し、引き伸ばされている。一方、木908は、レンズ904の正面に位置する被写体であったため、大きな歪みなく撮像されている。
者906は大きく歪曲している。また、撮影者906が撮像しようとしていた被写体である子供907は、半天球光学系の周辺部に胴体部があったことで、胴体部が左右に大きく歪曲し、引き伸ばされている。一方、木908は、レンズ904の正面に位置する被写体であったため、大きな歪みなく撮像されている。
図49(a)の映像から、普段人が見ているような視野の映像を作り出すにはその一部分を切り出して、平面変換して表示する必要がある。
図49(b)は、図49(a)の映像から、レンズ904の正面に位置する映像を切り出した映像である。図49(b)の映像では、普段人が見ているような視野で、木908が中央に映っている。しかし撮影者906が撮像しようとしていた子供907は図49(b)には含まれていないので切り出し位置を変更しなくてはならない。ここでは具体的には切り出し位置を、図49(a)において図面向かって木908より左方向かつ30°下方方向とする必要がある。この切り出し作業を行ったあと、平面変換して表示した映像が図49(c)である。このように、図49(a)の映像から撮影者が撮像しようとしていた図49(c)の映像を得るには、必要な箇所を切り出して平面変換する(以後「トリミング」という)作業しなくてはならない。このため、撮影者は、体験中(撮像中)は体験に集中できるがその後の作業量が膨大になるといった課題があった。
特許文献1では、画像の切り出し位置を補正する技術として、ユーザが画像再生時に振れ補正強度を変更し、振れ補正強度に基づいて画像の切り出しサイズ及び切り出し位置等が決定されることが開示されている。
振れ補正強度を変更することにより間接的に切り出し領域を補正することができても、ユーザは、切り出し領域を直接変更しなければ、意図した位置に補正することは難しい。
そこで、本発明は、所望の位置で切り出された切り出し動画を、簡易な操作で生成する技術を提供することを目的とする。
本発明に係る表示装置は、
動画を撮影するユーザの顔方向に基づいて設定される前記動画の切り出し領域の情報を前記動画に付加した動画データを取得する取得手段と、
前記動画データの再生時に、前記切り出し領域を示す枠を表示する表示制御手段と、
前記切り出し領域を補正するための前記枠に対する操作を受け付ける操作手段と、
前記操作によって補正された前記切り出し領域の補正情報を、前記動画データに付加する補正手段と、
前記切り出し領域の情報及び前記補正情報に基づいて、前記動画から切り出し動画を生成する生成手段と
を有することを特徴とする。
動画を撮影するユーザの顔方向に基づいて設定される前記動画の切り出し領域の情報を前記動画に付加した動画データを取得する取得手段と、
前記動画データの再生時に、前記切り出し領域を示す枠を表示する表示制御手段と、
前記切り出し領域を補正するための前記枠に対する操作を受け付ける操作手段と、
前記操作によって補正された前記切り出し領域の補正情報を、前記動画データに付加する補正手段と、
前記切り出し領域の情報及び前記補正情報に基づいて、前記動画から切り出し動画を生成する生成手段と
を有することを特徴とする。
本発明によれば、所望の位置で切り出された切り出し動画を、簡易な操作で生成することができる。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
(実施例1)
図1A~図1Dは、本実施例に係る撮像装置としての撮影・検出部10を含むカメラ本体1とこれと別体で構成される表示装置800からなるカメラシステムを説明するための図である。尚、本実施例では、カメラ本体1と表示装置800は別体である場合を例に示しているが、一体的に構成されていてもよい。また、カメラ本体1を首にかけて装着しているユーザを以下、使用者という。
図1A~図1Dは、本実施例に係る撮像装置としての撮影・検出部10を含むカメラ本体1とこれと別体で構成される表示装置800からなるカメラシステムを説明するための図である。尚、本実施例では、カメラ本体1と表示装置800は別体である場合を例に示しているが、一体的に構成されていてもよい。また、カメラ本体1を首にかけて装着しているユーザを以下、使用者という。
図1Aは、カメラ本体1の外観図である。
図1Aにおいて、カメラ本体1は、撮影・検出部10、バッテリー部90、撮影・検出部10とバッテリー部90(電源手段)を接続する接続部80を備える。
撮影・検出部10は、顔方向検出窓13、スタートスイッチ14、ストップスイッチ15、撮像レンズ16、LED17、及びマイク19L,19Rを備える。
顔方向検出窓13は、撮影・検出部10に内蔵される、使用者の顔の各部の位置を検出するための赤外LED点灯回路21(図5:赤外線照射手段)から投光される赤外線やその反射光線を透過する。
スタートスイッチ14は、撮像を開始するためのスイッチである。
ストップスイッチ15は、撮像を止めるためのスイッチである。
撮像レンズ16は、撮像する光線を撮影・検出部10の内部の固体撮像素子42(図5)に導く。
LED17は、撮像中であることを示したり、警告を示したりするLEDである。
マイク19R,19Lは、周辺の音を取りいれるマイクであり、マイク19Lは使用者の周辺左側(図1Aの向かって右側)の音を取り入れ、マイク19Rは使用者の周辺右側(図1Aの向かって左側)の音を取り入れる。
図1Bは、カメラ本体1を使用者が掛けた様子を示す図である。
バッテリー部90が使用者の背中側に、撮影・検出部10が使用者の体の前側にくるように装着すると、撮影・検出部10の左右端部近傍に両端が接続される接続部80によって胸方向に付勢され支えられる。これにより、撮影・検出部10が使用者の鎖骨の前あたりに位置するようになる。この時、顔方向検出窓13は使用者の顎の下に位置する。顔方向検出窓13内には、後ほど図2Eで図示する赤外線集光レンズ26がある。撮像レンズ16の光軸(撮像光軸)と赤外線集光レンズ26の光軸(検出光軸)は異なる方向を向いており、後述する顔方向検出部20(顔方向検出手段)により顔の各部の位置から使用者の観察方向を検出する。これにより、後述する撮影部40(撮像手段)によるその観察方向の撮像が可能となっている。
体形の個人差や、洋服の違いによる設定位置の調整方法等については後述する。
また、このように撮影・検出部10を体の前面、バッテリー部90を背面に配置することで、重量を分散し、使用者の疲れの軽減や使用者が動いた際の遠心力等によるズレの抑制効果がある。
尚、本実施例では、撮影・検出部10が使用者の鎖骨の前あたりに位置するように装着される例を示したがこれに限定されない。すなわち、カメラ本体1は顔方向検出部20により使用者の観察方向が検出でき、且つ撮影部40によりその観察方向の撮像が可能であれば、カメラ本体1は使用者の頭部以外の身体上のいずれに装着されてもよい。
図1Cは、バッテリー部90を図1Aの後方から見た図である。
図1Cにおいて、バッテリー部90は、充電ケーブル挿入口91、調整用ボタン92L,92R、及び背骨よけ切り欠き93を備える。
充電ケーブル挿入口91は、不図示の充電ケーブルの挿入口であり、この充電ケーブルを介して外部電源から内部のバッテリー94を充電したり、撮影・検出部10に給電したりする。
調整用ボタン92L,92Rは、接続部80のバンド部82L,82Rの長さの調整用
ボタンである。調整用ボタン92Lは、向かって左側のバンド部82Lを調節するためのボタンであり、調整用ボタン92Rは、向かって右側のバンド部82Rを調節するためのボタンである。尚、本実施例では、調整用ボタン92L,92Rでバンド部82L,82Rの夫々の長さを独立に調整するが、1つのボタンでバンド部82L,82Rの長さを同時に調整するようにしてもよい。以下、バンド部82L,82Rをバンド部82と総称する。
ボタンである。調整用ボタン92Lは、向かって左側のバンド部82Lを調節するためのボタンであり、調整用ボタン92Rは、向かって右側のバンド部82Rを調節するためのボタンである。尚、本実施例では、調整用ボタン92L,92Rでバンド部82L,82Rの夫々の長さを独立に調整するが、1つのボタンでバンド部82L,82Rの長さを同時に調整するようにしてもよい。以下、バンド部82L,82Rをバンド部82と総称する。
背骨よけ切り欠き93は、バッテリー部90が使用者の背骨部分に当たらない様に背骨部分を避けた切り欠き部である。人体の背骨の凸部を避けることで装着の不快感を減らすと同時に、使用中に本体が左右に移動することを防止している。
図1Dは、カメラ本体1と別体で構成される、実施例1に係る携帯機器としての表示装置800の外観図である。
図1Dにおいて、表示装置800は、ボタンA802、表示部803、ボタンB804、インカメラ805、顔センサ806、角速度センサ807、及び加速度センサ808を備える。また、図1Dにおいては不図示であるが、カメラ本体1との高速接続が可能な無線LANを備える。
ボタンA802は、表示装置800の電源ボタンの機能を備えるボタンであり、長押しによる電源のONとOFFの操作を受け付け、短押しによるその他の処理タイミングの指示を受け付ける。
表示部803は、カメラ本体1で撮像した映像を確認したり、設定に必要なメニュー画面を表示したりできる。本実施例では、表示部803の上面に透明なタッチセンサも設けて有り、表示中の画面(例えばメニュー画面)に対するタッチによる操作を受け付ける。
ボタンB804は、後述するキャリブレーション処理に用いられるキャリブレーションボタン854として機能するボタンである。
インカメラ805は、表示装置800を観察している人を撮像することが可能なカメラである。
顔センサ806は、表示装置800を観察している人の顔形状や観察方向を検出する。顔センサ806の具体的な構造は特に限定されないが、例えば構造光センサやToFセンサ、ミリ波レーダーなどの各種センサで実施することが可能である。
角速度センサ807は、表示装置800内部にあるため透視図の意味として点線で示されている。本実施例の表示装置800は後述するキャリブレータの機能も備えるため3次元のX,Y,Z方向の3方向のジャイロセンサが搭載されている。
加速度センサ808は、表示装置800の姿勢を検出する。
尚、本実施例に係る表示装置800には、一般のスマートフォンが利用されており、そのスマートフォン内のファームウェアをカメラ本体1側のファームウェアに対応させることで、本発明にかかるカメラシステムを実施可能としている。但し、カメラ本体1側のファームウェアを表示装置800としてのスマートフォンのアプリケーションやOSに対応することによる本発明にかかるカメラシステムの実施も可能である。
図2A~図2Fは、撮影・検出部10を詳細に説明する図である。これ以降の図では既
に説明した部分については同一の番号を付することで、同一機能を意味し、本明細書中の説明を省略する。
に説明した部分については同一の番号を付することで、同一機能を意味し、本明細書中の説明を省略する。
図2Aは、撮影・検出部10を正面から見た図である。
接続部80は、使用者の身体の右側(図2Aの向かって左側)にある右側接続部80Rと、使用者の身体の左側(図2Aの向かって右側)に構成される左側接続部80Lにおいて撮影・検出部10と接続する。接続部80は詳細には、撮影・検出部10との角度を保持する硬質素材の角度保持部81とバンド部82に分かれる。すなわち、右側接続部80Rは、角度保持部81Rとバンド部82Rを有し、左側接続部80Lは、角度保持部81Lとバンド部82Lを有する。
図2Bは、接続部80のバンド部82の形状を示す図である。本図では、バンド部82の形状を示すため、角度保持部81を透視させている。
バンド部82は、接続面83、及び電気ケーブル84を備える。
接続面83は、角度保持部81とバンド部82の接続面であり、真円ではない断面形状、ここでは楕円形状を有する。以下、接続面83のうち、カメラ本体1の装着時に使用者の身体の右側(図2Bの向かって左側)及び左側(図2Bの向かって右側)に夫々左右対称に配置される接続面83を、右側接続面83R及び左側接続面83Lという。右側接続面83R及び左側接続面83Lは、ちょうどカタカナの「ハ」の字の様な形状となっている。すなわち、図2B向かって下方から上方に行くほど、右側接続面83R及び左側接続面83Lの間の距離が近くなる。これにより、カメラ本体1を使用者が掛けた場合に、接続部80の接続面83の長軸方向が使用者の体に沿う方向となるため、バンド部82が使用者の体に接するときに快適かつ、左右前後方向に撮影・検出部10が移動しないという効果が生じる。
電気ケーブル84(電力供給手段)は、バンド部82L内部に配線され、バッテリー部90と撮影・検出部10を電気的に接続するケーブルである。電気ケーブル84はバッテリー部90の電源を撮影・検出部10に接続したり、外部と電気信号の送受信をしたりする。
図2Cは、撮影・検出部10を裏側からみた図である。図2Cは、使用者の体に接する側、すなわち、図2Aの反対側からみた図のため、右側接続部80Rと左側接続部80Lの位置関係が図2Aとは逆になっている。
撮影・検出部10は、その裏側に、電源スイッチ11、撮像モードスイッチ12、及び胸部接続パッド18を備える。
電源スイッチ11は、カメラ本体1の電源のON/OFFを切り替える電源スイッチである。本実施例の電源スイッチ11は、スライドレバーの形のスイッチであるが、これに限定されない。例えば、電源スイッチ11は、プッシュ型のスイッチでもよいし、また、撮像レンズ16の不図示のスライドカバーと一体的に構成されたスイッチでもよい。
撮像モードスイッチ12(変更手段)は、撮像モードを変更するスイッチであり、撮像にかかわるモードを変更できる。本実施例では、撮像モードスイッチ12は、静止画モードや動画モードの他、後述する、表示装置800を用いて設定するプリ設定モードに切り替えることが可能である。本実施例では、撮像モードスイッチ12は、レバーのスライドにより図2Cに示す「Photo」、「Normal」、「Pri」のうちの一つを選択
できるスライドレバーの形のスイッチである。撮像モードは、「Photo」へのスライドにより静止画モードに移行し、「Normal」へのスライドにより動画モードに移行し、「Pri」へのスライドによりプリ設定モードへ移行する。尚、撮像モードスイッチ12は、撮像モードの変更が可能なスイッチであれば、本実施例の形態に限定されない。例えば、「Photo」、「Normal」、「Pri」の3つのボタンで撮像モードスイッチ12は構成されていてもよい。
できるスライドレバーの形のスイッチである。撮像モードは、「Photo」へのスライドにより静止画モードに移行し、「Normal」へのスライドにより動画モードに移行し、「Pri」へのスライドによりプリ設定モードへ移行する。尚、撮像モードスイッチ12は、撮像モードの変更が可能なスイッチであれば、本実施例の形態に限定されない。例えば、「Photo」、「Normal」、「Pri」の3つのボタンで撮像モードスイッチ12は構成されていてもよい。
胸部接続パッド18(固定手段)は、撮影・検出部10が使用者の体に対して付勢されるときに、使用者の体に当たる部分である。図2Aに示すように、撮影・検出部10は装着時に縦(上下)の全長より横(左右)の全長が長くなるように形作られており、胸部接続パッド18は、撮影・検出部10の左右の端部近傍に配置されている。このように配置されることで、カメラ本体1での撮像中の左右の回転ブレを抑制することが可能となる。また、胸部接続パッド18があることで、電源スイッチ11や、撮像モードスイッチ12が身体に接触することを防ぐことができる。さらに、胸部接続パッド18は、長時間の撮像で撮影・検出部10の温度が上昇しても使用者の体にその熱が伝わることを防ぐ役目や、撮影・検出部10の角度調整の役目も担っている。
図2Dは、撮影・検出部10を上からみた図である。
図2Dに示すように、撮影・検出部10の上面の中央部に、顔方向検出窓13が設けられ、また、胸部接続パッド18は、撮影・検出部10から突出している。
図2Eは、撮影・検出部10の内部であって、顔方向検出窓13の下部に配置される、赤外検出処理装置27の構成を示す図である。
赤外検出処理装置27は、赤外LED22、及び赤外線集光レンズ26を備える。
赤外LED22は、使用者に向けて赤外線23(図5)を投光する。
赤外線集光レンズ26は、赤外LED22からの赤外線23の投光時に使用者から反射してくる反射光線25(図5)を赤外検出処理装置27の図示しないセンサに結像させるレンズである。
図2Fは、カメラ本体1を使用者が掛けた状態を使用者の左側面からみた図である。
角度調節ボタン85Lは、角度保持部81Lに設けられるボタンであり、撮影・検出部10の角度調節の際に用いられる。尚、本図においては図示していないが、反対側面にある角度保持部81Rの内部にも、角度調節ボタン85Lと対称的な位置に角度調節ボタン85Rが設定されている。以下、角度調節ボタン85R,85Lを総称する際は、角度調節ボタン85という。
角度調節ボタン85は、図2A,図2C、図2Dでも見える位置にあるが、説明の単純化のために省略している。
使用者は、角度調節ボタン85を押しながら角度保持部81を図2F向かって上下に動かすことで撮影・検出部10と角度保持部81の角度を変更することが可能となる。また、胸部接続パッド18は、その突出角度の変更が可能である。撮影・検出部10は、この二つの角度変更部材(角度調節ボタン85及び胸部接続パッド18)の働きにより、使用者の胸位置形状の個人差に対して水平を撮像レンズ16の向きを水平に調節することが可能である。
図3は、バッテリー部90の詳細を説明する図である。
図3(a)は、バッテリー部90を背面から一部透視表示した図である。
図3(a)に示すように、バッテリー部90はその重量バランスを取るため、内部に左バッテリー94Lと右バッテリー94R(以下、バッテリー94とも総称する)の2個が対称的に搭載されている。このようにバッテリー部90の中央部に対してバッテリー94を対照的に配置することで、左右の重量バランスをあわせ、カメラ本体1の位置ズレを防止している。尚、バッテリー部90は、バッテリーを1つのみ搭載する構成としても良い。
図3(b)は、バッテリー部90を上部からみた図である。本図においても、バッテリー94が透視で示されている。
図3(b)に示すように、背骨よけ切り欠き93とバッテリー94の関係がわかる。このように、背骨よけ切り欠き93の両サイドにバッテリー94を対照的に配置することにより、比較的重量があるバッテリー部90を使用者に負担なく装着させることが可能である。
図3(c)は、バッテリー部90を裏側からみた図である。図3(c)は、使用者の体に接する側、すなわち、図3(a)の反対側からみた図である。
図3(c)に示すように、背骨よけ切り欠き93は、使用者の背骨に沿って中央に設けられている。
図4は、カメラ本体1の機能ブロック図である。詳細は後述するので、ここでは図4を用いてカメラ本体1で実行される大まかな処理の流れを説明する。
図4において、カメラ本体1は、顔方向検出部20、記録方向・画角決定部30、撮影部40、画像切り出し・現像処理部50、一次記録部60、送信部70、及び他制御部111を備える。これらの機能ブロックは、カメラ本体1の全体制御を行う全体制御CPU101(図5)の制御により実行される。
顔方向検出部20(観察方向検出手段)は、先に出てきた赤外LED22や赤外検出処理装置27などにより実行される機能ブロックであり、顔方向を検出して観察方向を類推し、これを記録方向・画角決定部30に渡す。
記録方向・画角決定部30(記録方向決定手段)は、顔方向検出部20で類推された観察方向に基づき各種演算を行って、撮影部40からの映像を切り出す際の位置や範囲の情報を決定し、この情報を画像切り出し・現像処理部50に渡す。
撮影部40は、被写体からの光線を映像に変換し、その映像を画像切り出し・現像処理部50に渡す。
画像切り出し・現像処理部50(現像手段)は、記録方向・画角決定部30からの情報を用いて、撮影部40からの映像を切り出して現像することで、使用者が見ている方向の映像のみを一次記録部60に渡す。
一次記録部60は、一次メモリ103(図5)などにより構成される機能ブロックであ
り、映像情報を記録し、必要タイミングで送信部70に渡す。
り、映像情報を記録し、必要タイミングで送信部70に渡す。
送信部70(映像出力手段)は、あらかじめ決められた通信相手である、表示装置800(図1D)、キャリブレータ850、及び簡易表示装置900と無線接続し、これらに対して通信を行う。
表示装置800は、高速接続可能な無線LAN(以下「高速無線」という)で送信部70と接続可能な表示装置である。ここで本実施例では、高速無線に、IEEE802.11ax(WiFi 6)規格に対応する無線通信を利用するが、他の規格、例えばWiFi 4規格やWiFi 5規格に対応する無線通信を利用してもよい。また、表示装置800はカメラ本体1専用に開発した機器でも良いし、一般的なスマートフォンや、タブレット端末等でも良い。
尚、送信部70と表示装置800の接続には、小電力無線を用いていてもよいし、高速無線と小電力無線の両方で接続したり、切り替えて接続したりしても良い。本実施例では、後述する動画映像の映像ファイルなどデータ量の多いものは高速無線で伝送し、軽量のデータや、伝送に時間がかかっても良いデータは、小電力無線で伝送する。ここで本実施例では、小電力無線に、Bluetoothを利用するが、NFC(Near Field Communication)等の他の近距離(短距離)無線通信を用いてもよい。
キャリブレータ850は、カメラ本体1の初期設定時や、個別設定を行う機器であり、表示装置800と同様に高速無線で送信部70と接続可能な機器である。キャリブレータ850についての詳細は後述する。また、表示装置800がこのキャリブレータ850としての機能を兼ね備えても良い。
簡易表示装置900は、たとえば小電力無線でしか送信部70と接続できない表示装置である。
簡易表示装置900は、送信部70との間で、時間的な制約により動画映像の伝送はできないが、撮像開始・停止のタイミング伝送や、構図確認程度の画像確認などが行える表示装置である。また、簡易表示装置900は、表示装置800と同様、カメラ本体1専用に開発した機器でも良いし、スマートウォッチなどであっても良い。
図5は、カメラ本体1のハードウェア構成を示すブロック図である。また、図1A~図1C等を用いて説明した構成・機能については、同じ番号を用い詳細説明は省略する。
図5においてカメラ本体1は、全体制御CPU101、電源スイッチ11、撮像モードスイッチ12、顔方向検出窓13、スタートスイッチ14、ストップスイッチ15、撮像レンズ16、及びLED17を備える。
カメラ本体1はまた、顔方向検出部20(図4)を構成する、赤外LED点灯回路21、赤外LED22、赤外線集光レンズ26、及び赤外検出処理装置27を備える。
また、カメラ本体1は、撮像ドライバー41、固体撮像素子42、及び撮像信号処理回路43からなる撮影部40(図4)や、小電力無線ユニット71及び高速無線ユニット72からなる送信部70(図4)を備える。
尚、カメラ本体1には、本実施例では撮影部40は1つしか設けられていないが2以上の撮影部40を設け、3D映像の撮像をしたり、1つの撮影部40で取得できる画角より広角の映像の撮像をしたりするようにたり、複数方向の撮像をしたりしてもよい。
カメラ本体1はまた、大容量不揮発性メモリ51、内蔵不揮発性メモリ102、及び一次メモリ103等の各種メモリを備える。
さらに、カメラ本体1は、音声処理部104、スピーカー105、振動体106、角速度センサ107、加速度センサ108、及び各種スイッチ110を備える。
全体制御CPU101は、図2Cを用いて前述した電源スイッチ11などが接続され、このカメラ本体1の制御を行う。図4の記録方向・画角決定部30、画像切り出し・現像処理部50、及び他制御部111は、全体制御CPU101自身によって構成される。
赤外LED点灯回路21は、図2Eを用いて前述した赤外LED22の点灯・消灯の制御を行い、赤外LED22から使用者に向けた赤外線23の投光を制御する。
顔方向検出窓13は、可視光カットフィルタで構成され、可視光線はほぼ透過できないが、赤外域の光である赤外線23やその反射光線25は十分透過する。
赤外線集光レンズ26は、反射光線25を集光するレンズである。
赤外検出処理装置27(赤外線検出手段)は、赤外線集光レンズ26で集光された反射光線25を検出するセンサを有する。このセンサは、集光された反射光線25を映像として結像し、センサデータに変換して、全体制御CPU101へ渡す。
図1Bに示すようにカメラ本体1を使用者が掛けている場合、顔方向検出窓13は使用者の顎の下に位置する。このため、赤外LED点灯回路21から投光された赤外線23は、図5に示すように顔方向検出窓13を透過して使用者の顎付近である赤外線照射面24に照射される。また、赤外線照射面24で反射した赤外線23は、反射光線25となり、顔方向検出窓13を透過し、赤外線集光レンズ26によって、赤外検出処理装置27にあるセンサに集光される。
各種スイッチ110は、図1A~図1C等では不図示である、詳細は省略するが、本実施例と関係がない機能を実行するためのスイッチである。
撮像ドライバー41は、タイミングジェネレータ等を含み、撮像にかかわる各部に各種タイミング信号を生成・出力し、撮像駆動する。
固体撮像素子42は、図1Aを用いて説明した撮像レンズ16から投影された被写体像を光電変換してえられた信号を撮像信号処理回路43に出力する。
撮像信号処理回路43は、固体撮像素子42からの信号に対してクランプなどの処理やA/D変換などの処理を行って生成した撮像データを全体制御CPU101に出力する。
内蔵不揮発性メモリ102は、フラッシュメモリなどが用いられ、全体制御CPU101の起動プログラムや、各種プログラムモードの設定値が記憶されている。本実施例では、観察視野(画角)の変更や防振制御の効果レベルを設定できるので、そういった設定値も記録する。
一次メモリ103は、RAMなどで構成され、処理中の映像データを一時的に記憶したり、全体制御CPU101の演算結果を一時的に記憶したりする。
大容量不揮発性メモリ51は、一次画像データの記録または読み出しを行う。本実施例では、説明の簡単化のため、大容量不揮発性メモリ51が脱着機構は無い半導体メモリである場合について説明を行うが、これに限定されない。例えば、大容量不揮発性メモリ51は、SDカードなどの脱着可能な記録媒体で構成してもよいし、内蔵不揮発性メモリ102と併用しても良い。
小電力無線ユニット71は、小電力無線で表示装置800、キャリブレータ850、及び簡易表示装置900との間でデータのやり取りを行う。
高速無線ユニット72は、高速無線で表示装置800、キャリブレータ850、及び簡易表示装置900との間でデータのやり取りを行う。
音声処理部104は、外部の音(アナログ信号)を収音する図1A向かって右側のマイク19L、同図向かって左側のマイク19Rを備え、収音されたアナログ信号を処理し音声信号を生成する。
LED17、スピーカー105及び振動体106は、光を発したり、音を発したり、振動したりすることで、カメラ本体1の状態を使用者に対して通達したり警告したりする。
角速度センサ107は、ジャイロ等を用いたセンサであり、カメラ本体1自体の移動をジャイロデータとして検出する。
加速度センサ108は、撮影・検出部10の姿勢を検出する。
尚、角速度センサ107及び加速度センサ108は、撮影・検出部10に内蔵されるものであり、後述する表示装置800内にもこれとは別体の角速度センサ807及び加速度センサ808が設けられている。
図6は、表示装置800のハードウェア構成を示すブロック図である。図1Dを用いて説明した箇所は説明の簡単化のため、同一の符号を用い説明を省略する。
図6において、表示装置800は、表示装置制御部801、ボタンA802、表示部803、ボタンB804、インカメラ805、顔センサ806、角速度センサ807、加速度センサ808、撮像信号処理回路809、及び各種スイッチ811を備える。
また、表示装置800は、内蔵不揮発性メモリ812、一次メモリ813、大容量不揮発性メモリ814、スピーカー815、振動体816、LED817、音声処理部820、小電力無線ユニット871、及び高速無線ユニット872を備える。
表示装置制御部801は、CPUにより構成され、図1Dを用いて説明したボタンA802や顔センサ806等が接続され、表示装置800の制御を行う。
撮像信号処理回路809は、カメラ本体1内部の撮像ドライバー41、固体撮像素子42、撮像信号処理回路43と同等機能を担うが、本実施例での説明にはあまり重要でないので、説明の簡略化のため一つにまとめて説明している。撮像信号処理回路809で出力されたデータは、表示装置制御部801内で処理される。このデータの処理内容については後述する。
各種スイッチ811は、図1Dでは不図示である、詳細は省略するが、本実施例と関係がない機能を実行するためのスイッチである。
角速度センサ807は、ジャイロ等を用いたセンサであり、表示装置800自体の移動を検出する。
加速度センサ808は、表示装置800自体の姿勢を検出する。
尚、上述の通り、角速度センサ807及び加速度センサ808は、表示装置800に内蔵されており、先に説明したカメラ本体1にある角速度センサ107及び加速度センサ808とは同様の機能は有するが別体である。
内蔵不揮発性メモリ812は、フラッシュメモリなどが用いられ、表示装置制御部801の起動プログラムや、各種プログラムモードの設定値が記憶されている。
一次メモリ813は、RAMなどで構成され、処理中の映像データを一時的に記憶したり、撮像信号処理回路809の演算結果を一時的に記憶したりする。本実施例では、動画映像の録画中は、各フレームの撮像時刻に角速度センサ107で検出されたジャイロデータが各フレームと紐づいて、一次メモリ813に保持される。
大容量不揮発性メモリ814は、表示装置800の画像データを記録または読み出す。本実施例では、大容量不揮発性メモリ814は、SDカードの様に脱着可能なメモリで構成される。尚、カメラ本体1にある大容量不揮発性メモリ51のように脱着できないメモリで構成してもよい。
スピーカー815、振動体816及びLED817は、音を発したり、振動したり、光を発したりすることで、表示装置800の状態を使用者に対して通達したり、警告したりする。
音声処理部820は、外部の音(アナログ信号)を収音する左マイク819L、右マイク819Rを備え、収音されたアナログ信号を処理し音声信号を生成する。
小電力無線ユニット871は、小電力無線でカメラ本体1との間でデータのやり取りを行う。
高速無線ユニット872は、高速無線でカメラ本体1との間でデータのやり取りを行う。
顔センサ806(顔検出手段)は、赤外LED点灯回路821、赤外LED822、赤外線集光レンズ826、及び赤外検出処理装置827を備える。
赤外LED点灯回路821は、図5の赤外LED点灯回路21と同様の機能を有する回路であり、赤外LED822の点灯・消灯の制御を行い、赤外LED822から使用者に向けた赤外線823の投光を制御する。
赤外線集光レンズ826は、赤外線823の反射光線825を集光するレンズである。
赤外検出処理装置827は、赤外線集光レンズ826で集光された反射光線を検出するセンサを有する。このセンサは、集光された反射光線825をセンサデータに変換して、表示装置制御部801へ渡す。
図1Dに示す顔センサ806を使用者に向けると、図6に示すように、赤外LED点灯
回路821から投光された赤外線823が、使用者の顔全体である赤外線照射面824に照射される。また、赤外線照射面824で反射した赤外線823は、反射光線825となり、赤外線集光レンズ826によって、赤外検出処理装置827にあるセンサに集光される。
回路821から投光された赤外線823が、使用者の顔全体である赤外線照射面824に照射される。また、赤外線照射面824で反射した赤外線823は、反射光線825となり、赤外線集光レンズ826によって、赤外検出処理装置827にあるセンサに集光される。
その他機能部830は、詳細は省略するが、本実施例と関係がない機能であって、電話機能やその他センサなどスマートフォンならではの機能を実行する。
以下、カメラ本体1及び表示装置800の使い方について説明する。
図7Aは、カメラ本体1及び表示装置800において実行される、本実施例に係る撮像記録処理の概要を示すフローチャートである。
説明の補助として、図7Aでは各ステップの右側にそのステップが図4に示すどの機器で行われているかが記載されている。すなわち、図7AのステップS100~S700はカメラ本体1にて実行され、図7AのステップS800~S1000は表示装置800にて実行される。
ステップS100では、電源スイッチ11がONとなり、カメラ本体1に電源投入がされると、全体制御CPU101は、起動して内蔵不揮発性メモリ102から起動プログラムを読み出す。その後、全体制御CPU101は、カメラ本体1の撮像前の設定を行う準備動作処理を実行する。準備動作処理の詳細は図7Bを用いて後述する。
ステップS200では、顔方向検出部20が顔方向を検出することで、観察方向を類推する顔方向検出処理を実行する。顔方向検出処理の詳細は図7Cを用いて後述する。本処理は、所定のフレームレートで実行される。
ステップS300では、記録方向・画角決定部30が記録方向・範囲決定処理を実行する。記録方向・範囲決定処理の詳細は図7Dを用いて後述する。
ステップS400では、撮影部40が撮像を行い、撮像データを生成する。
ステップS500では、画像切り出し・現像処理部50がステップS400で生成された撮像データに対し、ステップS300で決定された記録方向、画角情報を用いて、映像を切り出し、その範囲の現像処理を行う記録範囲現像処理を実行する。記録範囲現像処理の詳細は図7Eを用いて後述する。
ステップS600では、ステップS500で現像された映像を、一次記録部60(映像記録手段)が一次メモリ103に映像データとして保存する一次記録処理を実行する。一次記録処理の詳細は図14を用いて後述する。
ステップS700では、送信部70がステップS600で一次記録された映像を指定タイミングにて表示装置800に対して無線にて送信する表示装置800への転送処理を実行する。表示装置800への転送処理の詳細は図16を用いて後述する。
ステップS800以降のステップは、表示装置800にて実行される。
ステップS800では、表示装置制御部801が、ステップS700でカメラ本体1から転送された映像に対し光学補正を行う光学補正処理を実行する。光学補正処理の詳細は図17を用いて後述する。
ステップS900では、表示装置制御部801が、ステップS800で光学補正が行われた映像に対し防振処理を行う。防振処理の詳細は図19を用いて後述する。
尚、ステップS800とステップS900の順番を逆にしても良い。つまり、先に映像の防振補正を行い、あとから光学補正を行っても良い。
ステップS1000では、表示装置制御部801(動画記録手段)が、ステップS800,S900における光学補正処理、防振処理を完了した映像を大容量不揮発性メモリ814に記録する二次記録を行い、本処理を終了する。
次に図7B~図7Fを用いて、図7Aで説明した各ステップのサブルーチンについて処理の順番とともに他図なども用いながら詳細に説明する。
図7Bは、図7AのステップS100の準備動作処理のサブルーチンのフローチャートである。以下本処理を、図2や図5に図示した各箇所を使って説明する。
ステップS101では、電源スイッチ11がONか否かを判定する。電源がOFFのままの場合は待機し、ONとなるとステップS102へ進む。
ステップS102では、撮像モードスイッチ12で選択されているモードを判定する。判定の結果、撮像モードスイッチ12で選択されているモードが動画モードである場合は、ステップS103に進む。
ステップS103では、動画モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS104に進む。ここで動画モードの各種設定には、画角設定値ang(本実施例では90°に事前設定される)や「強」「中」「切」などで指定される防振レベルが含まれる。
ステップS104では、動画モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。
ステップS102の判定の結果、撮像モードスイッチ12で選択されているモードが静止画モードである場合は、ステップS106に進む。
ステップS106では、静止画モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS107に進む。ここで静止画モードの各種設定には、画角設定値ang(本実施例では45°に事前設定される)や「強」「中」「切」などで指定される防振レベルが含まれる。
ステップS107では、静止画モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。
ステップS102の判定の結果、撮像モードスイッチ12で選択されているモードがプリ設定モードである場合は、ステップS108に進む。ここでプリ設定モードとは、表示装置800などの外部機器からカメラ本体1に対して撮像モードの設定がなされるモードであり、撮像モードスイッチ12により切り替え可能な3つの撮像モードの一つである。プリ設定モードとは、すなわちカスタム撮影のためのモードである。ここで、カメラ本体1は小型のウェアラブルデバイスのため、その詳細設定を変更するための操作スイッチや設定画面等はカメラ本体1には設けられておらず、表示装置800のような外部機器でカ
メラ本体1の詳細設定の変更は行われる。
メラ本体1の詳細設定の変更は行われる。
たとえば同じ動画撮像でも、90°の画角と110°の画角とで続けて撮像したい場合を考えてみる。通常の動画モードでは90°の画角が設定されているため、このような撮像を行う場合、まず通常の動画モードでの撮像後、動画撮像を一度終了し、表示装置800をカメラ本体1の設定画面に変えて、画角を110°に切り替える操作が必要となる。しかし、なんらかのイベント中であると、表示装置800に対するかかる操作は煩わしい。
一方、プリ設定モードを、画角110°で動画撮像するモードに事前設定しておけば、画角90°での動画撮像が終わった後、撮像モードスイッチ12を「Pri」にスライドするだけで、画角110°での動画撮像に即座に変更できる。すなわち、使用者は、現在の行為を中断し、上述の煩わしい操作を行う必要がなくなる。
尚、プリ設定モードで設定する内容に、画角だけでなく、「強」「中」「切」などで指定される防振レベルや、本実施例では説明しない音声認識の設定なども含めてもよい。
ステップS108では、プリ設定モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存した後、ステップS109に進む。ここでプリ設定モードの各種設定には、画角設定値angや「強」「中」「切」などで指定される防振レベルが含まれる。
ステップS109ではプリ設定モード用に撮像ドライバー41の動作を開始した後、本サブルーチンを抜ける。
ここで、図13を用いてステップS103で読み出した動画モードの各種設定について説明する。
図13は、カメラ本体1での撮像前に、表示装置800の表示部803に表示される、動画モードの各種設定用のメニュー画面を示す図である。尚、図1Dと同じ箇所については同一の符号を用いて説明を省略する。尚、表示部803はタッチパネル機能を有しており、この後の説明はスワイプなどの動作を含むタッチ動作で機能するものとして説明する。
図13において、メニュー画面には、プレビュー画面831、ズームレバー832、録画開始・停止ボタン833、スイッチ834、電池残量表示835、ボタン836、レバー837、及びアイコン表示部838を備える。
プレビュー画面831は、カメラ本体1で撮像された映像の確認ができ、ズーム量や画角の確認ができる。
ズームレバー832は、左右にシフトすることでズーム設定ができる操作部である。本実施例では45°、90°、110°、130°の4つの値が画角設定値angとして設定できる場合について説明するが、ズームレバー832によりこれらの値以外も画角設定値angとして設定できるようにしてもよい。
録画開始・停止ボタン833は、スタートスイッチ14とストップスイッチ15の機能を兼ね備えるトグルスイッチである。
スイッチ834は、防振の「切」「入」を切り替えるスイッチである。
電池残量表示835は、カメラ本体1の電池残量を表示する。
ボタン836は、その他のモードに入るボタンである。
レバー837は、防振強度を設定するレバーである。本実施例では、防振強度として設定できるのは「強」「中」のみだが、他の防振強度、例えば「弱」なども設定できるようにしてもよい。また、無段階に防振強度を設定できるようにしても良い。
アイコン表示部838は、プレビュー用の複数のサムネイルアイコンを表示する。
図7Cは、図7AのステップS200の顔方向検出処理のサブルーチンのフローチャートである。本処理の詳細を説明する前に、赤外線投光による顔方向の検出方法について図8A~図8Kを用いて解説する。
図8Aは、顔方向検出窓13から見える使用者の映像を示す図である。
図8Aの映像は、顔方向検出窓13に可視光カットフィルタ成分が無く、可視光を十分透過し、且つ赤外検出処理装置27が可視光用撮像素子だった場合に、その可視光用撮像素子において撮像される映像と同一である。
図8Aの映像には、使用者の鎖骨上の首前部201、顎の付け根202、顎先203、鼻を含む顔204が映っている。
図8Bは、顔方向検出窓13から見える使用者の映像に室内にある蛍光灯が背景として映りこんだ場合を示す図である。
図8Bの映像には、使用者の周囲にある複数の蛍光灯205が映っている。この様に使用条件により赤外検出処理装置27には様々な背景等が映り込むため、赤外検出処理装置27からのセンサデータから、顔方向検出部20や全体制御CPU101が顔部の映像を切り分けることが困難になる。昨今は、AI等の利用によりこういった映像を切り分ける技術もあるが、全体制御CPU101に高い能力が求められ、携帯機器であるカメラ本体1には適さない。
実際には顔方向検出窓13には可視光カットフィルタで構成されているので可視光はほぼ透過しないので、赤外検出処理装置27の映像は、図8A,図8Bのような映像にはならない。
図8Cは、図8Bに示す使用者及びその背景としての蛍光灯を、赤外LED22を点灯させない状態で、顔方向検出窓13を介して赤外検出処理装置27のセンサで結像させた場合の映像を示す図である。
図8Cの映像では、使用者の首や顎は暗くなっている。一方、蛍光灯205は、可視光線だけでなく赤外線成分も持っているためにやや明るく映っている。
図8Dは、図8Bに示す使用者及びその背景としての蛍光灯を、赤外LED22を点灯させた状態で、顔方向検出窓13を介して赤外検出処理装置27のセンサで結像させた場合の映像を示す図である。
図8Dの映像では、使用者の首や顎が明るくなっている。一方、図8Cと異なり、蛍光
灯205周辺の明るさなどは変わっていない。
灯205周辺の明るさなどは変わっていない。
図8Eは、図8C,図8Dの映像から演算された差分映像を示す図である。使用者の顔が浮かび上がっていることがわかる。
このように、全体制御CPU101(映像取得手段)は、赤外LED22の点灯時及び消灯時の夫々において赤外検出処理装置27のセンサで結像された映像の差を演算することで、使用者の顔が抽出された差分映像(以下、顔映像ともいう)を得る。
本実施例の顔方向検出部20は赤外線反射強度を赤外検出処理装置27で2次元画像として抽出することにより顔映像を取得する方式を採用している。赤外検出処理装置27のセンサは、一般的な撮像素子と同様の構造を採用しており、顔画像を1フレームずつ取得している。そのフレーム同期を取る垂直同期信号(以下、V信号という)は赤外検出処理装置27で生成され全体制御CPU101に出力される。
図9は、赤外LED22の点灯・消灯のタイミングを示したタイミングチャートである。
図9(a)は、赤外検出処理装置27でV信号が生成されるタイミングを示す。V信号がHiになることで、フレーム同期及び赤外LED22の点灯・消灯のタイミングが計られる。
図9(a)では、t1が1回目の顔画像取得期間、t2が2回目の顔画像取得期間を示している。図9(a),(b),(c),(d)は、その横軸の時間軸が同一となるように記載されている。
図9(b)は、赤外検出処理装置27のセンサから出力される像信号のH位置を縦軸で表す。像信号のH位置が、図9(b)に示すように、V信号と同期するよう、赤外検出処理装置27はそのセンサの動きを制御する。尚、赤外検出処理装置27のセンサは、上述した通り、一般的な撮像素子と同様の構造を採用しておりその動きは公知であるため詳細の制御については割愛する。
図9(c)は、全体制御CPU101から赤外LED点灯回路21に出力されるIR-ON信号のHi及びLowの切り替えタイミングを示す。IR-ON信号のHi及びLowの切り替えは、図9(c)に示すように、V信号と同期するよう、全体制御CPU101が制御する。具体的には、全体制御CPU101は、t1の期間中は、LowのIR-ON信号を赤外LED点灯回路21に出力し、t2の期間中は、HiのIR-ON信号を赤外LED点灯回路21に出力する。
ここで、IR-ON信号がHiの期間中は、赤外LED点灯回路21は赤外LED22を点灯し、赤外線23が使用者に投光される。一方、IR-ON信号がLowの期間中は、赤外LED点灯回路21は赤外LED22を消灯する。
図9(d)は、赤外検出処理装置27のセンサから全体制御CPU101に出力される撮像データである。縦方向が信号強度であり、反射光線25の受光量を示している。つまりt1の期間中は、赤外LED22は消灯しているので使用者の顔部分からの反射光線25は無い状態であり、図8Cの様な撮像データが得られる。一方、t2の期間中は、赤外LED22は点灯しているので、使用者の顔部分からは反射光線25がある状態であり、図8Dの様な撮像データが得られる。このため、図9(d)に示すように、t2の期間中の信号強度は、t1の期間中の信号強度と比べて使用者の顔部分からの反射光線25の分
だけ強度が上がる。
だけ強度が上がる。
図9(e)は、図9(d)のt1,t2の夫々の期間中の撮像データの差分を取ったものであり、図8Eの様な、使用者の顔からの反射光線25の成分のみが抽出された撮像データが得られる。
上述の図8C~図8E,図9を用いて説明した動作を含めた上での、ステップS200における顔方向検出処理を図7Cに示す。
まず、ステップS201で、赤外検出処理装置27から出力されたV信号が、t1の期間が開始したタイミングV1となったとき、ステップS202に進む。
ついでステップS202で、IR-ON信号をLowに設定し、赤外LED点灯回路21に出力する。これにより、赤外LED22は消灯する。
ステップS203で、t1の期間中において赤外検出処理装置27から出力された1フレーム分の撮像データを読み出し、そのデータをFrame1として一次メモリ103に一時保存する。
ステップS204で、赤外検出処理装置27から出力されたV信号が、t2の期間が開始したタイミングV2となったとき、ステップS203に進む。
ステップS205で、IR-ON信号をHiに設定し、赤外LED点灯回路21に出力する。これにより、赤外LED22は点灯する。
ステップS206で、t2の期間中において赤外検出処理装置27から出力された1フレーム分の撮像データを読み出し、そのデータをFrame2として一次メモリ103に一時保存する。
ステップS207で、IR-ON信号をLowに設定し、赤外LED点灯回路21に出力する。これにより赤外LED22は消灯する。
ステップS208で、一次メモリ103からFrame1及びFrame2を読み出し、Frame2からFrame1を引いた差分であり、図9(e)の使用者の反射光線25成分の光強度Fnを演算する(これは一般的には黒引きと呼ばれる処理にあたる)。
ステップS209で、光強度Fnより首元位置(首回転中心)を抽出する。
まず、全体制御CPU101(分割手段)は、光強度Fnを基に、顔映像を、図8Fを用いて説明する複数の距離エリアに分割する。
図8Fは、使用者の顔・首部の各部位について光量の分布をみるため、図8Eの差分映像の濃淡を、使用者の顔・首部に投光された赤外線23の反射光線25の光強度にスケールを合わせて調整した場合を示す図である。
図8F(ア)は、説明の簡単化のため、図8Eの顔映像における反射光線25の光強度の分布を領域分けしてグレーの段階で示した図である。使用者の首の中央部から顎先に抜ける方向に説明用にXf軸を取っている。
図8F(イ)は、横軸は図8F(ア)のXf軸上の光強度を示し、縦軸はXf軸を示す
。横軸は右方向に行くほど強い光強度を示している。
。横軸は右方向に行くほど強い光強度を示している。
図8F(ア)において、顔映像は、光強度に応じた6つの領域(距離エリア)211~216に分けられている。
領域211は、一番光強度が強い領域であり、グレーの段階として、白色で示されている。
領域212は、領域211より少しだけ光強度が落ちる領域であり、グレーの段階として、かなり明るいグレー色で示されている。
領域213は、領域212よりさらに光強度が落ちる領域であり、グレーの段階として、明るいグレー色で示されている。
領域214は、領域213よりさらに光強度が落ちる領域であり、グレーの段階として、中間のグレー色で示されている。
領域215は、領域214よりさらに光強度が落ちる領域であり、グレーの段階として、やや暗めのグレー色で示されている。
領域216は、最も光強度が弱い領域であり、グレーの段階としては、最も暗いグレーとなっている。領域216より上方向は光強度の無い黒色となっている。
この光強度について、以下、図10を用いて詳細に解説する。
図10は、使用者の顔の上下方向の動きを説明する図であり、使用者の左横方向より観察した状態を示す。
図10(a)は、使用者が正面を向いている様子を示す図である。使用者の鎖骨前方に撮影・検出部10がある。また、撮影・検出部10の上部にある顔方向検出窓13から、赤外LED22の赤外線23が使用者頭部の下部に照射されている。顔方向検出窓13から使用者の鎖骨上の首の付け根200までの距離をDn、顔方向検出窓13から顎の付け根202までの距離をDb、顔方向検出窓13から顎先203までの距離をDcとすると、Dn,Db,Dcの順に距離が遠くなっていることがわかる。光強度は距離の2乗に反比例するので、赤外線照射面24からの反射光線25が赤外検出処理装置27のセンサに結像された際の光強度は、首の付け根200、顎の付け根202、顎先203の順に弱くなる。また、顔方向検出窓13からの距離がDcよりさらに遠い位置にある、鼻を含む顔204については、その光強度はさらに暗くなることがわかる。すなわち、図10(a)のような場合、図8Fで示した光強度の分布となる映像が取得されることがわかる。
尚、使用者の顔方向が検出できれば顔方向検出部20の構成は、本実施例に示す構成に限定されない。例えば、赤外LED22(赤外線パターン照射手段)より赤外線パターンを照射するようにし、照射対象から反射された赤外線パターンを赤外検出処理装置27のセンサ(赤外線パターン検出手段)で検出するようにしてもよい。この場合、赤外検出処理装置27のセンサは、構造光センサであることが好ましい。また、赤外検出処理装置27のセンサを、赤外線23と反射光線25の位相比較を行うセンサ(赤外線位相比較手段)、例えば、Tofセンサとしてもよい。
次に、図8Gを用いて、図7CのステップS209における首元位置の抽出について説明する。
図8G(ア)は、図8Fに、図10(a)における使用者の身体の各部位を示す符号、及び首元位置と顎先位置を示す二重丸及び黒丸の符号を重ねた図である。
白色の領域211は、首の付け根200(図10(a))と対応しており、かなり明るいグレー色の領域212は、首前部201(図10(a))と対応しており、明るいグレー色の領域213は、顎の付け根202(図10(a))と対応している。また、中間のグレー色の領域214は、顎先203(図10(a))と対応しており、やや暗めのグレー色の領域215は、顔204(図10(a))の下部に位置する唇及びその周辺の顔下部と対応している。さらに、暗めのグレー色の領域216は、顔204(図10(a))の中央に位置する鼻及びその周辺の顔上部と対応している。
尚、図10(a)に示すように、Db,Dcの距離は、顔方向検出窓13から使用者の他の部位までの距離に比べると差が少ないので、明るいグレー色の領域213及び中間のグレー色の領域214における反射光強度の差も少ない。
一方、図10(a)に示すように、顔方向検出窓13から使用者の各部位までの距離のうち、Dnの距離は最も短い至近距離であるので、首の付け根200に対応する白色の領域211が一番反射強度の強い箇所となる。
よって、全体制御CPU101(設定手段)は、領域211が首の付け根200周辺であり、領域211の左右の中心で且つ撮影・検出部10に一番近い、図8G(ア)で二重丸で示す位置206を首回転中心の位置(以下、首元位置206という)に設定する。ここまでの処理が図7CのステップS209で行う内容である。
ついで、図8Gを用いて、図7CのステップS210の顎先位置の抽出について説明する。
図8G(ア)に示す、顔204の内の唇を含む顔下部に対応する領域215より明るい、中間のグレー色の領域214が顎先を含む領域である。図8G(イ)を見ればわかるように領域214と接する領域215で光強度は急激に落ちており、顔方向検出窓13からの距離変化が大きくなる。全体制御CPU101は、光強度の急激な落ち込みがある領域215の手前の領域214が顎先領域であると判別する。さらに、全体制御CPU101は、領域214の左右の中心で且つ首元位置206から一番遠い位置(図8G(ア)において黒丸で示す位置)を顎先位置207として算出(抽出)する。
たとえば顔が右方向を向いている時の変化を示しているのが図8H,図8Iである。
図8Hは、使用者の顔が右方向を向いている時に、図8Eと同様の方法で演算された差分映像を示す図である。図8Iは、図8Hに首稼働の中心位置である首元位置206と顎先位置207rを示す二重丸及び黒丸の符号を重ねた図である。
領域214は使用者が右を向いたので、撮影・検出部10側から見上げると左方向にある、図8Iに示す領域214rへと移動する。顔204の内の唇を含む顔下部に対応する領域215も、撮影・検出部10側から見上げると左方向にある領域215rへと移動する。
よって、全体制御CPU101は、光強度の急激な落ち込みがある215rの手前の領域214rを顎先領域と判別する。さらに、全体制御CPU101は、214rの左右の中心で且つ首元位置206から一番遠い位置(図8Iにおいて黒丸で示す位置)を顎先位
置207rとして算出(抽出)する。
置207rとして算出(抽出)する。
その後、全体制御CPU101は、図8G(ア)の顎先位置207から首元位置206を中心として右方向に、図8Iの顎先位置207rがどれだけ移動したかを示す移動角度θrを求める。図8Iに示すように、移動角度θrは、使用者の顔の左右方向の角度となる。
以上の方法で、ステップS210において、顔方向検出部20(3次元検出センサ)の赤外検出処理装置27で顎先位置と使用者の顔の左右方向の角度を検出する。
次に顔の上方向の検出について説明する。
図10(b)は、使用者が顔を水平方向に向けている様子を示す図であり、図10(c)は使用者が顔を水平方向より上部33°に向けている様子を示す図である。
図10(b)では、顔方向検出窓13から顎先203までの距離をFfhとし、図10(c)では、顔方向検出窓13から顎先203uまでの距離をFfuとしている。
図10(c)に示すように、顔とともに顎先203uも上に移動するため、FfuはFfhより距離が長くなっていることがわかる。
図8Jは、使用者が水平より33°上方に顔を向けている際に、顔方向検出窓13から見える使用者の映像を示す図である。図10(c)に示すように、使用者は上を向いているので、使用者の顎の下に位置する顔方向検出窓13からは唇や鼻を含む顔204は見えておらず、顎先203までが見えている。この時に使用者に赤外線23を照射したときの反射光線25の光強度の分布を、図8Kで示す。図8Kは、図8Eと同様の方法で演算された差分映像に、首元位置206と顎先位置207uを示す二重丸及び黒丸の符号を重ねた図である。
図8Kにおける光強度に応じた6つの領域211u~216uは、図8Fに示す領域と同じ光強度の領域に「u」を付けて示す領域である。使用者の顎先203の光強度は、図8Fでは中間のグレー色の領域214にあったが、図8Kではグレー側へとシフトし、やや暗めのグレー色の領域215uにあることがわかる。このように、図10(c)に示すように、FfuがFfhより距離が長い結果、使用者の顎先203の反射光線25の光強度は距離の2乗に反比例して弱まっていることが、赤外検出処理装置27で検出できる。
次に顔の下方向の検出について説明する。
図10(d)は、使用者が顔を水平方向より22°下方向に向けている様子を示す図である。
図10(d)では、顔方向検出窓13から顎先203dまでの距離をFfdとしている。
図10(d)に示すように、顔とともに顎先203dも下に移動するため、FfdはFfhより距離が短くなり、顎先203の反射光線25の光強度は強くなることがわかる。
図7Cに戻り、ステップS211では、全体制御CPU101(距離算出手段)は、顔方向検出部20(3次元検出センサ)の赤外検出処理装置27で検出された顎先位置の光強度より、顎先位置から顔方向検出窓13までの距離を算出する。これに基づき、顔の上
下方向の角度も算出する。
下方向の角度も算出する。
ステップS212では、ステップS210,S211で夫々取得した顔の左右方向(第1の検出方向)及びこれと垂直な上下方向(第2の検出方向)の角度を、3次元からなる使用者の観察方向viとして一次メモリ103に保存する(iは任意の符号)。たとえば、使用者が正面中心部を観察していた場合の観察方向voは、左右方向θhが0°、上下方向θvが0°であるので、[0°,0°]というベクトル情報となる。また、使用者が右45°を観察していた場合の観察方向vrは、[45°,0°]というベクトル情報となる。
尚、ステップS211では、顔方向検出窓13からの距離を検出することで、顔の上下方向の角度を算出したが、この方法に限定されない。例えば、顎先203の光強度の変異レベルを比較することで、角度変化を算出しても良い。つまり図8G(イ)の顎の付け根202から顎先203の反射光強度の勾配CDhに対し、図8K(ウ)の顎の付け根202から顎先203の反射光強度の勾配CDuの勾配変化をもとに、顎部の角度変化を算出しても良い。
図7Dは、図7AのステップS300の記録方向・記録範囲決定処理のサブルーチンのフローチャートである。本処理の詳細を説明する前に、まず図11Aを用いて、本実施例における記録方向・記録範囲が決定される対象となる超広角映像について説明する。
本実施例のカメラ本体1では、撮影・検出部10周辺を撮影部40が超広角な撮像レンズ16を用いて超広角映像を撮像し、その一部を切り出すことによって観察方向の映像を得ることを達成している。
図11Aは、使用者が正面を向いている場合の、撮影部40により撮像された超広角映像における狙い視野125を示す図である。
図11Aに示すように、固体撮像素子42の撮像可能な画素領域121は、長方形の領域である。また、有効投影部122(所定領域)は、撮像レンズ16によって固体撮像素子42に魚眼投影される円形の半天球映像が表示される領域である。尚、画素領域121の中心及び有効投影部122の中心は一致するように撮像レンズ16は調整されている。
円形の有効投影部122の最外周がFOV(Field of view)角180°の位置を示している。使用者が水平垂直中心を見ている場合、撮像記録される領域である狙い視野125は有効投影部122の中心からの角度はその半分の角度の90°となる。尚、本実施例の撮像レンズ16は有効投影部122より外側の光線も導入でき、最大FOV角192°の程度までの光線を固体撮像素子42に魚眼投影できる。但し、有効投影部122を超えると極端に解像力がおちたり、光量がおちたり、歪が強まったりと、光学性能が大きく落ちる。よって、本実施例では、記録領域は有効投影部122に表示される半天球映像のうち画素領域121に投影された映像(以下、単に超広角映像という)内からのみ観察方向の映像を切り出す例で説明する。
尚、本実施例では有効投影部122の上下方向のサイズが画素領域121の短辺のサイズより大きい為、有効投影部122における上下端の映像は画素領域121を外れているがこれに限定されない。例えば、撮像レンズ16の構成を変更して有効投影部122の全てが画素領域121の領域内に収まるように設計してもよい。
無効画素領域123は、画素領域121のうち有効投影部122に含まれなかった画素領域である。
狙い視野125は、超広角画像から使用者の観察方向の映像を切り出す範囲を示す領域であり、観察方向を中心とする予め設定された左右上下の画角(ここでは45°、FOV角90°)により規定される。図11Aの例では、使用者は正面を向いているので、狙い視野125の中心は、有効投影部122の中心である観察方向voとなっている。
図11Aに示す超広角映像には、子供である被写体A131、被写体Aである子供が登ろうとしている階段である被写体B132、及び機関車の形の遊具である被写体C133が含まれる。
次に、上記図11Aを用いて説明した超広角映像から観察方向の映像を得るために実行されるステップS300における記録方向・範囲決定処理を図7Dに示す。以下、狙い視野125の具体例である図12A~図12Gを用いて本処理を説明する。
ステップS301で、事前に設定された画角設定値angを一次メモリ103から読み出すことで取得する。
本実施例では、画像切り出し・現像処理部50にて観察方向の映像を超広角画像から切り出すことが可能な全ての画角、45°、90°、110°、130°が画角設定値angとして内蔵不揮発性メモリ102に保存されている。また、ステップS103,S106,S108のいずれかのステップで、内蔵不揮発性メモリ102に保存されている画角設定値angの一つが設定され、一次メモリ103に保存されている。
また、ステップS301では、ステップS212で決まった観察方向viを記録方向に決定し、これを中心とする上記取得した画角設定値angで超広角画像から切り出された狙い視野125の映像を、一次メモリ103に保存する。
例えば、画角設定値angが90°であり、且つ顔方向検出処理(図7C)で観察方向vo(ベクトル情報[0°,0°])が検出された場合、有効投影部122の中心Oを中心とする左右45°、上下45°の範囲が狙い視野125(図11A)に設定される。つまり、全体制御CPU101(相対位置設定手段)は、顔方向検出部20で検出された顔方向の角度を、超広角映像に対する相対位置を示すベクトル情報である観察方向viに設定している。
ここで、観察方向voの場合は撮像レンズ16による光学歪の影響はほぼ無視できるため、設定された狙い視野125の形状がそのまま後述するステップS303の歪み変換後の狙い視野125o(図12A)の形状となる。以下、観察方向viの場合の、歪み変換後の狙い視野125を、狙い視野125iという。
次にステップS302で、事前に設定された防振レベルを一次メモリ103から読み出すことで取得する。
本実施例では、上述の通り、ステップS103,S106,S108のいずれかのステップで防振レベルが設定され、一次メモリ103に保存されている。
また、ステップS302では、上記取得した防振レベルを基に防振用予備画素量Pisを設定する。
防振処理では、撮影・検出部10のブレ量に追随して、ブレ方向と反対方向の映像に追随した映像を取得する。このため、本実施例では、狙い視野125iの周囲に防振に必要
な予備領域を設ける。
な予備領域を設ける。
また本実施例では、各防振レベルに紐づく防振予備画素数Pisの値を保持するテーブルが内蔵不揮発性メモリ102に格納されている。例えば、防振レベルが「中」だった場合、上記テーブルから読み出された防振予備画素数Pisである100画素の予備画素領域が予備領域として設定される。
図12Eは、図12Aで示す狙い視野125oの周囲に予備領域を付与した例を示す図である。ここでは、防振レベルが「中」、すなわち防振予備画素量Pisが100画素である場合について説明する。
図12Eに示すように、狙い視野125oに対し、上下左右に夫々防振予備画素量Pisである100画素の余裕(予備領域)をもたせた点線部が防振用予備画素枠126oとなる。
図12A、図12Eでは説明の簡単化のため、観察方向viが有効投影部122の中心O(撮像レンズ16の光軸中心)と一致する場合について説明した。しかし、以下のステップで説明するように、観察方向viが有効投影部122の周辺部である場合は、光学歪の影響を受けるので変換が必要である。
ステップS303では、ステップS301で設定された狙い視野125の形状を、観察方向vi及び撮像レンズ16の光学特性を考慮して補正(歪み変換)し、狙い視野125iを生成する。同様に、ステップS302で設定された防振用予備画素数Pisも、観察方向vi及び撮像レンズ16の光学特性を考慮して補正する。
たとえば、画角設定値angが90°で、使用者が中心oより右45°を観察しているとする。この場合、ステップS212で決まった観察方向viが観察方向vr(ベクトル情報[45°,0°])であり、観察方向vrを中心とする、左右45°、上下45°の範囲が狙い視野125となる。しかし、撮像レンズ16の光学特性を考慮し、狙い視野125は、図12Bに示す狙い視野125rに補正される。
図12Bに示すように、狙い視野125rは有効投影部122の周辺部に行くにつれ広くなっており、且つ観察方向vrの位置も狙い視野125rの中心よりやや内側に来ている。これは、本実施例では、撮像レンズ16に立体射影魚眼に近い光学設計をしているためである。尚、撮像レンズ16が、等距離射影魚眼や、等立体角射影魚眼、正射影魚眼などによる設計であるとその関係は変わってくるので、その光学特性にあわせた補正が狙い視野125に対して行われる。
図12Fは、図12Bで示す狙い視野125rの周囲に、図12Eの予備領域と同一防振レベル「中」の予備領域を付与した例を示す図である。
防振用予備画素枠126o(図12E)では、狙い視野125oの上下左右の夫々に防振予備画素数Pisである100画素の余裕が設定された。これに対し、防振用予備画素枠126r(図12F)は、有効投影部122の周辺部に行くにつれ、防振予備画素数Pisは補正されて増えている。
このように、狙い視野125rの形状と同様にその周囲に設けられた防振に必要な予備領域の形状も、図12Fの防振用予備画素枠126rに示すように、有効投影部122の周辺部に行くにつれその補正量が大きくなる。これも、本実施例では、撮像レンズ16に立体射影魚眼に近い光学設計をしているためである。尚、撮像レンズ16が、等距離射影
魚眼や、等立体角射影魚眼、正射影魚眼などによる設計であるとその関係は変わってくるので、その光学特性にあわせた補正が防振用予備画素枠126rに対して行われる。
魚眼や、等立体角射影魚眼、正射影魚眼などによる設計であるとその関係は変わってくるので、その光学特性にあわせた補正が防振用予備画素枠126rに対して行われる。
ステップS303で実行される、撮像レンズ16の光学特性を考慮して、狙い視野125及びその予備領域の形状を逐次切り替える処理は、複雑な処理となる。そのため、本実施例では、内蔵不揮発性メモリ102内にある、観察方向vi毎の狙い視野125i及びやその予備領域の形状が保持されるテーブルを用いてステップS303の処理は実行される。尚、先にあげた撮像レンズ16の光学設計によっては演算式を全体制御CPU101内に持っておき、その演算式によって光学歪値を算出しても良い。
ステップS304では、映像記録用枠の位置及びサイズを算出する。
上述の通り、ステップS303では、防振に必要な予備領域を狙い視野125iの周囲に設け、これを防振用予備画素枠126iとして算出した。しかし、観察方向viの位置により、例えば防振用予備画素枠126rの様にその形状がかなり特殊なものとなる。
全体制御CPU101は、このような特殊な形状の範囲だけの現像処理を行って映像を切り出すことは可能である。しかし、ステップS600で映像データとして記録したり、ステップS700で表示装置800に転送したりする際に、長方形ではない映像を用いることは一般的でない。そこでステップS304では、この防振用予備画素枠126iの全体を包含する、長方形形状の映像記録用枠127iの位置及びサイズを算出する。
図12Fでは、防振用予備画素枠126rに対してステップS304で算出された、一点鎖線で示す映像記録用枠127rを示す。
ステップS305では、ステップS304で算出された映像記録用枠127iの位置とサイズを一次メモリ103に記録する。
本実施例では、超広角映像における映像記録用枠127iの左上の座標Xi,Yiを、映像記録用枠127iの位置として記録し、座標Xi,Yiからの映像記録用枠127iの横幅WXi及び縦幅WYiを、映像記録用枠127iのサイズとして記録する。例えば、図12Fに示す映像記録用枠127rに対しては、図示される座標Xr,Yr、横幅WXr、及び縦幅WYrがステップS305で記録される。尚、座標Xi,Yiは、所定の基準点、具体的には撮像レンズ16の光学中心を原点とするXY座標である。
この様にして防振用予備画素枠126iや映像記録用枠127iが決まったところで、図7Dに示すステップS300のサブルーチンを抜ける。
尚、ここまでの説明では、複雑な光学歪変換の説明の簡単化のために観察方向viの例として、水平0°を含む観察方向、すなわち観察方向vo(ベクトル情報[0°,0°])や観察方向vr(ベクトル情報[45°,0°])を用いた説明を行った。しかし実際には、使用者の観察方向viは様々な方向となる。よって以下、そのような場合に実行される記録範囲現像処理について説明する。
例えば、画角設定値angが90°で観察方向vl[-42°,-40°]の場合の狙い視野125lは、図12Cのようになる。
また狙い視野125lと同じ観察方向vl(ベクトル情報[-42°,-40°])であっても、画角設定値angが45°であった場合、図12Dに示すように、狙い視野125lより一回り小さい狙い視野128lとなる。さらに狙い視野128lについては、
図12Gに示すような、防振用予備画素枠129l及び映像記録用枠130lが設定される。
図12Gに示すような、防振用予備画素枠129l及び映像記録用枠130lが設定される。
ステップS400は撮像の基本動作であり、撮影部40の一般的なシーケンスを用いるので、詳細は他の文献に譲りここでは説明を省略する。尚、本実施例では、撮影部40にある撮像信号処理回路43は、固体撮像素子42から出力された、固有の出力形態(規格の例:MIPI,SLVS)での信号を、一般的なセンサ読み出し方式の撮像データに修正する処理も行う。
尚、撮像モードスイッチ12で選択されているモードが動画モードの場合は、スタートスイッチ14の押下に応じて、撮影部40が録画を開始する。その後、ストップスイッチ15が押下されたとき、録画を終了する。一方、撮像モードスイッチ12で選択されているモードが静止画モードの場合は、スタートスイッチ14の押下がある毎に、撮影部40が静止画を撮像する。
図7Eは、図7AのステップS500の記録範囲現像処理のサブルーチンのフローチャートである。
ステップS501では、ステップS400において撮影部40で生成された撮像データ(超広角映像)の全領域のRawデータを取得し、全体制御CPU101の不図示のヘッド部と呼ばれる映像取り込み部に入力する。
次いでステップS502では、ステップS305で一次メモリ103に記録された座標Xi,Yi、横幅WXi及び縦幅WYiに基づき、ステップS501で取得した超広角映像から映像記録用枠127iの部分を切り出す。この切り出し後、防振用予備画素枠126i内の画素のみに対して、以下実行するステップS503~S508からなるクロップ現像処理(図7F)が開始する。これにより、ステップS501で読み込んだ超広角映像の全領域に対して現像処理を行う場合と比べて演算量を大幅に削減でき、演算時間や電力を削減することができる。
尚、図7Fに示すように、撮像モードスイッチ12で選択されているモードが動画モードである場合、ステップS200,S300の処理と、ステップS400の処理は、夫々同一又は異なるフレームレートで並列に実行される。つまり、撮影部40で生成された1フレーム分の全領域のRawデータが取得される毎に、その時点で一次メモリ103に記録されている座標Xi,Yi、横幅WXi及び縦幅WYiに基づきクロップ現像処理が行われる。
防振用予備画素枠126i内の画素に対するクロップ現像処理を開始すると、まず、ステップS503でベイヤ配列に配置された色画素情報を補完する色補完を行う。
その後、ステップS504でホワイトバランスの調整を行った後、ステップS505で色変換を行う。
ステップS506では、あらかじめ設定したガンマ補正値に従って階調を補正するガンマ補正を行う。
ステップS507では、画像サイズに合わせたエッジ強調を行う。
ステップS508では、圧縮その他の処理を行うことで一次保存可能なデータ形式に変換し、1次メモリ103に記録した後、本サブルーチンを抜ける。この一次保存可能なデ
ータ形式の詳細については後述する。
ータ形式の詳細については後述する。
尚、ステップS503~S508で実行されるクロップ現像処理の順序や処理の有無は、カメラシステムに合わせて行えばよく、本発明を制限するものではない。
また、動画モードが選択されている場合、ステップS200~S500までの処理は録画が終了されるまで繰り返し実行される。
本処理によれば、ステップS501で読み込んだ全領域の現像処理を行う場合と比べて演算量を大幅に削減することができる。このため、全体制御CPU101として安価で低消費電力なマイコンを使えるようになり、また、全体制御CPU101における発熱を抑えるとともに、バッテリー94の持ちもよくなる。
また、本実施例では、全体制御CPU101の制御負荷を軽くするため、映像の光学補正処理(図7AのステップS800)や防振処理(図7AのステップS900)はカメラ本体1では行わず、表示装置800に転送してから表示装置制御部801にて行う。そのため、投影された超広角映像から部分的に切り出した映像のデータだけを表示装置800に送ってしまうと、光学補正処理や防振処理を行うことができない。つまり、切り出した映像のデータだけでは、光学補正処理の際に式に代入したり、防振処理の際に補正テーブルより参照したりするために用いる位置情報が無い為、これらの処理を表示装置800において正しく実行できない。そのため、本実施例では、切り出した映像のデータだけでなく、その映像の超広角映像からの切り出し位置の情報等を含む補正データも共にカメラ本体1から表示装置800に送信する。
ここで切り出した映像が静止画映像である場合、静止画映像のデータと補正データを別途表示装置800に送信しても静止画映像のデータと補正データは1対1対応であるので、表示装置800において正しく光学補正処理や防振処理を行うことができる。一方、切り出した映像が動画映像である場合、動画映像のデータと補正データを別途表示装置800に送信すると、送信された補正データが、動画映像の各フレームに対するいずれの補正データであるかの判断が難しくなる。特に、カメラ本体1内の全体制御CPU101のクロックレートと、表示装置800内の表示装置制御部801のクロックレートが微妙に異なると数分の動画撮像で全体制御CPU101と表示装置制御部801の間の同期が取れなくなる。この結果、表示装置制御部801は、処理すべきフレームをそれに対応する補正データとは異なる補正データで補正してしまうなどの課題が生じる。
よって、本実施例では、カメラ本体1から表示装置800に切り出した動画映像のデータを送信するにあたり、動画映像のデータに対してその補正データを適切に付与する。以下、その方法について説明する。
図14は、図7AのステップS600の一次記録処理のサブルーチンのフローチャートである。本処理を、以下、図15を参照して説明する。図14では、撮像モードスイッチ12で選択されているモードが動画モードである場合の処理が示されている。尚、選択されているモードが静止画モードである場合は、本処理は、ステップS601の処理から始まり、ステップS606の処理が終わると終了する。
ステップS601aで、全体制御CPU101は記録範囲現像処理(図7E)で現像された動画映像からステップS601~S606までの処理が未処理である1つのフレームの画像を読み出す。また、全体制御CPU101(メタデータ生成手段)はその読み出したフレームのメタデータである補正データを生成する。
ステップS601では、全体制御CPU101はステップS600で読み出したフレームの画像の切り出し位置の情報を補正データに添付する。ここで添付される情報は、ステップS305で取得した映像記録用枠127iの座標Xi,Yiである。尚、ここで添付される情報を、観察方向Viを示すベクトル情報としてもよい。
ステップS602では、全体制御CPU101(光学補正値取得手段)は光学補正値を取得する。光学補正値はステップS303で設定された光学歪値である。あるいは、周辺光量補正値や回折補正といったレンズ光学特性に応じた補正値でもよい。
ステップS603では、全体制御CPU101はステップS602の歪み変換に用いた光学補正値を補正データに添付する。
ステップS604では、全体制御CPU101は防振モードであるか否かを判断する。具体的には、事前に設定された防振モードが「中」又は「強」だった場合、防振モードであると判断してステップS605に進む。一方、事前に設定された防振モードが「切」だった場合は防止モードでないと判断してステップS606に進む。尚、ここで防振モードが「切」だった場合にステップS605をスキップする理由は、スキップした分、全体制御CPU101の演算データ量や無線送信時のデータ量を削減でき、ひいては、カメラ本体1の電力削減や発熱低減もできるためである。尚、ここでは防振処理に用いるデータの削減について説明したが、ステップS602で取得した光学補正値に含まれる、周辺光量補正値や、解析補正の有無についてのデータ削減を行っても良い。
本実施例では防振モードは、表示装置800による使用者の操作により事前に設定されているが、カメラ本体1の初期設定として設定されていてもよい。また、表示装置800に転送後に防振処理の有無を切り替えるようなカメラシステムとした場合は、ステップS604を無くし、ステップS603から直接ステップS605に進む。
ステップS605では、全体制御CPU101(移動量検出手段)はステップS302で取得した防振モード、及び一次メモリ813にあるステップS600で読み出したフレームと紐づく動画撮像中のジャイロデータを補正データに添付する。
ステップS606では、ステップS600で読み出されたフレームの画像のデータと、ステップS601~S605により各種データが添付された補正データとをエンコードしたデータで、映像ファイル1000(図15)を更新する。尚、ステップS601aにおいて動画映像の最初のフレームの読み出しがされた場合については、ステップS606で映像ファイル1000が生成される。
ステップS607で、記録範囲現像処理(図7E)で現像された動画映像の全てのフレームの画像の読み出しが終了したか判別し、終了していない場合は、ステップS601aに戻る。一方、終了している場合は、本サブルーチンを抜ける。生成された映像ファイル1000は、内蔵不揮発性メモリ102に保存される。前述した1次メモリ813及び内蔵不揮発性メモリ102に保存されるだけでなく、大容量不揮発性メモリ51にも保存されるようにしてもよい。また、生成された映像ファイル1000をただちに表示装置800への転送処理(図7AのステップS700)し、表示装置800に転送後、その1次メモリ813に保存してもよい。
ここで、本実施例において、エンコードとは、映像データと補正データを合体させ1つのファイルにすることを指すが、この際、映像データを圧縮、あるいは映像データと補正データを合体させたものを圧縮してもよい。
図15は、映像ファイル1000のデータ構造を示す図である。
映像ファイル1000は、ヘッダ1001とフレーム1002で構成される。フレーム1002は、動画映像を構成する各フレームの画像とこれに対応するフレームメタがセットとなったフレームデータセットで構成されている。すなわち、フレーム1002には、動画映像の総フレーム分だけフレームデータセットが存在する。
本実施例では、フレームメタは、切り出し位置(映像内位置情報)、光学補正値及びジャイロデータが必要に応じて添付された補正データがエンコードされた情報であるがこれに限定されない。例えば、撮像モードスイッチ12で選択された撮像モードに応じてフレームメタに他の情報を添付したり、あるいは、フレームメタにある情報を削除したりするなどしてフレームメタの情報量を変更しても良い。
ヘッダ1001には、各フレームのフレームデータセットまでのオフセット値または先頭アドレスを記録しておく。あるいは、映像ファイル1000に対応した時刻やサイズといったメタデータを保存してもよい。
このように、一次記録処理(図14)では、表示装置800には、記録範囲現像処理(図7E)で現像された動画映像の各フレームとそのメタデータがセットとなった映像ファイル1000が転送される。よって、カメラ本体1の全体制御CPU101のクロックレートと、表示装置800の表示装置制御部801のクロックレートが微妙に異なる場合も、表示装置制御部801はカメラ本体1で現像された動画映像の補正処理を確実に実行できる。
尚、本実施例では、フレームメタに光学補正値が含まれたが、映像全体に対して光学補正値を付与するようにしてもよい。
図16は、図7AのステップS700の表示装置800への転送処理のサブルーチンのフローチャートである。図16では、撮像モードスイッチ12で選択されているモードが動画モードである場合の処理が示されている。尚、選択されているモードが静止画モードである場合は、本処理は、ステップS702の処理から始まる。
ステップS701では、撮影部40による動画映像の録画(ステップS400)が終了したか、また録画中である否かを判断する。ここで、動画映像が録画中(動画撮像中)である場合、フレーム毎の記録範囲現像処理(ステップS500)や、一次記録処理(ステップS600)での映像ファイル1000の更新(ステップS606)が順次行われている状態となる。無線転送は電力負荷が大きいため、録画中に並行して行うと、バッテリー94の電池容量を多く必要としたり発熱対策を別途行う必要があったりする。また、演算能力の観点で見ても、録画中に並行して無線転送を行うと演算負荷が大きくなるため、高スペックの全体制御CPU101を準備する必要があり、コストとしても大きくなってしまう。本実施例ではこれらを鑑み、動画映像の録画の終了を待ってから(ステップS701でYES)、ステップS702へ進み、表示装置800との接続を確立する。ただし、本実施例のカメラシステムが、バッテリー94から供給される電力に余裕があり且つ別途の発熱対策は不要であれば、カメラ本体1の起動時や録画を開始する前などであらかじめ表示装置800と接続をしてもよい。
ステップS702では、データ量の多い映像ファイル1000を表示装置800に転送するため、高速無線ユニット72を介して表示装置800との接続を確立する。尚、小電力無線ユニット71は、表示装置800への画角確認のための低解像度映像(あるいは映像)の転送や、表示装置800との間での各種設定値の送受信に利用するが、伝送に時間
を要してしまうため映像ファイル1000の転送には利用しない。
を要してしまうため映像ファイル1000の転送には利用しない。
ステップS703では、高速無線ユニット72を介して映像ファイル1000を表示装置800へ転送し、転送が終了した時点で、ステップS704に進み、表示装置800との接続を閉じた後、本サブルーチンを抜ける。
ここまでは1つの動画映像の全フレームの画像を含む1つの映像ファイルを転送する場合を説明したが、数分にわたる長時間の動画映像の場合は、時間単位で区切った複数の映像ファイルとしても良い。図15に示すデータ構造の映像ファイルであれば、1つの動画映像を複数の映像ファイルとして表示装置800に転送しても、表示装置800において補正データとのタイミングズレなく動画映像を補正することが可能となる。
図17は、図7AのステップS800の光学補正処理のサブルーチンのフローチャートである。本処理を、以下、図18を参照して説明する。尚、上述の通り、本処理は、表示装置800の表示装置制御部801が実行する処理である。
ステップS801では、まず表示装置制御部801(映像ファイル受信手段)は、表示装置800への転送処理(ステップS700)にて転送されたカメラ本体1からの映像ファイル1000を受信する。その後、表示装置制御部801(第1の抽出手段)は、受信した映像ファイル1000から抽出した光学補正値を取得する。
続いてステップS802では、表示装置制御部801(第2の抽出手段)は、映像ファイル1000から映像(動画撮像で得られた1つのフレームの画像)を取得する。
ステップS803では、表示装置制御部801(フレーム映像補正手段)は、ステップS801で取得した光学補正値によりステップS802で取得した映像の光学補正を行い、補正した映像を1次メモリ813に保存する。光学補正を行う際、ステップS802で取得した映像からの切り出しを行う場合、ステップS303で決定した現像範囲(狙い視野125i)よりも狭い画像の範囲で切り出して処理を行う(切り出し現像領域)。
図18は、図17のステップS803において歪曲収差補正を実施した場合を説明するための図である。
図18(a)は、使用者が撮像時に肉眼でみた被写体1401の位置を示す図であり、図18(b)は、被写体1401が固体撮像素子42上に映った像を示す図である。
図18(c)は、図18(b)の像における現像領域1402を示す図である。ここで、現像領域1402は先ほど説明した切り出し現像領域のことである。
図18(d)は、現像領域1402の像が切り出された、切り出し現像領域を示す図であり、図18(e)は、図18(d)の切り出し現像領域を歪曲補正した映像を示す図である。切り出し現像映像の歪曲補正時に切り出し処理を行うので、図18(e)に示す映像は、図18(d)に示す切り出し現像領域よりさらに画角は小さくなる。
図19は、図7AのステップS900の防振処理のサブルーチンのフローチャートである。本処理を、以下、図25を参照して説明する。尚、上述の通り、本処理は、表示装置800の表示装置制御部801が実行する処理である。
ステップS901では、映像ファイル1000のフレームメタから、現フレーム及び前フレームのジャイロデータと、前フレームに対して後述のステップS902で算出された
ブレ量Vn-1 Detを取得する。その後、これらの情報からおおよそのブレ量Vn Pr
eを算出する。尚、本実施例において、現フレームとは、現在処理中のフレームであり、前フレームとは現フレームの1フレーム前のフレームである。
ブレ量Vn-1 Detを取得する。その後、これらの情報からおおよそのブレ量Vn Pr
eを算出する。尚、本実施例において、現フレームとは、現在処理中のフレームであり、前フレームとは現フレームの1フレーム前のフレームである。
ステップS902では、映像から詳細なブレ量Vn
Detをもとめる。ブレ量の検出は、現フレームの画像の特徴点が前フレームからどの程度移動したかを計算することで行う。
特徴点の抽出は既知の方法が採用できる。例えば、フレームの画像の輝度情報のみを抽出した輝度情報画像を生成し、それを1乃至数ピクセルずらした画像をもとの画像から減算してその絶対値が閾値以上の画素を特徴点として抽出してもよい。また上記輝度情報画像にハイパスフィルターをかけた画像を、もとの輝度情報画像から減算し抽出されたエッジを特徴点として抽出してもよい。
現フレームと前フレームの輝度情報画像を1乃至数ピクセルずつずらしながら複数回差分を計算し、特徴点の画素での差分が少なくなる位置を計算することで移動量が算出される。
特徴点は後述するように複数点が必要となるため、現フレーム及び前フレームの夫々の画像を複数のブロックに分割して特徴点の抽出を行なうことが好ましい。ブロック分割は画像のピクセル数やアスペクト比にもよるが、一般的には4×3の12ブロック乃至は96×64ブロックが好ましい。ブロック数が少ないとカメラ本体1の撮影部40のあおりによる台形や光軸方向の回転などの補正が正確にできなくなるが、ブロック数が多すぎると1ブロックのサイズが小さくなり、特徴点が近くなるため誤差を含むようになるためである。このようなことから画素数や特徴点の見つけやすさ、被写体の画角などによって適宜最適なブロック数が選択される。
移動量の算出には、現フレームと前フレームの輝度情報画像を1乃至数ピクセルずつずらして複数回の差分計算を行う必要があるため計算量が多くなる。そこで実際の移動量はブレ量Vn
Preから何ピクセルだけずれているかを算出すべく、その近傍のみの差分計算を行うことで大幅に計算量を減らすことが可能である。
次にステップS903では、ステップS902で取得した詳細なブレ量Vn
Detを用いて防振補正を行った後、本サブルーチンを抜ける。
尚、防振処理の方法としては、回転や平行移動が可能なユークリッド変換、それらが可能なアフィン変換、さらに台形補正が可能な射影変換などが従来より知られている。
X軸、Y軸への移動や回転の場合はユークリッド変換で可能であるが、実際にカメラ本体1の撮影部40で撮像した場合に生じるブレは前後方向やパン・チルト方向の手振れなどもある。よって、本実施例では拡大、スキューなども補正可能なアフィン変換を用いて防振補正を行う。アフィン変換では、基準となる特徴点の座標(x,y)が座標(x’,y’)に移動する場合、以下の式100で表わされる。
図18(f)は、図18(e)に示す歪曲補正をした映像に対してステップS903の防振補正をした映像を示す図である。防振補正時に切り出し処理を行うので、図18(f)に示す映像は、図18(e)に示す映像より画角は小さくなる。
このような防振処理を行うことで、ブレを補正した品位のある映像を得ることが可能である。
以上、本実施例のカメラシステムに含まれるカメラ本体1及び表示装置800で実行される一連の動作を説明した。
使用者が電源スイッチ11をONとした後に撮像モードスイッチ12で動画モードを選択し、顔を上下左右の方向を向かずにただ正面を観察していると、まず顔方向検出部20が観察方向vo(ベクトル情報[0°,0°])(図12A)を検出する。その後、記録方向・画角決定部30が、固体撮像素子42に投影される超広角映像から図12Aに示す狙い視野125oの映像(図11B)を切り出す。
その後、使用者がカメラ本体1を操作することなく、例えば、図11Aの子供(被写体A131)の観察を開始すると、まず顔方向検出部20が観察方向vl(ベクトル情報[-42°,-40°])(図11C)を検出する。その後、記録方向・画角決定部30が、撮影部40で撮像された超広角映像から狙い視野125lの映像(図11C)を切り出す。
このように観察方向に応じて様々な形状に切り出された映像に対する光学補正処理及び防振処理が、ステップS800,S900で表示装置800において行われる。これにより、カメラ本体1の全体制御CPU101が低スペックでも、大きな歪みがある、例えば狙い視野125l(図11C)の映像を切り出した場合も、図11Dの様に子供(被写体A131)を中心とした歪や揺れの補正された映像とすることができる。すなわち使用者は、電源スイッチ11をONとし撮像モードスイッチ12でモード選択をする以外には、カメラ本体1に触れなくとも、自身の観察方向が撮像された映像を得ることができる。
ここでプリ設定モードについて説明する。上述の通り、カメラ本体1は小型のウェアラブルデバイスのため、その詳細設定を変更するための操作スイッチや設定画面等はカメラ本体1には設けられていない。このため、表示装置800のような外部機器(本実施例では表示装置800の設定画面(図13))でカメラ本体1の詳細設定の変更は行われる。
たとえば同じ動画撮像でも、90°の画角と45°の画角とで続けて撮像したい場合を考えてみる。通常の動画モードでは90°の画角が設定されているため、このような撮像を行う場合、まず通常の動画モードでの撮像後、動画撮像を一度終了し、表示装置800をカメラ本体1の設定画面に変えて、画角を45°に切り替える操作が必要となる。しかし、連続した撮像中であると、表示装置800に対するかかる操作は煩わしいし、録りたい映像を撮り逃すこともある。
一方、プリ設定モードを、画角45°で動画撮像するモードに事前設定しておけば、画
角90°での動画撮像が終わった後、撮像モードスイッチ12を「Pri」にスライドするだけで、画角45°のズームアップした動画撮像に即座に変更できる。すなわち、使用者は、現在の撮像行為を中断し、上述の煩わしい操作を行う必要がなくなる。
角90°での動画撮像が終わった後、撮像モードスイッチ12を「Pri」にスライドするだけで、画角45°のズームアップした動画撮像に即座に変更できる。すなわち、使用者は、現在の撮像行為を中断し、上述の煩わしい操作を行う必要がなくなる。
プリ設定モードで設定する内容としては、画角の変更だけでなく、「強」「中」「切」などで指定される防振レベルや、本実施例では説明しない音声認識の設定変更なども含めてもよい。
たとえば先の撮像の状況で使用者が子供(被写体A131)の観察を継続したまま撮像モードスイッチ12で動画モードからプリ設定モードに切り替えると、画角設定値angが90°から45°に変更される。この場合、記録方向・画角決定部30は、撮影部40で撮像された超広角映像から図11Eに示す点線枠で示す狙い視野128lの映像を切り出す。
プリ設定モードにおいても光学補正処理及び防振処理は、ステップS800,S900で表示装置800において行われる。これにより、カメラ本体1の全体制御CPU101が低スペックでも、図11Fの様に子供(被写体A131)を中心にズームされた歪や揺れの補正された映像を得ることができる。動画モードで画角設定値angが90°から45°に変更する例で説明したが、静止画モードでも同様である。また、動画の画角設定値angが90°であり、静止画の画角設定値angが45°の場合も同様である。
このように、使用者は、カメラ本体1に対する撮像モードスイッチ12でのモード切り替えのみで、自身の観察方向が撮像されたズーム映像を得ることができる。
尚、本実施例では、カメラ本体1において顔方向検出部20と撮影部40とが一体的に構成される場合について説明したが、顔方向検出部20が使用者の頭部以外の身体上に装着され、撮影部40が使用者の身体上に装着されていればこれに限定されない。例えば、本実施例の撮影・検出部10を肩上や腹部に設置することも可能である。ただし、肩上の場合、右肩の上に撮影部40を設置すると、左側の被写体は頭部に遮られることが考えられるため、左肩なども含めた複数の撮影手段を設置して補う構成が好ましい。また、腹部の場合、撮影部40と頭部との間に空間的に視差が発生するため実施例3にあげるようなその視差を補正する観察方向の補正算出が行えることが望ましい。
(実施例2)
実施例2では、カメラ本体1を装着する使用者の個人差・調整差をキャリブレーションする方法について図20~図23を用いて詳細に説明する。
実施例2では、カメラ本体1を装着する使用者の個人差・調整差をキャリブレーションする方法について図20~図23を用いて詳細に説明する。
基本的に本実施例は、実施例1からの派生として説明を行う。このため、実施例2のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
カメラ本体1を装着する使用者は、その体格、カメラ本体1が取付けられる首部周辺の傾きや角度、装着時の襟に代表される衣服の状態、及びバンド部82L,82Rの調整残り等に代表される個人差や調整差がある。そのため、カメラ本体1の撮像レンズ16の光軸中心と、使用者が正面を向いている状態(以下、使用者の自然状態という)での視野中心は通常一致しない。使用者にとってはカメラ本体1の撮像レンズ16の光軸中心をそのまま映像を切り取る記録領域(狙い視野125)の中心とするのではなく、使用者の姿勢や動作における視野中心を記録領域の中心とすることが望ましい。
また、使用者の自然状態での視野中心だけでなく、使用者が上下左右斜めを含む各方向に首を向けた場合の視野中心、また首の可動領域にも個人差がある。そのため、顔方向検出部20が検出した顔方向(観察方向)と、その観察方向に応じて設定される狙い視野125の中心位置(以下、視野中心位置という)との関係性も個人差が生じる。従って、顔方向と視野中心位置を関連付けるキャリブレーション作業が必要となる。
通常、キャリブレーション動作は図7Aにおける準備動作処理(ステップS100)の一環として行われるのが望ましい。カメラ本体1の初回起動時にキャリブレーション動作を行うことが通常想定されるが、それ以外にも、キャリブレーション後一定時間が経過した場合や、カメラ本体1が前回キャリブレーション時から使用者に対して位置ずれを起こした場合に行っても良い。顔方向検出部20が使用者の顔を検出できなくなった場合にもキャリブレーション動作を行っても良い。また使用者がカメラ本体1を着脱したことを検知した場合、再度装着した場面でキャリブレーション動作を行っても良い。このように、カメラ本体1の適切な使用上必要だと判断したタイミングで適宜キャリブレーション動作が行われることが望ましい。
図20は、実施例2に係るキャリブレーション処理に用いられるキャリブレータ850の詳細を示す図である。本実施例においては、キャリブレータ850が表示装置800を兼ねている場合について説明を行う。
キャリブレータ850には、図7Dに示す表示装置800の構成要素であるボタンA802、表示部803、インカメラ805、顔センサ806、角速度センサ807に加えて、位置決め指標851、キャリブレーションボタン854が含まれている。尚、実施例1であったボタンB804は本実施例では使わないこと、また後述するようにキャリブレーションボタン854と置き換えることが可能なため、ここでは図示していない。
図20(a)は、位置決め指標851が表示部803に表示された特定のパターンである場合を、図20(b)では位置決め指標851にキャリブレータ850の外観を用いた場合を示している。この場合、後述する位置決め指標中心852はキャリブレータ850の外形の情報から算出する。
尚、位置決め指標851は、図20(a),(b)の例に限らず、例えば、キャリブレータ850とは別体であってもかまわない。大きさの計測を行いやすいこと、また使用者の顔方向位置を向けやすい形状であること、の条件を満たすものであれば、位置決め指標851は何であっても良い。例えば撮像レンズ16のレンズキャップ、カメラ本体1の充電ユニットであっても良い。いずれにせよキャリブレーション動作における基本的な考え方は同一のため、以下では主に図20(a)に示すキャリブレータ850を例に用いて説明を行う。
尚、実施例1でも記載したが、キャリブレータ850は、表示装置800に機能を兼ね備えても良い。また、キャリブレータ850も表示装置800と同様、専用の機器であっても良く、また他にも例えば一般的なスマートフォンや、タブレット端末であっても良い。
位置決め指標851は、キャリブレータ850の表示部803に表示される指標であり、位置決め指標の横幅L851aと位置決め指標の縦幅L851b、位置決め指標中心852を算出可能となっている図形である。後述するキャリブレーション処理において、使用者は位置決め指標851の中心部付近に顔方向を向けるため、位置決め指標851は視野中心に捉えやすい形状をしていることが望ましい。図20(a)においては、十字の中心に黒丸を配した円形で示したが、特にこの形状に限定されるものではない。他にも四角
や三角、星型の図形、また例えばキャラクターのイラストであっても良い。
や三角、星型の図形、また例えばキャラクターのイラストであっても良い。
位置決め指標851は、カメラ本体1の撮影部40で撮像される。撮像された映像に基づき、表示装置制御部801(位置算出手段・距離算出手段)が、撮影・検出部10とキャリブレータ850との距離、また画像範囲上に写る位置決め指標851の位置座標を演算する。本実施例ではキャリブレータ850と一体になった表示装置800でかかる演算が行われるが、キャリブレータ850または位置決め指標851が表示装置800と別体である場合、カメラ本体1側の全体制御CPU101でかかる演算が行われる。
角速度センサ807は、キャリブレータ850の動きを計測することが出来る。角速度センサ807の測定値に基づき、表示装置制御部801は、後述するキャリブレータ850の位置や姿勢を示す移動情報を算出する。
キャリブレーションボタン854は、後述するキャリブレーション処理において、使用者が位置決め指標851の中心部付近に顔方向を向けた際に押下するボタンである。図20(a)では、キャリブレーションボタン854は、タッチパネル式の表示部803に表示されたタッチボタンであるが、ボタンA802やボタンB804がキャリブレーションボタン854として機能するようにしても良い。
次に、実施例1で説明した、使用者の顔方向に応じて撮影部40で撮像された超広角画像から映像を切り出してその映像の画像処理を行う際に実行される、キャリブレーション処理について、図21のフローチャートを用いて詳細に説明する。
図21は、カメラ本体1(第1のキャリブレーション手段)及びキャリブレータ850において実行される、本実施例に係るキャリブレーション処理のフローチャートである。
説明の補助として、図21では、使用者の操作をカメラ本体1やキャリブレータ850を受け付けるステップについては、動作主体を使用者とする枠に入れている。また、図21では、上記使用者の操作を受けてキャリブレータ850の表示装置制御部801が実行するステップについては、動作主体をキャリブレータ850とする枠に入れている。同様に、図21では、上記使用者の操作を受けてカメラ本体1の全体制御CPU101が実行するステップについては、動作主体をカメラ本体1とする枠に入れている。
具体的には、図21のステップS3104,ステップS3108は、カメラ本体1が動作主体であり、ステップS3101,S3105,S3106は、使用者が動作主体である。また、ステップS3102,S3103,S3107,S3110はキャリブレータ850が動作主体である。
本処理が開始すると、まずステップS3101では、使用者は、キャリブレータ850の電源がONでない場合は、ボタンA802を操作してキャリブレータ850の電源をONにする。同様に、カメラ本体1の電源がONでない場合は電源スイッチ11をONに切り替えてカメラ本体1の電源をONにする。その後、使用者はキャリブレータ850とカメラ本体1との間の接続を確立させる。この接続が確立すると、表示装置制御部801及び全体制御CPU101は夫々、キャリブレーションモードに入る。
またステップS3101において、使用者は、カメラ本体1を装着し、バンド部82L,82Rの長さやカメラ本体1の角度等の調整を行って、好適な位置にカメラ本体1を配置して撮影・検出部10が撮像可能な状態にする。
ステップS3102では、表示装置制御部801(第1の表示手段)は、位置決め指標
851を表示部803に表示する。
851を表示部803に表示する。
次に、ステップS3103では、表示装置制御部801は、指示表示855において使用者にキャリブレータ850のかざすべき位置(各指定位置)を指示する。本実施例では、正面、右上、右下、左上、左下の5か所を順に指定位置として指示する。但し、キャリブレーションが可能であれば指定位置はこれに限定されない。
ステップS3104では、全体制御CPU101は、撮影部40を起動させて撮像可能状態とし、また顔方向検出部20を起動して使用者の顔方向を検出可能な状態にする。
ステップS3105では、使用者は、ステップS3103で指示された指定位置にキャリブレータ850をかざす。
次に、ステップS3106では、使用者は、キャリブレータ850の位置を指定位置に維持したまま、顔を位置決め指標851の方向に向け、使用者の視野中心を位置決め指標851に置く。
ステップS3107では、表示装置制御部801(第2の表示手段)は、指示表示855において使用者に指定位置のキャリブレーションを開始する旨通知すると共に、キャリブレーションボタン854を表示する。尚、ステップS3107の処理は、表示装置制御部801が、使用者が位置決め指標851の位置決め指標中心852を視野正面で見たと判定したときに実行される。
ステップS3107aでは、使用者がキャリブレーションボタン854を押下すると、表示装置制御部801は、キャリブレーション指示をカメラ本体1に送信する。
ステップS3108では、全体制御CPU101(取得・検出手段)は、キャリブレータ850からのキャリブレーション指示に応じて、撮影部40での撮像で位置決め指標851が映りこむ超広角画像を取得すると共に、顔方向検出部20で顔方向を検出する。その後、全体制御CPU101(生成手段)は、ここで取得した超広角画像における位置決め指標中心852の位置座標情報を算出し、算出された位置座標情報とここで検出された顔方向との関係を示す情報を生成する。
ステップS3103~S3108の処理の詳細を、以下、図22A~図22Fを用いて説明する。
図22A~図22Fは、使用者の正面方向についてのキャリブレーション動作について説明するための図である。これにより、使用者の自然状態での視野中心位置と、カメラ本体1の撮影部40が捉えた映像のうち狙い視野125の中心位置とを一致させる。
図22Aは、使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3103において、キャリブレータ850の表示部803に表示される画面を示す図である。
図22Aに示すように、キャリブレータ850の表示部803には、位置決め指標851と、使用者が位置決め指標851をどこに置けばよいかを示す指示表示855が表示されている。
指示表示855には顔を正面に向けた際の視野中心に位置決め指標851を配置するよう文字での指示を記載している。尚、指示表示855において表示される指示は、文字で
の指示に限ったものではなく、例えばイラストや写真、動画といった他の方法での指示であってもかまわない。
の指示に限ったものではなく、例えばイラストや写真、動画といった他の方法での指示であってもかまわない。
また、いわゆる一般的なチュートリアルのような、指示表示855を表示し、その後に位置決め指標851を表示するようにしても良い。
図22Bは、使用者が、図22Aにおける指示表示に示された指示に従ってキャリブレータを前方にかざしている様子を示す斜視図である。
使用者が、図22Aにおける指示表示855に示された指示に従ってキャリブレータ850を前方にかざし、位置決め指標851が顔の正面に向けた際の視野中心になるようキャリブレータ850を配置する(ステップS3105,S3106)。その後、使用者は、キャリブレーションボタン854(図22A)を押下する。このキャリブレーションボタン854の押下に応じて、ステップS3107の判定が行われる。この判定方法の具体的な手順については後述する。
その後、使用者は、図22Aに示す指示表示855が「正面方向のキャリブレーションを開始します」という通知に変更したことを確認後、キャリブレーションボタン854を押下する(ステップS3107a)。
このキャリブレーションボタン854の押下に応じて、ステップS3108で撮影部40が撮影映像を取得する。
図22Cは、図22Bの状態において撮像レンズ16が捉えた超広角画像の全体を示す模式図であり、図22Dは、図22Cに示す超広角画像の収差を補正した画像を示す模式図である。
一方、図22Bの状態での使用者によるキャリブレーションボタン854の押下に応じてステップS3108で顔方向検出部20が顔方向を取得する。
図22Eは、使用者の正面方向についてのキャリブレーション動作時に、図21のステップS3108において顔方向検出部20が記録した顔方向画像を示す模式図である。
実施例1で図8G~図8Kを用いて先述したとおり、顔方向検出部20は、顎先位置207,207r,207u等と首元位置206との距離及び角度を用いて顔の左右上下方向の角度を算出する。しかし、顎先位置207,207r,207u等と首元位置206の距離及び角度値もまた画像中心と同様に、上述した使用者の体格等に表されるような個人差や調整差があるため一定しない。そのため、本実施例では、キャリブレーションボタン854が押下された時点での顎先位置と首元位置206との関係を使用者が正面を視野中心としたときの値として定義する。これにより、個人差や調整差に依らず使用者の顔方向を正確に算出するための情報として利用することが可能となる。
図21に戻り、ステップS3109では、全体制御CPU101は、正面方向のキャリブレーションの準備が完了したか否かを判断する。すなわち、顎先位置207、首元位置206及び位置決め指標中心852の算出に必要な情報が取得できている否かの判定を行う。
このとき、必要な情報が取得できていない場合、正面方向のキャリブレーションの準備は完了していないと判断し(ステップS3109でNO)、必要な情報のうち不足している情報を再度取得できるよう、ステップS3102からの動作を繰り返す。尚、必要な情
報が取得できていない場合については当然ステップS3102からのすべての動作を行う必要はなく、不足している情報を再度取得するために必要な動作のみを再度行っても良い。
報が取得できていない場合については当然ステップS3102からのすべての動作を行う必要はなく、不足している情報を再度取得するために必要な動作のみを再度行っても良い。
ここで、ステップS3107の判定は、キャリブレータ850に搭載された顔センサ806またはインカメラ805を用いて行う。以下、この判定方法の具体的な手順を、インカメラ805を用いて使用者の正面方向についてのキャリブレーション動作を行っている場合を例に説明を行う。尚、顔センサ806を使用した場合については、情報が二次元か三次元かの差異はあるものの、基本的な考え方は同一であるため省略する。但し、ステップS3107の判定で顔センサ806を使用する場合、顔センサ806から赤外線823が使用者に投光されている期間中は、カメラ本体1の顔方向検出部20は赤外線23を使用者に投光することによる顔検出は行わない。赤外線23,823が相互に干渉するのを防止するためである。
まず、使用者が、ステップS3106で図22Aのキャリブレーションボタン854を押下すると、表示装置制御部801は、インカメラ805(顔検知手段)で撮像を行い、使用者が写ったインカメラ映像858(図22F)を取得する。さらに、表示装置制御部801は、取得したインカメラ映像858から、使用者の首前部201、顎先203、及び鼻を含む顔204と、撮影・検出部10(撮影部40)の位置情報を検出する。
このインカメラ映像858で検出された各位置情報を用いて、使用者が位置決め指標851の位置決め指標中心852を視野正面で見ているかの判定を、表示装置制御部801(判定手段)が行う。
尚、この判定の結果、使用者が異なる方向を見ていると判定された場合、表示装置制御部801は、指示表示855に正しい情報取得が出来ない旨の情報を表示する。これにより、使用者に対しキャリブレーション動作を再度やり直すように指示することが出来る。
尚、表示装置制御部801は、インカメラ映像858を用いて、撮影・検出部10がある一定以上傾いている、顔方向検出窓13が塞がっているまたは汚れているといった、正しいキャリブレーション動作が出来ない状態であると判定可能な場合がある。このような場合も、表示装置制御部801は、指示表示855に正しい情報取得が出来ない旨の情報を表示するようにしてもよい。
さらには、このステップS3107で取得されるインカメラ映像858と、ステップS3108で取得される超広角画像を用いて、実施例5で後述する視差補正に必要な情報を取得することも可能である。
具体的には、ステップS3108で撮影部40により位置決め指標851が撮像される前に、表示装置800からカメラ本体1に予め位置決め指標851の大きさ(横幅L851a及び縦幅L851b)の情報を送信しておく。これにより、全体制御CPU101は、位置決め指標851の大きさの情報と、ステップS3108で取得された超広角画像に写る位置決め指標851の映像を用いて、撮影・検出部10と位置決め指標851との距離を算出可能となる。位置決め指標851はインカメラ805と同一筐体であるキャリブレータ850にあり、また図22Bではキャリブレータ850は使用者と略正対しているため、インカメラ805と撮影・検出部10も同一の距離であることが分かる。
同様に、ステップS3107aでインカメラ805により図22Fのインカメラ映像が撮像される前に、カメラ本体1から表示装置800に予め撮影・検出部10の大きさの情報を送信しておく。これにより、表示装置制御部801(垂直距離算出手段)は、撮影・
検出部10の大きさの情報と、図22Fのインカメラ映像858に写る撮影・検出部10の映像を用いて、撮像レンズ16の光軸中心と使用者の視点位置との垂直距離5070を推定可能となる。加えて、表示装置制御部801は、撮像レンズ16と使用者の顎先203との距離2071も推定可能となる。距離2071は顔方向検出窓13と顎先203との距離であっても良い。
検出部10の大きさの情報と、図22Fのインカメラ映像858に写る撮影・検出部10の映像を用いて、撮像レンズ16の光軸中心と使用者の視点位置との垂直距離5070を推定可能となる。加えて、表示装置制御部801は、撮像レンズ16と使用者の顎先203との距離2071も推定可能となる。距離2071は顔方向検出窓13と顎先203との距離であっても良い。
ここで、顔方向検出部20が使用者の首元位置206や顎先位置を算出するには、顔方向検出部20の設計狙いに応じて、使用者の顔が顔方向検出窓13からある一定以上の距離だけ離れている必要がある。従ってこの推定結果は顔方向検出部20が正しく顔方向を検出可能か判定する際の判定条件のひとつとすることが可能である。
図21に戻り、以上で記載した方法で、ステップS3109において、全体制御CPU101は、必要な情報が取得でき、正面方向のキャリブレーション準備が完了したと判断した場合、ステップS3110に進む。
ステップS3110では、表示装置制御部801(第一のキャリブレーション手段)が、個人差・調整差を吸収するように、切り出し中心位置をオフセットするために必要な情報を演算し、その情報に基づき切り出し中心位置をオフセットする。
ステップS3110における演算の具体的な説明は以下のとおりである。
使用者が設計値の通り理想状態であり、かつ理想的にカメラ本体1を装着しているならば、図22Cに示すステップS3108で取得された超広角画像の中心856と、その超広角画像に写る位置決め指標中心852の位置は略一致するはずである。しかし実際には、上述した使用者の体格等に表されるような個人差や調整差があるため、超広角画像における中心856及び位置決め指標中心852の位置は通常一致しない。
使用者にとっては、切り出し中心位置は、カメラ本体1の示す画像中心すなわち中心856ではなく、使用者の姿勢や動作における視野中心、すなわち超広角画像における位置決め指標中心852の位置であることが望ましい。
そのため、超広角画像における位置決め指標中心852と中心856とのずれ量857を計測し、切り出し中心位置をカメラ本体1における中心856ではなく位置決め指標中心852を基準とした値にオフセットする。また、その際の顔方向検出部20が検出した顔方向も同様の方法でオフセットする。
具体的なオフセット方法としては、図22Cのように超広角画像に対してずれ量857を計測し、これを左右方向のずれ量857aと上下方向のずれ量857bに分け、全画角の投影方法に従って適切な変換処理を行った後にオフセット量を決定すればよい。
また、図22Dに示すように、超広角画像に投影方法に従って適切な変換処理を行った後にオフセット量を決定しても良い。すなわち、変換後の超広角画像における中心856aと位置決め指標中心852aとのずれ量857a(図22Dにおいて不図示)を計測し、ずれ量857aを左右方向のずれ量857cと上下方向のずれ量857dに分けてオフセット量を決定しても良い。
図22C、図22Dのいずれに示すオフセット方法をとるかは、カメラシステムの処理負荷や目的を考慮して任意に決定することが可能である。
以上説明した正面方向のキャリブレーション動作を行うことで、個人差や調整差等に関
わらず、各使用者の装着時における顔方向と、超広角画像内でのその顔方向における視野中心、そして顔方向検出部20の顔方向とを適切に関連付けることが可能となる。
わらず、各使用者の装着時における顔方向と、超広角画像内でのその顔方向における視野中心、そして顔方向検出部20の顔方向とを適切に関連付けることが可能となる。
尚、ここまでは、正面、右上、右下、左上、左下の5方向のうち、正面方向のキャリブレーション動作について説明を行ったが、同様のキャリブレーション動作を右上、右下、左上、左下の4方向についても実行する必要がある。
よって、図21において、ステップS3110の処理が終了すると、ステップS3111に進む。
ステップS3111では、正面、右上、右下、左上、左下の5方向のうち、まだキャリブレーション動作が行われていない方向があると判定した場合、その1方向に、キャリブレーション動作を行う方向を変更し、ステップS3103に戻る。これにより、すでに終了した正面方向以外の、残りの方向について同様にキャリブレーション動作を繰り返す。
尚、図21においては不図示だが、ステップS3111において、キャリブレーション動作が行われていない方向がないと判定した場合は本処理をそのまま終了する。
図23A~図23Eは、使用者の右手上方向(超広角画像における右上方向)についてのキャリブレーション動作について説明するための図である。図23A~図23Eはそれぞれ図22A~図22Eに対応しており、基本的な動作も同じであるため、共通する説明は省略する。
ここで、図23Aに示すように、指示表示855には顔を右上に向けた際の視野中心に位置決め指標851を配置するよう文字での指示を記載している。
図23Bは、使用者が、図23Aにおける指示表示855に示された指示に従ってキャリブレータ850を右上にかざしている様子の斜視図を示す。
図23Cは、図23Bの状態において撮像レンズ16が捉えた超広角画像の全体を示す模式図である。
図23Cに示すように、具体的なオフセット方法としては、まず、超広角画像における中心856及び位置決め指標中心852の位置のずれ量857を計測する。その後、計測されたずれ量857を直径方向のずれ量857eと角度方向のずれ量857fに分け、全画角の投影方法に従って適切な変換処理を行った後にオフセット量を決定すればよい。
また他にも、図23Dに示すように、超広角画像に投影方法に従って適切な変換処理を行った後にオフセット量を決定しても良い。すなわち、変換後の超広角画像における中心856aと位置決め指標中心852aとのずれ量857a(図23Dにおいて不図示)を計測し、ずれ量857aを直径方向のずれ量857gと角度方向ずれ量857hに分けてオフセット量を決定しても良い。
尚、図22A~図22Eを用いて説明したオフセット量の決定では、ずれ量を上下―左右方向に分ける方法を用いた。これに対し、図23A~図23Dを用いて説明したオフセット量の決定では、ずれ量を直径―角度方向に分ける方法を用いたが、この方法の違いは説明の便宜上のものにすぎず、いずれの方法を用いても構わない。
また、このとき顔方向検出部20では、図23Eに示すように、使用者が右上方向を向いた時の顔方向を算出するのに必要な首元位置206及び顎先位置207ruが取得でき
ている。そのため、使用者の個人差・調整差にかかわらず、使用者が位置決め指標中心852の方向(この場合は右上方向)を見た際の顔方向を正しく測定することが出来る。
ている。そのため、使用者の個人差・調整差にかかわらず、使用者が位置決め指標中心852の方向(この場合は右上方向)を見た際の顔方向を正しく測定することが出来る。
以上のように、図21に示すキャリブレーション処理においては、正面方向だけでなく、右上、右下、左上、左下の各方向についてもキャリブレーション動作を行う。これにより、使用者が上下左右方向のいずれかの方向に首を振った場合に、使用者がどの方向を向いているかを顔方向検出部20は正しく測定することが可能となり、個人差や調整差によらずカメラ本体1を適切に使用することが出来る。
以上の記載では、簡単のため明示的に正面、右上、右下、左上、左下の5つの方向に対して繰り返しキャリブレーション動作を行う方法を説明した。
しかし、キャリブレーション動作はこの方法に限らない。例えば、使用者が、指示表示855に従ってZ字状、渦巻き状、多角形状等の形状に連続的にキャリブレータ850を移動させると同時に、キャリブレータ850に表示中の位置決め指標851を視野中心で捉え続ける方法を採っても良い。この方法では、表示装置制御部801は、この方法によりキャリブレータ850が移動している間、複数回キャリブレーション指示をカメラ本体1に送信する。全体制御CPU101は、キャリブレーション指示を受信する毎に顔方向検出部20で検出して顔方向と、撮影部40で撮像した超広角画像における位置決め指標中心852の位置座標情報を取得し、履歴情報として保持する。その後、全体制御CPU101は、取得した履歴情報から抽出した情報を組み合わせて、映像の切り出し中心位置と使用者の顔方向との関係性を算出する。さらには、この方法によるキャリブレータ850の移動中にキャリブレータ850側で取得されたインカメラ805や顔センサ806の情報を用いて、履歴情報から抽出される情報を、使用者が位置決め指標851を見ている状態の情報のみとしてもよい。これにより、例えば使用者がよそ見をしている状態の情報は、履歴情報から抽出されなくなるため、関係性の算出の精度を上げることが可能である。
また、表示装置制御部801は、キャリブレーション指示の際に角速度センサ807による測定値もカメラ本体1に送信するようにしてもよい。この場合、全体制御CPU101は、送信された角速度センサ807による測定値から、使用者によるキャリブレータ850の移動方法や、キャリブレータ850の位置や姿勢を示す移動情報を取得し、これも履歴情報として保持する。これにより、角速度センサ807による測定値に基づく移動情報、顔方向検出部20が検出した顔方向、及び撮影部40で撮像した超広角画像における位置決め指標中心852の位置座標情報から、キャリブレーション動作を簡易かつ正確に行うことが出来る。
ただしこの場合は、角速度センサ807による測定値に基づく移動情報と、位置決め指標851の位置座標情報に基づく移動情報が一致している必要がある。そのため、角速度センサ807による測定値を用いる場合は、カメラ本体1とキャリブレータ850の通信を同期させることが必要である。
以上、実施例2では、個人差や調整差があっても使用者の顔方向と超広角画像における狙い視野125の中心位置を関係づけるキャリブレーション方法を説明した。しかし、本発明は、実施例2で例示した各種形態に限定されるものではなく、その要旨の範囲内で種々の変形及び変更が可能である。
(実施例3)
実施例3では、二次記録された映像による映像酔いを防止する方法について図24~26を用いて説明する。
実施例3では、二次記録された映像による映像酔いを防止する方法について図24~26を用いて説明する。
基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例3のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
映像技術の進化により、実写と見まがうようなCGや迫力ある3次元映像を手軽に楽しめるようになった。
一方、このような3次元映像が、VRなどのダイナミックな動きのある映像や手ぶれの多い映像である場合、これを見たときに映像酔いが生じやすい。映像酔いは乗り物酔いのような症状を招くこともあり、その安全対策に関心が高まっている。
記録範囲現像処理(ステップS500)において使用者の顔が向いている方向の映像をそのまま切り出して現像するようにすると、撮影部40による撮像時(ステップS400)に使用者の顔が素早く動いた場合、映像シーンも速い速度で切り替わる。
撮影部40による撮像時に顔を素早く動かした使用者自身は酔わないが、ステップS1000で二次記録された、出来上がった映像にかかる映像シーンが含まれる場合、かかる映像を鑑賞する鑑賞者は映像酔いを起こす可能性がある。
顔が向いている方向を映像にする特許文献1,2にもこのような映像酔いに対する対策についての記載はない。
よって、本実施例では、撮影部40による撮像時に使用者が顔を素早く動かす場合であっても、出来上がった映像には速い速度で切り替わる映像シーンが含まれないよう制御し、鑑賞者が映像酔いを起こさないようにするカメラシステムを提供する。
尚、実施例3のカメラシステムの構成のうち、実施例1,2のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
図8H~図8Kや図10(b)~(d)を用いて説明した通り、使用者の顔は、撮影部40により撮像を行う際に上下左右方向に回転運動をする。
よって、以下、使用者の顔の動く方向と速さは角速度ωで表現し、その動いた距離は角度Θで表現する。
角速度ωは顔方向検出部20で検出された角度Θを検出間隔で除算することで算出する。
ここで、人が顔を素早く動かす動作には、振り返り、チラ見、動体観察などが挙げられる。
振り返りとは、例えば背後で大きな音が発生した場合に勢いよく振り返る動作である。
チラ見とは、何か視界に気になる変化が発生し、それを見たが、あまり関心がなかったので元の顔の位置に戻る動作である。
動体観察とは、例えば空を縦横無尽に飛び回る鳥や凧揚げなどを観察する動作である。
撮影部40による撮像時にこれらの動作が発生した場合、使用者の顔が向いている方向の映像をそのまま記録範囲現像処理で切り出して現像すると、上述した通り、出来上がった映像の鑑賞者が映像酔いを起こす可能性がある。
よって、全体制御CPU101は、閾値ω0以上となる角速度ωが所定時間以上(第1の所定時間以上)算出された場合、使用者が顔を素早く動かす動作(振り返り、チラ見、動体観察のいずれか)が発生したと判断する。さらに、全体制御CPU101は、発生した動作が図25を用いて後述する方法によりチラ見や動体観察ではないと判断した場合、その動作は振り返りであると判断する。この場合、全体制御CPU101は、使用者の顔が向いている方向の映像をそのまま記録範囲現像処理で切り出すのではなく、使用者の顔の動きに対して遅延して切り出す遅延切り出しを行う。
ここで、本実施例では、閾値ω0をπ/8 rad/sとする。これは、顔が正面0度から真横90度を4秒で動く速度である。しかしながら、閾値ω0はπ/8 rad/sに限定するものではない。例えば、フレームレートn fpsに基づき、閾値ω0を(n×π)/x rad/s(xは任意の値)などとしても良い。
角速度ωは、今回のフレームnの画像から取得された角度Θn及びその取得時刻tnと、前回のフレームn-1の画像から取得された角度Θn-1及びその取得時刻tn-1とから、角速度ωnを下記の式で求めることができる。
ωn=(Θn-Θn-1)/(tn-tn-1)
但し、角速度ωはωn-x~ωnの加算平均としてもよい。
ωn=(Θn-Θn-1)/(tn-tn-1)
但し、角速度ωはωn-x~ωnの加算平均としてもよい。
さらに、本実施例では、所定時間を0.2秒とするが、この値に限定するものではない。
以下、図24を用いて、使用者が振り返り中である場合の遅延切り出しについて説明する。
実施例1における図11及び図12の説明は撮像レンズ16の歪曲を考慮した説明であったが、本実施例では説明を簡単にするために撮像レンズ16の歪曲は考慮しない。また、実施例2のキャリブレーション処理がフレームの画像になされており、各フレームの画像の中心は、その画像の撮像時における使用者の視野中心と一致するとして説明する。また、顔が真横に向いた場合を説明するため、最大FOV角192°の程度までの光線が固体撮像素子42に投影される場合を例に説明する。
領域4000は、固体撮像素子42の撮像可能な画素領域を表す。
画像4001(図24(a))及び画像4022(図24(c))は、現在顔が向いている方向を狙い視野125として切り出したフレームfnの画像である。
画像4002(図24(a))及び画像4021(図24(c))は、前回顔が向いていた方向を狙い視野125として切り出したフレームfn-1の画像である。
距離4010(図24(a))は、フレームfn-1の画像4002の中心からフレームfnの画像4001の中心までの距離である。以下、フレームfn-1の画像の中心からフレームfnの画像の中心までの距離の値をdとする。
画像4003(図24(b))は、顔方向検出部20により検出された顔方向に基づく
顔の角速度ωが閾値ω0以上だった場合に、遅延切り出しフレームf’nの画像として領域4000に投影される映像から切り出される画像である。
顔の角速度ωが閾値ω0以上だった場合に、遅延切り出しフレームf’nの画像として領域4000に投影される映像から切り出される画像である。
距離4011は、フレームfn-1の画像4002の中心から遅延切り出しフレームf’nの画像4003の中心までの距離である。以下、フレームfn-1の画像の中心から遅延切り出しフレームf’nの画像の中心までの距離の値d’とする。
遅延距離4012は、フレームfnの画像4001の中心からフレームf’nの画像4003の中心までの距離であり、以下その値をd”とする。
この時、距離4010の値dと、距離4011の値d’を比較すると、d>d’となる。
次にd’の値の決め方の一例を図24(c)を用いて説明する。
ここでは、使用者が顔を正面(観察方向vo(ベクトル情報[0°,0°]))から右方向に真横90度に素早く動かした場合について説明する。この場合、顔が正面(観察方向vo(ベクトル情報[0°,0°]))に向くフレームfnがえられた後、短い時間経過後に、顔が正面から右方向に真横90°に向くフレームfn+xの画像4022が得られる。
映像酔いを防止するには、正面から右方向に真横90°にt秒(例えば4秒)以上かけて動かす必要があるとすると、映像のフレームレートがn fps(例えば30fps)である場合、d’=(fn+x-fn)/(n fps×t秒)となる。
一方、フレームfnからフレームf’nまでの距離d”が大きくなっていくと、顔が向いている方向を記録方向としていないので、フレームfnには使用者が見ていた被写体が映っていない可能性が出てくる。
そこで、遅延時間が所定時間Thdelay(第2の所定時間)以上になった場合は、遅延切り出しを中止し、現在顔が向いている方向の切り出しをする。
ここで遅延時間とは、遅延が発生し始めた時間t0(図26のステップS4211)と、顔が動き続けている現在時間tn(図26のステップS4213)の差である。
所定値Thdelayは、本実施例では1秒に設定されるが、これに限定されない。例えば、フレームレートn fpsを基にして、所定値Thdelayを20/n秒に設定しても良い。所定値Thdelayが20/n秒の場合、フレームレートが高いほど所定値Thdelayが短くなる。これは、フレームレートが高いほど映像酔いの可能性は低くなるため、短い遅延時間で現在顔が向いている方向の切り出し処理に戻しても構わないためである。
一方、遅延切り出しを中止し、現在顔が向いている方向の切り出しに戻すと、映像シーンは急に切り替わることになる。このような映像シーンの急な切り替えは使用者が不自然に感じるので、フェードアウト、フェードイン、またはその他の映像効果を取り入れても構わない。
また、現在顔が向いている方向の切り出しが再開できるよう、顔の軌跡を保持しておく。
ここで、保持される顔の軌跡について、図25(a)を用いて使用者がチラ見中であると判定された場合を例に説明する。
遅延切り出しを中止し、現在顔が向いている方向の切り出しに戻す処理は、前述した通り、遅延時間が所定値Thdelay以上となったと場合も実行されるが、チラ見中の場合、つまり顔が特定方向を見た後すぐに元の方向を向いた場合も実行される。
図25(a)は、使用者がチラ見中である場合の顔の軌跡の例を示す図である。
フレームfn-3の画像の中心である位置4101は、顔が動き始めたときの使用者の視野中心と一致する。その後、使用者の視野中心は、フレームfn-2,fn-1,fnの夫々の画像の中心である位置4102,4103,4104へと動く。以下、このような使用者の視野中心の動きを顔の動きベクトルという。
顔の動きベクトルは、その後、位置4104でしばらく留まった後、フレームfnx+1,fnx+2,fnx+3の夫々の画像の中心である位置4105,4106,4107へと動き、フレームfnx+3の画像の中心である位置4107で止まる。
すなわち、位置4101~4104の顔の動きベクトルと、位置4104~4107の顔の動きベクトルは逆となる。
全体制御CPU101は、図25(a)に例示するような、顔の動きベクトルが逆の方向で一致するフレーム群を検知した場合、そのフレーム群をチラ見中のフレーム群と判定する。
この場合、全体制御CPU101は、顔が動き始めた位置4101から顔の動きベクトルが逆に動き始めた位置4104までは遅延切り出しを行う。位置4104は、使用者がチラ見して見たいと考えた被写体が映っている位置と考えられるためである。
一方、位置4104まで遅延切り出しをした後は、現在顔が向いている方向の切り出し、すなわち、顔の動きが止まった位置4107における切り出しに戻す。
さらに、全体制御CPU101は、使用者の顔が動いている際に、顔方向の中央付近に存在する物体を検知し、その検知された物体が顔方向の中央に居続ける場合、使用者は動体観察中であると判断する。この場合、本実施例では遅延切り出しを行わない。
図25(b)は、使用者が動体観察中である場合の各フレームの画像の例を示す図である。
フレームfn-1の画像4121の中心である位置は、顔が動き始めたときの使用者の視野中心と一致する。その後、使用者の視野中心は、フレームfn,fn+1,fn+2,fn+3,fn+4の夫々の画像4122~4126の中心である位置に動く。
それぞれのフレームの画像4121~4126の中央付近に同じ被写体である鳥が存在し続ける。
全体制御CPU101は、図25(b)に例示するような、画像の中央付近に同じ被写体が存在する連続するフレーム群を検知した場合、そのフレーム群を動体観察中のフレーム群と判定する。
この場合、全体制御CPU101は、遅延切り出しは行わない。動体観察の際に遅延切り出しを行うと被写体が映像に映っていない可能性が高くなるためである。
また、動体観察の際の使用者の速い顔の動きに応じて画像4121~4126が切り出された映像を鑑賞者が鑑賞すると映像酔いを引き起こす可能性がある。よって、全体制御CPU101は、動体観察中のフレーム群については、画像の切り出しを行わず、固体撮像素子42で撮像可能な画素領域の全体、つまり領域4000の画像を記録する。
尚、上述した閾値ω0、所定時間、所定値Thdelayは不感帯と呼ばれる幅を持たせてもよい。
次に図26のフローチャートを用いて、本実施例に係る映像酔い防止処理について説明する。尚、本処理は、撮影部40による動画撮像中にステップS400でのフレーム撮影が行われる毎に実行される。
ステップS4201では、全体制御CPU101は、今回のフレーム撮影のために実行された顔方向検出処理で一次メモリ103に記録された顔方向(観察方向)を取得する。
ステップS4202では、全体制御CPU101は、今回のフレーム撮影のために実行された記録方向・範囲決定処理で一次メモリ103に記録された映像記録用枠の位置及びサイズ(切り出し範囲)を取得する。
ステップS4203では、全体制御CPU101(演算手段)は、ステップS4201で取得した今回のフレーム撮影時の顔方向、一次メモリ103に保持されている前回のフレーム撮影時の顔方向、及びフレームレートに基づき、顔の角速度ωを算出する。その後、全体制御CPU101は、顔が閾値ω0以上の角速度ωで動き始めたか否かを判定する。具体的には、使用者の顔が閾値ω0以上の角速度ωで、所定時間(0.2秒)以上動いたときに顔が閾値ω0以上の角速度ωで動き始めたと判断する。動き始めたと判定された場合はステップS4204に進み、そうでないと判定された場合はステップS4201に戻る。すなわち、使用者の顔が閾値ω0以上の角速度ωで動いた場合であっても、その時間が所定時間未満(第1の所定時間未満)である場合は、ステップS4201に戻る。また、一次メモリ103に前回のフレーム撮影時の顔方向が保持されておらず、ステップS4203において顔の角速度の算出ができない場合も、ステップS4201に戻る。
ステップS4204では、全体制御CPU101は、ステップS4203で算出された顔の角速度ωに基づき、顔が所定角度以上、動いたか否かを判定する。動いたと判定された場合はステップS4206に進み、そうでないと判定された場合はステップS4205に進む。尚、ステップS4204において、顔が、所定の角速度以上で(ステップS4203でYES)所定時間(0.2秒)以上、動いたか否かを判定してもよい。
ステップS4205では、全体制御CPU101は、ステップS4203で算出された顔の角速度ωに基づき、顔の動きが止まったか否かを判定する。止まったと判定された場合はステップS4201に戻り、そうでないと判定された場合はステップS4204に戻る。
ステップS4206では、全体制御CPU101は、撮像している被写体が動いているか(使用者が動体観察中か)否かを判定する。動いていると判定された場合はステップS4207に進み、そうでないと判定された場合はステップS4208に進む。
ステップS4207では、全体制御CPU101は、今回のフレームの記録範囲現像処
理では、クロップ現像処理は行わず、固体撮像素子42の全体から取得された全領域RAWデータの現像処理を行う旨決定し、ステップS4205に進む。
理では、クロップ現像処理は行わず、固体撮像素子42の全体から取得された全領域RAWデータの現像処理を行う旨決定し、ステップS4205に進む。
ステップS4208では、全体制御CPU101は、ステップS4201で取得した今回のフレーム撮影時の顔方向を前回のフレーム撮影時の顔方向として一次メモリ103に記憶し、ステップS4209に進む。
ステップS4209では、全体制御CPU101(遅延手段)は、今回のフレームの記録範囲現像処理では、前回のフレームの顔方向から距離dだけずれた位置を中心とする切り出し範囲についてクロップ現像処理を行う(遅延切り出しを行う)旨決定する。その後、ステップS4210に進む。
ステップS4210では、全体制御CPU101は、一次メモリ103に記憶されている遅延時間の開始時刻t0がクリアされているか否かを判定する。クリアされていると判定された場合はステップS4211に進み、そうでないと判定された場合はステップS4212に進む。
ステップS4211では、全体制御CPU101は、現在時刻を一次メモリ103に開始時刻t0として記憶し、ステップS4212に進む。
ステップS4212では、全体制御CPU101は、ステップS4203で算出された顔の角速度ωに基づき、遅延時間が所定値Thdelayを経過する前の段階で顔の動きが止まったか否かを判定する。止まったと判定された場合はステップS4215に進み、そうでないと判定された場合は、ステップS4213に進む。
ステップS4213では、全体制御CPU101は、現在時刻を一次メモリ103に時刻tnとして記憶し、ステップS4214に進む。
ステップS4214では、全体制御CPU101は、一次メモリ103に記憶された時刻tnと開始時刻t0の差分である遅延時間を計算し、遅延時間が所定時間Thdelay以上であるか否かを判定する。所定時間Thdelay以上である場合はステップS4215に進み、そうでない場合はステップS4206に戻る。
ステップS4215では、全体制御CPU101は、一次メモリ103に記憶された開始時刻t0をクリアし、ステップS4216に進む。
ステップS4216では、全体制御CPU101は、顔方向検出部20により検出された顔方向に基づいて、記録方向・画角決定部30で記録方向と画角を決定し、ステップS4217に進む。
ステップS4217では、全体制御CPU101は、今回のフレームのメタデータのフラグを記録し、ステップS4201に戻る。ここでつけたメタデータのフラグは、実施例1のステップS1000で説明した二次記録の時に、上述したフェードイン・フェードアウトなどの映像効果(フェード効果)を付けるタイミングとして使用する。
以上、本実施例では、顔の角速度ωが閾値ω0以上になった場合、顔の向いている方向のフレームをそのまま切り出すのではなく、顔の動きに応じて切り出すので、映像酔いを軽減できる効果がある。
(実施例4)
実施例4では、使用者の顔の向きの移動速度に応じて映像の切り出し範囲を補正する方法について図27,図28を用いて説明する。
実施例4では、使用者の顔の向きの移動速度に応じて映像の切り出し範囲を補正する方法について図27,図28を用いて説明する。
基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例4のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
まず人が観察方向を変える動作について説明する。通常、人が視界の中心より外れた視界の端の方に関心ごとを見つけてそちらに観察方向を向ける場合、まず顔が動き、ある程度以上になると遅れて体が追従していく。
すなわち、このような場合、鎖骨前方にある撮影・検出部10(図10(a))上の撮像レンズ16の方向は、初動で顔のみが向きを変えているときには動かない。その後、使用者が体全体で向きを変えるようになった時に、カメラ本体1の撮像レンズ16の方向も動く。このような人体行動の特徴があることを踏まえて以下説明していく。
また顔方向検出部20で顔方向を検出する場合、検出誤差によるばらつきが生じる。かかるばらつきが含まれた顔方向の検出結果に基づき映像の切り出し位置を算出すると、ステップS1000で二次記録された動画には一般的な動画の手振れのようなブレが生じて見栄えが悪くなる。そこで細かい検出の揺れを補正するために顔方向の検出結果にローパスフィルタをかけて細かいばらつきを除去する。
また公道を歩いているときの左右確認など、一瞬の顔の移動にも追従して顔方向を検出すると、ステップS1000で二次記録された動画は映像酔いしやすい動画となってしまう。そのため本実施例では、1秒乃至は2秒程度の一瞬の顔の移動に追従して検出された顔方向の微動成分も除去(平滑化)する処理を行う。これにより、ステップS1000で二次記録された動画を見栄えの良い動画とすることができる。
次に、本実施例における切り出し範囲補正処理の概要を図27を用いて説明する。
図27に示す各グラフの横軸は時間を表し、縦軸は夫々、実際の観察中心(図27(a))、顔方向(図27(b),(c))、撮像レンズ16の方向(図27(d))、及び切り出し位置(図27(e),(f))の角度を表す。尚、縦軸は上方向が右方向を示している。
図27(a)は、実際の観察中心の移動を示すグラフである。尚、図27(a)の縦軸の角度は、顔方向検出部20で検出された顔方向を示す角度ではなく、地面などの固定位置(地面基準)からの使用者の顔位置を表している。すなわち、図27(a)のグラフは、最初は使用者は正面を向いているが1秒付近から右を向き始めていくことを示している。
図27(b)は、顔方向検出部20の検出結果(観察方向vi)を示すグラフである。図27(b)の検出結果を示す線がなめらかではないのは、上述した通り、検出結果には検出誤差によるばらつきがあるためである。従って、本実施例では、顔方向検出部20の検出結果にローパスフィルタをかける。
また、図27(b)においては検出されていないが、一瞬の顔の移動に追従して検出された顔方向も除去(平滑化)する処理を行う。
図27(c)は、図27(b)の顔方向検出部20の検出結果をローパスフィルタをかけて平滑化した場合を示すグラフである。図27(c)に示すように、図27(b)の検出結果を示す線は、ローパスフィルタをかけることでなめらかな線となる。しかしこのようなフィルタをかけることで、図27(c)では検出された顔方向の正面から右への移動が2秒付近から始まっており、図27(a)の場合とほぼ同時に係る移動が始まっている図27(b)よりも遅延(タイムラグ)が生じている。尚、図27(b),(c)の縦軸の角度は、図27(a)の地面基準とは異なり、撮像レンズ16の方向(カメラ本体1基準)からの角度である。
また図27(b)では、図27(a)と比べて4秒付近から傾きが緩やかになってきている。これは、図27(d)に示すように、4秒付近からカメラ本体1(撮像レンズ16の方向)が使用者の体と一緒に移動し始めたため、相対的に顔方向検出部20により検出された顔方向の移動速度が減速していることを意味している。
従って、従来は、ローパスフィルタをかけて平滑した顔方向検出結果(図27(c))に、カメラ本体の移動量(図27(d))を足し合わせた位置を、図27(e)に示す切り出し位置、すなわち、狙い視野125の中心となる観察方向として算出していた。しかし、従来の方法で切り出し位置を算出すると、クロップ位置は実際の観察中心の移動に追従しておらず、二次記録で出来上がった映像が、体の移動が開始された4.5秒付近からパンニングが急に加速したような映像となってしまう。
すなわち、実際の観察中心の移動に対する違和感をなくすには、図27(f)に示すようにパンニングが略一定となるよう切り出し位置(期待値)を算出することが好ましい。
そこで本実施例では、図27(e)のようにパンニングが急に加速したように見えないよう、切り出し位置を算出する。尚、図27のように切り出し位置の移動速度が0°/秒
と10°/秒の2種類の場合、図27(c)の顔方向検出結果に上記タイムラグ分だけ前
(本実施例では1秒前)の図27(d)のカメラ本体1の移動量を加算すれば、図27(f)の期待値を算出できる。但し、実際は、切り出し位置の移動速度は上記2種類のみ、すなわち、観察方向が急に加速したり、急に止まったりすることはなく、ゆっくりと減速が行われるが、上記算出方法では期待値がゆっくりとした減速カーブが描けない。よって、本実施例では、カメラ本体1の移動が止まった場合、観察方向の移動の開始から今まで、もしくは過去一定期間の切り出し位置の移動速度を数フレーム分に割り振ることで、期待値が減速カーブを描くようにする。
と10°/秒の2種類の場合、図27(c)の顔方向検出結果に上記タイムラグ分だけ前
(本実施例では1秒前)の図27(d)のカメラ本体1の移動量を加算すれば、図27(f)の期待値を算出できる。但し、実際は、切り出し位置の移動速度は上記2種類のみ、すなわち、観察方向が急に加速したり、急に止まったりすることはなく、ゆっくりと減速が行われるが、上記算出方法では期待値がゆっくりとした減速カーブが描けない。よって、本実施例では、カメラ本体1の移動が止まった場合、観察方向の移動の開始から今まで、もしくは過去一定期間の切り出し位置の移動速度を数フレーム分に割り振ることで、期待値が減速カーブを描くようにする。
以下、図28のフローチャートを用いて、本実施例における切り出し範囲補正処理を順に説明していく。
以下、既述した実施例1~3と共通の部分に関しては説明を簡略化もしくは割愛して説明していく。
図28(a)は、本実施例に係る図7AのステップS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。
ステップS4000aでは、ステップS200の顔方向検出処理で取得した観察方向viをローパスフィルタを用いて平滑化を行う(平滑化手段)。図27(b)を用いて上述した通り、観察方向viは若干の検出誤差によるばらつきがあるためである。ローパスフィルタは過去数回、例えば5乃至10回分の単純移動平均をとる方法が簡便である。しかしこの時、平均をとる回数が増えれば増えるほど、顔の向きが移動した時の追従が遅れてしまう。また右を向いた後すぐに左に向きを変えるような場合、使用者が最も右に向いた
ときの観察方向viを検出しきれないという問題もある。
ときの観察方向viを検出しきれないという問題もある。
さらに検出誤差の混入具合は検出方法によって異なるため、検出方法によって適宜変更することも好ましい。上下方向と左右方向でローパスフィルタのかけ方を異ならせることも可能である。
また上述したとおり、一瞬の顔の動きは使用者の体験したことを映像として残す本発明の趣旨としてはそぐわない場合が多く、例えば上述した歩行中の左右の安全確認のために仕方なく顔を動かすことなどがあげられる。よって、本実施例では、2秒程度で略元の方向に戻った場合に取得された観察方向viもステップS4000aにおいて平滑化する。
さらに左右方向や下方向は安全確認する必要が多いが、上方向は安全確認する必要は少ないため、上方向にはローパスフィルタをかけないようにしてもよい。
ステップS301~S304までの処理(図7D)により切り出し範囲を決定すると、ステップS4000に進み、全体制御CPU101(第2のキャリブレーション手段)は切り出し範囲補正処理を実行する。
その後、ステップS305で補正後の切り出し範囲を記録した後、本サブルーチンを抜ける。切り出し範囲補正処理については、図28(b)のフローチャートを用いて説明する。
図28(b)は、ステップS4000の切り出し範囲補正処理のフローチャートである。
図28(b)においてまず、ステップS4001で全体制御CPU101(移動速度算出手段)は角速度センサ107からジャイロ情報、すなわち今回のフレームでのカメラ本体1の動き(ジャイロ移動量)を取得する。
尚、本実施例では角速度センサ107を用いたが、カメラ本体1の動きが検出できればこれに限定されない。例えば、不図示の磁場(磁界)の大きさ・方向を計測する磁気センサを用いてもよいし、加速度を検出する加速度センサ108を用いてもよい。さらには、特徴点を抽出しその特徴点がどの程度移動したかを計算することで移動ベクトルを検出し、カメラ本体1の移動量を算出する方法でもよい。特徴点の抽出は既知の方法が採用できる。一例をあげると2枚の画像の輝度情報のみを抽出した画像にバンドパスフィルターをかけてエッジを抽出し、複数枚のエッジ画像をずらした状態で減算し、差分が少なくなる位置を計算することで移動量を算出できる。この方法は計算量が増えるが、角速度センサ107等のハードが不要となるためカメラ本体1の軽量化が可能であるため好ましい様態の一つである。
以下は、角速度センサ107からジャイロ情報を取得する場合を例として説明を続ける。
ステップS4002では、ステップS4001で取得したジャイロ情報と過去に取得したジャイロ情報からカメラ本体1の移動速度(ジャイロ移動速度)を算出する。
ステップS4003では、ステップS4002で算出されたジャイロ移動速度が減速しているかを判定する。移動速度が減速していない場合(ステップS4003でNO)はステップS4004へ、そうでない場合はステップS4006へ進む。
ステップS4004では、全体制御CPU101(第二のキャリブレーション手段・観察方向補正手段)は、ステップS304で決定された切り出し位置と過去に取得した切り出し位置から、切り出し位置の移動速度を算出する。次に算出された切り出し位置の移動速度から、ローパスフィルタをかけることで生じるタイムラグ分だけ前に取得したジャイロ移動速度を減算して得られた減算量を取得する。
ステップS4005では、ステップS4004で取得した切り出し位置の移動速度及び減算量を一次メモリ103に記憶し、本サブルーチンを抜ける。
ステップS4006では、一次メモリ103に記憶されている減算量の合計を、同じく一次メモリ103に記憶されている各切り出し位置の過去一定期間の移動速度の変化が一定となるように割り振って期待値を算出し、本サブルーチンを抜ける。過去一定期間とは、実際に切り出し位置が移動し始めてから現在までの期間や、角速度センサ107がカメラ本体1の動きを検出してから現在までの期間でもよい。また処理を単純化するために0.5秒乃至3秒程度と決まった期間としてもよい。尚、上記過去一定期間より以前の期待値は、ステップS4004で取得した切り出し位置の移動速度に設定される。
以下に示す表1は、図27(a)~(f)でグラフ化されたデータの変位(速度)を示す。すなわち、ステップS304で決定された切り出し位置の移動速度が、表1の(c)に示され、ステップS4002で算出されるジャイロ移動速度が、表1の(d)に示される。また、ステップS4006で算出される期待値が、表1の(e)に示される。
図28(b)の切り出し範囲補正処理のサブルーチンは、表1に示すように、使用者が最初は正面で静止し徐々に右を見ていく場合を例にあげて説明する。
最初、使用者は前(正面)を見ているため、ステップS4002で算出されたジャイロ移動速度はほぼ0°/秒となる。すなわちステップS4003ではジャイロ移動速度は減速していないと判断し、ステップS4004へと遷移する。この場合、顔の位置も変わらないため、切り出し位置の移動速度も0°/秒となる。また、ステップS4004で算出される減算量も0°/秒となる。
1秒くらいから、使用者は右を向き始めるが、ローパスフィルタによるタイムラグのため、図27(c)で示すように、切り出し位置の移動速度はまだ0°/秒となる。一方、図27(d)で示すように、カメラ本体1はまだ移動していない、すなわちジャイロ移動速度もほぼ0°/秒である。よって、まだ使用者が正面で静止している時と同様、ステップS4004で算出される減算量も0°/秒となる。
使用者がさらに右を向き、2秒くらいになると、図27(c)で示すように、切り出し位置の移動速度は10°/秒となる。一方、図27(d)で示すように、カメラ本体1はまだ移動していない、すなわちジャイロ移動速度はまだほぼ0°/秒である。よって、ステップS4004で算出される減算量は10°/秒となる。
使用者がさらに右を向き、4秒くらいになると、使用者の体も右を向き始める。すなわち、図27(d)で示すように、カメラ本体1の向きが変わるためジャイロ移動速度は10°/秒となる。体が回転し始めた分、図27(b)で示すように、実際の顔の角速度は、カメラ本体1と顔方向の相対速度分だけ減速するが、ローパスフィルタによるタイムラグのため、図27(c)で示す切り出し位置の移動速度はこの時点ではまだ10°/秒である。従って、このタイムラグを考慮し、ステップS4004で算出される減算量は、10°/秒となる。
使用者がさらに右を向き、5秒くらいからは、ジャイロ移動速度は引き続き10°/秒(図27(d))であるが、図27(c)で示す切り出し位置の移動速度は、減速して0°/秒となる。従って、ステップS4004で算出される減算量は、-10°/秒となる。
図27においては不図示であるが、使用者が6秒くらいで右を向く動作を終了すると、ジャイロ移動速度が0°/秒となり、この場合に初めてステップS4006に進む。この場合、これまで算出され、一次メモリ103に記憶された減算量の合計は+10°/秒となる。この減算量の合計を、一次メモリ103に記憶されている各切り出し位置の過去一定期間の移動速度の変化が一定となるように割り振って期待値を算出する。ここでは、図27(c)で示す切り出し位置の移動速度は、加速し始めてから現在までの期間(2~6秒)までに、表1に示すように、10°/秒、10°/秒、10°/秒、0°/秒である。よって、この期間中の各切り出し位置の移動速度の変化を一定(ここでは変化なし)とすべく、2~6秒の期間の期待値はすべて10°/秒に設定される。
本実施例では、説明を簡略化するために1秒おきで説明を行ったが、通常、動画撮像のフレームレートは24~60fpsである。一方、顔方向検出やジャイロの検出は1秒間に60回も行う必要もないことが多いため、顔方向検出処理や切り出し範囲補正処理を行うタイミングは、撮像のタイミングと変えることも好ましい。例えば撮像は60fpsで行うが、顔方向検出処理や切り出し範囲補正処理を行うタイミングは10fpsで行っても問題なく、その用途や消費電力などを考慮し、適宜変更可能である。
以上説明してきたように本実施例では、大きく観察方向が動いたときに顔の動きと体(カメラ本体)の動きが組み合わさる時点で、動画としての視線移動速度が変わり見栄えの悪い動画とならないよう、観察方向の移動量を一定にすることが可能な例を示した。
尚、本実施例では、超広角画像を観察方向に応じてクロップする例を示したがこれに限定されない。例えば、全体制御CPU101(撮像方向変更手段)が、撮影部40の撮像方向を観察方向に応じて変更するようにしてもよい。但しこの場合、撮影部40の撮像方向、具体的には撮像レンズ16及び固体撮像素子42の向きをヨー方向、ピッチ方向に不図示の方法で機械的に駆動させる機構(駆動手段)をカメラ本体1に設ける必要がある。
また本実施例では、顔方向検出結果の平滑化を例に示したが、全体制御CPU101(防振手段)が実施例1で説明した防振制御を行う場合も、顔方向への追従が遅延するため同様の処理をすることが好ましい。
(実施例5)
実施例5では、使用者の目の位置と撮影・検出部10の装着位置との位置差による視差ズレを原因とする、使用者の視界と二次記録された映像(以下「記録映像」という)の差異を低減する方法について図29~34を用いて説明する。
実施例5では、使用者の目の位置と撮影・検出部10の装着位置との位置差による視差ズレを原因とする、使用者の視界と二次記録された映像(以下「記録映像」という)の差異を低減する方法について図29~34を用いて説明する。
基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例5のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
まず、理解を助けるために、実施例1で発生する使用者の視界と記録映像の差異について説明する。
図29は、実施例1における、近距離の被写体を観察対象5020とした場合の使用者5010の視界と狙い視野の関係を説明するための模式図である。
図29(a)は、固体撮像素子42に映った観察対象5020を含む映像5900を示す模式図であり、図29(b)は、使用者5010と観察対象5020との位置関係を示す模式図である。
図29(b)に示すように、観察対象5020は、使用者の目5011の高さより下にある場合、使用者5010の顔方向5015は下を向く。この時使用者5010の視界には不図示の床などを背景とした観察対象5020が映っている。
実施例1の場合、顔方向検出部20によって検出された使用者の顔方向5015と平行な観察方向5040(図29(b))が記録方向として設定される。このため、図29(b)に示すように近距離の被写体が観察対象5020である場合、観察対象5020を含まない領域が狙い視野5045に設定されてしまうという問題が生じる。
このような場合、使用者5010の視界に映る背景(不図示の床など)とは異なる背景(不図示の天井など)となってしまうものの、記録方向は、観察方向5040ではなく、観察対象5020を含む狙い視野5035となる方向5030に設定するべきである。
上記問題は、使用者5010の目5011の位置と撮影・検出部10の装着位置との位置差による視差ズレが原因である。従って、本実施例では、使用者5010の顔方向に基づき設定される記録方向を視差ズレに応じて適切に調整する視差補正処理を実行する。
図31は、本実施例に係るカメラ本体1のハードウェア構成を示すブロック図である。
本実施例に係るカメラ本体1のハードウェア構成は、図5に示す実施例1のカメラ本体1とは測距センサ5100がある点でのみ異なる。尚、カメラ本体1における測距センサ5100の配置位置については特に限定されないが、本実施例では、図30に示すように、ストップスイッチ15の外縁部に測距センサ5100は設けられる。
測距センサ5100は、物体との距離を測定するセンサである。尚、測距センサ5100の構成は特に限定されない。例えば、測距センサ5100は、赤外線、レーザー、ミリ波などを物体に投射し、その反射によって物体との距離を測定するアクティブタイプのセンサでも良い。また、測距センサ5100は、撮像レンズ16を透過した光線の位相差を元に物体との距離を測定するパッシブタイプのセンサでも良い。
測距センサ5100は、全体制御CPU101に接続され、全体制御CPU101によって制御される。
図32は、本実施例における視差補正処理を含むキャリブレーション時の使用者とキャリブレータ850と狙い視野5080の関係の模式図である。
図32(a)は、固体撮像素子42に映ったキャリブレータ850を含む映像5900を示す模式図であり、図32(b)は、使用者5010とキャリブレータ850との位置関係を示す模式図である。
図32(a)における狙い視野5080は、後述の視差補正処理を含むキャリブレーションが未実施であって、且つ顔方向検出部20によって検出された顔方向5015が正面を向く場合の狙い視野である。
一方、図32(a)における狙い視野5090は、後述の視差補正処理を含むキャリブレーションを実施済みであって、且つ前記顔方向検出部20によって検出された顔方向5015が正面を向く場合の狙い視野である。
図33Aは、本実施例に係る図7AのステップS100の準備処理の一部である視差補正モード処理のフローチャートである。以下、図32(a),(b)も用いて、本処理の詳細を説明する。
本処理に係る図7AのステップS100の準備動作処理において、キャリブレータ850への使用者5010の操作によって視差補正モードが起動すると(ステップS5101)、表示装置制御部801が位置決め指標851を表示する(ステップS5102)。
続いて表示装置制御部801が、使用者に対してキャリブレータ850をかざすべき位置(指定位置)を指示する。具体的には、表示装置制御部801が、図22Aと同様の指示表示855を行うことで、位置決め指標851を目線の高さで正面にかざすように使用者5010に対して指示する(ステップS5103)。
使用者5010は、指示表示855が行われると、ステップS5103で指示された指定位置にキャリブレータ850をかざし、且つ顔方向5015を位置決め指標851の方向(正面)に向ける。このとき、使用者5010、位置決め指標851、撮影・検出部10が、図32(b)のような位置関係になる。
その後、表示装置制御部801は、使用者が位置決め指標中心852を視野正面で見たと判定すると、撮影・検出部10と位置決め指標851との距離5050(図32(b))を測距センサ5100によって測定する(ステップS5104)。
つづいて、全体制御CPU101は、角速度センサ107(姿勢検出手段)によって撮影・検出部10の水平軸5060を検出する(ステップS5105)。これにより、固体撮像素子42に映った映像5900(図32(a))の水平位置5065が特定される。
また、ステップS5105では、全体制御CPU101は、映像5900上での位置決め指標851の中心と水平位置5065との距離5855(図32(a))を取得する。その後、全体制御CPU101(角度算出手段)は、水平軸5060と、撮影・検出部10からみた位置決め指標851の方向とのなす角度5055(図32(b))を算出する。この算出は、距離5855、及びメモリ(例えば内蔵不揮発性メモリ102)にある映像5900上のあるポイントに結像した光が何度の角度から入るかについての情報を用いて行われる。
その後、全体制御CPU101(垂直距離算出手段)は、距離5050とステップS5105で算出された角度5055を用いて、撮影・検出部10と使用者5010の目5011の垂直距離5070を算出し(ステップS5106)、本サブルーチンを抜ける。
ここでは、実施例2とは異なる方法で撮影・検出部10と使用者5010の目5011との垂直距離5070を測定する方法を説明したが、これに限定されない。例えば、実施例2で説明した方法で撮影・検出部10と使用者5010の目5011との垂直距離5070を測定しても良いし、使用者5010に直接、垂直距離5070の値を入力させても良い。
本実施例における視差補正処理を含むキャリブレーション処理は、実施例2において実行される図21のステップS3101~S3111の処理と基本的に同じであるため説明を省略する。
但し、ステップS3110では実施例2で説明した処理に加え、図33Aの視差補正モード処理で算出された垂直距離5070(図32(b))に基づく視差補正を行う。すなわち、無限遠において使用者5010の視界と狙い視野125が一致するようなキャリブレーションを実施する。
図33Bは、本実施例に係る図7Aで説明したS300の記録方向・範囲決定処理のサブルーチンのフローチャートである。本処理を、以下、図34を参照して説明する。尚、図33Bにおいて図7Dと重複するステップについては同一の符号を付し、重複した説明は省略する。
図33Bにおいて、まず、全体制御CPU101は、測距センサ5100(測距手段)によって撮影可能範囲(撮像領域)の距離情報を取得する(ステップS5301)。
次に全体制御CPU101(作成手段)は、ステップS5301で得た距離情報(測距センサ5100による測定結果)を基にデフォーカスマップ5950(図34(a);距離マップ情報)を作成する(ステップS5302)。
図34(a)のデフォーカスマップ5950は、図34(c)に示す、室内に観察対象5020が浮かんでいる状況を撮像した場合に作成されたデフォーカスマップを表している。ここでは、デフォーカスマップ5950中の距離情報をわかりやすく示すために撮影・検出部10からの距離の近い側から6つの距離エリア(1)~(6)に段階分けして表現している。しかしながら、実際には無段階でデフォーカスマップ5950を作っても良い。
続いて、全体制御CPU101は、デフォーカスマップ5950、顔方向5015、及び垂直距離5070(図32(b))から、撮影・検出部10から見た観察対象5020の方向を算出する(ステップS5303)。すなわち、顔方向に基づき設定された観察方向に対して視差補正がなされる。
その後、図7DのステップS301~S305の処理を行い、本サブルーチンを抜ける。
このように作成されたデフォーカスマップ5950と顔方向5015の検出結果を用いることで、撮影・検出部10から見た観察対象5020の方向を算出することが可能となる。尚、図29を用いて説明した視差ズレがあるため、デフォーカスマップ5950の作成なしに測距センサ5100で観察対象5020との距離だけを測定することはできない。
本実施例で説明した視差ズレの影響の度合いは、使用者5010と観察対象の距離によ
って異なる。すなわち、使用者5010との距離がある程度離れた観察対象においては、視差ズレの影響は無視できるため、実施例1での記録方向・範囲決定処理においても観察対象を含む狙い視野で映像を切り取って記録することが可能となる。例えば、使用者5010が観察対象5021(図34(c))を観察した場合、観察対象5021は使用者5010とある程度以上離れた中距離エリア(5)に位置しているため、ステップS5303で記録方向の視差補正を実施しなくても良い。それは顔方向検出部20によって検出される顔方向5016に基づき類推される記録方向5041(観察方向)に応じて設定される狙い視野5043(図34(b))には、観察対象5021も含まれるからである。
って異なる。すなわち、使用者5010との距離がある程度離れた観察対象においては、視差ズレの影響は無視できるため、実施例1での記録方向・範囲決定処理においても観察対象を含む狙い視野で映像を切り取って記録することが可能となる。例えば、使用者5010が観察対象5021(図34(c))を観察した場合、観察対象5021は使用者5010とある程度以上離れた中距離エリア(5)に位置しているため、ステップS5303で記録方向の視差補正を実施しなくても良い。それは顔方向検出部20によって検出される顔方向5016に基づき類推される記録方向5041(観察方向)に応じて設定される狙い視野5043(図34(b))には、観察対象5021も含まれるからである。
一方、本実施例によれば、使用者5010の観察対象を狙い視野内に収めることが可能な使用者と観察対象との距離範囲を、実施例1より至近側まで拡大することが可能となる。例えば、使用者5010からの距離が近い至近距離エリア(1)に位置する観察対象5020(図34(a))を使用者5010が観察しているとする。この場合、実施例1では、顔方向検出部20によって検出される顔方向5015に基づいて観察方向5040(記録方向)が類推される。この観察方向5040に応じて設定される狙い視野5042(図34(b))には、観察対象5020が含まれない。しかし、本実施例では、図33BのステップS5303で観察方向5040に対する視差補正がなされ、この視差補正後の記録方向に応じて観察対象5020を含む狙い視野5036が設定される。このため、観察対象5020のように、視差ズレの影響を無視できない程度に使用者5010との距離が至近距離である観察対象を良好に撮像できるようになる。
また、本実施例によれば、中距離エリア(5)に位置する観察対象を狙い視野のより中心に記録することが可能となる。例えば、使用者5010が中距離エリア(5)に位置する観察対象5021(図34(a))を観察している際に、実施例1のように記録方向5041の視差補正を実施しないと、観察対象5021が上端に位置する狙い視野5043が設定される。一方、本実施例では、図33BのステップS5303で記録方向5041に対する視差補正がなされ、この視差補正後の記録方向に応じて、観察対象5021が中心に位置する記録領域5037が生成される。
このように本実施例の視差補正を実施した方が、実施例1と比べてより切り取られた映像の中心に観察対象をとらえることが可能となる。
本実施例では、キャリブレーションにおいても視差補正を実施し、無限遠で使用者の視界と記録領域が一致するようにした後、撮像時に使用者と観測対象との距離が近い程補正前後での記録方向のずれが大きくなる視差補正を実施した。しかし、有限の位置、例えば、実施例2のキャリブレーション処理における使用者に対するキャリブレータ850の位置より遠距離の被写体や近距離の被写体について本実施例の視差補正を実施するようにしても良い。
(実施例6)
実施例6では、観察方向の算出に失敗した場合における切り出し範囲の決定方法について図35、図36A、及び図36Bを用いて説明する。
実施例6では、観察方向の算出に失敗した場合における切り出し範囲の決定方法について図35、図36A、及び図36Bを用いて説明する。
基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例6のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
実施例1では、図7Aに示す様に、ステップS200で顔方向検出部20において検出された顔方向から算出される観察方向に基づき、ステップS300で記録方向・範囲決定
処理で狙い視野を設定している。しかし、顔方向検出部20が襟や髪などの障害物によっておおわれてしまったり、顔方向検出部20が故障したり、顔方向検出部20が使用者から離れてしまったりする場合がある。このような場合、使用者の顔方向を取得できなくなる。このような場合、使用者が撮像したかった狙い視野の映像を撮像できなくなってしまう。
処理で狙い視野を設定している。しかし、顔方向検出部20が襟や髪などの障害物によっておおわれてしまったり、顔方向検出部20が故障したり、顔方向検出部20が使用者から離れてしまったりする場合がある。このような場合、使用者の顔方向を取得できなくなる。このような場合、使用者が撮像したかった狙い視野の映像を撮像できなくなってしまう。
特許文献1では、使用者を撮像する第2のカメラが使用者を検出できなかった場合、それまでの使用者の観察情報などの履歴に使用者を検出できなかったことは保存せず、再度使用者の検出が行われる。また、顔方向に追従して撮像をする場合、顔方向の検知に失敗した場合には状況に応じて撮像方向を決定することで、使用者の意図から大きく外れない映像を撮像する。
これに対して本実施例では、使用者の顔方向が検出可能な状態であれば、実施例1と同様、顔方向検出部20で顔方向を検出し、これに基づき算出された観察方向に基づく記録方向の狙い視野の映像を撮像する。一方、使用者の顔方向が検出できない状態であり、使用者の観察方向の算出ができない場合には、使用者の意図をくみ取った狙い視野の映像を撮像する。すなわち、本実施例では、ステップS200で顔方向検出処理が終了すると、ステップS300で記録方向・範囲決定処理を実行する前に、観察方向決定処理を実行する。この処理では、顔方向検出部20が使用者の顔方向の検出に失敗した場合、状況に応じて使用者の意図を判定して、観察方向の推定が行われる。すなわち、顔方向から算出される観察方向以外の情報に基づく記録方向の狙い視野の映像を撮像する。
図35は、全体制御CPU101により実行される、本実施例に係る観察方向決定処理のフローチャートである。以下本処理を図36A、図36Bを用いて説明する。
まずステップS6001で、顔方向検出部20において顔方向の取得ができたかどうか判断する。顔方向が取得できた場合はステップS6004に進み、全体制御CPU101(モード移行手段)は、本処理のモードを顔方向モード(第1の撮像モード)に切り替え、実施例1に示す方法で顔方向から算出された観察方向を記録方向に決定する。その後、本サブルーチンを抜ける。
一方、顔方向を取得できなかった場合(ステップS6001でNO)、全体制御CPU101(モード移行手段)は、他のモードに移行すべくステップS6002に進み、過去に追尾していた被写体があるか否かを判定する。
ここで、フレーム毎の使用者の観察方向検出状態と、撮影映像の関係を示す図36Aを用いて、ステップS6002の判定処理を説明する。
図36Aにおいて、nは映像のコマ番号、θは使用者の顔の水平方向の移動角度、ユーザ状態は各コマにおける使用者と観察対象の位置関係を示す。また、全体映像は、各コマにおいて撮影部40が撮像した超広角映像を示し、撮影映像は各コマにおいて二次記録された画像を示す。
図36Aでは、ユーザ状態の各画面に示すように、使用者は、画面下位置にある「□」で示す物体を観察対象として観察しており、n=5つまり5コマ目で使用者の観察対象を検知できなかった場合を例示している。
本実施例では現在のフレームを基準としてそれよりも過去の4フレーム分を所定期間とする。この所定期間の間に3回以上同一と判定できる被写体が撮影映像内に含まれていた場合、過去に追尾していた被写体があると判断する。
図36Aで示す通り、n=1~4において、移動角度θは+10°づつ変化しているのにかかわらず、同一被写体とは判定できる「□」で示す物体が撮影映像内に含まれている。そのため、n=5では、過去に追尾していた被写体があると判定する。
尚、ステップS6002の判定基準は、顔方向の検出周期や顔方向検出部20の精度にあわせて変更してよい。
図35に戻り、過去の所定時間内に追尾していた被写体(同一被写体))があると判定された場合(ステップS6002でYES)、ステップS6005に進む。
ステップS6005では、本処理のモードを、事前被写体方向を記録方向とする事前被写体追尾モード(第2の撮像モード)に切り替え、被写体を追尾するように記録方向を決定した後にステップS6008に進む。このように、本実施例では、顔方向を検知できなくなっても、過去に追尾していた被写体がある場合、事前被写体追尾モードに移行して記録方向を決定するため、直前の使用者の意図を映像に反映することができる。尚、全体制御CPU101(被写体認識手段)による撮影映像内の被写体の認識手法や被写体追尾検知手法については公知であるため、詳細な説明は省略する。
一方、過去に追尾していた被写体がないと判定された場合(ステップS60002でNO)、ステップS6003に進む。
ステップS6003では、事前に内蔵不揮発性メモリ(被写体登録手段)に登録した被写体が最新の撮影映像において検出されたか判定を行う。
本実施例では、被写体の事前登録は、表示装置800内に保存された画像から、撮像したい人物が写っている画像を使用者が指定し、選択された人物の特徴を表示装置制御部801が認識し、それをカメラ本体1内の全体制御CPU101に送信することで行う。尚、ステップS6003で検出する被写体はこれに限定されず、例えば、読み出し完了タイミングやほかの検知タイミングで取得した撮影映像に含まれる被写体であってもよい。また、事前に登録された被写体と、最新の撮影映像上の被写体が一致するかは、パターンマッチング手法にて判定を行う。パターンマッチング手法については公知であるため、詳細な説明は省略する。
事前に登録した被写体が最新の撮影映像で検出されたと判定された場合は(ステップS6003でYES)、ステップS6006に進む。
ステップS6006では、本処理のモードをステップS6003で検出された被写体の方向を記録方向とする登録被写体モード(第3の撮像モード)に切り替え、ステップS6008に進む。
一方、事前に登録された被写体が最新の撮影映像で検出されなかったと判定された場合(ステップS6003でNO)、観察対象とすべき被写体の推定ができなかったと判断し、ステップS6007に進む。
ステップS6007では、全体制御CPU101(画角変更手段)は、本処理のモードを、顔方向の検出に失敗する以前の記録方向を据え置く一方、撮像する画角を前回画角と比較し広角に変更する、被写体ロストモード(第4の撮像モード)に切り替える。その後、ステップS6008に進む。尚、被写体ロストモードにおける記録方向は、顔方向の検出に失敗する以前の観察方向の変化量で継続して移動させるようにしてもよい。
ここで、被写体ロストモードとなるステップS6007に進む場合について、図36Bを用いて説明する。
図36Bでは、n=5つまり5コマ目で使用者の観察対象を検知できなかった場合を例として説明する。
図36Bの例では、n=1~4までにおいて主要な被写体が見つかっておらず、また、事前登録した被写体もn=5での撮影映像において見つかっていない。そのため、n=5の観察方向はn=1~4までの移動方向である全面映像上の右方向に慣性を付けて遷移させる。また、全面映像から切り出す画角を広角に変更する。
ステップS6008では、ステップS6005~S6007のいずれかで顔方向以外の方向から記録方向を決定した場合、全体制御CPU101(通知手段)は、顔方向の検知に失敗した旨を示すエラー(検知エラー)を使用者に通知する。その後、本サブルーチンを抜ける。本実施例では図5の振動体106を用いて使用者に警告を出す。但し、ステップS6008における通知方法は本実施例の方法に制限されず、LED17を用いた警告や、表示装置800等のカメラ本体1と連携する端末による表示など、他の通知方法を用いてもよい。
以上のように、本実施例では、顔方向が検出できなかった場合に、その状況に応じて記録方向や画角を変更するため、使用者が本来撮像したかった狙い視野の映像の撮り逃しを避けることができる。
すなわち、本実施例では、顔方向が検出できなかった場合であって、過去に追尾していた被写体や事前登録されている被写体を検知できた場合は、その被写体に追従する。一方、かかる被写体を検知できなかった場合は撮り逃しを防止すると共に被写体の再検知がしやすくするため、画角を規定の画角より広角に変更する。
これにより、顔方向の検出に失敗したことにより使用者の意図しない映像が撮像されることを防止することができる。
尚、ステップS6001~S6008の処理は毎フレーム実施されるが、各モードに遷移後も顔方向検出部20から顔方向が取得されたか等のモード判定情報に基づき、モードを遷移できる。例えば、本実施例では被写体ロストモードにより画角を広くした結果、事前登録された被写体が検知された場合、検知した被写体の方向を観察方向とする登録被写体追尾モードに移行する。この場合、広げた画角を規定の画角に戻す。
また、本実施例では1回の判定でモードの変更を行ったが、フレームレートや顔方向の検知能力に応じて複数回の結果を基にモードを移行してもよい。
(実施例7)
実施例7では、顔方向検出の精度(信頼度)に応じて観察方向を決定する方法について図37~図40を用いて説明する。
実施例7では、顔方向検出の精度(信頼度)に応じて観察方向を決定する方法について図37~図40を用いて説明する。
基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例7のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
実施例6では、顔方向が検出できたか否かに応じて観察方向を決定するモードを切り替えて、使用者の意図しない記録方向での撮像を防止した。一方、特許文献1のように使用者の顔方向を常に安定的に検知できない場合、使用者の意図しない画角での撮像となることがある。ここで常に顔方向を安定して検知できない例としては、図1Bに示すように鎖骨前部にカメラ本体1の撮影・検出部10が装着されている場合、襟や髪などの影響で顔方向の検出精度が落ちる場合が挙げられる。
図37に示すように、使用者が正面方向を向いている場合(図37(a))よりも、右方向を向いている場合(図37(b),(c))に、顎や頬が体や肩に隠れてしまう領域が多くなる。すなわち、顔方向によっては、顔方向の検知に使用できる顔領域が狭くなり、その検知精度が落ちる可能性が高くなるという特性がカメラ本体1にはある。この特性は使用者によるカメラ本体1の装着位置に大きく依存する。
そこで本実施例では、カメラ本体1の装着位置や顔方向の検知結果に応じて、顔方向の検知精度(信頼度)を算出し、信頼度が高い場合は顔方向を多く観察方向に反映させ、信頼度が低い場合はそれ以外の情報を多く観察方向に反映させる。これにより、使用者の意図をくみ取り撮像することができる。
図38は、図35のステップS6004の処理の代わりに行われる、本実施例に係る、顔方向取得時の観察方向決定処理のフローチャートである。本処理は、全体制御CPU101(観察方向決定手段)により実行される。
まず、ステップS7001にて、全体制御CPU101(第1の観察方向算出手段、信頼度算出手段)は、顔方向検出部20でnフレーム目の撮像の際に取得した顔方向θn(第1の観察方向)に基づき顔方向信頼性Tnを算出する。
顔方向信頼性Tnは、以下のように算出される。
まず、顔方向θnを顔方向θyaw,θpitch,θrollの3つの成分に分ける。ここで、顔方向θyawは顔を左右に動かす回転成分、顔方向θpitchは顔を上下に動かす回転成分、顔方向θrollは首をかしげるように動かす回転成分を示す。
本実施例では使用者の鎖骨部にカメラ本体1を装着し顔下部から顔方向を検知することを想定しているためTn(0≦Tn≦1)は以下の式701で求められる。
尚、本実施例は式701を用いて顔方向信頼性Tnを算出したが、顔方向検出部20による顔方向の検知精度や検出のフレームレートなどに応じて、過去に算出された顔方向信頼性を重みづけして算出したものを加重平均して用いることもできる。また、Tnの算出の際、パターンマッチングの精度、装着位置等を重みづけするようにしてもよい。
また、本実施例では、式701から求まる決定係数によって被写体領域の予測の信頼度を算出した。しかし、決定係数の算出方法については、これに限定されない。例えば、実
施例2のキャリブレーションにより推定できる装着位置に応じた調整済みの決定係数を用いるようにしてもよい。また、キャリブレーション時に検出精度が低いと判断された場合には、その精度に応じて決定係数を変更してもよい。さらに、機械学習を用いて顔方向を検出する場合、その適合率を決定係数に反映させるようにしてもよい。
施例2のキャリブレーションにより推定できる装着位置に応じた調整済みの決定係数を用いるようにしてもよい。また、キャリブレーション時に検出精度が低いと判断された場合には、その精度に応じて決定係数を変更してもよい。さらに、機械学習を用いて顔方向を検出する場合、その適合率を決定係数に反映させるようにしてもよい。
ステップS7002にて、全体制御CPU101は、顔方向の角速度の下記Aを求める。具体的には、顔方向検出部20からnフレーム目の撮像の際に取得した顔方向θnと顔方向取得時刻tnと、一次メモリ103に保存された1フレーム前の顔方向情報θn-1とその取得時刻tn-1から角速度Aを下記の式702で求める。
ステップS7003にて、全体制御CPU101(観察方向予測手段)は、一次メモリ103に保存された過去の顔方向の遷移から現在の顔方向の予測を行う。本実施例では現在のフレームを基準としてそれよりも過去の4フレーム分を所定期間とし、当該4フレームの間に3回以上同一と判定できる一定方向に顔方向が変位しつづけていた場合、過去の顔方向及び角速度から観察方向の予測ができると判断する。また、この予測を行う場合、過去の4フレームから得られた角速度の加重平均である予測角速度の下記Bを下記の式703で算出し、予測顔方向θave(第2の観察方向)を下記の式704で算出する。式703,704の演算は、夫々図40(a1),(a2)に示す処理に対応する。
尚、フレームレートや顔方向検出部20の検出精度に合わせて、ステップS7003で用いる所定期間の長さや加重平均のかけ方を変化させてよい。
ステップS7004にて、全体制御CPU101は、一次メモリ103に保存された
情報のうち、顔方向検出部20からの情報以外の内部情報を用いて観察方向の予測を行う。具体的には、本実施例では、被写体検出履歴から現在被写体を追尾している状態か判定を行う。追尾していると判定した場合、被写体の動きに基づく予測観察方向θsub(第2の観察方向)を算出する。本実施例では、現在のフレームを基準としてそれよりも過去の4フレーム分を所定期間とし、当該4フレームの撮影映像から3回以上同一と判定できる被写体(同一被写体)が検知された場合、被写体を追尾している状態であるとする。被写体追尾判定は、全体制御CPU101による検知周期や検知精度にあわせて判定基準を変更してよい。尚、被写体追尾検知手法については公知であるため、詳細な説明は省略する。
尚、本実施例ではステップS7004の観察方向の予測に用いる内部情報は、被写体検
出履歴であったがこれに限定されない。例えば、カメラ本体1の装着位置や性能に応じて、撮影部40に映りこんだ使用者の顔情報や、角速度センサ107及び加速度センサ108で検出されたカメラ本体1の移動や姿勢に関する情報を用いて、観察方向の予測を行ってもよい。また、実施例6のステップS6006のように、事前に登録された被写体がある場合、全体制御CPU101(第3の観察方向予測手段)は、最新の撮影映像上の事前に登録された被写体の方向を予測観察方向θsubとして求めてもよい。
出履歴であったがこれに限定されない。例えば、カメラ本体1の装着位置や性能に応じて、撮影部40に映りこんだ使用者の顔情報や、角速度センサ107及び加速度センサ108で検出されたカメラ本体1の移動や姿勢に関する情報を用いて、観察方向の予測を行ってもよい。また、実施例6のステップS6006のように、事前に登録された被写体がある場合、全体制御CPU101(第3の観察方向予測手段)は、最新の撮影映像上の事前に登録された被写体の方向を予測観察方向θsubとして求めてもよい。
ステップS7005にて、全体制御CPU101は、顔方向検出関連情報を履歴として一次メモリ103に保存する。ここで、顔方向検出関連情報は、ステップS7002で生成した顔方向の角速度Aと、ステップS7001にて算出した顔方向信頼性Tn、顔方向検出部20により検出された顔方向θn、顔方向取得時刻tn、及びこれら各情報の生成時点を示す情報からなる。
ステップS7006にて、全体制御CPU101は、ステップS7001で算出した顔方向信頼性Tnが所定値以上だった場合、顔方向の信頼性が高いと判断し、ステップS7009に進む。
ステップS7009では、全体制御CPU101は、顔方向を現在の観察方向θ’nに決定してステップS7013に進む。
一方、ステップS7001で算出した顔方向信頼性Tnが所定値未満だった場合は(ステップS7006でNO)、ステップS7007に進む。
ステップS7007ではステップS7003にて予測顔方向θaveの推定ができ、かつ|θn-θave|が所定の角度以内であるという条件を満たした場合ステップS7010に進む。本実施例では所定の角度をπ/8として判定を行う。
ステップS7010では、全体制御CPU101(第1の観察方向予測手段)は、θnとθaveと顔方向信頼性Tnを用いて現在の観察方向θ’nを決定する。本実施例では現在の観察方向θ’n′を下記の式705で求め、ステップS7013に進む。式705の演算は、図40(b)に示す処理に該当する。図39で示す通り、顔方向θyawの角度の絶対値が小さいほど顔方向信頼性Tnが大きくなるので、現在の観察方向θ’nには、式705に示すように顔方向θnが多く反映される。一方、顔方向θyawの角度の絶対値が大きいほど顔方向信頼性Tnが小さくなるので、現在の観察方向θ’nには、式705に示すように顔方向θyaw以外の他情報(予測顔方向θave)が多く反映される。
ステップS7007にて上記条件を満たさなかった場合、ステップS7008に進み
、予測観察方向θsubの推定ができ、かつ、|θn-θsub|が所定の角度以内であるという条件を満たした場合、ステップS7011に進む。ステップS7010と同様、本実施例では所定の角度をπ/8として判定を行う。
ステップS7011では、全体制御CPU101(第2の観察方向予測手段)は、顔方向θnと、予測観察方向θsubと、顔方向信頼性Tnを用いて現在の観察方向θ’nを決定する。本実施例では現在の観察方向θ’nを下記の式706で求め、ステップS7013に進む。ステップS7010と同様、図39で示す通り、顔方向θyawの角度の絶
対値が小さいほど顔方向信頼性Tnが大きくなるので、現在の観察方向θ’nには、式706に示すように顔方向θnが多く反映される。一方、顔方向θyawの角度の絶対値が大きいほど顔方向信頼性Tnが小さくなるので、現在の観察方向θ’nには、式706に示すように顔方向θyaw以外の他情報(予測観察方向θsub)が多く反映される。
対値が小さいほど顔方向信頼性Tnが大きくなるので、現在の観察方向θ’nには、式706に示すように顔方向θnが多く反映される。一方、顔方向θyawの角度の絶対値が大きいほど顔方向信頼性Tnが小さくなるので、現在の観察方向θ’nには、式706に示すように顔方向θyaw以外の他情報(予測観察方向θsub)が多く反映される。
ステップS7012では、前回の観察方向θ’n-1を過去の観察方向の変位に基づき慣性を付けて移動させた観察方向に、現在の観察方向θ’nを決定し、且つ画角を規定値よりも広く設定し、ステップS7013に進む。これにより、使用者が意図する被写体を撮り逃す可能性を低下させる。
今回の実施例では、顔方向信頼性Tnと被写体の検知状態に応じて現在の観察方向θ’nの算出方法を切り替えたが、これに限定されない。例えば、予測顔方向θaveと予測観察方向θsubのそれぞれを算出する際にその信頼度(予測方向信頼度)も算出し、算出されたそれらの信頼度に応じて、算出された観察方向θ’nを補正するようにしてもよい。
また、算出された各信頼度が所定値以下だった場合、使用者が意図する被写体を撮り逃す可能性が高くなることが考えられるため、画角を規定の画角よりも広角に設定するようにすることが好ましい。また、その場合、ステップS7012に進むようにしてもよい。またその後、算出された各信頼度のいずれかが所定値より大きくなった場合、画角を規定の画角に戻すことが好ましい。
図38の処理により、顔方向信頼性Tnが高い場合には、顔方向θnを現在の観察方向θ’nに決定する。一方で顔方向信頼性Tnが低い場合には、状況に応じて、顔方向信頼性Tnが高かった時点の情報や、顔方向以外の情報を用いて現在の観察方向θ’n(記録方向)を決定し、さらに状況によっては画角を広くする。
すなわち、本実施例では、顔方向信頼性Tnが低く、顔方向の検出の精度が低いと予想される場合には、予測顔方向θaveや予測観察方向θsubを用いることにより、顔方向検知の失敗により使用者の意図しない映像が撮像されることを防止できる。
(実施例8)
実施例8では、カメラ本体1を安定した位置に装着する方法について図41~45を用いて説明する。
実施例8では、カメラ本体1を安定した位置に装着する方法について図41~45を用いて説明する。
基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例8のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
まず、接続部80(首掛け手段)の角度調節について説明する。
図41は、撮影・検出部10を側面から見た様子を示す拡大図である。
図41(a)は、接続部80が標準位置である位置Ax0にある時の図であり、図41(b)は、接続部80が回転軸OAを中心として位置Ax0に対して角度θA1だけ回転した位置Ax1にある時の図である。図41(c)は、角度保持部81の外装を除去した場合に視認しうる角度保持部81の内部のメカ機構を示す模式図である。
図41(c)に示すように、角度保持部81の内部には、角度調節機構8100(首掛け角度調節手段)が配置されている。
角度調節機構8100は、撮影・検出部10に対する角度保持部81の角度調節を行う角度調節カム8101、及び角度調節カム8101を係止する係止部材8102からなる。尚、図41(a)に示すOAは、角度保持部81の回動中心であり、角度調節カム8101の中心にある。
係止部材8102は、不図示のばねによって角度調節カム8101に対して付勢されている部材であるが、角度調節ボタン85(図2F)が押下されている間はその付勢が解除されて角度調節カム8101から離れる。すなわち、角度調節ボタン85が押下されている間のみ、接続部80の角度保持部81は撮影・検出部10に対して回動可能な状態になる。
使用者は、角度調節ボタン85を押しながら角度保持部81を撮影・検出部10に対して回動させることで、接続部80の位置を位置Ax0(図41(a))から位置Ax1(図41(b))まで調節することが可能である。
撮影・検出部10に対する角度保持部81の角度を保持するための機構として、本実施例では角度調節カム8101と係止部材8102を用いた有段調節の機構を用いているが、摺動抵抗を利用した無段階調節を可能とする機構を用いても良い。
また、本実施例では、使用者が角度調節ボタン85を押しながら角度保持部81を回転させる構成としたが、これに限定されない。例えば、角度調節ボタン85を必要とせず、ある閾値以上の外力が角度保持部81にかかると角度保持部81を回動するようなバランスをとった構成、例えば係止部材8102の代わりにボールを用いたものや、摺動抵抗を用いたものでも良い。
図42は、使用者がカメラ本体1を装着した様子を示す側面図である。
図42(a)は、接続部80が位置Ax0にあり、かつバンド部82を長く調節した状態のカメラ本体1を装着した使用者を示す図である。図41(b)は、接続部80が位置Ax0にあり、かつバンド部82を短く調節した状態のカメラ本体1を装着した使用者を示す図である。図41(c)は、接続部80が位置Ax1にあり、かつバンド部82を短く調節した状態のカメラ本体1を装着した使用者を示す図である。
図42(a),(c)に示すように、接続部80の位置とバンド部82の長さの関係が、使用者にとって適している状態であれば、撮像レンズ16は使用者の正面を向く。一方で、図42(b)に示すように、接続部80の位置とバンド部82の長さの関係が、使用者にとって適した状態でなければ、撮像レンズ16は使用者の正面を向かない。この図42(b)の場合、撮像レンズ16は光軸が上方向を向いている。
このように接続部80はその位置の調節が可能に構成されているため、使用者は、撮像レンズ16の光軸が使用者の自然状態での視線位置と略並行な状態となるように、カメラ
本体1を装着することが可能となる。もちろん、使用者にとって適切なカメラ本体1の装着位置が、撮像レンズ16の光軸が水平方向であった場合にも、同様に適切な装着が可能である。
本体1を装着することが可能となる。もちろん、使用者にとって適切なカメラ本体1の装着位置が、撮像レンズ16の光軸が水平方向であった場合にも、同様に適切な装着が可能である。
次に、胸部接続パッド18の角度調節について説明する。
図43は、接続部80を非表示とした場合の、撮影・検出部10を側面から見た様子を示す拡大図である。
図43(a)は、胸部接続パッド18が標準位置である位置Bx0にある時の図であり、図43(b)は胸部接続パッド18が、回転軸OBを中心として位置Bx0に対して角度θB1だけ回転した位置Bx1にある時の図である。図43(c)は、撮影・検出部10の外装を除去した場合に視認しうる撮影・検出部10の内部のメカ機構を示す模式図である。
図43(c)に示すように、撮影・検出部10の内部には、角度調節機構8200(接地角度調節手段)が配置されている。
角度調節機構8200は、撮影・検出部10に対する胸部接続パッド18の角度調節を行う角度調節カム8201、及び角度調節カム8201を係止する係止部材8202からなる。尚、図43(c)に示すOBは、胸部接続パッド18の回動中心である。
係止部材8202は、不図示のばねによって角度調節カム8201に対して付勢されている部材であるが、角度調節ボタン8203が押下されている間はその付勢が解除されて角度調節カム8201から離れる。すなわち、角度調節ボタン8203が押下されている間のみ、胸部接続パッド18は撮影・検出部10に対して回動可能な状態になる。
使用者は、角度調節ボタン8203を押しながら胸部接続パッド18を撮影・検出部10に対して回動させることで、胸部接続パッド18の位置を位置Bx0から位置Bx1まで調節することが可能である。
撮影・検出部10に対する胸部接続パッド18の角度を保持するための機構として、本実施例では角度調節カム8201と係止部材8202を用いた有段調節の機構を用いているが、摺動抵抗を利用した無段階調節を可能とする機構を用いても良い。
また、本実施例では、使用者が角度調節ボタン8203を押しながら胸部接続パッド18を回転させる構成としたが、これに限定されない。例えば、角度調節ボタン8203を必要とせず、ある閾値以上の外力が胸部接続パッド18にかかると胸部接続パッド18が回動するようなバランスをとった構成、例えば係止部材8202の代わりにボールを用いたものや、摺動抵抗を用いたものでも良い。
図44は、接続部80を非表示とした場合の、使用者がカメラ本体1を装着した様子を示す側面図である。
図44(a)は、胸部が立っている使用者が、胸部接続パッド18が位置Bx0の状態のカメラ本体1を装着した様子を示す図である。図44(b)は、胸部が寝ている使用者が、胸部接続パッド18が位置Bx0の状態のカメラ本体1を装着した様子を示す図である。図44(c)は、胸部が寝ている使用者が、胸部接続パッド18が位置Bx1の状態でカメラ本体1を装着した様子を示す図である。
図44(a),(c)に示すように、胸部接続パッド18の位置が、使用者の胸部の傾きに対して適している状態であれば、胸部接続パッド18は使用者の胸部に対して広い範囲で接地される。一方で、図44(b)のように、胸部接続パッド18の位置が、使用者の胸部の傾きに対して適した状態でなければ、胸部接続パッド18は使用者の胸部に対してわずかな範囲しか接地しない。図44(b)のように、胸部接続パッド18が使用者の胸に接地している範囲が小さくなると、使用者が体を動かした際に撮影・検出部10が容易に使用者の体に対して動いてしまい、撮像される映像が大きくぶれてしまう。
このように胸部接続パッド18はその角度の調節が可能に構成されているため、使用者は自身の胸部に対して広い範囲に胸部接続パッド18が設置されるように、カメラ本体1を装着することが可能となり、撮影映像のブレを抑制することができる。
尚、本実施例では、胸部接続パッド18は撮影・検出部10に配置されているが、接続部80に配置されていても同様の効果が得られる。この場合、例えば、接続部80の内部に図41(c)に示す角度調節機構8100と同様の機構が、接続部80に対する胸部接続パッド18の角度調節を行う機構として配置される。
次に、バンド部82及び電気ケーブル84の構成について詳細に説明する。
実施例1で説明したように、カメラ本体1のバッテリー部90(電源手段)と撮影・検出部10は、電気ケーブル84を介して電気的に接続されている別体のモジュールである。
ここで電気ケーブル84とバンド部82を別体とすると、カメラ本体1の美観上好ましくなく、また使用者が首に装着する際の操作が煩わしくなってしまう面でも好ましくない。従って、バンド部82と電気ケーブル84は一体となっていることが望ましいが、図2Bに示すような構成に限定されるものではない。
図45は、バンド部82及びこれと一体となって構成される電気ケーブル84の切断面である接続面83を示す図である。
図45(a)~(c)までは、電気ケーブル84がフレキシブル基板(FPC)で構成されている場合を示し、図45(d)~(g)は、電気ケーブル84が細線ケーブルによって構成されている場合を示す。
図45(a),(d)では、接続面83から見て、バンド部82の内部に電気ケーブル84が埋め込まれている。この場合、バンド部82の素材は、例えばシリコンゴム、エラストマー、ゴム、プラスチックのような、射出成型可能な弾性部材であることが望ましい。バンド部82と電気ケーブル84が一体となる部品の製造方法としては、バンド部82の射出成型時に電気ケーブル84をインサートする方法が挙げられる。他にも、バンド部82を2部品にて構成し、電気ケーブル84を挟み込んだうえで接着剤や熱溶着により2部品にて構成されるバンド部82を一体部品とする製造方法を採用してもよい。但し、図45(a),(d)に示すように、バンド部82と電気ケーブル84が一体となる部品が製造できればよく、前述の2つの製造方法に限定するものではない。
図45(b),(c),(e)は、接続面83から見て、バンド部82の外側に電気ケーブル84が当接されている。
図45(b)では、接続面83から見てバンド部82には、電気ケーブル84と一体化するための形状は特に設けられておらず、ただバンド部82の表面に電気ケーブル84を
接着する構成であるため、低コストで製造が可能である。しかし、電気ケーブル84(この場合はFPC)が外観側にあると、FPCが外観側に露出することが美観上、好ましくない場合がある。この場合、FPCの露出を無くすため、外装に塗装を行ったりフィルムを被せたりする処理が求められる。また、電気ケーブルが使用者の首接触側にあると、装着感が悪くなる場合がある。この場合、装着感をよくするため、やはり、外装に塗装を行ったりフィルムを被せたりする処理が求められる。
接着する構成であるため、低コストで製造が可能である。しかし、電気ケーブル84(この場合はFPC)が外観側にあると、FPCが外観側に露出することが美観上、好ましくない場合がある。この場合、FPCの露出を無くすため、外装に塗装を行ったりフィルムを被せたりする処理が求められる。また、電気ケーブルが使用者の首接触側にあると、装着感が悪くなる場合がある。この場合、装着感をよくするため、やはり、外装に塗装を行ったりフィルムを被せたりする処理が求められる。
図45(c),(e)では、接続面83から見てバンド部82には、電気ケーブル84と一体化するために凹み形状83aが設けられており、その凹み形状83aの内部に電気ケーブル84が配置される。この場合、凹み形状83aを使用者の首接触側に設けると、カメラ本体1の美観は確保される上、凹み形状83aを電気ケーブル84が直接使用者の首に接触しないように設けると、特別な処理を行わなくても使用者の装着感を良好に保つことが出来る。さらにはバンド部82の作成時に適切な設計を行えば凹み形状83aの付与には追加コストもかからないため、費用面でも好適である。
図45(f),(g)でも、前述した図45(a),(d)と同様に、接続面83から見てバンド部82の内部に電気ケーブル84が埋め込まれている。図45(f)は電気ケーブル84が1本の時の構成を、図45(g)は電気ケーブル84が複数本の場合の構成を示す。これらの構成は、図45(a),(d)とは異なり、接続面83におけるバンド部82の断面積を確保したことが特徴である。接続面83におけるバンド部82の断面積は、バンド部82のねじれ剛性、曲げ剛性に影響するが、これらの剛性は使用者がカメラ本体1を装着した際、撮影・検出部10が体の定位置で安定し続けるための安定性に影響する。すなわち、接続面83におけるバンド部82の断面積が大きく、ねじれ剛性、曲げ剛性が強いほど、かかる撮影・検出部10の安定性が向上する。尚、電気ケーブル84の突出側を使用者の首接触側に向けると、使用者とバンド部82が接触する面積が少なくなり、装着感が悪くなるため、電気ケーブル84の突出側は外観側に位置することが好ましい。よって、図45(f),(g)に示す形状は、バンド部82において電気ケーブル84の突出した形状が外観側から見えるため、カメラ本体1の美観上は図45に示す他の形状より好ましくないが、バンド部82の剛性の確保の観点では適した形状である。
以上より、美観と装着感のバランスより図45(c),(e)の形状が最も好適と考えらえるが、その他、コストや剛性を重視する場合には図45に示す他の形状をとることが可能である。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
(実施例9)
実施例9では、カメラ本体1を含むカメラシステムの変形例について図46A,46Bを用いて説明する。
実施例9では、カメラ本体1を含むカメラシステムの変形例について図46A,46Bを用いて説明する。
基本的に本実施例は、実施例1からの派生として説明をおこなう。このため、実施例9のカメラシステムの構成のうち、実施例1のカメラシステムの構成と同一の構成については同一の符号を用いて重複した説明は省略し、異なる構成については都度詳細を追記して説明する。
実施例1では、表示装置800には一般のスマートフォンが利用されていたが、市場のスマートフォンメーカーは複数あり、その演算能力も多種多様である。例えば、実施例1では、表示装置800に超広角画像から切り出した記録方向の映像を転送する際、光学補正処理や防振処理に必要な情報がその映像に付加されていた。この情報に基づき表示装置
800が、歪曲収差補正や防振補正を行うが、使用者が表示装置800として使用するスマートフォンではこれらの補正を行うには演算能力が低すぎる場合もある。
800が、歪曲収差補正や防振補正を行うが、使用者が表示装置800として使用するスマートフォンではこれらの補正を行うには演算能力が低すぎる場合もある。
そこで、本実施例のカメラシステムは、撮像装置としてのカメラ本体1’及び表示装置800より演算能力が低い表示装置9800を備える。
カメラ本体1’では、映像の一次記録処理までの処理(図7AのステップS100~S600)が終了すると、表示装置9800への転送処理は行われることなく、ステップS800,S900の処理が実行される。その後、カメラ本体1’では、ステップS800,S900の処理が完了した映像を表示装置9800に転送する処理が行われる。
一方、表示装置9800では、カメラ本体1’からの映像に対して、ステップS800,S900の処理を行うことなく、そのまま二次記録する。
以下、本実施例のカメラシステムについて具体的に説明する。
図46Aは、本実施例に係る撮像装置としてのカメラ本体1’と接続する表示装置9800のハードウェア構成を示すブロック図である。
図46Aでは、図6に示す実施例1に係る表示装置800のハードウェア構成と同一のものについては、同一の符号を付し、重複した説明は省略する。
表示装置9800は、表示装置制御部801の代わりに表示装置制御部9801を有し、顔センサ806を有していない点で表示装置800と異なる。
表示装置制御部9801は、表示装置制御部801(図6)を構成するCPUより演算能力が低いCPUにより構成される。また、内蔵不揮発性メモリ812、一次メモリ813の能力は、実施例1の場合より低くてもよい。
図46Bは、カメラ本体1’の機能ブロック図である。
図46Bでは、図4に示す実施例1に係るカメラ本体1の機能ブロックと同一のものについては、同一の符号を付し、重複した説明は省略する。
図46Bに示す機能ブロックは、光学補正処理と防振処理を行う光学・防振補正部9080がある点と、全体制御CPU101ではなく全体制御CPU9101の制御により各機能ブロックが実行される点が図4と異なる。また、送信部70のあらかじめ決められた通信相手の一つが、表示装置800ではなく表示装置9800である点も異なる。
すなわち、本実施例では、全体制御部CPU9101の光学・防振補正部9080が、光学補正値やジャイロデータを使って、光学歪補正と防振補正を行う。そのため、実施例1で送信部70が表示装置800に転送する映像ファイル1000と比べて、本実施例で送信部70が表示装置9800に転送する光学歪補正と防振補正後の映像ファイルはそのデータ量が少なくなる。
また、表示装置9800では、ステップS800,S900の処理を行わない分、表示装置800と比べて演算能力を低く抑えることができる。また、スマートウォッチなどで構成される簡易表示装置900(鑑賞部)でもカメラ本体1’で撮像された映像の閲覧が可能となる。
以上、カメラ本体1により、使用者(ユーザ)が観察していた領域の映像を切り出して記録する方法について説明した。カメラ本体1によって切り出される領域は、以下、切り出し領域と称される。切り出し領域は、使用者が顔の方向を逸らしてしまった場合など、動画の一部において使用者が記録したかった領域から外れる場合がある。実施例10及び実施例11は、カメラ本体1で撮像した動画を表示装置800に転送し、切り出し領域を補正する方法についての実施例である。
(実施例10)
図50は、切り出し動画の一部を例示する図である。表示装置800は、ユーザ(使用者)がカメラ本体1の動画モードで撮影した動画を受信し、大容量不揮発性メモリ814に格納している。図50は、動画中の5フレームについて、カメラ本体1で決定された切り出し領域5000を表示装置800に表示させた例を示す。
図50は、切り出し動画の一部を例示する図である。表示装置800は、ユーザ(使用者)がカメラ本体1の動画モードで撮影した動画を受信し、大容量不揮発性メモリ814に格納している。図50は、動画中の5フレームについて、カメラ本体1で決定された切り出し領域5000を表示装置800に表示させた例を示す。
図50(a)は、ユーザが映像として残しておきたい被写体131が切り出し領域5000の中央に映っている様子を示す。図50(b)は、被写体131が切り出し領域5000の端に向かって移動する様子を示す。図50(c)は、被写体131が切り出し領域5000から見切れた様子を示す。図50(d)は、被写体131が切り出し領域5000の中央に戻ってくる様子を示す。図50(e)は、被写体131が切り出し領域5000の中央に戻ってきた様子を示す。
子供を被写体131として撮像している場合、ユーザが途中で近くを通る車に顔を向けたり、音がした方向を向いたりすることで、ユーザの顔方向は被写体131から逸れることが考えられる。この場合、図50(c)に示すように、被写体131は、切り出し領域から見切れてしまう可能性がある。
実施例10では、カメラ本体1で撮像した動画の切り出し領域を、撮像後に表示装置800で補正できるようにするため、カメラ本体1は、撮像した動画に対して切り出し処理を施さずに記録する撮像モードとして、全領域動画モードを有する。
図51を参照して、カメラ本体1の撮像モードについて説明する。図51は、実施例10に係る撮影・検出部10を裏側(ユーザに接触する側)から見た図である。撮像モードスイッチ12A以外の構成については、図2Cと同様であるため説明は省略する。撮像モードスイッチ12Aは、図2Cと同じ「Photo」、「Normal」、「Pri」の撮像モードの他、全領域動画モードに対応する「Whole」を選択できるスライドレバーの形のスイッチである。
図52A~図52Dを参照して、カメラ本体1で撮像した動画から領域の切り出しをせずに、全領域の動画を記録し、表示装置800に転送する処理について説明する。図52A~図52Dの処理は、それぞれ実施例1の図7A、図7B、図7E、図14の処理に対応し、同様の処理については、同じ符号を付して詳細な説明は省略する。
実施例10では、カメラ本体1は、撮像モードスイッチ12Aが「Whole」に設定された、全領域動画モードで撮像する。カメラ本体1は、切り出しを行わずに全領域の動画を記録し、表示装置800へ転送する。
図52AのステップS8100では、全体制御CPU101は、図7AのステップS100に対応する準備動作処理を実行する。図52Bは、ステップS8100の準備動作処理のサブルーチンのフローチャートである。図52Bの準備動作処理において、ステップS8102では、撮像モードスイッチ12Aで選択されているモードが全領域動画モードである場合、動画モードが選択されている場合と同様に、処理はステップS103に進む
。
。
ステップS103では、全体制御CPU101は、全領域動画モードの各種設定を内蔵不揮発性メモリ102から読み出して、一次メモリ103に保存する。全領域動画モードの各種設定は、防振レベル等の設定を含む。ステップS104では、全体制御CPU101は、全領域動画モード用に撮像ドライバー41の動作を開始し、準備動作処理を終了する。
図52AのステップS200~ステップS400では、全体制御CPU101は、図7AのステップS200~ステップS400と同様の処理を実行する。ステップS400で、撮影部40は撮影を行い、撮像データを生成する。
ステップS8500では、画像切り出し・現像処理部50は、ステップS400で生成された撮像データの全領域に対して現像処理を実行する。図52Cは、ステップS8500の全領域現像処理のサブルーチンのフローチャートである。図52Cの全領域現像処理は実施例1における図7Eの流れから領域の切り出し処理(ステップS502)を除いた処理である。
ステップS501では、図7EのステップS501と同様に、画像切り出し・現像処理部50は、全領域のRAWデータを取得する。ステップS8503~ステップS8508では、画像切り出し・現像処理部50は、図7EステップS503~ステップS508の処理と同様の処理を全領域に対して実行する。
図52AのステップS8600では、全体制御CPU101は、ステップS8500で現像した全領域の映像を一次記録部60に保存する。図52Dは、ステップS8600の一次記録処理のサブルーチンのフローチャートである。図52Dの一次記録処理のうち、図14に示す実施例1の一次記録処理と異なる点について説明する。図52Dに示す一次記録処理は、図14のステップS601からステップS606に対応する処理であり、ステップS8500で現像された映像の各フレームに対して実行される。図52Dにおいて処理対象のフレームは、現フレームと称される。
図52DのステップS601では、全体制御CPU101は、図14のステップS601と同様に、現フレームの画像の切り出し位置(切り出し領域の位置)の情報を、現フレームに対するメタデータである補正データに添付(付加)する。添付される切り出し位置の情報は、例えば、図7DのステップS305で記録した映像記録用枠127iの座標Xi,Yiである。
ステップS8601では、全体制御CPU101は、現フレームの画像の切り出しサイズ(切り出し領域のサイズ)も補正データに添付(付加)する。添付される切り出し位置の情報は、例えば、図7DのステップS305で記録した映像記録用枠127iの横幅WXi及び縦幅WYiである。
ステップS602~ステップS605の処理は、図14の同じ符号を付した処理と同様である。ステップS8606では、現フレームに対する補正データ(フレームメタデータ)は、切り出し領域の位置だけでなく、切り出し領域のサイズを含む。全体制御CPU101は、ステップS8500で現像された映像の各フレームに対して図52Dの処理を実行することにより、表示装置800に転送するための映像ファイルを生成する。映像ファイルに各フレームの切り出し領域の位置及びサイズを含めることで、表示装置800は、カメラ本体1から受信する映像ファイルに対して、切り出し処理を実行することができる。
図53を参照して、映像ファイルのデータ構造(形式)について説明する。図53に示す映像ファイル2000(動画データ)は、図15で説明した映像ファイル1000と同様にヘッダ1001及びフレーム2002を含む。フレーム2002は、動画を構成する各フレームの画像とこれに対応するフレームメタデータがセットとなったフレームデータセットを、動画の総フレームの数だけ含んでいる。映像ファイル2000の各フレームの画像は、全領域画像である。
各フレームのフレームメタデータは、ステップS8601で補正データとして添付される切り出しサイズの情報を含む。さらに、映像ファイル2000のフレームメタデータは、図15で説明したパラメータに加えて、切り出し位置補正量、切り出しサイズ補正量、ユーザ変更操作フラグの3つのパラメータを含む。追加された3つのパラメータは、表示装置800で動画の切り出し領域を補正する処理で使用される。
ユーザ変更操作フラグは、ユーザ操作によって切り出し領域が補正されたか否かを示すフラグである。切り出し位置補正量は、ユーザ操作によって補正された切り出し領域の位置の補正量である。切り出しサイズ補正量は、ユーザ操作によって補正された切り出し領域のサイズの補正量である。
ステップS8600の一次記録処理では、切り出し位置補正量及び切り出しサイズ補正量は、全てのフレームにおいて0に設定される。ユーザ変更操作フラグは、動画の最初のフレーム及び最後のフレームではONを示す値が設定され、その他のフレームではOFFを示す値が設定される。動画の最初のフレーム及び最後のフレームは、ユーザが切り出し領域の補正操作をしなかったフレームの切り出し領域の補正量を取得(計算)するために用いられるため、ユーザ変更操作フラグがONに設定される。
なお、ユーザ変更操作フラグをONに設定するフレームは、動画の最初のフレーム及び最後のフレームに限られない。動画が複数のシーンを含む場合、ユーザ変更操作フラグは、シーンが変わる前の最後のフレーム及びシーンが変わった後の最初のフレームでONに設定されてもよい。表示装置制御部801は、例えば、動画の解析により被写体が変わった場合、フレーム間の画素値の差分が閾値以上になった場合等、各種方法によりシーンの変化を検知することができる。
表示装置制御部801は、シーンが変化する前後で被写体が変わったような場合でも、補正対象のフレームが含まれるシーンの最初のフレーム及び最後のフレームに基づいて切り出し領域を補正することができる。これにより、表示装置制御部801は、シーンに応じて被写体が適切に切り出された切り出し動画を生成することができる。
図52AのステップS700~ステップS1000の処理は、図7AのステップS700~ステップS1000と同様の処理である。ステップS8600で一次記録をした映像ファイル2000(動画データ)は、ステップS700で表示装置800に転送される。表示装置800の表示装置制御部801は、ステップS800及びステップS900で、カメラ本体1から受信した映像ファイル2000に対して光学補正処理及び防振処理を実行する。表示装置制御部801は、映像ファイル2000を、大容量不揮発性メモリ814に格納する。図52Aに示す処理によって、カメラ本体1で撮像された全領域の動画データは、表示装置800の大容量不揮発性メモリ814に保存される。
図54を参照して、表示装置800での切り出し領域の補正について説明する。全領域動画表示部881は、表示装置800に保存された全領域動画を表示する領域である。切り出し領域枠882は、全領域動画において切り出し領域として決定された領域を示す。
切り出し領域枠882の位置及びサイズの情報は、図52AのステップS300で決定され、動画データにフレームメタデータとして保存されている。表示装置制御部801は、表示中のフレーム画像に対し、当該フレームの切り出し領域の情報を映像ファイル2000から読み出し、切り出し領域を示す切り出し領域枠882をフレーム画像に重畳させるように表示制御をする。
ユーザは、切り出し領域枠882に対する操作により、切り出し領域を補正することができる。切り出し領域の補正は、切り出し領域の位置及びサイズの少なくともいずれかを変更することを含む。
ユーザは、タッチパネル(表示装置800の表示部803)に対し、切り出し領域枠882をドラッグ操作などで移動させることにより、切り出し領域を移動することができる。切り出し領域を移動する操作は、切り出し領域枠882をドラッグすることに限られず、切り出し領域枠882の移動先又は撮像対象の被写体131をタップする操作であってもよい。
また、ユーザは、タッチパネルに対し、切り出し領域枠882をピンチイン又はピンチアウトする操作により、切り出し領域のサイズを変更することができる。
再生速度選択部883は、動画を再生する際の再生速度を選択する選択部材(アイテム)である。再生/一時停止ボタン884は、全領域動画表示部881に表示する動画を再生又は一時停止するための操作部材(アイテム)である。
再生/一時停止ボタン884は、全領域動画表示部881で動画が再生されていない状態では再生ボタンとして機能する。ユーザが再生ボタンを選択することにより、全領域動画表示部881に表示される動画は、再生速度選択部883で指定された再生速度で再生される。再生/一時停止ボタン884は、全領域動画表示部881で動画が再生されている状態では一時停止ボタンとして機能する。ユーザが一時停止ボタンを選択することにより、全領域動画表示部881で再生されている動画の再生は一時停止する。
シークバー885は、ユーザがスライダー888をスライドさせることにより、全領域動画表示部881に表示している動画の任意のフレームを表示させるための操作部材(アイテム)である。全領域動画表示部881は、スライダー888によってユーザが選択したフレームの画像とともに、対応する切り出し領域枠882を表示する。
確定ボタン886は、ユーザによる切り出し領域の補正を確定するための操作部材(アイテム)である。確定ボタン886の選択(タップ)により、ユーザによる切り出し領域枠882の移動は確定される。確定ボタン886が選択され、切り出し領域枠882の移動により切り出し領域の位置が確定すると、表示中のフレームの前後のフレームの切り出し領域枠882の位置も修正される。なお、確定ボタン886は、ユーザが切り出し領域枠882を初期状態又は確定状態から移動させていない場合、操作が無効であることを表すグレーアウト表示となる。
生成ボタン887は、全領域動画の各フレームの画像からそれぞれの切り出し領域を切り出した切り出し動画を生成するための操作部材(アイテム)である。なお、生成ボタン887は、動画の再生中である場合又は切り出し領域枠882の補正が確定されていない場合、操作が無効であることを表すグレーアウト表示となる。
図55~図58を参照して、ユーザによる切り出し領域の補正操作に基づいて、表示装
置800が切り出し動画を生成する方法の概要を説明する。図55(a)~図55(e)は、図50(a)~50(e)に示す切り出し動画と同じ場面を、切り出し処理を実行せずに撮像した場合の全領域動画を示している。
置800が切り出し動画を生成する方法の概要を説明する。図55(a)~図55(e)は、図50(a)~50(e)に示す切り出し動画と同じ場面を、切り出し処理を実行せずに撮像した場合の全領域動画を示している。
ユーザは、図55(a)に示す再生開始前の状態から、シークバー885を操作することにより、図55(c)に示されるように被写体131が切り出し領域枠882からずれているフレームを探す。
図56は、ユーザが切り出し領域枠882をドラッグ操作する例を示す図である。ユーザは、図55(c)のように被写体131が切り出し領域枠882からずれているフレームを探し、タッチパネル上で切り出し領域枠882をドラッグ操作することにより、切り出し領域枠882を移動させることができる。図56の例では、切り出し領域枠882は、一点鎖線で囲まれた元の位置から、被写体131が切り出し領域枠882に収まるように移動される。切り出し領域枠882の移動が完了すると、ユーザは確定ボタン886を選択する。
図57は、未操作フレームの切り出し領域の補正を説明する図である。未操作フレームは、ユーザから切り出し領域を補正する操作を受け付けていないフレームである。切り出し領域を補正する操作を受け付けたフレームは、補正フレームと称される。図55(c)に示すフレームに対し、図56で説明したようにユーザが切り出し領域を移動して確定ボタン886を選択した場合、表示装置制御部801は、図55(c)のフレームの前後の未操作フレームの切り出し領域も補正する。
図57(a)及び図57(b)は、図55(c)のフレームの前後の未操作フレームである図55(b)及び図55(d)に対応する。図57(a)に示すフレームでは、切り出し領域枠882は、一点鎖線で囲まれた元の位置から、図56でユーザが切り出し領域枠882を移動した方向に移動される。同様に、図57(b)に示すフレームでは、切り出し領域枠882は、一点鎖線で囲まれた元の位置から、図56でユーザが切り出し領域枠882を移動した方向に移動される。
このように、表示装置制御部801は、未操作フレームの切り出し領域を、ユーザが直接補正をしなくても、補正フレームでの切り出し領域の補正量(移動量又はサイズの変化量)に合わせて自動で補正する。表示装置制御部801は、未操作フレームの切り出し領域を、補正フレームでの切り出し領域の補正に合わせて補正することで、切り出し領域が滑らかに移動するように切り出し動画を生成することができる。
ユーザは、被写体131と切り出し領域枠882とがずれているフレームを探し、切り出し領域枠882を補正して確定させる処理を繰り返す。未操作フレームの切り出し領域は、確定ボタン886が選択されると補正フレームでの切り出し領域の補正に合わせて補正される。なお、未操作フレームの切り出し領域は、確定ボタン886が選択された場合に限られず、ユーザが表示中のフレームで切り出し領域を移動したあと、表示中のフレームを他のフレームに切り替えた場合に補正されるようにしてもよい。
ユーザは、切り出し領域枠882を修正すべきフレームがなくなったと判断した場合、生成ボタン887を選択することで、全領域動画から各フレームの補正後の切り出し領域を切り出した切り出し動画を生成することができる。
図58(a)~図58(e)は、表示装置800が生成した切り出し動画を例示する図である。図55(a)~図55(e)の全領域動画において、ユーザが図56に示す切り出し領域の補正をした場合、表示装置制御部801は、図58(a)~図58(e)に示
す切り出し動画を生成することができる。図55(b)及び図55(d)の切り出し領域を、図55(c)の切り出し領域に対するユーザの補正に合わせて補正することで、表示装置制御部801は、各フレームで被写体131が切り出し領域に含まれるように切り出し動画を生成することができる。生成された切り出し動画は、大容量不揮発性メモリ814に格納される。
す切り出し動画を生成することができる。図55(b)及び図55(d)の切り出し領域を、図55(c)の切り出し領域に対するユーザの補正に合わせて補正することで、表示装置制御部801は、各フレームで被写体131が切り出し領域に含まれるように切り出し動画を生成することができる。生成された切り出し動画は、大容量不揮発性メモリ814に格納される。
図59A、図59B、図59Cを参照して、実施例10に係る表示装置800による動画編集処理の流れを説明する。図59Aは、編集モードで切り出し領域を補正する動画編集処理のフローチャートである。
ステップS9001では、表示装置制御部801は、図53で説明した映像ファイル2000から1フレーム目の画像を取得する。映像ファイル2000から取得される画像は、全領域の画像である。ステップS9002では、表示装置制御部801は、取得した画像を表示装置800の表示部803(図54の全領域動画表示部881)に表示する。
ステップS9003では、表示装置制御部801は、映像ファイル2000から1フレーム目の切り出し位置及び切り出しサイズを取得する。映像ファイル2000に記録された切り出し位置及び切り出しサイズは、カメラ本体1に対する顔方向及び画角設定値等に基づいて決定されるデフォルトの切り出し位置及び切り出しサイズである。
ステップS9004では、表示装置制御部801は、ステップS9003で取得した切り出し領域の切り出し位置及び切り出しサイズに基づいて、全領域動画表示部881上に、デフォルトの切り出し領域枠882を表示する。切り出し領域枠882は、例えば、図55(a)~図55(e)に示されるように、切り出し領域を囲む矩形として表示される。
ステップS9005では、表示装置制御部801はユーザからの操作を待つ。ユーザ操作があったと判定した場合、処理はステップS9006に進む。ステップS9006では、表示装置制御部801は、どのようなユーザ操作があったかを判定する。図59Aでのユーザ操作は、再生/一時停止ボタン884による再生操作、シークバー885のスライダー888の操作、切り出し領域枠882のドラッグ操作、生成ボタン887による切り出し動画生成操作の4つである。
ステップS9006で、ユーザ操作が再生/一時停止ボタン884の選択により動画を再生する操作であると判定された場合、処理はステップS9007に進む。ステップS9007では、表示装置制御部801は、再生/一時停止ボタン884の表示を「一時停止」を表す表示に変更する。例えば、表示装置制御部801は、「再生」を表す図55(a)の再生/一時停止ボタン884の表示から、「一時停止」を表す図55(b)の再生/一時停止ボタン884の表示に変更する。
ステップS9008では、表示装置制御部801は、再生速度選択部883で選択された再生速度に従って、動画を再生する。表示装置制御部801は、ステップS9001~ステップS9004で説明した1フレーム目と同様に、映像ファイル2000から、順次各フレームの画像、切り出し位置、切り出しサイズを取得し、画像及び切り出し領域枠882を表示する。
また、フレームメタデータの切り出し位置補正量及び切り出しサイズ補正量の情報が設定されている場合、表示装置制御部801は、切り出し位置補正量及び切り出しサイズ補正量を用いて切り出し位置及び切り出しサイズを補正する。表示装置制御部801は、補正後の切り出し位置及び切り出しサイズの切り出し領域枠882を、全領域動画表示部8
81に表示する。
81に表示する。
ステップS9009では、表示装置制御部801は、ユーザが再生/一時停止ボタン884を選択して動画の再生を一時停止したか、又は最終フレームまで表示することにより再生が終了したか否かを判定する。表示装置制御部801は、一時停止又は再生終了と判定した場合、ステップS9010に進む。表示装置制御部801は、一時停止が選択されておらず、再生も終了していないと判定した場合、ステップS9008に戻り動画の再生を継続する。
ステップS9010では、表示装置制御部801は、再生/一時停止ボタン884の表示を「再生」を表す表示に変更する。例えば、表示装置制御部801は、「一時停止」を表す図55(d)の再生/一時停止ボタン884の表示から、「再生」を表す図55(e)の再生/一時停止ボタン884の表示に変更する。表示装置制御部801は、再生/一時停止ボタン884の表示を変更すると、ステップS9005へ戻りユーザからの操作を待つ。
ステップS9006で、ユーザ操作がシークバー885のスライダー888の操作により、補正対象のフレームを探して全領域動画表示部881に表示させる操作であると判定された場合、処理はステップS9011に進む。
ステップS9011では、表示装置制御部801は、シークバー885のスライダー888の位置に対応するフレームの画像、切り出し位置、切り出しサイズ、切り出し位置補正量及び切り出しサイズ補正量の情報を、映像ファイル2000から取得する。表示装置制御部801は、映像ファイル2000から取得した情報を用いて、スライダー888の位置に対応するフレームの画像及び補正量によって補正された切り出し領域枠882を、全領域動画表示部881に表示する。表示装置制御部801は、スライダー888の位置のフレームの画像及び切り出し領域枠882を表示すると、ステップS9005に戻りユーザからの操作を待つ。
ステップS9006で、ユーザ操作が切り出し領域枠882をドラッグ操作等によって移動させる操作であると判定された場合、処理はステップS9012に進む。ステップS9012では、表示装置制御部801は、ユーザのドラッグ操作等に従って切り出し領域枠882の表示位置を移動する。
ステップS9013では、表示装置制御部801は、ユーザ操作が切り出し領域枠882を再び移動する操作であったか否かを判定する。表示装置制御部801は、ユーザが切り出し領域枠882を再び移動したと判定した場合、ステップS9012に戻り、ユーザ操作に従って切り出し領域枠882の表示位置を移動する。
ステップS9013で、表示装置制御部801は、ユーザ操作が切り出し領域枠882の再移動ではなく、例えば、確定ボタン886の選択であったと判定した場合、ステップS9014へ進む。ステップS9014へ進むと判定されるユーザ操作は、切り出し領域枠882の補正を確定させるための操作であり、確定ボタン886をユーザが選択する操作に限られない。切り出し領域枠882の補正を確定させる操作は、ユーザが切り出し領域枠882をドラッグ操作で移動させ、表示部803から指を離す操作であってもよく、シークバー885の操作のように他のフレームに表示を切り替える操作であってもよい。
ステップS9014では、表示装置制御部801は、映像ファイル2000に補正情報を記録する。補正情報は、フレームメタデータとして映像ファイル2000に記録されるユーザ変更操作フラグ、切り出し位置補正量、切り出しサイズ補正量の情報を含む。
表示装置制御部801は、確定ボタン886が選択されると、全領域動画表示部881に表示されているフレームのユーザ変更操作フラグをONに設定する。表示装置制御部801は、切り出し位置補正量に、補正前の切り出し位置からの移動量(補正量)を記録する。また、切り出し領域枠882のサイズが、ピンチイン又はピンチアウト等の操作によって変更されている場合、表示装置制御部801は、切り出しサイズ補正量に、補正前の切り出しサイズからの補正量を記録する。
ステップS9015では、表示装置制御部801は、補正フレームの前後の未操作フレームの切り出し領域の補正情報を取得する。補正フレームは、全領域動画表示部881に表示され、ユーザが切り出し領域枠882を移動又はサイズ変更をしたフレームである。未操作フレームは、補正フレームの前後のフレームで、ユーザによる切り出し領域枠882の補正がされておらず、ユーザ変更操作フラグがOFFのフレームである。
図59Bを参照して、未操作フレームの補正情報取得処理について説明する。図59Bは、ステップS9015の詳細な処理を例示する。以下の説明では、全領域動画表示部881に現在表示されている補正フレームは、映像ファイル2000のN番目のフレームであるものとする。以下、映像ファイル2000のk番目のフレームは、第kフレームと記載する。
ステップS9101では、表示装置制御部801は、映像ファイル2000の第Nフレームの前後で、ユーザ変更操作フラグがONになっている補正フレームを検索する。第Nフレームより前のユーザ変更操作フラグがONになっているフレームを第Naフレーム、第Nフレームより後のユーザ変更操作フラグがONになっているフレームを第Nbフレーム(Na<Nb)とする。表示装置制御部801は、検索した第Naフレーム及び第Nbフレームの切り出し位置補正量及び切り出しサイズ補正量を取得する。
表示装置制御部801は、第Naフレーム~第Nbフレームまでの各フレームに対し、ステップS9102~ステップS9104の切り出し領域補間処理L1を実行する。切り出し領域補間処理L1は、ユーザが切り出し領域を補正する操作をしていない未操作フレームに対し、切り出し位置補正量および切り出しサイズ補正量を、補正の操作がされた補正フレームの補正量に基づいて補間する処理である。ステップS9102~ステップS9104で、切り出し領域補間処理L1の処理対象のフレームは、第iフレームと記載する。
ステップS9102では、表示装置制御部801は、第iフレームのユーザ変更操作フラグがONか否かを判定する。第Naフレーム、第Nフレーム、第Nbフレームは、ユーザによって切り出し領域が補正された補正フレームであるため、ユーザ変更操作フラグがONである。したがって、第iフレームが第Naフレーム、第Nフレーム又は第Nbフレームの場合、S9103、ステップS9104の処理は実行されない。
ステップS9102で、第iフレームが、第Naフレーム、第Nフレーム、第Nbフレーム以外の未操作フレームである場合、処理はステップS9103に進む。S9103では、表示装置制御部801は、未操作フレームである第iフレームの切り出し領域の補正量を計算する。補正量は、切り出し位置補正量及び切り出しサイズ補正量を含む。
以下の例では、未操作フレームの切り出し領域の補正量は、線形補間により計算される。第kフレームの切り出し位置補正量は(ΔXk、ΔYk)と表される。ユーザ変更操作フラグがONになっている第Naフレーム、第Nフレーム、第Nbフレームの切り出し位置補正量はそれぞれ(ΔXA,ΔYA)、(ΔXn,ΔYn)、(ΔXB,ΔYn)と表
される。
される。
ユーザが被写体131と切り出し領域枠882とがずれているフレームで切り出し領域枠882を補正することにより、表示装置制御部801は、ユーザが補正の操作をしていない未操作フレームの切り出し領域を自動的に補正する。したがって、ユーザは、所望の位置で切り出された切り出し動画を、簡易な操作で生成することができる。
切り出し領域の補間処理は、簡易な方法として隣接点を用いた線形補間による処理として説明したが、これに限られない。切り出し領域の補間処理は、生成後の切り出し動画がより滑らかに見えるようにease-in(イーズイン)及びease-out(イーズアウト)といった三次関数補間を用いる方法であってもよい。また、切り出し領域の補間処理は、多点を補間して得られる補間計算式を用いる多点補間であってもよい。
ステップS9104では、表示装置制御部801は、ステップS9103で計算した切り出し位置補正量及び切り出しサイズ補正量を映像ファイル2000の第iフレームのフレームメタデータとして記録する。表示装置制御部801は、第iフレームの切り出し位置補正量及び切り出しサイズ補正量を映像ファイル2000に記録すると、次のフレームに対する切り出し領域補間処理L1に進む。
第Naフレーム~第Nbフレームに対し、ステップS9102~ステップS9104の処理が終了すると、未操作フレームの切り出し領域を補正する処理は終了する。図59AのステップS9015で、未操作フレームの切り出し領域の補正が完了し、表示装置制御部801は、ステップS9005に戻りユーザからの操作を待つ。
ステップS9006で、ユーザ操作が生成ボタン887の選択により、切り出し動画を生成する操作であると判定された場合、処理はステップS9016に進む。ステップS9016では、表示装置制御部801は、切り出し動画を生成する。
図59Cを参照して、切り出し動画生成処理について説明する。図59Cは、ステップS9016の詳細な処理を例示する。図59Cでは、表示装置制御部801は、映像ファイル2000の全フレームに対し、ステップS9201~ステップS9204までの切り出し処理L2を実行する。切り出し処理L2は、各フレームの切り出し位置補正量及び切り出しサイズ補正量に基づいて補正した切り出し領域を画像から切り出す処理である。ステップS9201~ステップS9204で、切り出し処理L2の処理対象のフレームは、第jフレームとする。
ステップS9201では、表示装置制御部801は、映像ファイル2000から第jフレームの画像を取得する。ステップS9202では、表示装置制御部801は、第jフレームのフレームメタデータから切り出し位置、切り出しサイズ、切り出し位置補正量、切
り出しサイズ補正量を取得する。
り出しサイズ補正量を取得する。
ステップS9203では、表示装置制御部801は、ステップS9201で取得した画像から、ステップS9202で取得した切り出し位置及び切り出しサイズを切り出し位置補正量及び切り出しサイズ補正量で補正した切り出し領域を切り出す。ステップS9204では、ステップS9203で切り出した切り出し領域を、切り出し動画ファイルの第jフレームの画像として保存する。表示装置制御部801は、第jフレームの画像から補正した切り出し領域を切り出して保存すると、次のフレームに対する切り出し処理L2に進む。
映像ファイル2000の各フレームに対し、ステップS9201~ステップS9204の処理が終了すると、切り出し動画の生成処理は終了する。表示装置制御部801は、映像ファイル2000の各フレームから、被写体131が含まれるように補正された領域を切り出した切り出し動画を生成することができる。
上記の実施例10によれば、表示装置800は、ユーザが切り出し領域を補正した補正フレームの補正量を用いて、補正がされていない未操作フレームの切り出し領域を補正する。したがって、ユーザは、簡易な操作で被写体131が切り出し領域に収まった切り出し動画を生成することができる。
(実施例11)
実施例10では、ユーザは、シークバー885を操作して被写体131が切り出し領域に含まれていないフレームを探し、見つかった特定のフレームに対して切り出し領域を補正する。これに対し、実施例11では、ユーザは動画の再生中に切り出し領域を補正することができる。
実施例10では、ユーザは、シークバー885を操作して被写体131が切り出し領域に含まれていないフレームを探し、見つかった特定のフレームに対して切り出し領域を補正する。これに対し、実施例11では、ユーザは動画の再生中に切り出し領域を補正することができる。
図60を参照して、再生中の切り出し領域の補正について説明する。図60(a)で、ユーザは再生/一時停止ボタン884を押下(タッチ)することにより、動画の再生を開始する。なお、切り出し領域を補正する際の操作性を考慮して、動画は等倍速未満の速度で再生されることが好ましい。図60(b)の一点鎖線の矩形で示されるように切り出し領域枠882が被写体131とずれてきた場合、ユーザは被写体131の位置をタッチすることで、被写体131が中心になるように切り出し領域枠882を移動することができる。
図60(c)に示すように、ユーザが被写体131をタッチし続けている間、表示装置制御部801は、被写体131が中心にくるように切り出し領域枠882の位置を補正する。ユーザがタッチパネル(表示部803)から指を離すと、次のフレームから切り出し領域枠882は、補正されずに元の切り出し領域の位置に表示される。
なお、表示装置制御部801は、タッチパネルから指が離れたことを検知した場合、切り出し領域の位置を元に戻すのではなく、次のフレーム以降の切り出し領域を補正し、補正された位置に切り出し領域枠882を表示してもよい。
図60(d)の一点鎖線の矩形で示されるように、被写体131が移動して再び切り出し領域枠882からずれてきた場合、ユーザが被写体131をタッチすることで、表示装置制御部801は、切り出し領域枠882を被写体131に合わせて移動させる。
図60(e)に示すように、動画の再生が終了した場合、又はユーザが動画の再生を一時停止した場合、表示装置制御部801は、切り出し領域枠882が補正されていないフレームに対して切り出し領域を補正する。ユーザのタッチ操作等により、切り出し領域枠
882が補正されたフレームは、補正フレームと称される。また、ユーザが切り出し領域枠882を補正していないフレームは、未操作フレームと称される。表示装置制御部801は、実施例10と同様に、補正フレームの補正量に基づいて、未操作フレームの切り出し領域の補正量を補間して取得することができる。
882が補正されたフレームは、補正フレームと称される。また、ユーザが切り出し領域枠882を補正していないフレームは、未操作フレームと称される。表示装置制御部801は、実施例10と同様に、補正フレームの補正量に基づいて、未操作フレームの切り出し領域の補正量を補間して取得することができる。
ユーザが生成ボタン887を選択すると、表示装置制御部801は、各フレームに設定された切り出し領域の位置、サイズ、及びそれぞれの補正量に基づいて切り出し動画を生成する。表示装置制御部801は、ユーザが切り出し領域枠882を補正した補正フレームの補正量に基づいて、未操作フレームの補正量を補間することで、被写体131が映像内に収まった滑らかな切り出し動画を生成することが可能となる。
図61A、図61Bを参照して、実施例11に係る表示装置800による動画編集処理の流れを説明する。図61Aは、編集モードで切り出し領域を補正する動画編集処理のフローチャートである。
ステップS9301~ステップS9304では、表示装置制御部801は、図59AのステップS9001~ステップS9004の処理と同様に、1フレーム目の画像及び切り出し領域枠882を全領域動画表示部881に表示する。
ステップS9305では、表示装置制御部801はユーザが操作するのを待つ。ユーザ操作があったと判定した場合、処理はステップS9306に進む。ステップS9306では、表示装置制御部801は、ユーザの操作が再生/一時停止ボタン884の選択による再生操作か、生成ボタン887の選択による切り出し動画の生成操作かを判定する。
ステップS9306で、ユーザ操作が再生/一時停止ボタン884の選択により動画を再生する操作であると判定された場合、処理はステップS9307に進む。ステップS9307及びステップS9308では、表示装置制御部801は、図59AのステップS9007及びステップS9008と同様に動画の再生を開始する。
実施例11では実施例10と異なり、表示装置制御部801は、動画の再生時に切り出し領域を補正する操作を受け付ける。ステップS9309では、表示装置制御部801は、切り出し領域枠882を補正する操作として、例えば、ユーザによるタッチ操作があったか否かを判定する。タッチ操作があったと判定された場合、ステップS9310及びステップS9311の処理が実行される。タッチ操作がないと判定された場合、処理はステップS9312に進む。
ステップS9310では、表示装置制御部801は、ユーザがタッチした位置に切り出し領域枠882を移動する。表示装置制御部801は、例えば、ユーザがタッチした被写体131の位置が中心となるように切り出し領域枠882を移動する。なお、切り出し領域枠882を補正する操作は、被写体131の位置をタッチする操作に限られず、切り出し領域枠882の一部又は切り出し領域枠882内をタッチして、所望の位置にドラッグする操作であってもよい。
また、ステップS9309及びステップS9310は、ユーザのタッチ操作を検出して、タッチ位置に切り出し領域枠882を移動する例を示すが、切り出し領域枠882の補正は位置の移動に限られない。表示装置制御部801は、ステップS9309でユーザのピンチイン又はピンチアウトの操作を検出し、ステップS9310で、ピンチイン又はピンチアウトの操作に応じて切り出し領域枠882を縮小又は拡大して表示してもよい。
ステップS9311では、表示装置制御部801は、映像ファイル2000のフレーム
メタデータの切り出し位置補正量又は切り出しサイズ補正量を記録する。ステップS9309で切り出し領域枠882の位置が変更された場合、表示装置制御部801は、フレームメタデータの切り出し位置と、現在表示している切り出し領域枠882の位置との差分を切り出し位置補正量として記録する。また、ステップS9309で切り出し領域枠882のサイズが変更された場合、表示装置制御部801は、フレームメタデータの切り出しサイズと、現在表示している切り出し領域枠882のサイズとの差分を切り出しサイズ補正量として記録する。さらに、表示装置制御部801は、ユーザ操作変更フラグもONに変更する。
メタデータの切り出し位置補正量又は切り出しサイズ補正量を記録する。ステップS9309で切り出し領域枠882の位置が変更された場合、表示装置制御部801は、フレームメタデータの切り出し位置と、現在表示している切り出し領域枠882の位置との差分を切り出し位置補正量として記録する。また、ステップS9309で切り出し領域枠882のサイズが変更された場合、表示装置制御部801は、フレームメタデータの切り出しサイズと、現在表示している切り出し領域枠882のサイズとの差分を切り出しサイズ補正量として記録する。さらに、表示装置制御部801は、ユーザ操作変更フラグもONに変更する。
ステップS9312では、表示装置制御部801は、図59AのステップS9009と同様に、動画の再生が一時停止されたか、又は再生が終了したか否かを判定する。一時停止でも再生終了でもないと判定された場合、処理はステップS9308に戻り、動画の再生が継続される。
ステップS9312で動画の再生が一時停止されたか、又は再生が終了したと判定された場合、処理はステップS9313に進む。ステップS9313では、表示装置制御部801は、補正フレームの前後の未操作フレームの切り出し領域の補正情報を取得する。補正情報は、フレームメタデータの切り出し位置補正量及び切り出しサイズ補正量を含む。
図61Bを参照して、未操作フレームの補正情報取得処理について説明する。図61Bは、ステップS9313の詳細な処理を例示する。未操作フレームの補正情報取得処理では、表示装置制御部801は、映像ファイル2000の全フレームに対し、ステップS9401~ステップS9404の切り出し領域補間処理L3を実行する。ステップS9401~ステップS9404で、切り出し領域補間処理L3の処理対象のフレームは、第iフレームと記載する。
ステップS9401では、表示装置制御部801は、第iフレームのユーザ変更操作フラグがONか否かを判定する。ユーザ変更操作フラグがONと判定された場合、次のフレームに対する切り出し領域補間処理L3に進む。ユーザ変更操作フラグがOFFと判定された場合、処理はステップS9402に進む。
ステップS9402では、表示装置制御部801は、第iフレームの前後のユーザ変更操作フラグがONのフレームを検索する。図59BのステップS9101と同様に、第iフレームより前のユーザ変更操作フラグがONになっているフレームを第Naフレーム、第iフレームより後のユーザ変更操作フラグがONになっているフレームを第Nbフレーム(Na<Nb)とする。表示装置制御部801は、検索した第Naフレーム及び第Nbフレームの切り出し位置補正量及び切り出しサイズ補正量を取得する。
なお、表示装置制御部801は、第iフレームの前後のユーザ変更操作フラグがONのフレームを検索するのではなく、第iフレームの所定数前及び所定数後のフレームを第Naフレーム及び第Nbフレームとしてもよい。例えば、表示装置制御部801は、ユーザ変更操作フラグを用いずに、第(i-50)フレームを第Naフレーム、第(i+50)フレームを第Nbフレームとして、未操作フレームの切り出し領域を補正することができる。
第iフレームの前後の所定数は50に限られず、動画の総フレーム数等に基づいて適宜決定することができる。第iフレームの前と後とで所定数は異なっていてもよい。表示装置制御部801は、所定数を変更することで補間処理の負荷を調整することができる。
ステップS9403では、表示装置制御部801は、図59BのステップS9103と
同様に、第iフレームの切り出し領域の補正量を計算する。補正量は、切り出し位置補正量及び切り出しサイズ補正量を含む。
同様に、第iフレームの切り出し領域の補正量を計算する。補正量は、切り出し位置補正量及び切り出しサイズ補正量を含む。
ステップS9404では、表示装置制御部801は、図59BのステップS9104と同様に、ステップS9403で計算した補正量を、映像ファイル2000の第iフレームのフレームメタデータとして記録する。表示装置制御部801は、第iフレームの補正量を映像ファイル2000に記録すると、次のフレームに対する切り出し領域補間処理L3に進む。
図61Bの処理により、映像ファイル2000の各フレームに対して切り出し領域の補正情報が設定される。図61Bに示す処理、すなわち図61AのステップS9313の処理が終了すると、処理は図61AのステップS9314に進む。
ステップS9314では、表示装置制御部801は、再生/一時停止ボタン884の表示を「再生」を表す表示に変更する。表示装置制御部801は、ステップS9305へ戻りユーザからの操作を待つ。
ステップS9306で、ユーザ操作が生成ボタン887の選択により、切り出し動画を生成する操作であると判定された場合、処理はステップS9315に進む。ステップS9315では、図59AのステップS9016と同様に図59Cの処理を実行し、切り出し動画を生成する。
上記の実施例11によれば、表示装置800は、動画の再生中に、ユーザから切り出し領域を補正する操作を受け付け、ユーザによって補正された切り出し領域の補正量を用いて、未操作フレームの切り出し領域を補正する。したがって、ユーザは、動画を再生しながら、簡易な操作で被写体131が切り出し領域に収まった切り出し動画を生成することができる。
なお、実施例10と実施例11とは別の実施形態として説明したが、両実施例は組み合わせて実施されてもよい。また、実施例10及び実施例11では、主に切り出し領域の位置の変更について説明したが、切り出し領域の位置についての処理は、切り出し領域のサイズに対しても同様に適用可能である。切り出し領域枠882の補正は、ドラッグ又はタッチ操作による位置の移動に限られず、ピンチイン/ピンチアウト操作による拡大/縮小等のサイズの変更であってもよい。
切り出し領域のサイズの変更に対し、表示装置800は、図59BのS9103及び図61BのS9403で説明した切り出し位置の補正量の計算と同様に、未操作フレームの切り出しサイズの補正量を補間処理によって計算することができる。これにより、表示装置800は、未操作フレームについて、切り出し領域の位置だけでなく、切り出し領域のサイズ(画角)も補正することができる。
また、実施例10及び実施例11では、画像の切り出し領域の補正について説明したが、表示装置800は、音声についても左用マイク19Lと右用マイク19Rで記録した音声のバランスを、切り出し領域の補正に合わせて変更してもよい。表示装置800は、カメラ本体1が備える複数のマイクで収集した音声データを含む映像ファイル2000(動画データ)を受信し、切り出し領域の位置及びサイズの補正に応じて、複数のマイクで収集した音声データのバランスを変更することができる。音声データのバランスは、例えば、切り出し領域の中心と全領域画像の左右の各辺との距離の比に基づいて決定することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実行可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実行可能である。
800:表示装置、801:表示装置制御部、803:表示部
Claims (19)
- 動画を撮影するユーザの顔方向に基づいて設定される前記動画の切り出し領域の情報を前記動画に付加した動画データを取得する取得手段と、
前記動画データの再生時に、前記切り出し領域を示す枠を表示する表示制御手段と、
前記切り出し領域を補正するための前記枠に対する操作を受け付ける操作手段と、
前記操作によって補正された前記切り出し領域の補正情報を、前記動画データに付加する補正手段と、
前記切り出し領域の情報及び前記補正情報に基づいて、前記動画から切り出し動画を生成する生成手段と
を有することを特徴とする表示装置。 - 前記生成手段は、前記操作を受け付けたフレームである補正フレームに対する前記補正情報を用いて、前記操作を受け付けていないフレームである未操作フレームの前記切り出し領域を補正して、前記切り出し動画を生成する
ことを特徴とする請求項1に記載の表示装置。 - 前記生成手段は、前記補正フレームのうち前記未操作フレームよりも前の第1補正フレームに対する前記補正情報と、前記補正フレームのうち前記未操作フレームよりも後の第2補正フレームに対する前記補正情報とを補間して、前記未操作フレームの前記切り出し領域を補正する
ことを特徴とする請求項2に記載の表示装置。 - 前記第1補正フレームは、前記動画の最初のフレーム、又は前記動画に含まれる複数のシーンのうち前記未操作フレームが含まれるシーンの最初のフレームである
ことを特徴とする請求項3に記載の表示装置。 - 前記第2補正フレームは、前記動画の最後のフレーム、又は前記動画に含まれる複数のシーンのうち前記未操作フレームが含まれるシーンの最後のフレームである
ことを特徴とする請求項3または4に記載の表示装置。 - 前記生成手段は、前記未操作フレームの第1所定数前のフレームに対する前記補正情報と、前記未操作フレームの第2所定数後のフレームに対する前記補正情報とを補間して、前記未操作フレームの前記切り出し領域を補正する
ことを特徴とする請求項2に記載の表示装置。 - 前記生成手段は、前記未操作フレームの前記切り出し領域を、線形補間、ease-in及びease-outによる三次関数補間、並びに多点補間のうち少なくともいずれかの方法により補正する
ことを特徴とする請求項3~6のいずれか1項に記載の表示装置。 - 前記切り出し領域の補正は、前記切り出し領域の位置及びサイズの少なくともいずれかを変更することを含む
ことを特徴とする請求項1~7のいずれか1項に記載の表示装置。 - 前記補正情報は、ユーザ操作によって前記切り出し領域が補正されたか否かを示すユーザ変更操作フラグ、前記ユーザ操作によって補正された前記切り出し領域の位置の補正量である切り出し位置補正量、前記ユーザ操作によって補正された前記切り出し領域のサイズの補正量である切り出しサイズ補正量の情報の少なくともいずれかを含む
ことを特徴とする請求項1~8のいずれか1項に記載の表示装置。 - 前記操作は、前記切り出し領域の移動先に前記枠をドラッグする操作である
ことを特徴とする請求項1~9のいずれか1項に記載の表示装置。 - 前記操作は、前記切り出し領域の移動先又は撮像対象の被写体をタップする操作であることを特徴とする請求項1~9のいずれか1項に記載の表示装置。
- 前記操作は、前記枠をピンチイン又はピンチアウトする操作である
ことを特徴とする請求項1~9のいずれか1項に記載の表示装置。 - 前記操作は、前記動画の再生中に、前記枠の移動先又は撮像対象の被写体をタッチする操作である
ことを特徴とする請求項1~9のいずれか1項に記載の表示装置。 - 前記操作は、前記動画の再生中に、前記枠をピンチイン又はピンチアウトする操作である
ことを特徴とする請求項1~9のいずれか1項に記載の表示装置。 - 前記動画は、等倍速未満の速度で再生される
ことを特徴とする請求項13または14に記載の表示装置。 - 前記動画データは、前記動画を撮影する際に複数のマイクで収集した音声データを含み、
前記生成手段は、前記切り出し領域の補正に応じて、前記複数のマイクで収集した音声データのバランスを変更する
ことを特徴とする請求項1~15のいずれか1項に記載の表示装置。 - 動画を撮影するユーザの顔方向に基づいて設定される前記動画の切り出し領域の情報を前記動画に付加した動画データを取得する取得ステップと、
前記動画データの再生時に、前記切り出し領域を示す枠を表示する表示制御ステップと、
前記切り出し領域を補正するための前記枠に対する操作を受け付ける操作ステップと、
前記操作によって補正された前記切り出し領域の補正情報を、前記動画データに付加する補正ステップと、
前記切り出し領域の情報及び前記補正情報に基づいて、前記動画から切り出し動画を生成する生成ステップと
を有することを特徴とする表示装置の制御方法。 - コンピュータを、請求項1~16のいずれか1項に記載の表示装置の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~16のいずれか1項に記載の表示装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022049063A JP2023142257A (ja) | 2022-03-24 | 2022-03-24 | 表示装置、及び表示装置の制御方法 |
US18/188,230 US12170833B2 (en) | 2022-03-24 | 2023-03-22 | Display device and method for controlling display device |
CN202310291917.0A CN116805984A (zh) | 2022-03-24 | 2023-03-23 | 显示装置、显示装置的控制方法和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022049063A JP2023142257A (ja) | 2022-03-24 | 2022-03-24 | 表示装置、及び表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023142257A true JP2023142257A (ja) | 2023-10-05 |
Family
ID=88078974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022049063A Pending JP2023142257A (ja) | 2022-03-24 | 2022-03-24 | 表示装置、及び表示装置の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US12170833B2 (ja) |
JP (1) | JP2023142257A (ja) |
CN (1) | CN116805984A (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007074033A (ja) | 2005-09-02 | 2007-03-22 | Canon Inc | 撮像装置及びその制御方法及びプログラム及び記憶媒体 |
JP6249202B2 (ja) * | 2013-05-10 | 2017-12-20 | ソニー株式会社 | 画像表示装置、画像表示方法、およびプログラム |
JP2017060078A (ja) | 2015-09-18 | 2017-03-23 | カシオ計算機株式会社 | 画像録画システム、ユーザ装着装置、撮像装置、画像処理装置、画像録画方法、及びプログラム |
JP2017212550A (ja) | 2016-05-24 | 2017-11-30 | キヤノン株式会社 | 画像再生装置及びその制御方法、プログラム、記憶媒体 |
-
2022
- 2022-03-24 JP JP2022049063A patent/JP2023142257A/ja active Pending
-
2023
- 2023-03-22 US US18/188,230 patent/US12170833B2/en active Active
- 2023-03-23 CN CN202310291917.0A patent/CN116805984A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230308613A1 (en) | 2023-09-28 |
CN116805984A (zh) | 2023-09-26 |
US12170833B2 (en) | 2024-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10666856B1 (en) | Gaze-directed photography via augmented reality feedback | |
KR20220128585A (ko) | 웨어러블 촬상장치, 촬상장치와 통신하는 휴대 기기 및 캘리브레이터, 이들의 제어방법과 이들의 제어 프로그램을 기억한 기억매체 | |
WO2018051815A1 (ja) | 情報処理装置および方法、並びにプログラム | |
US9927948B2 (en) | Image display apparatus and image display method | |
US9426379B2 (en) | Photographing unit, cooperative photographing method, and recording medium having recorded program | |
KR20190080779A (ko) | 전자기기 및 그 제어 방법 | |
GB2611154A (en) | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor | |
KR20180017591A (ko) | 카메라 장치, 디스플레이 장치 및 그 장치에서 움직임을 보정하는 방법 | |
KR20230019016A (ko) | 액션 카메라로서 사용되는 촬상장치 | |
JP2023142257A (ja) | 表示装置、及び表示装置の制御方法 | |
JP2022140328A (ja) | 撮像装置、携帯機器、キャリブレータ、及びこれらの制御方法並びにプログラム | |
US20230126836A1 (en) | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor | |
JP2022140418A (ja) | 撮像装置 | |
JP2022140422A (ja) | 撮像装置、制御方法、並びにプログラム | |
JP2023154539A (ja) | 撮像装置、撮像装置の制御方法、表示装置及び撮像システム | |
JP2022140424A (ja) | 撮像装置及びその制御方法並びにプログラム | |
JP2024097267A (ja) | 撮像装置、キャリブレータ、及びこれらの制御方法並びにプログラム | |
JP2023067530A (ja) | 撮像装置及びその制御方法並びにプログラム | |
JP2023055074A (ja) | 撮像装置及びその制御方法並びにプログラム | |
JP2022140419A (ja) | 撮像装置、制御方法及びプログラム | |
JP2022140417A (ja) | 撮像装置、キャリブレーションシステム、及び撮像装置の制御方法並びにプログラム | |
US20230269483A1 (en) | Electronic device and electronic device control method | |
JP2024142014A (ja) | 撮像装置、撮像装置の制御方法、プログラム、及び記憶媒体 | |
CN115696057A (zh) | 摄像设备、控制方法和程序 | |
JP2023087468A (ja) | 撮像装置、制御方法およびプログラム |