IT202100013115A1 - Image capture method - Google Patents

Image capture method Download PDF

Info

Publication number
IT202100013115A1
IT202100013115A1 IT102021000013115A IT202100013115A IT202100013115A1 IT 202100013115 A1 IT202100013115 A1 IT 202100013115A1 IT 102021000013115 A IT102021000013115 A IT 102021000013115A IT 202100013115 A IT202100013115 A IT 202100013115A IT 202100013115 A1 IT202100013115 A1 IT 202100013115A1
Authority
IT
Italy
Prior art keywords
data
user
image
significance
remote
Prior art date
Application number
IT102021000013115A
Other languages
Italian (it)
Inventor
Alberto Sanna
Original Assignee
Ospedale San Raffaele Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ospedale San Raffaele Srl filed Critical Ospedale San Raffaele Srl
Priority to IT102021000013115A priority Critical patent/IT202100013115A1/en
Priority to PCT/EP2022/063307 priority patent/WO2022243304A1/en
Priority to EP22730125.6A priority patent/EP4342168A1/en
Publication of IT202100013115A1 publication Critical patent/IT202100013115A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Steroid Compounds (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

attivazione dell'otturatore di una fotocamera activating a camera shutter

PRIVATO E RISERVATO PRIVATE AND CONFIDENTIAL

Metodo di acquisizione di immagini Image capture method

L'invenzione riguarda un metodo di acquisizione di immagini e un corrispondente dispositivo e sistema per acquisire un'immagine, il sistema comprendendo detto apparato. L'invenzione riguarda anche un programma che implementa il metodo di acquisizione di immagini e un supporto di archiviazione comprendente detto programma. The invention relates to an image acquisition method and a corresponding device and system for acquiring an image, the system comprising said apparatus. The invention also relates to a program which implements the image acquisition method and to a storage medium comprising said program.

La fotografia ? amata da molte persone, soprattutto ai giorni nostri grazie alla possibilit? di scattare una foto in qualsiasi momento utilizzando dispositivi quotidiani diversi dalle fotocamere tradizionali, come telefoni cellulari, tablet o laptop. Spesso, le persone desiderano fotografare un soggetto in situazioni particolari, ma non sono sempre in grado di catturare il cosiddetto "momento magico" per rendere l'immagine memorabile. Infatti, in molti casi, oltre agli aspetti tecnici, come la corretta esposizione alla luce, la messa a fuoco della fotocamera o lo sfondo adatto, le immagini migliori sono il risultato di sensazioni emotive che il fotografo prova in quella particolare situazione quando osserva il soggetto. Le sensazioni emotive sono spesso sensazioni inconsce che un fotografo esperto pu? solitamente gestire allo scopo di scattare una foto. D'altro canto, per la maggior parte delle persone senza particolari abilit? fotografiche, ? difficile riconoscere queste sensazioni e correlarle con l'attivazione dello scatto fotografico. The photography ? loved by many people, especially nowadays thanks to the possibility? to take a picture at any time using everyday devices other than traditional cameras, such as mobile phones, tablets or laptops. Often, people want to photograph a subject in a special situation, but are not always able to capture the so-called "magic moment" to make the image memorable. In fact, in many cases, in addition to the technical aspects, such as the correct exposure to the light, the focus of the camera or the right background, the best images are the result of the emotional sensations that the photographer feels in that particular situation when he observes the subject . Emotional sensations are often unconscious sensations that an experienced photographer can usually handle for the purpose of taking a picture. On the other hand, for most people with no special skills? photographic, ? difficult to recognize these sensations and correlate them with the activation of the photographic shot.

Nella tecnica anteriore, ? noto che diversi metodi e sistemi riconoscono le emozioni. In particolare, il riconoscimento delle emozioni ? una tecnologia per prevedere gli stati emotivi delle persone in base alle risposte degli utenti come le espressioni verbali o facciali. Questa tecnologia pu? essere applicata in vari campi, come l'assistenza sanitaria, il gioco e l'istruzione. Per aiutare queste applicazioni, la tecnologia riconosce le emozioni in tempo reale e naturalmente mentre l'utente le sperimenta. A questo scopo, ? possibile impiegare dispositivi indossabili che si basano su segnali bioelettrici che indicano risposte fisiologiche dell'utente. In the prior art, ? I notice that different methods and systems recognize emotions. In particular, the recognition of emotions ? a technology to predict people's emotional states based on user responses such as verbal or facial expressions. This technology can be applied in various fields, such as health care, game and education. To help these applications, the technology recognizes emotions in real time and naturally as the user experiences them. For this purpose, ? It is possible to employ wearable devices that rely on bioelectrical signals that indicate physiological responses of the user.

Tuttavia, tutti questi metodi e sistemi noti non sono sufficientemente efficienti poich? sono limitati nel rilevare e analizzare solo le reazioni passive o involontarie di un utente (vale a dire le sensazioni emotive come conseguenza dello stimolo visivo) tralasciando altri aspetti importanti come le reazioni volontarie a detto stimolo in termini di fattori cognitivi. Inoltre, i metodi e i sistemi della tecnica anteriore non sono configurati per bypassare i passaggi coscienti e biomeccanici che portano l'utente a premere il pulsante per scattare la foto e modificare i parametri fotografici (ad esempio zoom, messa a fuoco, ecc.) per acquisire l'immagine, o parte dell'immagine (ad esempio a causa dello zoom di una parte dell'immagine), del soggetto che si sta osservazione. However, all of these known methods and systems are not efficient enough since they are limited in detecting and analyzing only the passive or involuntary reactions of a user (i.e. emotional sensations as a consequence of the visual stimulus) leaving out other important aspects such as the voluntary reactions to said stimulus in terms of cognitive factors. Furthermore, prior art methods and systems are not configured to bypass the conscious and biomechanical steps that lead the user to press the button to take the picture and change the photographic parameters (e.g. zoom, focus, etc.) to capture the image, or part of the image (for example due to the zoom of a part of the image), of the subject you are observing.

Esempi della presente descrizione cercano di affrontare o almeno alleviare i suddetti problemi. Examples of the present disclosure seek to address or at least alleviate the above problems.

Secondo un primo aspetto dell'invenzione, viene fornito un metodo di acquisizione di immagini che utilizza un apparato di acquisizione di immagini che comprende un dispositivo di imaging avente un sensore di immagini per generare dati di immagine, il metodo comprendendo: la visualizzazione, usando un dispositivo di riproduzione di immagini, immagini acquisite dal dispositivo di imaging in base ai dati di immagine; la generazione dati attributi da una pluralit? di segnali biologici misurati da una pluralit? di sensori biologici, i dati attributi essendo indicativi di attributi di un utente in un momento in cui l'utente sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini; la generazione di dati di significativit? in base ai dati attributi e l'associazione dei dati attributi dai quali vengono generati i dati di significativit? a ciascuna immagine acquisita; il controllo dei parametri fotografici dell'apparato di acquisizione di immagini in base ai dati attributi; According to a first aspect of the invention, there is provided an image acquisition method that uses an image acquisition apparatus comprising an imaging device having an image sensor for generating image data, the method comprising: displaying, using a imaging device, images captured by the imaging device based on the image data; the generation of attribute data from a plurality? of biological signals measured by a plurality? of biological sensors, the attribute data being indicative of attributes of a user at a time when the user is viewing images displayed by the image reproducing device; the generation of data of significance? based on the data attributes and the association of the data attributes from which the data of significance are generated? to each captured image; controlling the photographic parameters of the image acquisition apparatus based on the attribute data;

l'analisi dei dati di significativit? per determinare se le immagini visualizzate devono essere acquisite e archiviate; e l'archiviazione dei dati di immagine delle immagini visualizzate insieme ai dati attributi in un dispositivo di archiviazione sulla base dei dati di significativit? analizzati. the analysis of the data of significance? to determine whether displayed images should be captured and archived; and storing the image data of the displayed images together with the attribute data in a storage device on the basis of the significance data? analysed.

In un secondo aspetto dell'invenzione, viene fornito un programma comprendente istruzioni leggibili da un processore che, quando implementate da un processore, fanno s? che il processore implementi il metodo come sopra definito. In a second aspect of the invention, there is provided a program comprising processor-readable instructions which, when implemented by a processor, cause that the processor implements the method as defined above.

In un terzo aspetto dell'invenzione, viene fornito un supporto di archiviazione comprendente il programma come sopra definito. In a third aspect of the invention, a storage medium comprising the program as defined above is provided.

In un quarto aspetto dell'invenzione viene fornito un apparato di acquisizione di immagini, comprendente: un dispositivo di imaging comprendente un sensore di immagini azionabile per generare dati di immagine; un dispositivo di riproduzione di immagini azionabile per visualizzare immagini acquisite dal dispositivo di imaging in base ai dati di immagine; un processore azionabile per: generare dati attributi da una pluralit? di segnali biologici misurati da una pluralit? di sensori biologici, i dati attributi essendo indicativi di attributi di un utente in un momento in cui l'utente sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini; generare dati di significativit? in base ai dati attributi e associare i dati attributi dai quali vengono generati i dati di significativit? a ciascuna immagine acquisita; controllare i parametri fotografici dell'apparato di acquisizione di immagini in base ai dati attributi; analizzare i dati di significativit? per determinare se le immagini visualizzate debbano essere acquisite e archiviate; e archiviare i dati di immagine delle immagini visualizzate insieme ai dati attributi in un dispositivo di archiviazione (7) in base ai dati di significativit? analizzati. In a fourth aspect of the invention there is provided an image acquisition apparatus, comprising: an imaging device comprising an image sensor operable to generate image data; an image playback device operable to display images acquired by the imaging device based on the image data; a processor operable to: generate data attributes from a plurality? of biological signals measured by a plurality? of biological sensors, the attribute data being indicative of attributes of a user at a time when the user is viewing images displayed by the image reproducing device; generate data of significance? based on the data attributes and associate the data attributes from which the data of significance are generated? to each captured image; controlling the photographic parameters of the image acquisition apparatus based on the attribute data; analyze the data of significance? to determine whether displayed images should be captured and archived; and storing the image data of the displayed images together with the attribute data in a storage device (7) according to the significance data? analysed.

In un quinto aspetto dell'invenzione, viene fornito un sistema di acquisizione di immagini comprendente: una pluralit? di sensori biologici; e In a fifth aspect of the invention, there is provided an image acquisition system comprising: a plurality of? of biological sensors; And

un apparato di acquisizione di immagini come sopra definito. an image acquisition apparatus as defined above.

Altri aspetti e caratteristiche vengono definiti nelle rivendicazioni allegate. Other aspects and features are defined in the appended claims.

Esempi della descrizione possono rendere possibile l'utilizzo di dati attributi, quindi non solo gli attributi fisiologici dell'utente, ma anche gli attributi cognitivi ed emotivi, per regolare i parametri fotografici (ad esempio messa a fuoco, zoom in avanti/indietro, esposizione alla luce...) dell'apparato di acquisizione di immagini, ad esempio una fotocamera, e per acquisire un'immagine, da archiviare con i corrispondenti dati di immagine. Examples of the description can make it possible to use attribute data, i.e. not only physiological attributes of the user, but also cognitive and emotional attributes, to adjust photographic parameters (e.g. focus, zoom in/out, exposure in the light...) of the image capturing apparatus, such as a camera, and to capture an image, to be stored with the corresponding image data.

Verranno ora descritti esempi della descrizione, a mero titolo esemplificativo e con riferimento ai disegni allegati in cui numeri di riferimento simili fanno riferimento a parti simili, in cui: Examples of the disclosure will now be described, by way of example only and with reference to the accompanying drawings in which like reference numerals refer to like parts, wherein:

la Figura 1 mostra un diagramma di flusso di metodo di acquisizione di immagini secondo un esempio. Figure 1 shows an image acquisition method flowchart according to an example.

la Figura 2 mostra una rappresentazione schematica dell'apparato di acquisizione di immagini e del sistema di acquisizione di immagini secondo un esempio. Fig. 2 shows a schematic representation of the image acquisition apparatus and the image acquisition system according to an example.

La Figura 3 mostra una rappresentazione schematica del flusso di dati per il funzionamento del processore secondo un esempio. FIG. 3 shows a schematic representation of the data flow for processor operation according to an example.

La Figura 4 mostra un diagramma schematico del processo per l'attivazione di una ripresa di un dispositivo di imaging usando il metodo di acquisizione di immagini secondo un esempio. Fig. 4 shows a schematic process diagram for triggering a take of an imaging device using the image acquisition method according to an example.

La Figura 5 mostra un sistema di messa a punto dei parametri del modello. Figure 5 shows a system for tuning the model parameters.

La figura 6 mostra un diagramma schematico del processo per far fronte a segnali asincroni. Figure 6 shows a schematic diagram of the process for coping with asynchronous signals.

La figura 7 mostra un diagramma schematico del processo l'attivazione di una ripresa di un dispositivo di imaging con un singolo utente e una pluralit? di utenti aggiuntivi. Figure 7 shows a schematic diagram of the process of triggering a take of an imaging device with a single user and a plurality of users. of additional users.

La Figura 8 mostra un diagramma di flusso di un sistema di acquisizione di immagini con un telefono cellulare come dispositivo di imaging. Figure 8 shows a flowchart of an image acquisition system with a mobile phone as the imaging device.

La Figura 9 mostra un diagramma di flusso di un sistema di acquisizione di immagini con un dispositivo fotografico come dispositivo di imaging. Figure 9 shows a flowchart of an image acquisition system with a photographic device as the imaging device.

La Figura 10 mostra una rappresentazione schematica di un sistema informatico. Figure 10 shows a schematic representation of a computer system.

Vengono descritti un metodo di acquisizione di immagini, un apparato di acquisizione di immagini e un sistema di acquisizione di immagini. Nella seguente descrizione, vengono presentati in ordine alcuni dettagli specifici allo scopo di offrire una comprensione esaustiva degli esempi della descrizione. Risulter? tuttavia evidente a una persona esperta nel ramo che questi dettagli specifici non devono essere impiegati per mettere in atto gli esempi della descrizione. Viceversa, dettagli specifici noti alla persona esperta nel ramo vengono omessi ai fini della chiarezza nel presentare gli esempi. An image acquisition method, an image acquisition apparatus and an image acquisition system are described. In the following description, some specific details are presented in order to provide a comprehensive understanding of the examples of the description. will result? however, it will be apparent to one skilled in the art that these specific details are not to be employed to implement the examples of the disclosure. Conversely, specific details known to the person skilled in the art are omitted for the sake of clarity in presenting the examples.

Le Figure 1, 2 e 3 vengono usate per descrivere i passaggi del metodo 100 per acquisire un'immagine impiegando il corrispondente apparato 1. L'apparato di acquisizione di immagini 1 comprende un dispositivo di imaging 2 avente un sensore di immagini 3 per acquisire un'immagine e per generare dati di immagine, e un dispositivo di riproduzione di immagini 4 per ricevere i dati di immagine e per visualizzare l'immagine. Inoltre, l'apparato 1 comprende un processore 5 collegato sia al dispositivo di imaging 2 sia al dispositivo di riproduzione di immagini 4 per l'elaborazione di dati informativi derivati da questi due dispositivi. Il processore 5 ? collegato anche ad altri dispositivi, come una pluralit? di sensori biologici 6 e un dispositivo di archiviazione 7. Occorre notare che un sistema di acquisizione di immagini 9 comprende il suddetto apparato 1 e la pluralit? di sensori biologici 6. Figures 1 , 2 and 3 are used to describe the steps of the method 100 for acquiring an image using the corresponding apparatus 1. The image acquiring apparatus 1 comprises an imaging device 2 having an image sensor 3 for acquiring a image and for generating image data, and an image reproduction device 4 for receiving the image data and for displaying the image. Furthermore, the apparatus 1 comprises a processor 5 connected to both the imaging device 2 and the image reproduction device 4 for processing information data derived from these two devices. Processor 5 ? also connected to other devices, as a plurality? of biological sensors 6 and a storage device 7. It should be noted that an image acquisition system 9 comprises the aforementioned apparatus 1 and the plurality of biological sensors 6.

Nel passaggio S101 del metodo 100, il dispositivo di riproduzione di immagini 4 viene usato per visualizzare le immagini acquisite dal dispositivo di imaging 2 in base ai dati di immagine derivati dal dispositivo di imaging 2. A questo punto, un utente sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini 4. I sensori biologici 6 vengono usati per misurare i segnali biologici dell'utente e i dati attributi vengono generati nel passaggio S102 usando detti segnali. In particolare, i dati attributi sono indicativi di attributi di un utente in un momento in cui l'utente sta osservando le immagini, e/o un sottoinsieme dell'immagine, visualizzati dal dispositivo di riproduzione di immagini 4. Nel passaggio S103, i dati di significativit? vengono generati sulla base dei dati attributi e i dati attributi vengono associati dai quali vengono generati i dati di significativit? a ciascuna immagine acquisita. I parametri fotografici dell'apparato di acquisizione di immagini 1 vengono controllati sulla base dei dati attributi nel passaggio S104 e i dati di significativit? vengono analizzati nel passaggio S105 per determinare se le immagini visualizzate devono essere acquisite e archiviate. Nel passaggio S106, i dati di immagine delle immagini visualizzate vengono archiviati insieme ai dati attributi in un dispositivo di archiviazione 7 in base ai dati di significativit? analizzati. I dati attributi possono essere archiviati in modo indipendente dalle immagini visualizzate. Il dispositivo di archiviazione 7 pu? far parte dell'apparato 1 o pu? fare parte del sistema 9. In alternativa, il dispositivo di archiviazione 7 pu? anche essere posizionato a distanza dall'apparato 1 e dal sistema 9, ad esempio in un server remoto in una piattaforma cloud. In step S101 of method 100, the imaging device 4 is used to display the images acquired by the imaging device 2 based on the image data derived from the imaging device 2. At this time, a user is observing the displayed images by the imaging device 4. The biological sensors 6 are used to measure the biological signals of the user, and the attribute data is generated in step S102 using said signals. In particular, the attribute data is indicative of attributes of a user at a time when the user is viewing the images, and/or a subset of the image, displayed by the image reproduction device 4. In step S103, the data of significance are generated on the basis of the attribute data and the attribute data are associated from which the significance data is generated? to each captured image. Are the photographic parameters of the image acquisition apparatus 1 checked based on the attribute data in step S104 and the significance data? are analyzed in step S105 to determine whether the displayed images are to be acquired and stored. In step S106, the image data of the displayed images is stored together with the attribute data in a storage device 7 based on the significance data? analysed. Attribute data can be stored independently of the displayed images. Storage device 7 can? be part of the apparatus 1 or pu? be part of system 9. Alternatively, storage device 7 can? also be located remotely from the apparatus 1 and the system 9, for example in a remote server in a cloud platform.

Il funzionamento del processore 5 della Figura 2 viene chiarito meglio nella Figura 3. Secondo questa figura, il dispositivo di imaging 2 ? azionabile per acquisire dati di immagine (ID) che vengono visualizzati, ad esempio attraverso uno schermo. Una o pi? immagini acquisite (CI) vengono mostrate sullo schermo mediante un modulo di visualizzazione 51. Il dispositivo di imaging 2, che ? un dispositivo di tipo fotografico (ad esempio telefono cellulare, fotocamera, ecc.) e il relativo hardware/software per la selezione della molteplicit? di parametri di scatto (ad esempio zoom in avanti/indietro, messa a fuoco, esposizione, ritaglio, inclinazione, filtraggio, ecc.) pu? rappresentare l'implementazione fisica dell'apparato 1. The operation of the processor 5 of Figure 2 is better clarified in Figure 3 . According to this figure, the imaging device 2 ? operable to acquire image data (ID) which is displayed, for example through a screen. One or more? acquired images (CI) are shown on the screen by a display module 51. The imaging device 2, which ? a photographic type device (e.g. cell phone, camera, etc.) and related hardware/software for selecting the multiplicity? of shooting parameters (such as zoom in / out, focus, exposure, crop, tilt, filtering, etc.) pu? represent the physical implementation of the apparatus 1.

Con il termine ?dispositivo di riproduzione di immagini? si intende coprire qualsiasi tipo di dispositivo che possa causare la riproduzione di un'immagine, ad esempio schermo attivo/passivo, apparato di proiezione anteriore/posteriore, proiezione diretta sull'occhio o diretta sul cristallino dell'occhio. With the term ?imaging device? it is intended to cover any type of device that may cause an image to be reproduced, such as an active/passive screen, front/rear projection apparatus, direct-to-the-eye or direct-to-the-lens projection.

Un insieme di sensori biologici 6 consente l'acquisizione dell'attivit? biologica (vale a dire biomeccanica, neurofisiologica e cognitiva) di un utente (o pi? utenti) e comunica con l'apparato 1 con una modalit? in tempo reale, che pu? essere considerata una cosiddetta modalit? sincrona. Ad esempio, la Figura 3 mostra l'impiego di quattro sensori, vale a dire un sensore per misurare il battito cardiaco, un sensore per misurare il diametro della pupilla, un rilevatore di sguardi e un microfono. Ogni sensore ? azionabile per generare un corrispondente segnale biologico (BS). L'utente interagisce con il dispositivo di imaging 2 attraverso un sistema di elaborazione in tempo reale di segnali estratti dai sensori biologici 6. Tuttavia, si sottolinea che nel caso in cui i segnali siano raccolti in modalit? asincrona, ad esempio a causa di latenza di rilevamento biologica o hardware/software, una data elaborazione dei dati consente una sincronizzazione virtuale, in cui vi ? prima una post-elaborazione di dati grezzi e quindi delle previsioni basate su dati precedentemente acquisiti. In particolare, per ovviare a problemi di sincronismo, il metodo pu? inoltre comprendere la sincronizzazione temporale dei segnali biologici tra loro e/o con i dati di immagine. Qui, una modalit? asincrona pu? essere considerata una situazione in cui la temporizzazione dei segnali biologici non corrisponde alla temporizzazione della visualizzazione delle immagini. Occorre notare che per scopi reali e futuri (artistici, emotivi...) di post-elaborazione e post-analisi, tutti i dati possono essere archiviati come metadati associati. In questo modo, oltre ad una previsione in tempo reale dei segnali, ? possibile sincronizzare successivamente i segnali al fine di elaborare e analizzare i segnali in un secondo momento. A set of 6 biological sensors allows the acquisition of the activity? biological (that is to say biomechanics, neurophysiological and cognitive) of a user (or more? users) and communicates with the apparatus 1 with a modality? in real time, which can? be considered a so-called mode? synchronous. For example, Figure 3 shows the use of four sensors, namely a sensor for measuring heart rate, a sensor for measuring pupil diameter, a gaze detector and a microphone. Each sensor? operable to generate a corresponding biological signal (BS). The user interacts with the imaging device 2 through a real-time processing system of signals extracted from the biological sensors 6. asynchronous, for example due to biological or hardware/software sensing latency, a given data processing allows for a virtual synchronization, in which there is? first a post-processing of raw data and then predictions based on previously acquired data. In particular, to remedy synchronism problems, the method can? further comprising temporal synchronization of the biological signals with each other and/or with the image data. Here, a mode? asynchronous can? be considered a situation where the timing of the biological signals does not match the timing of the image display. It should be noted that for real and future (artistic, emotional…) post-processing and post-analysis purposes, all data can be stored as associated metadata. In this way, in addition to a real-time forecast of the signals, ? It is possible to subsequently synchronize the signals in order to process and analyze the signals at a later time.

Al fine di ricevere i segnali biologici dagli uno o pi? sensori biologici, in un esempio l'apparato pu? comprendere un'interfaccia di comunicazione. In order to receive biological signals from one or more? biological sensors, in an example the apparatus can? include a communication interface.

I dati attributi (AD), indicativi degli attributi dell'utente in un momento in cui l'utente sta osservando le immagini visualizzate, vengono generati dai segnali biologici mediante un modulo di generazione 52 di dati attributi e i dati di significativit? (SD) vengono generati associando i dati attributi (AD) a ciascuna immagine acquisita (CI) mediante un modulo di associazione 53. I dati attributi (AD) vengono anche usati per controllare i parametri fotografici del dispositivo di imaging 2 mediante un modulo di controllo 54. Occorre notare che i parametri fotografici possono essere controllati utilizzando attuatori dedicati, come un insieme di componenti ottici, digitali e/o meccanici. A questo punto, i dati di significativit? (SD) vengono analizzati da un modulo di analisi 55 e i dati di immagine (ID) vengono archiviati insieme ai dati attributi (AD) sulla base del risultato dell'analisi dei dati di significativit? (SD) in un modulo di archiviazione 56. Come accennato sopra, i dati di immagine vengono archiviati insieme ai dati attributi derivanti dall'utente. Secondo un esempio, i dati attributi comprendono i dati di segnale dei segnali biologici misurati. Ad esempio, gli attributi dell'utente nel momento in cui sta osservando le immagini visualizzate, possono riferirsi alla frequenza cardiaca, a quale parte dell'immagine sta guardando, se effettua vocalizzazioni in reazione alla visualizzazione dell'immagine, ecc. Inoltre, si apprezzer? che gli attributi dell'utente potrebbero riferirsi ai suoi processi cognitivi e/o emozioni durante la visualizzazione delle immagini. The attribute data (AD), indicative of the user's attributes at a time when the user is observing the displayed images, are generated from the biological signals by means of an attribute data generation module 52 and the significance data (SD) are generated by associating the attribute data (AD) with each acquired image (CI) by means of an association module 53. The attribute data (AD) is also used to control the photographic parameters of the imaging device 2 by means of a control module 54. It should be noted that photographic parameters can be controlled using dedicated actuators, such as an assembly of optical, digital and/or mechanical components. At this point, the data of significance? (SD) are analyzed by an analysis module 55 and the image data (ID) is stored together with the attribute data (AD) based on the result of the analysis of the significance data? (SD) in a storage module 56. As mentioned above, the image data is stored together with the user-derived attribute data. According to one example, the attribute data comprises the signal data of the measured biological signals. For example, the attributes of the user when he is observing the images displayed may refer to the heart rate, which part of the image he is looking at, whether he makes vocalizations in reaction to viewing the image, etc. Also, will you appreciate it? that the user's attributes could refer to his cognitive processes and/or emotions when viewing the images.

Piuttosto che l'interazione tra l'utente e il dispositivo di imaging 2 che si verifica attraverso interazioni di natura biomeccanica (ad esempio la pressione del pulsante per scattare la foto, la rotazione dell'obiettivo per eseguire uno zoom in avanti/indietro della messa a fuoco, comandi di regolazione/touch screen, ecc.), gli esempi della presente descrizione consentono a un utente di interagire con l'apparato, ad esempio attraverso un motore di intelligenza artificiale (IA) che trasforma i dati dei segnali in informazioni cognitive, emotive e decisionali. Ad esempio, se un sensore biologico 6 come un sensore di tracciamento oculare rileva una fissazione prolungata di una certa porzione dello scenario incorniciato, l'apparato 1 pu? spostare la sua messa a fuoco su quella porzione applicando uno zoom in avanti di grandezza proporzionale alla durata della fissazione. Occorre notare che questo non ? inteso come un comando esplicito da parte dell'operatore umano ? che non ? allenato, o ha bisogno di essere allenato, per imparare a cambiare la modalit? per ottenere tale risultato. D'altro canto, l'apparato 1 pu? elaborare i dati acquisiti per determinare il livello di significativit? associato a tali dati fisiologici e di conseguenza determinare l'insieme corretto/correlato di parametri di scatto e attivare un output relativo alla decisione di scattare o non scattare. Infatti, l'insieme dei segnali biologici viene utilizzato come parametro multivariato per la classificazione dell'attivazione dello scatto della foto: evento di scatto o evento non di scatto. Ci? significa che un particolare stato biologico cognitivo corrisponde all'esecuzione di uno scatto fotografico. Occorre notare che all'utente ? ancora consentito utilizzare il dispositivo di imaging 2 in modalit? standard, decidendo ad esempio quando premere direttamente il pulsante per lo scatto. In questo caso, i metadati emotivi/cognitivi dell'utente sono comunque associati allo scatto fotografico per scopi futuri/di postelaborazione, a meno che non venga impostato un comando esplicito di non procedere. Sebbene questa funzionalit? possa essere implementata usando l'intelligenza artificiale, si apprezzer? che qualsiasi forma appropriata di apprendimento automatico potrebbe essere utilizzata, ad esempio, sulla base di set di dati allenati. Ci si render? inoltre conto che questa funzionalit? potrebbe essere implementata con logica decisionale, come la logica fuzzy, o qualsiasi altra logica appropriata. Rather than the interaction between the user and the imaging device 2 which occurs through interactions of a biomechanical nature (e.g. pressing the button to take the picture, rotating the lens to zoom in/out of the focus, adjustment commands/touch screen, etc.), the examples of the present description allow a user to interact with the apparatus, for example through an artificial intelligence engine (AI) which transforms signal data into cognitive information emotional and decision-making. For example, if a biological sensor 6 such as an eye tracking sensor detects a prolonged fixation of a certain portion of the framed scenery, the apparatus 1 can? move its focus to that portion by applying a zoom in of magnitude proportional to the duration of the fixation. It should be noted that this is not understood as an explicit command from the human operator ? that does not ? trained, or needs to be trained, to learn how to change the mode? to obtain this result. On the other hand, the apparatus 1 pu? process the acquired data to determine the level of significance? associated with such physiological data and consequently determine the correct/correlated set of trigger parameters and activate an output related to the decision to trigger or not trigger. In fact, the set of biological signals is used as a multivariate parameter for the classification of the triggering of the photo: trigger event or non-trigger event. There? it means that a particular cognitive biological state corresponds to the execution of a photographic shot. It should be noted that the user ? still allowed to use imaging device 2 in mode? standard, for example deciding when to press the shutter button directly. In this case, the user's emotional/cognitive metadata is still associated with the photo shot for future/post-processing purposes unless an explicit command not to proceed is set. Although this feature? can be implemented using artificial intelligence, will be appreciated? that any appropriate form of machine learning could be used, for example, based on trained datasets. Will we make it? also account that this functionality? it could be implemented with decision logic, such as fuzzy logic, or any other appropriate logic.

Il termine ?sensori biologici? intende indicare un insieme di sensori fisiologici, comportamentali e ambientali multipli che consentono l'acquisizione di segnali o dati direttamente e/o indirettamente correlati agli attributi fisiologici, cognitivi ed emotivi dell'utente locale. Di conseguenza, i dati attributi rappresentano metadati contenenti informazioni riguardanti i diversi attributi (ad esempio fisiologici, cognitivi, emotivi) dell'utente. The term ?biological sensors? intends to indicate a set of multiple physiological, behavioral and environmental sensors that allow the acquisition of signals or data directly and/or indirectly related to the physiological, cognitive and emotional attributes of the local user. Consequently, attribute data represents metadata containing information regarding different attributes (e.g., physiological, cognitive, emotional) of the user.

In un esempio, per migliorare l'efficacia del metodo, i dati di significativit? possono comprendere una pluralit? di livelli di significativit?, ciascuno associato a un rispettivo segnale biologico dal quale sono stati generati i dati attributi. Di conseguenza, l'analisi dei dati di significativit? pu? comprendere la generazione di un livello di significativit? combinato sulla base dei livelli di significativit? per ciascuno dei segnali biologici. Inoltre, l'archiviazione dei dati di immagine insieme ai dati attributi pu? comprendere l'archiviazione delle immagini visualizzate nel dispositivo di archiviazione insieme ai dati attributi sulla base di un confronto tra il livello di significativit? combinato e un livello di soglia di attivazione. Ci? significa che il livello di significativit? combinato potrebbe essere maggiore, minore, uguale o una qualche funzione del livello di soglia al fine di archiviare le immagini visualizzate insieme ai dati attributi. In un esempio, se il livello di significativit? combinato supera il livello di soglia di attivazione, il metodo pu? fornire un'impostazione automatica dei parametri fotografici e attivare lo scatto di un'immagine senza che l'utente debba premere un attuatore di scatto dedicato. Tuttavia, si sottolinea che tutti i dati e le informazioni acquisiti dall'apparato di acquisizione di immagini possono essere archiviati indipendentemente dal livello di significato raggiunto. In questo modo, esempi della descrizione consentono sia di condurre analisi sperimentali sui dati acquisiti per generare nuovi modelli ulteriori e aggiuntivi di attivazione dello scatto fotografico (vale a dire analisi ex-post), sia di riutilizzare i dati archiviati per generare nuovi scatti fotografici basati su modelli di attivazione di scatto diversi da quello selezionato durante la sessione in tempo reale. Il livello di significativit? pu? essere deciso quindi ex-post, in cui ex-post significa in tempo quasi reale e/o in qualsiasi momento successivo. In linea di principio, esso pu? essere riesaminato anni dopo alla luce di nuove scoperte. In altre parole, il livello di significativit? pu? anche essere zero al momento presente, poich? non ? escluso che il livello di significativit? possa essere determinato in modo diverso, vale a dire superiore a una data soglia nel futuro (tempo quasi reale ad anni di distanza) quando vengono acquisite/scoperte nuove conoscenze che conferiscono agli stessi dati archiviati un diverso livello di significativit?. In one example, to improve the effectiveness of the method, the significance data? can include a plurality? of significance levels, each associated with a respective biological signal from which the attribute data was generated. Consequently, the analysis of the data of significance? can? understand the generation of a level of significance? combined on the basis of levels of significance? for each of the biological signals. Also, storing image data together with attribute data can understand the storage of the displayed images in the storage device together with the attribute data based on a comparison of the level of significance? combined and a triggering threshold level. There? does it mean that the level of significance? combined could be greater than, less than, equal to, or some function of the threshold level in order to store the displayed images together with the attribute data. In an example, if the level of significance? combined exceeds the threshold level of activation, the method pu? provide an automatic setting of photographic parameters and trigger the shooting of an image without the user having to press a dedicated shutter actuator. However, it is emphasized that all data and information acquired by the image acquisition apparatus can be archived regardless of the level of significance achieved. In this way, examples of the description allow both to conduct experimental analyzes on the acquired data to generate new further and additional models of photographic triggering (i.e. ex-post analyses), and to reuse the archived data to generate new photographic snapshots based on shutter activation patterns other than the one selected during the real-time session. The level of significance? can? therefore be decided ex-post, where ex-post means in near real time and/or at any subsequent moment. In principle, it can be re-examined years later in light of new findings. In other words, the level of significance? can? also be zero at the present moment, since? Not ? excluded that the level of significance? can be determined differently, i.e. above a certain threshold in the future (near real time years away) when new knowledge is acquired/discovered which gives the same archived data a different level of significance.

In un altro esempio, la generazione dei dati di significativit? e l'analisi dei dati di significativit? possono essere basate su un modello di scatto predeterminato. Ad esempio, il modello di scatto pu? essere un modello di intelligenza artificiale/apprendimento automatico. In particolare, il modello di scatto predeterminato pu? essere generato sulla base di segnali biologici acquisiti da un utente o da una pluralit? di utenti quando si visualizza un insieme di immagini di allenamento del modello per l'allenamento del modello di scatto predeterminato. In questo modo, il modello pu? fungere da sistema di attivazione di uno scatto fotografico, in grado di catturare uno scenario preciso osservato dall'utente in un preciso momento temporale corrispondente a un preciso stato biologico identificabile e quantificabile attraverso l'identificazione di un pattern nei valori dei segnali e in quelli estratti dagli stessi. In another example, the generation of significance data? and the analysis of the significance data? they can be based on a predetermined shooting pattern. For example, the shooting model can? be a model of artificial intelligence/machine learning. In particular, the predetermined shooting pattern can? be generated on the basis of biological signals acquired by a user or by a plurality? of users when viewing a set of model training images for predetermined shooting model training. In this way, the model can act as an activation system for a photographic shot, capable of capturing a precise scenario observed by the user at a precise moment in time corresponding to a precise identifiable and quantifiable biological state through the identification of a pattern in the signal values and in those extracted by themselves.

In un esempio, il livello di soglia di attivazione ? determinato secondo il modello di scatto predeterminato. In questo modo, il livello di soglia pu? essere determinato automaticamente ed eventualmente aggiornato in modo continuo da detto modello. Inoltre, al fine di mettere a punto il modello di scatto predeterminato, il metodo pu? comprendere la trasmissione dei dati di immagine delle immagini visualizzate insieme ai loro segnali biologici locali associati a un database di modelli di scatto. Ad esempio, il modello di scatto predeterminato pu? essere generato usando l'apprendimento automatico basato su uno o pi? set di dati, ad esempio generato da dati attributi generati in precedenza che sono associati e/o correlati ai parametri di funzionamento fisico dell'apparato di imaging come l'ora in cui l'immagine ? stata scattata, le impostazioni di esposizione, il controllo dello zoom, la messa a fuoco, ecc. Esempi vengono descritti in maggior dettaglio pi? avanti. In one example, the activation threshold level ? determined according to the predetermined shooting pattern. In this way, the threshold level can? be determined automatically and possibly continuously updated by said model. Also, in order to fine-tune the predetermined trigger pattern, the method can? understand the transmission of image data of displayed images along with their associated local biological signals to a database of shot patterns. For example, the predetermined shooting pattern can? be generated using machine learning based on one or more? data set, e.g. generated from previously generated data attributes that are associated and/or related to physical operating parameters of the imaging apparatus such as the time the image was taken? shot, exposure settings, zoom control, focus, etc. Examples are described in more detail pi? after you.

In questo contesto, pu? essere introdotto il concetto di pattern di significativit? multiparametrica dei segnali registrati. In altre parole, i valori dei segnali utilizzati per attivare lo scatto sono discretizzati secondo alcune soglie (vale a dire soglie di segnale o livelli di soglia di attivazione), che identificano i confini (stati) di significativit? di ciascun segnale. Ad esempio, l'intervallo di valori di ciascun segnale pu? essere suddiviso in tre intervalli: significativit? bassa, significativit? media e significativit? alta. Occorre notare che un alto valore di significativit? indica una condizione di segnale favorevole all'attivazione dello scatto. Supponendo una dashboard di sensori che consenta l'acquisizione e l'elaborazione di sei segnali, ? possibile costruire una matrice di dimensioni 6x3. Questa matrice, aggiornata ad ogni timestamp, rappresenta la configurazione dei valori del segnale discretizzato attraverso i valori 1 e 0, come mostrato nella tabella I. In this context, can be introduced the concept of pattern of significance? multiparameter of the recorded signals. In other words, the values of the signals used to activate the trigger are discretized according to some thresholds (i.e. signal thresholds or activation threshold levels), which identify the boundaries (states) of significance? of each signal. For example, the range of values of each signal can? be divided into three ranges: significance? low, significance? mean and significance high. It should be noted that a high value of significance? indicates a favorable signal condition for triggering. Assuming a sensor dashboard that allows the acquisition and processing of six signals, ? possible to construct a matrix of dimensions 6x3. This matrix, updated at each timestamp, represents the configuration of the signal values discretized through the values 1 and 0, as shown in table I.

Tabella I: livelli di significativit? per ciascun segnale biologico Table I: levels of significance for each biological signal

A ciascun segnale viene attribuito un peso. Quindi, viene assegnato un valore a ciascun livello di significato per ciascun segnale. Questi valori rappresentano l'importanza del segnale nel fornire informazioni sullo stato emotivo-cognitivo. Attribuendo un peso a ciascun livello di significato per ogni segnale, la matrice di cui sopra si trasforma in una matrice di significativit? come segue (Tabella II). Each signal is assigned a weight. Then, a value is assigned to each level of significance for each signal. These values represent the importance of the signal in providing information on the emotional-cognitive state. By attributing a weight to each level of significance for each signal, the above matrix is transformed into a matrix of significance? as follows (Table II).

Tabella II: matrice di significativit? Table II: significance matrix

Una volta ottenuti i valori delle singole voci della matrice di significativit?, essi vengono sommati fornendo un valore numerico, denominato significativit? complessiva (OS). Occorre notare che la significativit? complessiva varia nel tempo, seguendo la frequenza di campionamento sincrona dei segnali. Ad ogni aggiornamento dell'array, essa viene confrontata con un valore di riferimento, vale a dire il livello di soglia di attivazione. Se la significativit? complessiva supera il livello di soglia, il sistema (ad esempio il processore 5) fornisce un'impostazione automatica dei parametri di scatto (ad esempio messa a fuoco, esposizione, ecc.) e attiva lo scatto fotografico senza che l'utente debba premere il pulsante dell'otturatore. Once the values of the individual items of the significance matrix have been obtained, they are added together providing a numerical value, called significance? overall (OS). It should be noted that the significance overall varies over time, following the synchronous sampling rate of the signals. Each time the array is updated, it is compared to a reference value, i.e. the activation threshold level. If the significance exceeds the threshold level, the system (e.g. processor 5) provides an automatic setting of shooting parameters (e.g. focus, exposure, etc.) and activates photo shooting without the user having to press the shutter button.

Sebbene le Tabelle I e II forniscano esempi di livelli di significativit? e matrici di significativit?, si apprezzer? che ? possibile utilizzare qualsiasi numero di livelli di significativit? e qualsiasi numero di segnali, ad esempio a seconda del modello e del controllo desiderato dell'apparato. Si apprezzer? anche che i livelli di significativit? potrebbero essere diversi per controllare diversi aspetti dell'apparato. Ad esempio, possono essere dati pesi di maggiore significativit? ai segnali associati allo sguardo degli occhi e a dove l'utente sta guardando quando controlla aspetti come lo zoom e la messa a fuoco. Come altro esempio, quando si determina l'attivazione dello scatto (ad esempio l'attivazione dell'otturatore), pu? essere dato un peso maggiore ai segnali associati maggiormente all'emozione, come la frequenza cardiaca. Although Tables I and II provide examples of levels of significance? and matrices of significance, you will appreciate? That ? Can you use any number of levels of significance? and any number of signals, for example depending on the model and desired control of the apparatus. Will you appreciate it? also that the levels of significance? they could be different to control different aspects of the apparatus. For example, can weights of greater significance be given? signals associated with eye gaze and where the user is looking when controlling things like zoom and focus. As another example, when trigger activation (such as shutter activation) is determined, it can? be given more weight to signals associated more with emotion, such as heart rate.

Il processo 200 per attivare uno scatto viene riassunto e illustrato nella Figura 4. L'utente visualizza la realt? circostante usando un dispositivo di imaging 2, vale a dire un sistema fotografico. Le informazioni sull'attivit? biologica dell'utente vengono misurate mediante sensori biologici 6. I segnali biologici grezzi vengono estratti e sincronizzati tra loro e con sequenze di frame acquisite dal dispositivo di imaging 2 in un modulo di acquisizione e filtraggio 201. Una matrice di significativit? ? costruita in un modulo 202 della matrice di significativit? e vengono generati dati di significativit?, in base ai segnali biologici misurati e ai parametri del modello, vale a dire le soglie di segnale, i pesi dei livelli di significativit? e il livello di soglia di attivazione, analizzati nel modulo 203 dei parametri del modello. Viene calcolata la significativit? complessiva e viene eseguito un confronto con il livello di soglia di attivazione nel modulo di controllo 204. Uno scatto da parte del dispositivo di imaging 2 viene attivato dal modulo di scatto 205 in base a una particolare relazione tra il valore della significativit? complessiva e il livello di soglia di attivazione (ad esempio il valore di significativit? complessiva ? superiore al livello di soglia di attivazione). I parametri di scatto, vale a dire zoom, messa a fuoco, esposizione, vengono messi a punto automaticamente in base al processo di sincronizzazione e filtraggio prima dello scatto nel modulo 206 dei parametri di scatto. The process 200 for activating a click is summarized and illustrated in Figure 4 . surroundings using an imaging device 2, i.e. a photographic system. The information on the activity biological signals of the user are measured by biological sensors 6. The raw biological signals are extracted and synchronized with each other and with frame sequences acquired by the imaging device 2 in an acquisition and filtering module 201. A matrix of significance? ? built in a module 202 of the matrix of significance? and significance data is generated, based on the measured biological signals and model parameters, i.e. signal thresholds, significance level weights, and significance data. and the triggering threshold level, analyzed in the model parameters module 203. Is the significance calculated? overall and a comparison is made with the trigger threshold level in control module 204. A trigger by imaging device 2 is triggered by trigger module 205 based on a particular relationship between the significance value? significance and the triggering threshold level (for example, the overall significance value is greater than the triggering threshold level). Shooting parameters, i.e. zoom, focus, exposure, are automatically fine-tuned according to the synchronization and filtering process before shooting in module 206 of shooting parameters.

Tutti i dati vengono registrati come metadati fotografici in un dato formato fotografico che contiene non solo i dati grezzi dei segnali fotografici, ma anche i dati grezzi estratti dall'uomo. Questo formato consente una serie di strumenti di post-elaborazione individuali e collettivi, nonch? dati di allenamento per migliorare ulteriormente l'accuratezza, la sensibilit? e la prevedibilit? a livello di utente individuale e collettivo. Le soglie di segnale, i pesi di ciascun livello di significativit? e il livello di soglia di attivazione (vale a dire i parametri del modello) possono essere regolati utilizzando uno dei seguenti due tipi di logica decisionale. All data is recorded as photographic metadata in a given photographic format which contains not only the raw data of photographic signals, but also the raw data extracted from humans. This format allows for a variety of individual and collective post-processing tools, as well as training data to further improve the accuracy, sensitivity? and predictability? at the individual and collective user level. The signal thresholds, the weights of each level of significance? and the triggering threshold level (i.e. model parameters) can be adjusted using one of the following two types of decision logic.

In particolare, il sistema di acquisizione di immagini ha una configurazione modulare comprendente un'interfaccia utente per mostrare stimoli audio-visivi, un'interfaccia operatore per monitorare e gestire ciascun stimolo, e una disposizione di sensori per registrare segnali biologici. Oltre a gestire le interazioni tra questi tre elementi, un modulo IA elabora automaticamente i segnali biologici acquisiti e sincronizzati registrati da un utente durante una visualizzazione di uno stimolo audiovisivo (input) che definisce dinamiche e indici biologici. Lo scopo di questa elaborazione ? quello di restituire una rappresentazione visiva rivista dello stimolo (output) modificato in base alla percezione cognitiva soggettiva dello stimolo originale, nonch? alcuni parametri correlati alla cognizione. L'output viene generato facendo corrispondere le informazioni estratte dai segnali biologici dell'utente durante l'invio dello stimolo e lo stimolo stesso, risultando in una rappresentazione visiva aumentata dell'input. La procedura di elaborazione del segnale varia da segnale a segnale, ma generalmente ? costituita da una fase iniziale in cui un singolo segnale viene filtrato per migliorare un particolare comportamento e da un secondo stadio in cui vengono applicati diversi algoritmi di analisi del segnale al fine di estrarre specifici indici che descrivono brevemente l'andamento del segnale. Sia i segnali filtrati che gli indici estratti sono considerati come accoppiatori di informazioni e possono essere considerati metadati associati a quel processo specifico. Il sistema consente di acquisire simultaneamente uno o pi? segnali biologici e il modello IA elabora ciascun segnale al fine di ottenere l'output desiderato. In particular, the image acquisition system has a modular configuration comprising a user interface for displaying audio-visual stimuli, an operator interface for monitoring and managing each stimulus, and an arrangement of sensors for recording biological signals. In addition to managing the interactions between these three elements, an AI module automatically processes the acquired and synchronized biological signals recorded by a user during a visualization of an audiovisual stimulus (input) which defines biological dynamics and indices. The purpose of this processing? to return a revised visual representation of the stimulus (output) modified based on the subjective cognitive perception of the original stimulus, as well as? some parameters related to cognition. The output is generated by matching the information extracted from the user's biological cues during stimulus delivery and the stimulus itself, resulting in an augmented visual representation of the input. The signal processing procedure varies from signal to signal, but generally ? constituted by an initial phase in which a single signal is filtered to improve a particular behavior and by a second stage in which various signal analysis algorithms are applied in order to extract specific indices which briefly describe the trend of the signal. Both the filtered signals and the extracted indexes are considered as information couplers and can be considered metadata associated with that specific process. The system allows you to simultaneously acquire one or more? biological signals and the AI model processes each signal in order to obtain the desired output.

Diversamente dagli approcci della tecnica anteriore, il presente apparato e sistema mirano non solo a elaborare e restituire indici che riflettono alcuni comportamenti biodinamici dell'utente, ma diversi indici estratti dai segnali e i segnali stessi vengono usati come moderatori della percezione soggettiva dell'utente dello stimolo proposto. Infatti, attraverso il particolare stadio di elaborazione, ? possibile produrre una versione rielaborata cognitiva dell'input. Differently from prior art approaches, the present apparatus and system aim not only to process and return indices reflecting some biodynamic behaviors of the user, but several indices extracted from the signals and the signals themselves are used as moderators of the user's subjective perception of the stimulus proposed. Indeed, through the particular stage of elaboration, ? possible to produce a cognitive reworked version of the input.

La Figura 5 illustra un processo 300 che impiega il sistema di messa a punto dei parametri del modello. Secondo una prima logica, i parametri del modello vengono messi a punto manualmente 301. Ad esempio, la configurazione di questi parametri pu? essere identificata dai produttori dell'apparato 1 a seguito di test di laboratorio sperimentali sulla natura e le informazioni veicolate dai segnali 302. In alternativa, l'utente ha la possibilit? di regolare i parametri da solo 303. Figure 5 illustrates a process 300 employing the model parameter tuning system. According to a first logic, the model parameters are set manually 301. For example, the configuration of these parameters can? be identified by the producers of the apparatus 1 following experimental laboratory tests on the nature and information conveyed by the signals 302. Alternatively, the user has the possibility? to adjust the parameters by yourself 303.

Secondo una seconda logica, d'altro canto, le diverse configurazioni dei parametri del modello possono essere identificate da sistemi di apprendimento automatico 304 allenati usando segnali acquisiti dall'utente (o dagli utenti) durante le loro sessioni di scatto 305. In altre parole, di default ogni utente che utilizza l'apparato 1 pu? condividere i propri metadati - segnali e informazioni personali - in un database accessibile alle parti autorizzate. In aggiunta o in alternativa, l'attivit? simile alla sperimentazione clinica pu? essere eseguita su una coorte di utenti volontari reclutati per determinare tali parametri con il livello appropriato di potenza statistica 306. A seconda del cluster o del raggruppamento al quale appartengono gli utenti o le sessioni, ? possibile produrre una diversa configurazione 307. Di conseguenza, vengono determinati 308 i parametri del modello. According to a second logic, on the other hand, the different configurations of the model parameters can be identified by machine learning systems 304 trained using signals acquired by the user (or users) during their shooting sessions 305. In other words, by default each user who uses the device 1 pu? share their metadata - signals and personal information - in a database accessible to authorized parties. In addition or alternatively, the activity? similar to the clinical trial pu? be performed on a cohort of volunteer users recruited to determine these parameters with the appropriate level of statistical power 306. Depending on the cluster or grouping to which the users or sessions belong, ? It is possible to produce a different configuration 307. As a result, 308 the parameters of the model are determined.

Secondo un ulteriore esempio, l'utente ? un utente locale che ? locale rispetto all'apparato di acquisizione di immagini, e i dati attributi comprendono dati attributi locali che sono associati a un momento in cui l'utente locale sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini. In altre parole, ad esempio, l'utente pu? tenere fisicamente in mano l'apparato di acquisizione di immagini, che pu? essere una fotocamera, uno smartphone, una videocamera, ecc. According to another example, the user ? a local user who ? local to the image acquisition apparatus, and the attribute data comprises local attribute data which is associated with a time when the local user is observing the images displayed by the imaging device. In other words, for example, the user can? physically hold the image acquisition apparatus, which can? be a camera, smartphone, camcorder, etc.

In un altro esempio, l'utente ? un utente remoto che ? in remoto rispetto all'apparato di acquisizione di immagini, il dispositivo di riproduzione di immagini ? locale rispetto all'utente remoto, e i dati attributi comprendono dati attributi remoti che sono associati a un momento in cui l'utente remoto sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini. In another example, the user ? a remote user who ? remotely from the imaging apparatus, the imaging device ? local to the remote user, and the attribute data comprises remote attribute data which is associated with a time when the remote user is viewing images displayed by the imaging device.

In ancora un ulteriore esempio dell'apparato, l'utente pu? essere un utente locale che ? locale rispetto all'apparato di acquisizione di immagini, e i dati attributi possono comprendere dati attributi locali che sono associati a un momento in cui l'utente locale sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini. In particolare, l'apparato pu? comprendere un'interfaccia di comunicazione azionabile per ricevere dati attributi remoti da una pluralit? di dispositivi utente remoti associati a diversi utenti remoti, ciascun dispositivo utente remoto avendo un rispettivo dispositivo di riproduzione di immagini remoto per visualizzare le immagini acquisite dal dispositivo di imaging, e ciascun dispositivo utente remoto essendo azionabile per generare i dati attributi remoti da una pluralit? di segnali biologici remoti misurati da una pluralit? di sensori biologici remoti, i dati attributi remoti essendo indicativi di attributi degli utenti remoti in un momento in cui gli utenti remoti stanno osservando le immagini visualizzate dai loro rispettivi dispositivi utente remoti di riproduzione di immagini. In questo caso, i dati di significativit? possono essere generati in base ai dati attributi locali e ai dati attributi remoti. In yet another example of the apparatus, the user can? be a local user that ? local to the image acquisition apparatus, and the attribute data may comprise local attribute data which is associated with a time when the local user is observing the images displayed by the imaging device. In particular, the apparatus pu? include a communication interface operable to receive remote attribute data from a plurality? of remote user devices associated with several remote users, each remote user device having a respective remote imaging device for displaying images captured by the imaging device, and each remote user device being operable to generate remote attribute data from a plurality of remote user devices. of remote biological signals measured by a plurality? of remote biological sensors, the remote attribute data being indicative of attributes of the remote users at a time when the remote users are viewing images displayed by their respective remote user imaging devices. In this case, the significance data? can be generated based on local attribute data and remote attribute data.

In questo contesto, i termini "locale" e "remoto" devono essere intesi come all'interno o all'esterno di una certa distanza da un punto di riferimento. Ad esempio, un utente locale ? inteso come un utente in stretta prossimit?, o all'interno di una distanza di soglia, di un dispositivo, vale a dire il dispositivo di acquisizione di immagini. In questo caso, l'utente pu? interagire direttamente con il dispositivo, toccandolo direttamente, attraverso mezzi di collegamento, come un cavo, o attraverso una comunicazione wireless, preferibilmente una comunicazione wireless a corto raggio, come Bluetooth, induzione magnetica a campo vicino? D'altra parte, un utente remoto ? inteso come un utente lontano da, o al di fuori di una distanza di soglia di, un dispositivo, vale a dire il dispositivo di acquisizione di immagini. Ad esempio, l'utente remoto pu? impiegare un sistema di comunicazione in tempo reale (ad esempio un'infrastruttura di telecomunicazione 5G locale o diffusa) per acquisire informazioni dal dispositivo di acquisizione di immagini e infine trasferire dati a un cloud e a un'architettura di edge computing collegata al dispositivo di acquisizione di immagini. Occorre notare che il dispositivo di riproduzione di immagini ? preferibilmente posizionato in stretta prossimit?, vale a dire "locale", dell'utente remoto per consentire una riproduzione di dati di immagine derivanti dal dispositivo di acquisizione di immagini. In this context, the terms "local" and "remote" are to be understood as being within or outside a certain distance from a reference point. For example, a local user ? understood as a user in close proximity, or within a threshold distance, of a device, i.e. the imaging device. In this case, the user can? interact directly with the device, by touching it directly, through connecting means, such as a cable, or through a wireless communication, preferably a short-range wireless communication, such as Bluetooth, near-field magnetic induction? On the other hand, a remote user ? understood as a user away from, or outside a threshold distance of, a device, i.e. the imaging device. For example, the remote user can employ a real-time communication system (such as a local or widespread 5G telecommunication infrastructure) to acquire information from the image acquisition device and finally transfer data to a cloud and edge computing architecture connected to the image acquisition device Images. It should be noted that the imaging device ? preferably located in close proximity, i.e. "local", of the remote user to enable a playback of image data from the image acquisition device.

Ad esempio, il dispositivo di acquisizione di immagini pu? essere posizionato per acquisire immagini di una scena faunistica, ad esempio in una posizione ecologicamente impegnativa o dove la presenza un utente presente sarebbe disturbante per la fauna selvatica. Le immagini acquisite possono essere trasmesse dal dispositivo di acquisizione di immagini al dispositivo di riproduzione di immagini posizionato in un luogo pi? sicuro che non disturba la fauna selvatica. For example, the image capture device can be positioned to capture images of a wildlife scene, such as in an environmentally challenging location or where the presence of a user present would be disturbing to wildlife. Captured images can be transmitted from the image capture device to the image playback device located in a more convenient place. sure it won't disturb the wildlife.

In una configurazione in cui sono presenti un utente locale e un utente remoto, il metodo pu? inoltre comprendere la visualizzazione delle immagini acquisite dal dispositivo di imaging su una pluralit? di dispositivi utente remoti di riproduzione di immagini che sono associati a diversi utenti remoti. Inoltre, il metodo pu? comprendere la generazione di dati attributi remoti da una pluralit? di segnali biologici remoti misurati da una pluralit? di sensori biologici remoti, i dati attributi remoti essendo indicativi di attributi degli utenti remoti in un momento in cui gli utenti remoti stanno osservando le immagini visualizzate dai loro rispettivi dispositivi utente remoti di riproduzione di immagini. In particolare, il metodo pu? comprendere la messa a punto del modello predeterminato in base all'input dell'utente da parte dei diversi utenti remoti. Ci? pu? aiutare a generare un modello pi? completo, efficace e accurato perch? i dati provenienti da diversi utenti e diverse immagini possono essere ottenuti pi? facilmente. In a configuration where there is a local user and a remote user, the method can Also include viewing the images captured by the imaging device on a plurality of? of remote user imaging devices that are associated with several remote users. Furthermore, the method can understand the generation of remote attribute data from a plurality? of remote biological signals measured by a plurality? of remote biological sensors, the remote attribute data being indicative of attributes of the remote users at a time when the remote users are viewing images displayed by their respective remote user imaging devices. In particular, the method pu? understand the fine-tuning of the predetermined model based on user input by the different remote users. There? can? help generate a model more? complete, effective and accurate why? data from different users and different images can be obtained more? easily.

Il presente metodo 100 per acquisire immagini pu? quindi essere impiegato in scenari diversi. This method 100 for acquiring images can? hence be employed in different scenarios.

In un primo scenario (scenario 1:1), l'utente ? l'unica fonte di informazioni biologiche per attivare lo scatto. In questa dimensione individuale, l'utente ? collegato a sensori biologici 6 e l'apparato 1 riceve ed elabora dati derivanti da detti sensori 6, che estraggono informazioni dal dato utente, per decidere attraverso il valore di significato complessivo quando e se attivare uno scatto. L'insieme dei metadati registrati durante ogni sessione di scatto viene archiviato in un database personale e l'utente stesso pu? accettare o modificare i parametri del modello in base alle osservazioni sperimentali, alla creativit? personale o in base all'allenamento degli algoritmi di apprendimento automatico. In a first scenario (1:1 scenario), the user ? the only source of biological information to trigger the shot. In this individual dimension, the user is connected to biological sensors 6 and the apparatus 1 receives and processes data deriving from said sensors 6, which extract information from the user datum, to decide through the overall meaning value when and whether to activate a trip. The set of metadata recorded during each shooting session is archived in a personal database and the user himself can accept or modify the parameters of the model based on experimental observations, creativity? personal or based on the training of machine learning algorithms.

In un secondo scenario (scenario 1:N), l'attivazione dello scatto non avviene solo sulla base del valore di significativit? complessiva del singolo utente che utilizza il dispositivo. Infatti, in questo scenario, diversi utenti (vale a dire gli spettatori protagonisti) visualizzano in tempo reale ci? che un utente principale sta osservando (ad esempio il concetto di condivisione dello schermo). Allo stesso tempo, ciascun spettatore protagonista ? dotato di diversi sensori che acquisiscono segnali biologici e attraverso un sistema di comunicazione in tempo reale (ad esempio un'infrastruttura 5G telco locale o diffusa), trasferiscono informazioni al cloud e un'architettura edge-computing viene collegata al dispositivo di imaging 2 dell'utente principale. Le informazioni trasferite dagli spettatori protagonisti consistono nel valore di significato complessivo che viene aggiornato ad ogni timestamp. Ancora una volta, i parametri del modello possono essere regolati secondo una delle due logiche sopra descritte. Lo scatto, pertanto, non verr? attivato dal confronto della significativit? complessiva dell'utente principale con il solo livello di soglia di attivazione. Per contro, in corrispondenza di ciascun timestamp il dispositivo di imaging 2 dell'utente principale comprende un vettore di significativit? collettiva, insieme ai valori individuali del significato complessivo dei singoli utenti. In a second scenario (1:N scenario), does triggering not only take place on the basis of the significance value? total of the single user using the device. In fact, in this scenario, different users (ie the protagonists viewers) view in real time what? that a primary user is observing (e.g. the concept of screen sharing). At the same time, each spectator protagonist ? equipped with several sensors that acquire biological signals and through a real-time communication system (for example, a local or widespread 5G telco infrastructure), transfer information to the cloud, and an edge-computing architecture is connected to the imaging device 2 of the main user. The information transferred by the protagonist spectators consists of the overall meaning value which is updated at each timestamp. Again, the model parameters can be adjusted according to one of the two logics described above. The shot, therefore, will not come? activated by the comparison of the significance? total of the main user with only the activation threshold level. Conversely, at each timestamp primary user imaging device 2 comprises a significance vector? collective, together with the individual values of the overall meaning of individual users.

La Tabella III mostra il vettore di significativit? collettiva - cinque spettatori (V) e un utente principale (MU) - in un momento specifico. Table III shows the significance vector? collective - five viewers (V) and one main user (MU) - at a specific time.

Tabella III: vettore di significativit? collettiva Table III: vector of significance collective

Utilizzando una delle due logiche di messa a punto dei parametri del modello, l'MU pu? decidere non solo i parametri del modello degli altri spettatori, ma anche quanta importanza attribuire alle singole componenti del vettore di significativit? collettiva, come mostrato nella tabella IV di seguito. Using one of the two logics for setting up the model parameters, the MU can? decide not only the parameters of the model of the other spectators, but also how much importance to attribute to the single components of the vector of significance? collective, as shown in Table IV below.

Tabella IV: vettore ponderato di significativit? collettiva Table IV: weighted significance vector collective

La somma dei singoli componenti dei vettori pu? quindi essere confrontata con un livello di soglia di attivazione per attivare uno scatto fotografico basato su reazioni emotive e cognitive e processi acquisiti da una comunit? di persone. The sum of the individual components of the vectors pu? then be compared with an activation threshold level to activate a photographic shot based on emotional and cognitive reactions and processes acquired by a community? of people.

Un terzo scenario, (scenario N:N) consente a una rete di utenti di condividere tra loro (dispositivi) i segnali acquisiti durante la visualizzazione della stessa realt? osservata (da molteplici prospettive visive e biologiche). Ciascun utente pu? decidere per quale tipo di messa a punto dei parametri di regolazione optare, a seconda dello scatto fotografico che desidera attivare. A third scenario (N:N scenario) allows a network of users to share the signals acquired while viewing the same reality among themselves (devices). observed (from multiple visual and biological perspectives). Each user can decide which type of fine-tuning of the adjustment parameters to opt for, depending on the photographic shot you want to activate.

Un quarto scenario (profilazione degli utenti della ricerca neurocognitiva di scenario basata su ML) pu? essere applicato a uno qualsiasi dei tre scenari sopra descritti. Questo scenario consente l'estrazione di metadati associati a ciascun utente ai fini della ricerca e del miglioramento della sensibilit? e dell'accuratezza (in generale, delle prestazioni) del sistema, nonch? per l'estrazione di nuovi pattern/modelli emotivi sociocognitivi e la creazione di nuove prestazioni e caratteristiche del sistema individuale e collettivo. Una volta archiviati in un database, questi dati possono essere utilizzati per trovare pattern cognitivi comuni tra gli individui e quindi nuovi metodi di attivazione basati su metadati social. A fourth scenario (user profiling of scenario neurocognitive research based on ML) can be applied to any of the three scenarios described above. Does this scenario allow for the extraction of metadata associated with each user for research and sensitivity improvement purposes? and accuracy (in general, performance) of the system, as well as? for the extraction of new socio-cognitive emotional patterns/models and the creation of new performances and characteristics of the individual and collective system. Once stored in a database, this data can be used to find common cognitive patterns among individuals and therefore new methods of activation based on social metadata.

Va sottolineato che nel caso in cui la tecnologia disponibile non consenta l'elaborazione e la condivisione in tempo quasi reale dei dati biologici estratti dagli utenti, la struttura del flusso di analisi della significativit? per la foto-attivazione pu? essere implementata in diversi modi. In particolare, i segnali possono essere archiviati e analizzati in finestre temporali sincronizzate con i singoli frame di immagini prelevati dal dispositivo di imaging 2. In questo modo, i segnali possono essere elaborati in modo retrospettivo, isolando il frame corrispondente al superamento della soglia di scatto. In alternativa, l'implementazione di un sistema di previsione del segnale in tempo reale pu? impedire l'uso della logica decisionale sopra descritta sopra, come illustrato nella Figura 6. Secondo questo processo 400, pu? essere impiegata 401 una nuova finestra temporale per sincronizzare segnali con i frame di immagine 405. In altre parole, questo pu? essere considerato un esempio di sincronizzazione temporale dei segnali biologici tra loro e/o con i dati di immagine. La nuova finestra temporale viene utilizzata se il confronto tra la significativit? complessiva e il valore di soglia di attivazione non soddisfa i requisiti determinati 402. D'altro canto, se il confronto tra la significativit? complessiva e il valore di soglia di attivazione soddisfa determinati requisiti 403, viene eseguita uno scatto 404 in combinazione con le informazioni sui frame di immagine. It should be emphasized that in the event that the available technology does not allow the processing and sharing of biological data extracted from users in near real time, the structure of the flow of analysis of the significance? for the photo-activation pu? be implemented in several ways. In particular, the signals can be stored and analyzed in time slots synchronized with the single image frames taken by the imaging device 2. In this way, the signals can be processed retrospectively, isolating the frame corresponding to the exceeding of the trigger threshold . Alternatively, implementing a real-time signal prediction system can prevent the use of the decision logic described above, as shown in Figure 6. According to this process 400, can? 401 a new time window may be used to synchronize signals with image frames 405. In other words, this can? be considered an example of temporal synchronization of biological signals with each other and/or with image data. The new time window is used if the comparison between the significance? overall and the activation threshold value does not meet the requirements determined 402. On the other hand, if the comparison between the significance? and the trigger threshold value satisfies certain requirements 403, a shot 404 is performed in combination with image frame information.

Come detto sopra, la generazione e l'analisi dei dati di significativit? si basano su un modello di scatto predeterminato. Questo modello pu? essere un modello IA/ML eseguito a priori utilizzando un insieme di registrazioni che, elaborate al fine di estrarre informazioni (vale a dire elaborazione del segnale ed estrazione delle caratteristiche), fungono da insiemi di allenamento (e test) per alimentare e regolare i parametri del modello stesso. Successivamente, in una seconda fase, le prestazioni del modello e della sua struttura possono essere migliorate/modificate attraverso aggiornamenti derivanti da un aumento delle dimensioni dell'insieme di allenamento (e test), piuttosto che dall'uso di nuove tecnologie per estrarre nuovi segnali o dall'uso di nuovi e innovativi metodi matematici per estrarre informazioni dai segnali stessi. As mentioned above, the generation and analysis of significance data? they are based on a predetermined shooting pattern. This model can be an AI/ML model performed a priori using a set of recordings which, processed for the purpose of information extraction (i.e. signal processing and feature extraction), serve as training (and test) sets to feed and adjust parameters of the model itself. Subsequently, in a second phase, the performance of the model and its structure can be improved/modified through updates resulting from an increase in the size of the training (and testing) set, rather than using new technologies to extract new signals or by the use of new and innovative mathematical methods to extract information from the signals themselves.

Il termine "registrazione" si riferisce all'insieme di diversi segnali biologici acquisiti attraverso un insieme di sensori biologici 6 non invasivi, ad esempio sensori indossabili, da un utente mentre agisce per fare una foto, a partire dal momento in cui l'utente si avvicina per visualizzare uno scenario attraverso un obiettivo fino a quando l'utente non decide di catturare ci? che viene inquadrato attraverso lo scatto fotografico stesso. The term "recording" refers to the set of different biological signals acquired through a set of 6 non-invasive biological sensors, for example wearable sensors, by a user while taking a picture, starting from the moment the user zoom in to view a scenario through a lens until the user decides to capture what? which is framed through the photographic shot itself.

Lo scopo della fase di costruzione del modello ? quello di generare un sistema di IA in grado di identificare autonomamente uno o pi? pattern all'interno dei valori dei segnali biologici, che suggeriscano una relazione tra scatto fotografico e stato biologicocognitivo-emotivo dell'utente. In questo modo, il modello pu? fungere da sistema di attivazione dello scatto fotografico, in grado di catturare uno scenario preciso osservato dall'utente in un preciso momento temporale corrispondente a un preciso stato biologico identificabile e quantificabile attraverso l'identificazione di un pattern nei valori dei segnali e in quelli estratti dagli stessi. Inoltre, ciascuna registrazione ? associata a un numero definito di informazioni quantitative e qualitative relative all'utente come l'esperienza fotografica, l'et?, il numero di foto scattate, ecc. Queste informazioni fungono da moderatori per l'analisi statistica, raggruppando le varie registrazioni in cluster specifici dai quali ? possibile generare e moderare differenti output/scatti (vale a dire diverse configurazioni di modello a seconda del tipo di output desiderato). Ad esempio, pu? essere usata una configurazione di modello di scatto allenata su registrazioni di fotografi ultraesperti, o piuttosto di fotografi altamente interessati ai paesaggi naturali. Occorre notare che ogni configurazione di modello ha conformazioni aggiuntive in numeri uguali al numero di combinazioni (senza ripetizione e senza interesse nell'ordine) di segnali estratti. Ad esempio, ? possibile sfruttare una configurazione che attiva uno scatto fotografico in base al cluster di fotografi ultraesperti analizzando solo segnali biologici selezionati (ad esempio il segnale fotopletismografico (PPG) e il segnale di risposta galvanica cutanea (GSR)), piuttosto che un superinsieme di questi segnali. The purpose of the model building phase ? to generate an AI system capable of autonomously identifying one or more? patterns within the values of the biological signals, which suggest a relationship between the photographic shot and the user's biological-cognitive-emotional state. In this way, the model can act as a photographic trigger activation system, capable of capturing a precise scenario observed by the user at a precise moment in time corresponding to a precise identifiable and quantifiable biological state through the identification of a pattern in the signal values and in those extracted from the themselves. Furthermore, each recording ? associated with a defined number of quantitative and qualitative information relating to the user such as photographic experience, age, number of photos taken, etc. This information acts as a moderator for the statistical analysis, grouping the various recordings into specific clusters from which ? You can generate and moderate different outputs/shots (i.e. different model configurations depending on the type of output you want). For example, can be used a shooting model configuration trained on recordings of ultra-experienced photographers, or rather of photographers highly interested in natural landscapes. It should be noted that each pattern configuration has additional conformations in numbers equal to the number of combinations (without repetition and without concern for order) of extracted signals. For example, ? It is possible to exploit a setup that triggers a photograph based on the cluster of ultra-skilled photographers by analyzing only selected biological signals (for example, the photoplethysmographic signal (PPG) and the galvanic skin response signal (GSR)), rather than a superset of these signals.

Nella fase di allenamento e costruzione del modello, l'algoritmo viene alimentato con dati estratti dai segnali delle singole registrazioni. In particolare, esso ottimizza la dimensione della finestra temporale prima dello scatto utilizzato per isolare una parte dei segnali. Quindi, viene considerata una combinazione di caratteristiche estratte da quei segnali che classificano meglio l'evento di scatto in base ai pattern di valore delle caratteristiche stesse. Prima di questo stadio ? pertanto necessario istituire un database primario di registrazioni diverse. In the training and model building phase, the algorithm is fed with data extracted from the signals of the individual recordings. In particular, it optimizes the size of the time window before the trigger used to isolate a part of the signals. Then, a combination of features extracted from those signals that best classify the trigger event based on the value patterns of the features is considered. Before this stage? therefore necessary to establish a primary database of different registrations.

Il modello di apprendimento automatico ? quindi un sistema di classificazione binario supervisionato: scattare o non scattare. Questo modello pu? essere rappresentato da una foresta casuale di classificazione attraverso la quale, con l'opportuna e raffinata messa a punto dei parametri di regolazione del modello stesso, ? possibile ottenere un sistema predittivo in grado di attivare uno scatto fotografico. Per ogni cluster identificato raggruppando registrazioni basate su moderatori, viene generata una specifica configurazione del modello, in grado quindi di identificare uno specifico pattern nei valori di segnale, nonch? una particolare condizione dello stato emotivo e cognitivo della persona. The machine learning model ? then a supervised binary classification system: to shoot or not to shoot. This model can be represented by a random forest of classification through which, with the appropriate and refined development of the regulation parameters of the model itself, ? possible to obtain a predictive system capable of activating a photographic shot. For each cluster identified by grouping recordings based on moderators, a specific model configuration is generated, thus able to identify a specific pattern in the signal values, as well as? a particular condition of the person's emotional and cognitive state.

Il risultato dell'intero processo ? un insieme di modelli che i nuovi utenti possono utilizzare. Una volta allenati e resi disponibili, questi modelli vengono integrati in un sistema software incorporato in un dispositivo fotografico, ad esempio nel firmware del dispositivo. Indipendentemente da come viene utilizzato (vale a dire scegliendo il cluster specifico al quale fare riferimento per la produzione della fotografia e quindi scegliendo il tipo di modello), un utente ? in grado di impiegare l'apparato 1 dotandosi semplicemente di sensori biologici 6 in grado di estrarre i segnali utilizzati per l'allenamento del modello o di un sottoinsieme di essi. Al fine di aumentare le prestazioni delle diverse configurazioni di modello, le registrazioni degli utenti arricchite con le relative informazioni personali (vale a dire i moderatori) possono essere archiviate per aumentare la dimensione del database primario. In questo modo, questo database pu? essere utilizzato periodicamente come nuovo database per nuove fasi di costruzione di modelli. Le nuove configurazioni di modello generate possono quindi essere integrate in dispositivi fotografici e considerate come aggiornamenti di sistema. The result of the whole process? a set of templates that new users can use. Once trained and made available, these models are integrated into a software system embedded in a photographic device, for example in the device's firmware. Regardless of how it is used (ie choosing the specific cluster to refer to for the production of the photograph and then choosing the type of model), a user ? capable of using the apparatus 1 by simply equipping itself with biological sensors 6 capable of extracting the signals used for training the model or a subset thereof. In order to increase the performance of different model configurations, user recordings enriched with their personal information (i.e. moderators) can be archived to increase the size of the primary database. In this way, this database can be used periodically as a new database for new model building phases. The newly generated model configurations can then be integrated into photographic devices and regarded as system updates.

Come detto sopra, un sistema di acquisizione di immagini 9 pu? essere rappresentato dall'apparato 1 per acquisire immagini combinato con uno o pi? sensori biologici 6 applicati a un utente. Mentre l'utente osserva oggetti e/o paesaggi reali che lo circondano (vale a dire gli stessi oggetti e paesaggi catturati da un obiettivo fotografico del dispositivo di imaging 2 sotto forma di immagini), le informazioni sulla sua attivit? biologica vengono estratte dal suo corpo in modo non invasivo. Questo viene fatto utilizzando sensori indossabili e/o sensori non direttamente collegati a parti del corpo come i sistemi di sensori appartenenti al mondo IoT. As mentioned above, a 9 image acquisition system can? be represented by the apparatus 1 for acquiring images combined with one or more? 6 biological sensors applied to a user. While the user observes real objects and/or landscapes around him (i.e. the same objects and landscapes captured by a photographic lens of the imaging device 2 in the form of images), the information about his activity? biologics are extracted from your body non-invasively. This is done using wearable sensors and/or sensors not directly connected to body parts such as sensor systems belonging to the IoT world.

I segnali biologici possono essere acquisiti utilizzando diversi sensori 6 non invasivi che sfruttano diverse tecnologie. Questi sensori 6 sono collegati direttamente o indirettamente con i processi biomeccanici, cognitivi ed emotivi - coscienti o inconsci ? attivati nell'essere umano o in un animale (ad esempio, animali domestici come cani o gatti) da stimoli visivi e da altri stimoli sensoriali. Poich? ogni animale ? un essere senziente, ? possibile attivare uno scatto fotografico utilizzando il feedback "emotivo" dell'animale da solo o mischiato con quelli umani. In questo modo ? semplice scalare il processo utilizzando non solo un feedback cognitivo-emotivo umano ma pi? di uno, derivanti dal monitoraggio dell'emozione e della cognizione di N persone. Biological signals can be acquired using different non-invasive sensors 6 that exploit different technologies. Are these sensors 6 connected directly or indirectly with biomechanical, cognitive and emotional processes - conscious or unconscious? activated in humans or animals (for example, pets such as dogs or cats) by visual and other sensory stimuli. because every animal ? a sentient being, ? It is possible to trigger a photographic shot using the animal's "emotional" feedback alone or mixed with human feedback. In this way ? It's simple to scale the process using not only human cognitive-emotional feedback but more? of one, resulting from monitoring the emotion and cognition of N people.

In particolare, i sensori 6 sono incorporati nel sistema di attivazione ("scatto") (DSLRcam/smartphone) o possono essere distribuiti nell'ambiente attraverso l'uso di sensori cablati/connessi mediante wireless (ad esempio sensori indossabili e/o sensori IoT che estraggono segnali/dati da altri sistemi di rilevamento posizionati in luoghi in cui l'utente ? potenzialmente interessato a scattare foto). In particular, the sensors 6 are incorporated into the triggering system ("shooting") (DSLRcam/smartphone) or can be distributed in the environment through the use of wired/wireless sensors (e.g. wearable sensors and/or IoT sensors that extract signals/data from other detection systems positioned in places where the user is potentially interested in taking pictures).

Ad esempio, una fotocamera fotografica pu? ricevere dati da: For example, a photographic camera can receive data from:

1. diversi sensori indossabili non invasivi indossati da un utente principale che maneggia la telecamera; 1. several non-invasive wearable sensors worn by a primary user handling the camera;

2. diversi sensori indossabili non invasivi integrati in diverse dashboard tecnologiche montate su altri utenti secondari e collegati in modo cablato/wireless con la telecamera dell'utente principale; e/o 2. several non-invasive wearable sensors integrated into several technological dashboards mounted on other secondary users and connected wired/wireless with the primary user's camera; and/or

3. diversi sensori IoT ambientali in grado di tradurre il linguaggio del corpo e le dimensioni emotivo-cognitive di diversi individui (ad esempio in un campo/piazza/strada), in cui sono presenti diversi obiettivi. Quando il sistema di sensori ambientali e/o indossabili rileva una particolare risposta nel comportamento individuale o della folla, viene attivato uno scatto fotografico da uno o pi? obiettivi. In altre parole, il sistema ? in grado di interpretare e razionalizzare il comportamento cognitivo-emotivo individuale o collettivo. 3. different IoT environmental sensors capable of translating the body language and the emotional-cognitive dimensions of different individuals (for example in a field/square/street), where there are different objectives. When the environmental and/or wearable sensor system detects a particular response in individual or crowd behavior, a photo is triggered by one or more people. goals. In other words, the system ? able to interpret and rationalize individual or collective cognitive-emotional behaviour.

La fotocamera pu? essere palmare o indossata dall'utente diretto, incorporata in altri sistemi palmari o incorporata in accessori indossabili (ad esempio cappelli, occhiali, caschi, giacche, guanti, anelli, bracciali), nonch? azionata da remoto da un operatore umano, animale o robotico (ad esempio robot mobili, droni aerei o acquatici, veicoli in generale comprese le imbarcazioni) essendo controllata in tempo reale da un individuo o da una molteplicit? di utenti connessi. Ad esempio, un drone o un cane ? dotato di una telecamera e ha la capacit? di muoversi (autonomamente o guidato). La telecamera viene attivata per scattare in base al processo cognitivo-emotivo elaborato da un sistema di sensori tecnologici il segnale di acquisizione da un individuo o una folla. The camera can be handheld or worn by the direct user, incorporated into other handheld systems or incorporated into wearable accessories (for example, hats, goggles, helmets, jackets, gloves, rings, bracelets), as well as? remotely operated by a human, animal or robotic operator (for example mobile robots, aerial or aquatic drones, vehicles in general including boats) being controlled in real time by an individual or by a multiplicity of connected users. For example, a drone or a dog? equipped with a camera and has the ability? to move (autonomously or guided). Based on the cognitive-emotional process elaborated by a system of technological sensors, the camera is activated to shoot the acquisition signal from an individual or a crowd.

Di seguito, viene menzionato un elenco indicativo di sensori che possono essere utilizzati come sensori biologici secondo il presente metodo, apparato e/o sistema. L'elenco non intende essere esaustivo in termini di segnali rilevanti (altre scoperte forniranno in futuro evidenza di nuovi parametri psico-fisiologici che influenzano l'ambito del presente brevetto). Si pu? considerare ad esempio come l'utilizzo di strumenti di analisi non lineari (vale a dire quantificando la complessit?, la variabilit?, del segnale) sul semplice segnale di battito cardiaco consenta l'estrazione di informazioni fondamentali sullo stato neurologico della persona, arrivando anche al rilevamento delle emozioni attraverso il solo stesso segnale. Un altro esempio consiste nel fatto che le nuove tecnologie sono in grado di misurare e quantificare in modo non invasivo variabili biologiche che prima era impensabile misurare (ad esempio il diametro della pupilla, SpO2). Inoltre, alcune scoperte saranno probabilmente generate dalla piattaforma descritta nella presente descrizione. In questo modo, l'elenco dei sensori non intende essere esaustivo in termini di usabilit? (in quanto in futuro la miniaturizzazione dell'elettronica nel rilevamento, nell'elaborazione, nella connessione wireless, nella raccolta di energia favorir? l'integrazione di una molteplicit? di sistemi di rilevamento ed eventualmente migliorer? l'usabilit? e l'esperienza utente del sistema di attivazione ("scatto")). Basti pensare, ad esempio, all'innovazione e al progresso della telefonia (dalla cabina telefonica, al sistema di telecomunicazioni integrato in uno smart watch). In the following, an indicative list of sensors that can be used as biological sensors according to the present method, apparatus and/or system is mentioned. The list is not intended to be exhaustive in terms of relevant signals (other discoveries will provide evidence of new psycho-physiological parameters in the future affecting the scope of this patent). Can you? consider, for example, how the use of non-linear analysis tools (i.e. quantifying the complexity, the variability, of the signal) on the simple heartbeat signal allows the extraction of fundamental information on the neurological state of the person, even reaching to the detection of emotions through only the same signal. Another example is that new technologies are able to non-invasively measure and quantify biological variables that were previously unthinkable to measure (for example pupil diameter, SpO2). Furthermore, some discoveries will likely be generated by the platform described in the present description. In this way, the list of sensors is not intended to be exhaustive in terms of usability? (because in the future the miniaturization of electronics in sensing, processing, wireless connection, energy harvesting will favor the integration of a multiplicity of sensing systems and eventually improve the usability and experience activation system user ("click")). Just think, for example, of the innovation and progress of telephony (from the phone booth to the telecommunications system integrated into a smart watch).

I sensori biologici 6 possono comprendere almeno uno tra i seguenti: The biological sensors 6 can comprise at least one of the following:

? Segnale GSR (risposta galvanica cutanea, Galvanic Skin Response) ? Segnale PPG (fotopletismografia, Photoplethismography) ? GSR signal (Galvanic Skin Response) ? PPG signal (photoplethysmography, Photoplethismography)

? Posizione dello sguardo ? Position of gaze

? Segnale EEG (Elettroencefalografia, Electroencephalography) ? Espressione facciale ? EEG signal (Electroencephalography, Electroencephalography) ? Facial expression

? Segnale ECG (elettrocardiografia, Electrocardiography) ? ECG signal (electrocardiography, Electrocardiography)

? Segnale EMG (Elettromiografia) ? EMG signal (Electromyography)

? Diametro della pupilla ? Pupil diameter

? Linguaggio del movimento del corpo (inerziale, aptico, gestuale, ecc.) ? Lingua parlata naturale (microfono) ? Body movement language (inertial, haptic, gestural, etc.) ? Natural Spoken Language (Microphone)

? Linguaggio emozionale naturale (microfono) ? Natural Emotional Language (microphone)

? segnale fNIRS (spettroscopia funzionale nel vicino infrarosso, functional Near Infra-Red Spectroscopy) ? fNIRS signal (functional Near Infra-Red Spectroscopy)

? Livello di ossigeno nel sangue ? Blood oxygen level

? Parametri biochimici (ad esempio cortisolo, dopamina, noradrenalina) ? Segnale di geolocalizzazione (GPS, WiFi, Bluetooth, 5G) ? Biochemical parameters (eg cortisol, dopamine, norepinephrine) ? Geolocation signal (GPS, WiFi, Bluetooth, 5G)

? Sensori ambientali IoT (ad esempio rilevatori del linguaggio del corpo) ? IoT environmental sensors (e.g. body language detectors)

A titolo d'esempio, un sensore di tracciamento oculare potrebbe acquisire il segnale di posizione dello sguardo e il segnale di diametro della pupilla, inclusa la velocit? della sua contrazione. In questo caso, potrebbe essere concepibile rilevare l'andamento della concentrazione di ossigeno nella pupilla, il livello di dopamina dalla velocit? della contrazione della pupilla, il battito cardiaco dal comportamento della pressione oculare o la concentrazione di agenti biochimici nella retina da una risposta oculare di eccitazione fluorescente. Quindi potrebbe essere possibile stabilire una correlazione tra questi parametri/tendenze estratti e lo stato cognitivo-emotivo poich? un software di elaborazione di bio-imaging pu? acquisire e decodificare segnali da molecole nel sangue oculare. Come questo esempio particolare, il sensore di tracciamento oculare potrebbe essere incorporato nel sistema di scatto (ad esempio, nell'obiettivo o nello schermo di una fotocamera reflex o bridge in uno smartphone, nella montatura o nella lente di occhiali) e potrebbe tracciare il movimento oculare consentendo al sistema software di registrare quali dettagli dell'immagine hanno catturato l'attenzione dell'utente. As an example, an eye tracking sensor could acquire the gaze position signal and the pupil diameter signal, including the speed of the eye. of its contraction. In this case, it could be conceivable to detect the trend of oxygen concentration in the pupil, the level of dopamine from the speed? contraction of the pupil, the heartbeat from the behavior of eye pressure or the concentration of biochemicals in the retina from an ocular fluorescent excitation response. So it might be possible to establish a correlation between these parameters / trends extracted and the cognitive-emotional state since? a bio-imaging processing software pu? acquire and decode signals from molecules in the ocular blood. Like this particular example, the eye-tracking sensor could be embedded in the shutter system (for example, in the lens or screen of a DSLR or bridge camera in a smartphone, in the frame or lens of eyeglasses) and could track movement eyepiece by allowing the software system to record which details of the image have captured the user's attention.

La tecnologia fNIRS pu? rappresentare un altro esempio. Trattandosi di un insieme di sensori indossabili, non pu? essere fisicamente integrato nel sistema, ma pu? comunicare con esso attraverso protocolli di comunicazione via cavo/wireless, consentendo facilmente a diversi utenti di interagire con la loro attivit? acquisita fNIRS con la telecamera. fNIRS technology can give another example. Being a set of wearable sensors, it can't? be physically integrated into the system, but pu? communicate with it through wired/wireless communication protocols, easily allowing different users to interact with their business? acquired fNIRS with the camera.

Finora sono stati descritti sensori che acquisiscono segnali da un singolo utente. Tuttavia, ? concepibile una piattaforma social per mezzo della quale l'acquisizione pu? essere attivata da una molteplicit? di utenti connessi in modo digitale presenti sul sito o attivi da remoto per mezzo delle loro emozioni o dei loro processi cognitivi, in modo che i dati in ingresso possano comprendere anche segnali biologici e informazioni provenienti da una comunit? social (umana e/o animale), che pu? quindi interagire con il sistema gestito dall'utente principale o da un essere umano, animale, robotico. So far, sensors have been described that acquire signals from a single user. However, ? conceivable a social platform by means of which the acquisition pu? be activated by a multiplicity? of digitally connected users present on the site or active remotely by means of their emotions or their cognitive processes, so that the input data can also include biological signals and information from a community? social (human and/or animal), which can? then interact with the system managed by the main user or by a human, animal, robotic being.

La Figura 7 illustra schematicamente un esempio del processo 500, in cui un utente principale (utente n.1) impiega un sistema fotografico con elementi sensore 501. In un sistema di affinamento 502 del segnale, la dashboard dei sensori estrae 502 diversi tipi di segnali di qualit? grezza (vale a dire man mano che vengono raccolti) che vengono sincronizzati sia tra loro che con la sequenza di frame acquisiti dall'obiettivo fotografico, al fine di avere una corrispondenza univoca tra ciascun timestamp e le informazioni registrate nel corso del processo. Secondo questo esempio, viene utilizzata una pluralit? di sensori biologici, come GSR, PPG, diametro della pupilla, posizione dello sguardo, EEG, fNIRS, espressione facciale... Figure 7 schematically illustrates an example of process 500, where a primary user (user #1) employs a photographic system with sensor elements 501. In a signal refinement system 502, the sensor dashboard extracts 502 different types of signals of quality raw (i.e. as they are collected) that are synchronized both with each other and with the sequence of frames captured by the photographic lens, in order to have a unique correspondence between each timestamp and the information recorded in the process. According to this example, is a plurality used? of biological sensors, such as GSR, PPG, pupil diameter, gaze position, EEG, fNIRS, facial expression…

I segnali ottenuti dal processo di sincronizzazione passano attraverso un'elaborazione a due stadi 503. Ciascun segnale viene filtrato 504 con tecniche appropriate e personalizzate volte a ridurre il rumore tipico del segnale o dovuto a manufatti umani. Questi segnali filtrati vengono sottoposti tecniche di analisi numerica 505 per estrarre indici e segnali che rappresentano tendenze o figure di merito esplicative dello stato cognitivo ed emotivo dell'utente. In particolare, mentre il sistema acquisisce continuamente frame e segnali dai diversi sensori, il sistema software integrato filtra i segnali e li analizza. L'analisi consiste nella ricerca automatica di uno specifico pattern nei valori dei segnali, in modo tale che, una volta soddisfatto un criterio ottimale, il sistema congeli l'immagine e venga generata una foto. Inoltre nel file digitale vengono salvati tutti i metadati fisiologici registrati (come accade attualmente con il formato "grezzo" e altri formati fotografici elaborati, ad esempio Jpeg, che contiene dati provenienti da array di sensori di luce e altri dati tecnici di base derivati dalla configurazione della fotocamera, dalle coordinate GPS associate, ecc.). Una volta estratte, gli output di segnale sono pronti per essere utilizzati per ricercare un pattern di attivazione per lo scatto fotografico attraverso un sistema di apprendimento automatico (ML) basato sul modello di classificazione 506. Questo sistema riceve gli output in entrata della fase di filtraggio, elaborazione e analisi e, sulla base di parametri di messa a punto precedentemente regolati, identifica un istante temporale in corrispondenza del quale viene utilizzato lo specifico modello emotivo-cognitivo con conseguente scatto di una fotografia (vale a dire l'azione di immortalare il frame per quell'istante temporale) 507. The signals obtained from the synchronization process pass through a two-stage processing 503. Each signal is filtered 504 with appropriate and customized techniques aimed at reducing the noise typical of the signal or due to human artifacts. These filtered signals are subjected to numerical analysis techniques 505 to extract indices and signals representing trends or figures of merit explanatory of the cognitive and emotional state of the user. In particular, while the system continuously acquires frames and signals from the various sensors, the integrated software system filters the signals and analyzes them. The analysis consists in automatically searching for a specific pattern in the signal values, so that, once an optimal criterion is met, the system freezes the image and a photo is generated. Furthermore, all recorded physiological metadata is saved in the digital file (as currently happens with the "raw" format and other processed photographic formats, for example Jpeg, which contains data from light sensor arrays and other basic technical data derived from the configuration camera, associated GPS coordinates, etc.). Once extracted, the signal outputs are ready to be used to search for a trigger pattern for the photographic shot through a machine learning (ML) system based on the 506 classification model. This system receives the input outputs of the filtering phase , processing and analysis and, on the basis of previously adjusted setup parameters, identifies a time instant in correspondence with which the specific emotional-cognitive model is used with the consequent taking of a photograph (i.e. the action of immortalizing the frame for that instant of time) 507.

Analogamente, ? possibile considerare un ecosistema di una pluralit? di sensori per rilevare e raccogliere informazioni emotive e cognitive derivanti da pi? individui (utente n. 2, utente n.3, ?utente n. N) che interagiscono con un utente principale (utente n.1) nel modo in cui vedono la stessa porzione di realt? identificata dall'obiettivo fotografico. Infatti, attraverso lo stesso sistema di affinamento dei segnali, le tendenze cognitive ed emotive e le figure di merito vengono estratte da diversi utenti che vanno ad alimentare un hub, che contiene socio-feedback emotivi completamente sincronizzati con quelli dell'utente principale 508. Si sottolinea che non solo un singolo utente, ma anche una pluralit? di utenti pu? alimentare come input il sistema ML 509. Similarly, ? Is it possible to consider an ecosystem of a plurality? of sensors to detect and collect emotional and cognitive information deriving from multiple? individuals (user n. 2, user n.3, ?user n. N) who interact with a main user (user n.1) in the way they see the same portion of reality? identified by the photographic lens. In fact, through the same signal refinement system, cognitive and emotional tendencies and figures of merit are extracted from different users who feed a hub, which contains emotional socio-feedbacks completely synchronized with those of the main user 508. Yes points out that not only a single user, but also a plurality? of users can? feed the ML 509 system as input.

Le Figure 8 e 9 illustrano entrambe un diagramma di flusso che descrive un processo impiegato in un sistema di acquisizione di immagini, in cui il dispositivo di imaging ? un telefono cellulare (Figura 8) o un dispositivo fotografico (Figura 9). Il processo di queste figure corrisponde fondamentalmente al processo mostrato nella Figura 7 per un singolo utente. Figures 8 and 9 both illustrate a flowchart describing a process employed in an image acquisition system, in which the imaging device ? a mobile phone (Figure 8) or camera device (Figure 9). The process of these figures basically corresponds to the process shown in Figure 7 for a single user.

Nella Figura 8, l'utente guarda un telefono cellulare o uno smartphone 601. Lo smartphone ? dotato di sensori biologici 6 per rilevare e raccogliere dati biologici grezzi (ad esempio PPG, GSR, espressione facciale, frame di immagini e tracciamento oculare). I segnali grezzi vengono sincronizzati tra loro insieme alla sequenza di frame 602. I segnali sincronizzati vengono quindi filtrati. In particolare, viene eseguito un primo processo di filtraggio (vale a dire il binning dei dati) 603. Occorre notare che in base al segnale biologico misurato, ? possibile usare un secondo processo di filtraggio dedicato. Ad esempio, nel caso di un segnale PPG, viene eseguito un controllo di campionamento uniforme e quindi uno stadio di filtraggio usando un filtro di Chebyshev di tipo II (ordine IV) 604. Il PPG filtrato viene quindi sottoposto a un rilevatore di picco basato su inviluppo per valutare la variabilit? della frequenza cardiaca (HRV). Gli altri segnali biologici vengono sottoposti a processi identici o simili. Gli stadi di filtraggio vengono eseguiti per i segnali biologici per ciascun campione di tempo 605. I frame di immagine sincronizzati vengono usati per controllare e regolare parametri fotografici come lo zoom e la messa a fuoco 606. Questi parametri vengono controllati anche in base ai risultati dei segnali di tracciamento oculare in termini di tempo di fissazione e posizione di fissazione 607. In Figure 8, the user looks at a cell phone or smartphone 601. The smartphone ? equipped with 6 biological sensors to detect and collect raw biological data (e.g. PPG, GSR, facial expression, image frames, and eye tracking). The raw signals are synchronized with each other along with the frame sequence 602. The synchronized signals are then filtered. In particular, a first filtering process (ie data binning) 603 is performed. It should be noted that based on the measured biological signal, ? It is possible to use a second dedicated filtering process. For example, in the case of a PPG signal, a smooth sampling check is performed and then a filtering stage using a 604 type II (order IV) Chebyshev filter. The filtered PPG is then subjected to a peak detector based on envelope to evaluate the variability? heart rate (HRV). The other biological signals undergo the same or similar processes. Filtering stages are performed for the biological signals for each time sample 605. Synchronized image frames are used to control and adjust photographic parameters such as zoom and focus 606. These parameters are also controlled based on the results of the eye tracking signals in terms of fixation time and fixation position 607.

I segnali filtrati vengono immessi in un algoritmo di ML allenato 608 per identificare un istante temporale per lo scatto 609. Occorre notare che i parametri fotografici vengono regolati prima dello scatto in base all'analisi dei frame di immagine. The filtered signals are fed into a trained ML algorithm 608 to identify a point in time for the shot 609. It should be noted that the photographic parameters are adjusted prior to the shot based on the analysis of the image frames.

Nella Figura 9, l'utente impiega un apparato con un dispositivo fotografico al posto di uno smartphone. In questo caso, alcuni segnali biologici, come l'espressione facciale, non vengono presi in considerazione. Tuttavia, possono essere considerati altri parametri, come un'analisi della pupilla 610 migliore. A parte questo, il processo della Figura 9 ? lo stesso della Figura 8. Di conseguenza, vengono identificati gli stessi numerali di riferimento. In Figure 9 , the user employs an apparatus with a camera device instead of a smartphone. In this case, some biological signals, such as facial expression, are not taken into account. However, other parameters such as better 610 pupil analysis may be considered. Apart from this, the process of Figure 9 ? the same as in Figure 8. As a result, the same reference numerals are identified.

Il processo di allenamento dell'apprendimento automatico viene sviluppato dopo sessioni esplorative precedenti eseguite su soggetti reclutati per la loro capacit? di scatto fotografico manuale. Il sistema apprender? dai loro processi cognitivi effettuati prima e durante lo scatto istantaneo. In questo modo, non sar? l'utente a decidere quando scattare, ma il suo processo cognitivo e biologico guider? inconsciamente il software verso lo scatto, emulando il processo biologico e cognitivo del fotografo pi? esperto. Questo approccio rappresenta il primo livello di sviluppo, consentendo cos? a un utente di scattare una foto come farebbe un fotografo esperto utilizzando pattern di altri fotografi (vale a dire raggruppati in base alla desiderabilit? dell'utente). The machine learning training process is developed after previous exploratory sessions performed on subjects recruited for their ability to of manual photographic shutter. Will the system learn? from their cognitive processes carried out before and during the snapshot. In this way, it will not be the user to decide when to shoot, but his cognitive and biological process will guide? unconsciously the software towards the shot, emulating the biological and cognitive process of the photographer more? expert. This approach represents the first level of development, thus allowing a user to take a photo as a skilled photographer would using patterns from other photographers (ie grouped according to the user's desirability).

Ci? ? sistematicamente in azione con pi? di un singolo individuo, vale a dire un dato insieme autodefinito di individui secondo criteri di affinit? espliciti o impliciti, o la totalit? degli utenti sta generando un set di big data che pu? essere utilizzato per determinare pattern significativi, rafforzando cos? l'efficacia degli algoritmi di apprendimento automatico. There? ? systematically in action with pi? of a single individual, i.e. a given self-defined set of individuals according to criteria of affinity? explicit or implicit, or the totality? of users are generating a set of big data that can be used to determine significant patterns, thus strengthening? the effectiveness of machine learning algorithms.

Un livello pi? profondo di funzionamento del sistema consiste nella possibilit? per un utente di scattare una foto come desidera senza conoscere/essere consapevole dei suoi processi cognitivo-emotivi, ma consentendo al sistema di scatto di misurare, quantificare e definire lo stato emotivo cognitivo dell'utente stesso nel tempo (vale a dire "fotografia assistita"). One level higher deep functioning of the system consists in the possibility? for a user to take a photo as he wishes without knowing/being aware of his cognitive-emotional processes, but allowing the shooting system to measure, quantify and define the cognitive emotional state of the user himself over time (i.e. "assisted photography ").

Al fine di migliorare l'accuratezza e l'efficienza del sistema, un punto di partenza pu? essere un numero limitato di percorsi cognitivi derivanti da un fotografo esperto. Tuttavia, ? anche interessante comprendere ed esplorare ulteriormente come un utente comune (ad esempio non necessariamente avente esperienza fotografica) si sente e reagisce di fronte all'acquisizione di immagini di una fotocamera, arrivando a definire che tipo di pattern cognitivo-emotivi attiverebbero uno scatto. In order to improve the accuracy and efficiency of the system, a starting point can be be a limited number of cognitive paths resulting from an expert photographer. However, ? It is also interesting to further understand and explore how a common user (for example not necessarily having photographic experience) feels and reacts when faced with the acquisition of images by a camera, arriving at defining what kind of cognitive-emotional pattern would trigger a shot.

Il concetto ? che il sistema consente di generare e utilizzare diversi "filtri di attivazione" che sono rappresentati dal modo in cui un particolare utente (ad esempio l'utente stesso, il suo amico, il fotografo esperto, ecc.) scatta una foto. The concept ? that the system allows you to generate and use different "activation filters" which are represented by the way in which a particular user (for example the user himself, his friend, the expert photographer, etc.) takes a photo.

Inoltre, gli utenti possono essere raggruppati in cluster per vedere come si comportano e quali tipi di informazioni aggregano. Una volta ottenuta una grande quantit? di metadati (ad esempio da diverse migliaia o milioni di immagini), attraverso metodi di clustering di ML basati su criteri di affinit? (supervisionati o non supervisionati) l'utente potrebbe causare la generazione di un filtro di attivazione (modello di scatto predeterminato) in base alle reazioni cognitive ed emotive che desidera enfatizzare. Additionally, users can be grouped into clusters to see how they behave and what types of information they aggregate. Once you get a large amount of metadata (for example from several thousand or millions of images), through ML clustering methods based on affinity criteria? (supervised or unsupervised) the user could cause the generation of an activation filter (predetermined shooting pattern) based on the cognitive and emotional reactions he wishes to emphasize.

Inoltre, partendo dai dati e/o metadati dei singoli utenti e dalle loro informazioni estratte, ? possibile prendere in considerazione la generazione e l'alimentazione di un sistema social (ad esempio "Instagram of Neuroscience") rivoluzionario, che sia in grado di fare quanto segue: Furthermore, starting from the data and/or metadata of individual users and their extracted information, ? Consider generating and powering a revolutionary social system (e.g. "Instagram of Neuroscience"), which is capable of doing the following:

1) condividere contenuti pre-elaborati con un social network di persone promuovendo una comunicazione informata e consapevole dei processi/percorsi cognitivi sviluppati; 2) produrre nuovi contenuti artistici, cognitivi ed emotivi a partire dall'analisi delle informazioni cognitivo-biologiche estratte e associate al soggetto che sta guardando un particolare contenuto del social. (ad esempio un utente osserva una particolare immagine condivisa e reagisce biologicamente ad essa. L'Instagram of Neuroscience ? in grado di produrre un feedback cognitivo-emotivo tangibile della visualizzazione). 1) share pre-processed contents with a social network of people promoting an informed and aware communication of the developed cognitive processes/paths; 2) produce new artistic, cognitive and emotional contents starting from the analysis of the cognitive-biological information extracted and associated with the subject who is watching a particular content of the social network. (for example a user observes a particular shared image and reacts biologically to it. The Instagram of Neuroscience is able to produce a tangible cognitive-emotional feedback of the visualization).

La Figura 10 mostra schematicamente un sistema informatico per implementare metodi di esempi della descrizione. In particolare, la Figura 10 mostra un esempio di un dispositivo informatico 2000 che pu? essere ad esempio disposto per implementare uno o pi? degli esempi dei metodi qui descritti. Negli esempi, il dispositivo informatico 2000 comprende l'unit? principale 2002. L'unit? principale 2002 pu? comprendere un processore 2004 e una memoria di sistema 2006. Negli esempi, il processore 2004 pu? comprendere un core 2008 del processore, una cache 2010 e uno o pi? registri 2012. Negli esempi, il core 2008 del processore pu? comprendere uno o pi? core di elaborazione e pu? comprendere una pluralit? di core che possono eseguire una pluralit? di thread. Il processore 2004 pu? essere di qualsiasi tipo adatto come microcontroller, microprocessore, processore di segnali digitali o una loro combinazione, sebbene si apprezzer? che possono essere usati altri tipi di processore. Figure 10 schematically shows a computer system for implementing methods of examples of the description. In particular, Figure 10 shows an example of a computing device 2000 that can be, for example, willing to implement one or more? examples of the methods described here. In the examples, the computing device 2000 includes the unit main 2002. The unit? main 2002 can? include a 2004 processor and 2006 system memory. In the examples, the 2004 processor can? include a 2008 processor core, a 2010 cache and one or more? registers 2012. In the examples, the 2008 processor core can? include one or more processing core and pu? understand a plurality of cores that can run a plurality? of threads. The 2004 processor can? be of any suitable type such as a microcontroller, microprocessor, digital signal processor, or some combination thereof, although it would be appreciated that other processor types can be used.

Negli esempi, il core 2008 del processore pu? comprendere una o pi? unit? di elaborazione. Negli esempi, il core 2008 del processore comprende una o pi? tra un'unit? a virgola mobile, un'unit? aritmetica, un'unit? di elaborazione di segnali digitali o una combinazione di queste e/o una pluralit? di altre unit? di elaborazione, sebbene si apprezzer? che possono essere utilizzate altre unit? di elaborazione. Negli esempi, la cache 2010 pu? comprendere una pluralit? di cache come una cache di livello uno e una cache di livello due, sebbene sia possibile utilizzare altre disposizioni di cache appropriate. In the examples, the 2008 processor core can? understand one or more unit? of processing. In the examples, the 2008 processor core includes one or more? between a unit? floating point, a unit? arithmetic, a unit? of digital signal processing or a combination of these and / or a plurality? of other units? of elaboration, although it will be appreciated? that other units can be used? of processing. In the examples, cache 2010 can? understand a plurality such as a level one cache and a level two cache, although other appropriate cache arrangements may be used.

Negli esempi, il processore 2004 comprende un controller di memoria 2014 utilizzabile per consentire la comunicazione tra il processore 2004 e la memoria di sistema 2006 tramite un bus di memoria 2016. Il controller di memoria 2014 pu? essere implementato come parte integrante del processore 2004, o pu? essere implementato come componente separato. In the examples, the 2004 processor includes a 2014 memory controller that can be used to allow communication between the 2004 processor and the 2006 system memory via a 2016 memory bus. be implemented as an integral part of the 2004 processor, or can? be implemented as a separate component.

Negli esempi, la memoria di sistema 2006 pu? essere di qualsiasi tipo adatto come una memoria non volatile (ad esempio una memoria flash o una memoria di sola lettura), una memoria volatile (come una memoria ad accesso casuale (RAM)), e/o una combinazione di una memoria volatile e non volatile. Negli esempi, la memoria di sistema 2006 pu? essere disposta per archiviare un codice per l'esecuzione da parte del processore 2004 e/o dati correlati all'esecuzione. Ad esempio, la memoria di sistema pu? archiviare il codice 2018 del sistema operativo, il codice 2020 dell'applicazione e i dati 2022 del programma. Negli esempi, il codice 2020 dell'applicazione pu? comprendere un codice per implementare uno o pi? dei metodi di esempio qui descritti, ad esempio per implementare i passaggi sopra descritti con riferimento alle Figure 1, 8 e 9. Il codice di applicazione 2020 pu? essere disposto per cooperare con i dati 2022 del programma o altri supporti, ad esempio per consentire il controllo di parametri fotografici o l'archiviazione dei dati di immagine insieme ai dati attributi. In the examples, the 2006 system memory can? be of any suitable type such as non-volatile memory (such as flash memory or read-only memory), volatile memory (such as random access memory (RAM)), and/or a combination of volatile and non-volatile memory volatile. In the examples, the 2006 system memory can? be arranged to store code for execution by the 2004 processor and/or execution-related data. For example, system memory can store 2018 OS code, 2020 application code, and 2022 program data. In the examples, the 2020 application code can understand a code to implement one or more? of the example methods described here, for example to implement the steps described above with reference to Figures 1, 8 and 9. Application Code 2020 can? be arranged to cooperate with 2022 program data or other media, e.g. to enable photographic parameters to be controlled or image data to be stored together with attribute data.

Negli esempi, il dispositivo informatico 2000 pu? avere caratteristiche, funzionalit? o interfacce aggiuntive. Ad esempio, l'unit? principale 2002 pu? cooperare con uno o pi? dispositivi periferici, ad esempio per implementare i metodi qui descritti. Negli esempi, il dispositivo informatico 2000 comprende, come dispositivi periferici, un'interfaccia di output 2024, un'interfaccia periferica 2026, un dispositivo di archiviazione 208 e un modulo di comunicazione 2030. Negli esempi, il dispositivo di elaborazione comprende un bus di interfaccia 2032 disposto per facilitare la comunicazione tra l'unit? principale 2002 e i dispositivi periferici. In the examples, computing device 2000 can? have features, functionality? or additional interfaces. For example, the unit main 2002 can? cooperate with one or more peripheral devices, for example to implement the methods described here. In the examples, the computing device 2000 comprises, as peripheral devices, an output interface 2024, a peripheral interface 2026, a storage device 208 and a communication module 2030. In the examples, the processing device comprises an interface bus 2032 arranged to facilitate communication between the unit? main 2002 and peripheral devices.

Negli esempi, il dispositivo di output 2024 pu? comprendere dispositivi di output come ad esempio un'unit? di elaborazione grafica (GPU) 2034 e un'unit? di output audio 2036 disposte per essere in grado di comunicare con dispositivi esterni come un display e/o un altoparlante, attraverso una o pi? porte adatte come una porta audio/video (A/V). Negli esempi, l'interfaccia periferica 2026 pu? comprendere un'interfaccia seriale 2038, un'interfaccia parallela 2040 e una o pi? porte di input/output 2042 che possono essere azionabili per cooperare con l'unit? principale 2002 per consentire la comunicazione con uno o pi? dispositivi di input e/o di output esterni tramite la porta I/O 2042. Ad esempio, la porta I/O 2042 pu? comunicare con uno o pi? dispositivi di input come una tastiera, un mouse, un touch pad, un dispositivo di input vocale, uno scanner, un dispositivo di acquisizione di imaging, una videocamera e simili e/o con uno o pi? dispositivi di output come una stampante 2D (ad esempio una stampante per carta) o una stampante 3D o un altro dispositivo di output adatto. Ad esempio, i segnali possono essere ricevuti tramite la porta I/O 2042 e/o il modulo di comunicazione 2030. In the examples, the 2024 output device can? include output devices such as a drive? graphics processing unit (GPU) 2034 and a unit? of 2036 audio outputs arranged to be able to communicate with external devices such as a display and/or speaker, through one or more? suitable ports such as an audio/video (A/V) port. In the examples, the 2026 peripheral interface can? include a 2038 serial interface, a 2040 parallel interface, and one or more? 2042 input/output ports which can be operable to cooperate with the unit? main 2002 to allow communication with one or more? external input and/or output devices through I/O port 2042. For example, I/O port 2042 can? communicate with one or more input devices such as a keyboard, mouse, touch pad, voice input device, scanner, imaging capture device, video camera, and the like, and/or with one or more? output devices such as a 2D printer (e.g. a paper printer) or a 3D printer or other suitable output device. For example, signals can be received through I/O port 2042 and/or communication module 2030.

Negli esempi, il dispositivo di archiviazione pu? comprendere supporti di archiviazione rimovibili 2044 e/o supporti di archiviazione non rimovibili 2046. Ad esempio, i supporti di archiviazione rimovibili possono essere una memoria ad accesso casuale (RAM), una memoria di sola lettura programmabile cancellabile elettricamente (EEPROM), una memoria flash di sola lettura (ROM) o altra tecnologia di memoria, supporti di archiviazione ottica come compact disc (CD), disco versatile digitale (DVD) o altri supporti di archiviazione ottica, supporti di archiviazione magnetici come floppy disc, nastro magnetico o altri supporti di archiviazione magnetica. Tuttavia, si apprezzer? che pu? essere utilizzato qualsiasi tipo adatto di supporto di archiviazione rimovibile. I supporti di archiviazione non rimovibili 2046 possono comprendere un supporto di archiviazione magnetica come un disco rigido, o disco rigido a stato solido, o altri supporti adatti, anche se si apprezzer? che pu? essere usato qualsiasi supporto di archiviazione non rimovibile adatto. Il dispositivo di archiviazione 2028 pu? consentire l'accesso mediante l'unit? principale 2002 ad esempio per implementare i metodi qui descritti. In the examples, the storage device can include 2044 removable storage media and/or 2046 non-removable storage media. For example, removable storage media may be random access memory (RAM), electrically erasable programmable read-only memory (EEPROM), flash memory read-only (ROM) or other memory technology, optical storage media such as compact discs (CDs), digital versatile disks (DVDs) or other optical storage media, magnetic storage media such as floppy discs, magnetic tape, or other magnetic storage. However, it will appreciate what can? any suitable type of removable storage media can be used. Non-removable storage media 2046 may include magnetic storage media such as a hard disk, or solid state hard disk, or other suitable media, although it will be appreciated what can? any suitable non-removable storage medium can be used. The 2028 storage device can allow access through the unit? main 2002 for example to implement the methods described here.

Negli esempi, il modulo di comunicazione pu? comprendere un modulo di comunicazione wireless 2048 e un modulo di comunicazione cablato 2050. Ad esempio, il modulo di comunicazione wireless pu? essere disposto per comunicare in modalit? wireless tramite uno standard di comunicazione wireless adatto, ad esempio relativo a Wi-Fi, Bluetooth, comunicazione in campo vicino, comunicazione ottica (come infrarossi), comunicazione acustica, o tramite uno standard di telecomunicazione mobile adatto. Il modulo di comunicazione cablato pu? consentire la comunicazione tramite un collegamento cablato o ottico, ad esempio tramite Ethernet o cavo ottico. Tuttavia, si apprezzer? che pu? essere utilizzato qualsiasi modulo di comunicazione adatto. In the examples, the communication module can? include a 2048 wireless communication module and a 2050 wired communication module. be willing to communicate in mode? wirelessly via a suitable wireless communication standard, such as related to Wi-Fi, Bluetooth, near-field communication, optical communication (such as infrared), acoustic communication, or via a suitable mobile telecommunications standard. The wired communication module can? allow communication over a wired or optical link, such as via Ethernet or optical cable. However, it will appreciate what can? any suitable communication module can be used.

Facendo riferimento alle Figure da 2 a 9, il modulo di visualizzazione, filtraggio, analisi o scatto pu? ad esempio essere implementato mediante il processore. Negli esempi, uno o pi? dei moduli di visualizzazione, filtraggio, analisi o scatto possono essere implementati mediante l'unit? principale 2002, sebbene si apprezzer? che possono essere utilizzate altre implementazioni adatte. Negli esempi, il modulo di filtraggio, analisi o scatto pu? essere implementato dall'unit? principale 2002 in cooperazione con il dispositivo di output 2024, sebbene si apprezzer? che possono essere usate altre implementazioni adatte. Referring to Figures 2 through 9, the display, filter, analysis, or snap module can for example be implemented by the processor. In the examples, one or more of the display, filtering, analysis or snap modules can be implemented using the unit? principal 2002, although it will be appreciated? that other suitable implementations can be used. In the examples, the filter, analysis or snap module can? be implemented by the unit? main 2002 in cooperation with the 2024 output device, although it will be appreciated? that other suitable implementations can be used.

Si apprezzer? che, negli esempi della descrizione, gli elementi dei metodi descritti possono essere implementati in un dispositivo informatico in qualsiasi modo adatto. Ad esempio, un dispositivo informatico convenzionale pu? essere adatto a eseguire uno o pi? dei metodi qui descritti programmando/adattando uno o pi? processori del dispositivo informatico. Di conseguenza, negli esempi, la programmazione/l'adattamento pu? essere implementato sotto forma di un programma informatico comprendente istruzioni implementabili al computer archiviate su un supporto dati e/o trasportate da un supporto portante segnali, come un floppy disk, un disco rigido, un disco ottico, un'unit? a stato solido, una memoria flash, una memoria programmabile di sola lettura (PROM), una memoria ad accesso casuale (RAM), o qualsiasi combinazione di questi o altri supporti di archiviazione o supporto portante segnali, o trasmesse attraverso una rete come una rete wireless, Ethernet, Internet, o qualsiasi altra combinazione di queste o altre reti. Will you appreciate it? that, in the examples of the description, the elements of the described methods can be implemented in a computing device in any suitable way. For example, a conventional computing device can be suitable to perform one or more? of the methods described here by programming/adapting one or more? computer device processors. Consequently, in the examples, programming/adaptation can? be implemented in the form of a computer program comprising computer-implementable instructions stored on a data medium and/or carried by a signal-carrying medium, such as a floppy disk, hard disk, optical disc, drive? solid-state memory, flash memory, programmable read-only memory (PROM), random access memory (RAM), or any combination of these or other storage media or signal carrier media, or transmitted over a network such as a network wireless, Ethernet, the Internet, or any combination of these or other networks.

In altre parole, negli esempi, un programma informatico pu? comprendere istruzioni leggibili al computer che, quando implementate su un dispositivo informatico, fanno s? che il dispositivo informatico esegua un metodo secondo gli esempi della descrizione. Negli esempi, un supporto di archiviazione pu? comprendere, ad esempio, il programma informatico come sopra menzionato sopra. Ci si render? inoltre conto che potrebbero essere utilizzate altre architetture informatiche adatte come quelle basate su uno o pi? processori paralleli. Inoltre, almeno alcune elaborazioni possono essere implementate su una o pi? unit? di elaborazione grafica (GPU). Sebbene il dispositivo informatico 2000 venga descritto come un dispositivo informatico di uso generale, si apprezzer? che questo potrebbe essere implementato in qualsiasi dispositivo appropriato, come telefono cellulare, smartphone, fotocamera, videocamera, dispositivo tablet, dispositivo server, ecc.? con modifiche e/o adattamento, se appropriati, alle caratteristiche sopra descritte, ad esempio a seconda della funzionalit? e delle caratteristiche hardware desiderate. In other words, in the examples, a computer program can? understand computer-readable instructions that, when implemented on a computing device, do that the computing device performs a method according to the examples of the description. In the examples, a storage medium can? include, for example, the computer program as mentioned above. Will we make it? I also realize that other suitable IT architectures could be used, such as those based on one or more? parallel processors. Furthermore, at least some processing can be implemented on one or more? unit? graphics processing unit (GPU). Although the Computing Device 2000 is described as a general purpose computing device, it will be appreciated that this could be implemented in any appropriate device, such as mobile phone, smartphone, camera, camcorder, tablet device, server device, etc.? with modifications and/or adaptation, if appropriate, to the characteristics described above, for example according to the functionality? and the desired hardware features.

Il presente metodo di acquisizione di immagini e il relativo apparato e sistema possono essere adottati in tutte le strutture che considerano l'interazione tra un utente e uno stimolo audiovisivo sviluppando un'appropriata procedura di elaborazione dello stimolo, in cui ciascun utente potrebbe condividere lo stimolo elaborato e i suoi metadati associati (ad esempio segnali e informazioni estratte) con qualsiasi altra persona al fine di confrontare le esperienze e comprendere le dinamiche e le reazioni biologiche della comunit?. The present image acquisition method and related apparatus and system can be adopted in all structures that consider the interaction between a user and an audiovisual stimulus by developing an appropriate stimulus processing procedure, in which each user could share the stimulus processed and its associated metadata (e.g. signals and extracted information) with any other person in order to compare experiences and understand the dynamics and biological reactions of the community.

Ad esempio, nel campo della fotografia, l'integrazione dell'attuale apparato/sistema in una fotocamera produrrebbe una fotocamera intelligente. In questo modo, ? possibile comprendere il percorso di esplorazione visiva di un utente prima e durante lo scatto fotografico, identificando la risposta biologica attraverso la cattura dei segnali, la loro sincronizzazione e l'analisi. Tutti i dati di output e le rispettive informazioni estratte potrebbero essere archiviati e condivisi per comprendere e confrontare il processo cognitivo al quale viene sottoposto uno scatto fotografico. Inoltre, una fotocamera intelligente potrebbe essere accessoriata con un sistema di IA aggiornato in grado di capire quando scattare automaticamente, utilizzando un algoritmo di apprendimento informatico alimentato con esperienze precedenti selezionate (ad esempio condivise o personali). In questo caso, il sistema di scatto IA si basa sui metadati in tempo reale elaborati e registrati durante la visualizzazione nel mirino. For example, in the field of photography, integrating the current apparatus/system into a camera would produce an intelligent camera. In this way, ? It is possible to understand the path of visual exploration of a user before and during the photo shoot, identifying the biological response through the capture of signals, their synchronization and analysis. All the output data and the respective extracted information could be archived and shared to understand and compare the cognitive process to which a photographic shot is subjected. Additionally, a smart camera could be equipped with an upgraded AI system that can figure out when to shoot automatically, using a computer learning algorithm powered by selected prior experiences (such as shared or personal). In this case, the AI shooting system relies on real-time metadata processed and recorded during viewfinder viewing.

A un livello di interpretazione pi? elevato, senza una specifica struttura applicativa, ? possibile considerare la disposizione dei sensori come un sistema che estrae informazioni di stimolazione additiva (metadati) rispetto alla visualizzazione dello stimolo, generando uno spazio di caratteristiche multidimensionali associato alla fruizione dello stimolo. A seconda della natura del particolare campo di applicazione, la raccolta di una singola esperienza aumentata potrebbe essere elaborata e quindi riassunta in un report comunicativo, che di conseguenza cambierebbe forma, contenuto e scopo. Questo rapporto potrebbe agire come comunicatore social personale che alimenta un social network (ad esempio un Instagram of the Neuroscience o come un hub scientifico), dove i metadati associati potrebbero essere considerati rispettivamente come informazioni social o scoperta della conoscenza a seconda della natura artistica degli stimoli scientifici. At a level of interpretation more? high, without a specific application structure, ? It is possible to consider the arrangement of the sensors as a system that extracts additive stimulation information (metadata) with respect to the visualization of the stimulus, generating a space of multidimensional characteristics associated with the fruition of the stimulus. Depending on the nature of the particular field of application, the collection of a single augmented experience could be elaborated and then summarized in a communicative report, which would consequently change its form, content and purpose. This report could act as a personal social communicator feeding into a social network (e.g. an Instagram of the Neuroscience or as a science hub), where the associated metadata could be regarded as social information or knowledge discovery, respectively, depending on the artistic nature of the stimuli. scientific.

Pertanto, questa ampia condivisione produce un arricchimento ricorsivo della procedura di elaborazione dell'IA, apprendendo dalle diverse esperienze aumentate. L'algoritmo di IA aggiornato fornirebbe una piattaforma nuova e autonoma con procedura di elaborazione automatizzata dedicata. Questo ? ottenibile considerando uno specifico cluster di esperienze come insieme di apprendimento, generando nuovi metadati a partire da quelli generati dagli utenti (metadati da metadati). Di conseguenza, ? possibile profilare ciascun utente utilizzando non solo le informazioni raccolte dal questionario, ma sfruttando la loro risposta cognitiva biologica. Therefore, this extensive sharing produces recursive enrichment of AI processing procedure, learning from different augmented experiences. The upgraded AI algorithm would provide a new and autonomous platform with dedicated automated processing procedure. This ? obtainable by considering a specific cluster of experiences as a set of learning, generating new metadata starting from those generated by users (metadata from metadata). Consequentially, ? possible to profile each user using not only the information collected from the questionnaire, but exploiting their biological cognitive response.

Il sistema trasforma i parametri biologici in un nuovo linguaggio fotografico, che potrebbe comunicare a terzi informazioni estratte da segnali non comunicabili. Di conseguenza, un altro campo di applicazione pu? essere l'arte visiva vista come un concetto molto pi? ampio. Ad esempio, un utente pu? godere di un'immagine proiettata su uno schermo mentre diversi sensori indossabili registrano la sua attivit? biologica e la sua risposta. Lo stimolo visivo e i metadati associati possono essere elaborati generando risultati condivisibili. Ad un ulteriore livello di sviluppo, ? possibile prendere in considerazione un museo accessoriato con sensori intelligenti autonomi e indossabili non invasivi che acquisiscono la risposta biologica degli utenti in risposta ad una particolare fruizione dell'opera d'arte. The system transforms biological parameters into a new photographic language, which could communicate information extracted from non-communicable signals to third parties. Consequently, another field of application can? be the visual art seen as a concept much more? ample. For example, a user can enjoy an image projected on a screen while several wearable sensors record its activity biology and its response. The visual stimulus and associated metadata can be processed into shareable results. On a further level of development, ? It is possible to consider a museum equipped with autonomous intelligent sensors and non-invasive wearables that acquire the biological response of users in response to a particular use of the work of art.

Uno sviluppo avanzato sarebbe quello di iper-connettere le persone con la realt? creando un museo all'aperto in qualsiasi luogo in cui l'utente identifichi uno stimolo visivo artistico (vale a dire la realt? aumentata). Anche in questo caso, l'utente potrebbe essere vestito con opportuni sensori indossabili, indumenti sensibili, occhiali intelligenti e utilizzando uno smartphone in grado di acquisire ulteriori segnali biologici ? possibile registrare diversi metadati associati a quella particolare visualizzazione. Tutte le informazioni acquisite potrebbero essere elaborate e condivise in una rete di comunit? virtuale. An advanced development would be to hyper-connect people with reality? creating an open-air museum in any location where the user identifies an artistic visual stimulus (i.e. augmented reality). Again, could the user be clad in suitable wearable sensors, sensitive clothing, smart glasses, and using a smartphone capable of acquiring further biological signals? You can record various metadata associated with that particular view. All the information acquired could be processed and shared in a community network? virtual.

Un altro scenario pu? essere l'elaborazione di uno stimolo audio-visivo proposto a un paziente per la valutazione neurocognitiva e la riabilitazione. L'output potrebbe essere confrontato tra diversi soggetti al fine di valutare la possibilit? di disturbo cognitivo. Inoltre, sarebbe possibile generare una valutazione automatizzata tenendo traccia delle precedenti stimolazioni dell'utente e utilizzando un algoritmo IA dedicato. Another scenario can be the elaboration of an audio-visual stimulus proposed to a patient for neurocognitive evaluation and rehabilitation. Could the output be compared between different subjects in order to evaluate the possibility? of cognitive impairment. Furthermore, it would be possible to generate an automated evaluation by keeping track of the user's previous stimulations and using a dedicated AI algorithm.

La moda rappresenta un'ulteriore area di applicazione del presente metodo e dell'apparato/sistema. Ad esempio, un utente potrebbe visualizzare un'immagine che lo rappresenta vestito o truccato secondo i suoi desideri. Le reazioni biologiche potrebbero essere registrate sotto forma di segnali ed elaborate al fine di elaborare un report che potrebbe essere condiviso con la comunit? al fine di ricevere i feedback degli altri utenti. L'elaborazione aggiornata dell'IA consisterebbe nello scopo automatico di una configurazione di trucco e vestiario che, secondo le opinioni social e personali, risulta essere bella. L'applicazione nell'area della moda suggerisce la creazione di un nuovo processo di ricerca delle immagini basata sul web, basandosi sulla sensazione dell'utente. Per fare ci?, sarebbe necessario aggiornare l'algoritmo di IA in modo tale che trovi una correlazione tra la risposta emotiva biologica e le immagini che esprimono quel tipo di emozione. Fashion represents a further area of application of this method and of the apparatus/system. For example, a user could see an image that represents him dressed or made up according to his wishes. Could biological reactions be recorded in the form of signals and processed in order to produce a report that could be shared with the community? in order to receive feedback from other users. The updated processing of the AI would consist in the automatic purpose of a makeup and clothing configuration which, according to social and personal opinions, turns out to be beautiful. The application in the fashion area suggests the creation of a new web-based image search process, based on the user's feeling. To do this, it would be necessary to update the AI algorithm in such a way that it finds a correlation between the biological emotional response and the images that express that type of emotion.

Sebbene nel presente documento siano state descritte una variet? di tecniche ed esempi di tali tecniche, queste sono fornite solo a titolo esemplificativo e molte variazioni e modifiche di tali esempi risulteranno evidenti al tecnico del ramo e ricadranno nello spirito e nell'ambito della presente invenzione, che ? definita dalle rivendicazioni allegate e dai loro equivalenti. Although a variety of of techniques and examples of such techniques, these are provided by way of example only and many variations and modifications of such examples will be apparent to the person skilled in the art and will fall within the spirit and scope of the present invention, which is defined by the appended claims and their equivalents.

TRADUZIONE DELLE FIGURE TRANSLATION OF THE FIGURES

Claims (18)

RIVENDICAZIONI 1. Metodo di acquisizione di immagini (100) mediante utilizzo di un apparato di acquisizione di immagini (1) che comprende un dispositivo di imaging (2) avente un sensore di immagini (3) per generare dati di immagine, il metodo (100) comprendendo:1. Method of acquiring images (100) by using an image acquiring apparatus (1) which includes an imaging device (2) having an image sensor (3) for generating image data, the method (100) including: visualizzazione (S101), mediante utilizzo di un dispositivo di riproduzione di immagini (4), di immagini acquisite dal dispositivo di imaging (2) sulla base dei dati di immagine;displaying (S101), by using an image reproducing device (4), images acquired by the imaging device (2) based on the image data; generazione (S102) dei dati attributi da una pluralit? di segnali biologici misurati da una pluralit? di sensori biologici (6), i dati attributi essendo indicativi di attributi di un utente in un momento in cui l'utente sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini (4);generation (S102) of the attribute data from a plurality? of biological signals measured by a plurality? of biological sensors (6), the attribute data being indicative of attributes of a user at a time when the user is observing the images displayed by the image reproduction device (4); generazione (S103) di dati di significativit? sulla base dei dati attributi, e associazione dei dati attributi dai quali i dati di significativit? vengono generati a ciascuna immagine acquisita;generation (S103) of data of significance? on the basis of the attribute data, and association of the attribute data from which the data of significance? are generated with each acquired image; controllo (S104) dei parametri fotografici dell'apparato di acquisizione di immagini (1) in base ai dati attributi;controlling (S104) the photographic parameters of the image acquisition apparatus (1) based on the attribute data; analisi (S105) dei dati di significativit? per determinare se le immagini visualizzate devono essere acquisite e archiviate; eanalysis (S105) of the data of significance? to determine whether displayed images should be captured and archived; And archiviazione (S106) dei dati di immagine delle immagini visualizzate insieme ai dati attributi in un dispositivo di archiviazione (7) in base ai dati di significativit? analizzati.storage (S106) of the image data of the displayed images together with the attribute data in a storage device (7) according to the significance data? analysed. 2. Metodo di acquisizione di immagini (100) secondo la rivendicazione 1, in cui: i dati di significativit? comprendono una pluralit? di livelli di significativit?, ciascuno associato a un rispettivo segnale biologico dal quale sono stati generati i dati attributi;The image acquisition method (100) according to claim 1, wherein: the significance data? include a plurality of levels of significance, each associated with a respective biological signal from which the data attributes were generated; l'analisi (S105) dei dati di significativit? comprende la generazione di un livello di significativit? combinato sulla base dei livelli di significativit? per ciascuno dei segnali biologici; ethe analysis (S105) of the data of significance? includes the generation of a level of significance? combined on the basis of levels of significance? for each of the biological signals; And l'archiviazione (S106) dei dati di immagine, insieme ai dati attributi, comprende l'archiviazione delle immagini visualizzate nel dispositivo di archiviazione (7) insieme ai dati attributi sulla base di un confronto tra il livello di significativit? combinato e un livello di soglia di attivazione.the storage (S106) of the image data, together with the attribute data, includes the storage of the displayed images in the storage device (7) together with the attribute data based on a comparison between the level of significance? combined and a triggering threshold level. 3. Metodo di acquisizione di immagini (100) secondo la rivendicazione 1 o la rivendicazione 2, in cui la generazione (S103) dei dati di significativit? e l'analisi (S105) dei dati di significativit? si basano su un modello di scatto predeterminato. The image acquisition method (100) according to claim 1 or claim 2, wherein the generation (S103) of the significance data? and the analysis (S105) of the data of significance? they are based on a predetermined shooting pattern. 4. Metodo di acquisizione di immagini (100) secondo la rivendicazione 3, in cui il modello di scatto predeterminato viene generato sulla base di segnali biologici acquisiti da un utente o da una pluralit? di utenti quando viene visualizzato un insieme di immagini di allenamento del modello per l'allenamento del modello di scatto predeterminato.The imaging method (100) according to claim 3, wherein the predetermined shot pattern is generated based on biological signals acquired from a user or a plurality of images. of users when a set of model training images for predetermined shooting model training is displayed. 5. Metodo di acquisizione di immagini (100) secondo la rivendicazione 3 o la rivendicazione 4, quando comprendente la dipendenza dalla rivendicazione 2, in cui il livello di soglia di attivazione viene determinato secondo il modello di scatto predeterminato.The imaging method (100) according to claim 3 or claim 4, when including dependence on claim 2, wherein the trigger threshold level is determined according to the predetermined trigger pattern. 6. Metodo di acquisizione di immagini (100) secondo una qualsiasi delle rivendicazioni da 3 a 5, comprendente la trasmissione dei dati di immagine delle immagini visualizzate insieme ai loro segnali biologici locali associati a un database di modelli di scatto per mettere a punto il modello di scatto predeterminato.The image acquisition method (100) according to any one of claims 3 to 5, comprising transmitting the image data of the displayed images together with their associated local biological signals to a database of shot patterns to fine-tune the pattern of predetermined shot. 7. Metodo di acquisizione di immagini (100) secondo una qualsiasi rivendicazione precedente, in cui l'utente ? un utente locale che ? locale rispetto all'apparato di acquisizione di immagini (1), e i dati attributi comprendono dati attributi locali che sono associati a un momento in cui l'utente locale sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini (4).The image acquisition method (100) according to any preceding claim, wherein the user is a local user who ? local to the image acquisition apparatus (1), and the attribute data comprises local attribute data which is associated with a time when the local user is observing the images displayed by the imaging device (4). 8. Metodo di acquisizione di immagini (100) secondo una qualsiasi rivendicazione precedente, in cui l'utente ? un utente remoto che ? in remoto rispetto all'apparato di acquisizione di immagini (1), il dispositivo di riproduzione di immagini (4) ? locale rispetto all'utente remoto, e i dati attributi comprendono dati attributi remoti che sono associati a un momento in cui l'utente remoto sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini (4).The image acquisition method (100) according to any preceding claim, wherein the user is a remote user who ? remotely from the image acquisition apparatus (1), the image reproduction device (4) ? local to the remote user, and the attribute data comprises remote attribute data which is associated with a time when the remote user is observing the images displayed by the imaging device (4). 9. Metodo di acquisizione di immagini (100) secondo una qualsiasi delle rivendicazioni 7 o 8, comprendente:The image acquisition method (100) according to any one of claims 7 or 8, comprising: la visualizzazione delle immagini acquisite dal dispositivo di imaging su una pluralit? di dispositivi utente remoti di riproduzione di immagini che sono associati a diversi utenti remoti;viewing the images captured by the imaging device on a plurality? of remote user imaging devices that are associated with multiple remote users; la generazione di dati attributi remoti da una pluralit? di segnali biologici remoti (6) misurati da una pluralit? di sensori biologici remoti, i dati attributi remoti essendo indicativi di attributi degli utenti remoti in un momento in cui gli utenti remoti stanno osservando le immagini visualizzate dai loro rispettivi dispositivi utente remoti di riproduzione di immagini (4).the generation of remote attribute data from a plurality? of remote biological signals (6) measured by a plurality? of remote biological sensors, the remote attribute data being indicative of attributes of the remote users at a time when the remote users are viewing images displayed by their respective remote user imaging devices (4). 10. Metodo di acquisizione di immagini (100) secondo la rivendicazione 9 quando comprendente la dipendenza da una qualsiasi delle rivendicazioni da 3 a 6, comprendente la messa a punto del modello predeterminato in base all'input dell'utente da parte dei diversi utenti remoti.The imaging method (100) according to claim 9 when comprising dependence on any one of claims 3 to 6, comprising fine-tuning the predetermined pattern based on user input from the different remote users . 11. Metodo di acquisizione di immagini (100) secondo una qualsiasi rivendicazione precedente, comprendente la sincronizzazione temporale dei segnali biologici tra loro e/o con i dati di immagine.The image acquisition method (100) according to any preceding claim, comprising the time synchronization of the biological signals with each other and/or with the image data. 12. Metodo di acquisizione di immagini (100) secondo una qualsiasi rivendicazione precedente, in cui i dati attributi comprendono dati di segnale dei segnali biologici misurati.The imaging method (100) according to any preceding claim, wherein the attribute data comprises signal data of the measured biological signals. 13. Programma comprendente istruzioni leggibili dal processore che, quando implementate da un processore, fanno s? che il processore implementi un metodo (100) secondo una qualsiasi rivendicazione precedente.13. A program comprising processor-readable instructions that, when implemented by a processor, do that the processor implements a method (100) according to any preceding claim. 14. Supporto di archiviazione comprendente il programma secondo la rivendicazione 13.The storage medium comprising the program according to claim 13. 15. Apparato di acquisizione di immagini (1) comprendente:15. Image acquisition apparatus (1) comprising: un dispositivo di imaging (2) comprendente un sensore di immagini (3) azionabile per generare dati di immagine;an imaging device (2) comprising an image sensor (3) operable to generate image data; un dispositivo di riproduzione di immagini (4) azionabile per visualizzare immagini acquisite dal dispositivo di imaging (2) sulla base dei dati di immagine;an image reproducing device (4) operable to display images acquired by the imaging device (2) based on the image data; un processore (5) azionabile per:a processor (5) operable for: generare dati attributi da una pluralit? di segnali biologici misurati da una pluralit? di sensori biologici (6), i dati attributi essendo indicativi di attributi di un utente in un momento in cui l'utente sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini (4); generare dati di significativit? sulla base dei dati attributi, e associare i dati attributi dai quali i dati di significativit? vengono generati a ciascuna immagine acquisita; generate data attributes from a plurality? of biological signals measured by a plurality? of biological sensors (6), the attribute data being indicative of attributes of a user at a time when the user is observing the images displayed by the image reproduction device (4); generate data of significance? based on the data attributes, and associate the data attributes from which the data of significance? are generated with each acquired image; controllare i parametri fotografici dell'apparato di acquisizione di immagini (1) in base ai dati attributi;controlling the photographic parameters of the image acquisition apparatus (1) based on the attribute data; analizzare i dati di significativit? per determinare se le immagini visualizzate devono essere acquisite e archiviate;analyze the data of significance? to determine whether displayed images should be captured and archived; archiviare i dati di immagine delle immagini visualizzate insieme ai dati attributi in un dispositivo di archiviazione (7) in base ai dati di significativit? analizzati.archive the image data of the displayed images together with the attribute data in a storage device (7) according to the significance data? analysed. 16. Apparato di acquisizione di immagini (1) secondo la rivendicazione 15, comprendente un'interfaccia di comunicazione (8) azionabile per ricevere i segnali biologici dagli uno o pi? sensori biologici (7).The image acquisition apparatus (1) according to claim 15, comprising a communication interface (8) operable to receive the biological signals from the one or more? biological sensors (7). 17. Apparato di acquisizione di immagini (1) secondo la rivendicazione 15, in cui l'utente ? un utente locale che ? locale rispetto all'apparato di acquisizione di immagini (1), e i dati attributi comprendono dati attributi locali che sono associati a un momento in cui l'utente locale sta osservando le immagini visualizzate dal dispositivo di riproduzione di immagini (4) e l'apparato (1) comprende:The image acquisition apparatus (1) according to claim 15, wherein the user is a local user who ? local to the imaging apparatus (1), and the attribute data comprises local attribute data which is associated with a time when the local user is observing the images displayed by the imaging device (4), and the apparatus (1) includes: un'interfaccia di comunicazione azionabile per ricevere dati attributi remoti da una pluralit? di dispositivi utente remoti associati a diversi utenti remoti, ciascun dispositivo utente remoto avendo un rispettivo dispositivo di riproduzione di immagini (4) remoto per visualizzare le immagini acquisite dal dispositivo di imaging (2), e ciascun dispositivo utente remoto essendo azionabile per generare i dati attributi remoti da una pluralit? di segnali biologici remoti misurati da una pluralit? di sensori biologici (6) remoti, i dati attributi remoti essendo indicativi di attributi degli utenti remoti in un momento in cui gli utenti remoti stanno osservando le immagini visualizzate dai loro rispettivi dispositivi utente remoti di riproduzione di immagini (4),a communication interface operable to receive remote attribute data from a plurality? of remote user devices associated with several remote users, each remote user device having a respective remote imaging device (4) for displaying the images captured by the imaging device (2), and each remote user device being operable to generate the data remote attributes from a plurality? of remote biological signals measured by a plurality? of remote (6) biological sensors, the remote attribute data being indicative of attributes of the remote users at a time when the remote users are viewing images displayed by their respective remote user imaging devices (4), in cui i dati di significativit? vengono generati in base ai dati attributi locali e ai dati attributi remoti.in which the data of significance? are generated based on local attribute data and remote attribute data. 18. Sistema di acquisizione di immagini (9) comprendente:18. Image acquisition system (9) comprising: una pluralit? di sensori biologici (6); ea plurality? of biological sensors (6); And un apparato di acquisizione di immagini (1) secondo una qualsiasi delle rivendicazioni da 15 a 17. an image acquisition apparatus (1) according to any one of claims 15 to 17.
IT102021000013115A 2021-05-20 2021-05-20 Image capture method IT202100013115A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
IT102021000013115A IT202100013115A1 (en) 2021-05-20 2021-05-20 Image capture method
PCT/EP2022/063307 WO2022243304A1 (en) 2021-05-20 2022-05-17 Image capturing method
EP22730125.6A EP4342168A1 (en) 2021-05-20 2022-05-17 Image capturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102021000013115A IT202100013115A1 (en) 2021-05-20 2021-05-20 Image capture method

Publications (1)

Publication Number Publication Date
IT202100013115A1 true IT202100013115A1 (en) 2022-11-20

Family

ID=77227058

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102021000013115A IT202100013115A1 (en) 2021-05-20 2021-05-20 Image capture method

Country Status (1)

Country Link
IT (1) IT202100013115A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210992A (en) * 2008-03-06 2009-09-17 Sony Corp Photographing device
US20190005315A1 (en) * 2017-06-29 2019-01-03 International Business Machines Corporation Method of evaluating photographer satisfaction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210992A (en) * 2008-03-06 2009-09-17 Sony Corp Photographing device
US20190005315A1 (en) * 2017-06-29 2019-01-03 International Business Machines Corporation Method of evaluating photographer satisfaction

Similar Documents

Publication Publication Date Title
US9712736B2 (en) Electroencephalography (EEG) camera control
US7233684B2 (en) Imaging method and system using affective information
EP3576626A1 (en) System and method for measuring perceptual experiences
CN109475294A (en) For treat phrenoblabia movement and wearable video capture and feedback platform
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
KR20190070432A (en) Disease diagnosis method and system based on artificial intelligence analyzing image data
US20190028634A1 (en) Mobile system and method
JP2004213623A (en) Imaging method and system for health management and personal security
CN101617339A (en) Image processing apparatus and image processing method
US20160358085A1 (en) System and method for multimodal human state recognition
JP2005128884A (en) Device and method for editing information content
KR102396794B1 (en) Electronic device and Method for controlling the electronic device thereof
Benlamine et al. Physiology-based recognition of facial micro-expressions using EEG and identification of the relevant sensors by emotion
Yusuf et al. Evolving an emotion recognition module for an intelligent agent using genetic programming and a genetic algorithm
US20200226012A1 (en) File system manipulation using machine learning
IT202100013115A1 (en) Image capture method
JP2015050614A (en) Image processing device
KR102288001B1 (en) Device for generating job image having face to which age transformation is applied and photo booth including the same
EP4342168A1 (en) Image capturing method
Oh et al. A technological framework for running and analyzing animal head turning experiments
JP2020137050A (en) Imaging device, imaging method, imaging program, and learning device
Kim et al. Mediating individual affective experience through the emotional photo frame
Ponce et al. Open source implementation for fall classification and fall detection systems
US11589833B2 (en) Imaging system and control method for imaging system
Staffa et al. Classifying human emotions in HRI: applying global optimization model to EEG brain signals