Questions
ayuda
option
My Daypo

ERASED TEST, YOU MAY BE INTERESTED ONComp Viz

COMMENTS STATISTICS RECORDS
TAKE THE TEST
Title of test:
Comp Viz

Description:
Comp. Viz

Author:
AVATAR

Creation Date:
31/01/2024

Category:
Others

Number of questions: 147
Share the Test:
Facebook
Twitter
Whatsapp
Share the Test:
Facebook
Twitter
Whatsapp
Last comments
No comments about this test.
Content:
studiare il mondo 3D, di localizzare senza riconoscere gli oggetti presenti in una scena e di percepire i rapidi mutamenti dell’ambiente studiare il mondo 3D, di localizzare senza riconoscere gli oggetti presenti in una scena e di percepire i rapidi mutamenti dell’ambiente. studiare il mondo 3D, di localizzare e riconoscere gli oggetti presenti in una scena senza percepire i rapidi mutamenti dell’ambiente. studiare il mondo 2D, di localizzare e riconoscere gli oggetti presenti in una scena e di percepire i rapidi mutamenti dell’ambiente. studiare il mondo 3D, di localizzare e riconoscere gli oggetti presenti in una scena e di percepire i rapidi mutamenti dell’ambiente.
La pattern recogniction si coccupa del miglioramento, restauro e compressione di immagini, ovvero, si elabora una immagine per ottenerne un’altra in qualche senso “migliore”. nessuno dei casi precedenti dell’analisi di immagini numeriche al calcolatore con il fine di scoprire cosa è presente nella scena e dove si trova all’interno di essa. dell'(estrazione), identificazione, classificazione di caratteristiche presenti all’interno delle immagini.
Cosa s'intende per visione di alto livello nella computer vision? il reprimento di informazioni sulla struttura dell'immagine L'analisi della scena da un punto di vista sintattico Esalta alcune caratteristiche visuali tipo il contorno degli oggetti L'analisi della scena da un punto di vista sementico.
La differenza tra Digital Image Processing e Computer Vision sta negli obiettivi e non nei metodi non vi è alcuna differenza nessuno dei casi precedenti nei metodi e non negli obiettivi.
A quanto risale la nascita del digital image processing ? Anni '60 Anni '40 Anni '10 Anni '30.
A quanto risale l'utilizzo delle prime immagini digitali? Anni '20 Anni '40 Anni '30 Anni '10.
Quando è stato introdotto per la prima volta il concetto di Computer Vision? Nel 1966 presso il Massachusetts Institute of Technology (MIT) Nel 1990 grazie all'Intelligenza Artificiale Da David Marr nel 1982 Negli Anni '90 dalla Berkely University.
L'operazione di segmentazione di un'immagine di norma è effettuata dopo l'operazione di Rappresentazione & Descrizione Acquisiszione dell'immagine Nessuna delle precedenti Riconoscimento degli oggetti.
Cosa percepiscono i bastoncelli ? Forniscono una visione di insieme della scena sensibili ai colori sensibili alle condizioni di elevata illuminazione (fotopica) Percepiscono i dettagli e i rapidi cambi di immagine.
Come si ottine la messa a fuoco dell'immagine sull'occhio umano ? Deformando il cristallino con appositi muscoli Deformando la cornea Allontanandosi dall'immagine Avvicinandosi all'immagine.
La percezione visiva umana è il risultato di una complessa sequenza di elaborazioni che avvengono in alternanza ad altre attività celebrali percettive. una complessa sequenza di elaborazioni che avvengono in concomitanza ad altre attività celebrali percettive. una singola sequenza di elaborazioni che avvengono in concomitanza ad altre attività celebrali percettive. una semplice sequenza di elaborazioni che avvengono in alternanza ad altre attività celebrali percettive.
Cosa è il cristallino? Una lente naturale dell'occhio umano Una membrana esterna all'occhio nessuna delle precedenti Una regione della retina.
L’intensità percepita dall’occhio umano è funzione della distanza dall'oggetto non è una funzione solo dell'intensità luminosa è funzione solo dell'intensità luminosa nessuna delle precedenti.
La luminosità percepita dipende Dal colore dell'immagine dalla luminosità dell'ambiente circostante Dalla distanza dall'oggetto Dalla posizione dell'oggetto.
La luce, oltre alla frequenza, è caratterizzata dalle seguenti grandezze: nessuna delle precedenti radianza, luminanza, luminosità radianza, contrasto, colore luminanza, saturazione, luminosità.
Cosa s'intende per risoluzione di un'immagine ? La saturazione di un'immagine Il numero e la dimensione dei pixel di un'immagine Il colore di un'immagine La scala di grigi di un'immagine.
Cosa s'intende per quantizzazione di un'immagine ? nessuna delle precedenti E' l'operazione di digitalizzazione dei valori dell’ampiezza di una immagine E' l'operazione di digitalizzazione dei valori delle coordinate di un’immagine E' l'operazione di digitalizzazione sia dei dei valori dell’ampiezza che delle coordinate di una immagine.
Come si definisce il concetto di saturazione di un'immagine E' il fenomeno per il quale tutte le intensità comprese in un intervallo di soglia vengono rappresentate come bianco E' il fenomeno per il quale tutte le intensità superiori ad una certa soglia vengono rappresentate come bianco E' il fenomeno per il quale tutte le intensità superiori ad una certa soglia vengono rappresentate come bianco nessuna delle precedenti.
Quando due regioni si definiscono disgiunte? Nessuno delle precedenti Quando le due regioni sono adicenti e connesse Quando non sono adiacenti Quando la loro unione non è connessa.
Dato un Pixel p(x,y) un 4-intorno (4-neighbor) denotato N4(p) è definito da: (x + 1, y+1 ), (x − 1, y-2 ), (x, y + 1), (x, y − 1) (x + 1, y + 1), (x − 1, y + 1), (x + 1, y + 1), (x − 1, y − 1) Nessuno delle precedenti (x + 1, y ), (x − 1, y ), (x, y + 1), (x, y − 1).
Quando un path tra pixel è definito chiuso ? Nessuno delle precedenti Quando (x0, y0) è diverso (xn, yn), ovvero i due pixel iniziale e finale del path sono diversi Quando (x0, y0) = (xn, yn), ovvero i due pixel iniziale e finale del path coincidono Quando due percorsi aperti s'intersecano.
Il dominio spaziale di un'immagine è il piano che contiene i pixel dell'immagine La proiezione di un'immagine su di un piano Il negativo di un'immagine Lo sfondo di un'immagine.
Il negativo di un’immagine con livelli d’intensità nella gamma [0,L-1] si ottiene per: s = L − 1 + r s = L − 1 − r^2 s = L + 1 − r s = L − 1 − r.
Nella selzione mediante piani di bit l'immagine è vista come composta da regioni composta da strati di grigio somma di immagini di diverso colore composta da strati di bit.
La trasformazione logaritma di un'immagine è caratterizzata dall'espressione: s = c log(1 - r ) s = c log(1 + r ) s = c + r log(1 + r ) s = log(1 + r ).
I processi del dominio spaziale sono definiti dall’espressione g (x, y) = T [f (x, y)]/2 g (x, y) = T [f (x, y)+f (y,x)] g (x, y) = T [f (x, y)] g (x, y) = T [f (x, y)^2].
Se consideriamo i livelli d'intensità come variabili casuali si dimostra che a tutti i livelli di intensità r, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r. solo per alcuni livelli di intensità r, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r. solo per alcuni livelli di intensità di r prossimi al valore 0, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r. solo per alcuni livelli di intensità di r prossimi al valore 255, le intensità risultanti, s, hanno una funzione PDF uniforme (costante), indipendentemente dalla forma della PDF e dai valori di r.
Una funzione monotona crescente permette di ottenere anche una trasformazione inversa definita in tutti i punti Nessuna delle precedenti permette di ottenere anche una trasformazione inversa definita solo in pochi punti non permette di ottenere una trasformazione inversa.
Una funzione T(r) è detta monotona non decrescente quando T(r2 ) = T(r1 ) con r2 > r1 T(r2 ) ≥ T(r1 ) con r2 > r1 T(r2 ) = T(r1 )/2 con r2 > r1 T(r2 ) <T(r1 ) con r2 > r1.
Un'immagine ad elevato contrasto presenterà un istogramma con valori distribuiti in tutto il range d'intensità con valori distribuiti solo nei valori prossimi allo 0 del rande d'intensità con valori distrivuiti nella parte centrale del rande d'intensità con valori distribuiti solo nei valori prossimi al valore 255 del rande d'intensità.
L’operazione di filtraggio si riduce all’attenuazione o all’amplificazione di di tutte le componenti determinate da intervalli di frequenza ben precisi. di alcune componenti determinate da intervalli spaziali ben precisi. di alcune componenti determinate da intervalli di frequenza ben precisi. di tutte le componenti determinate da intervalli di frequenza non ben definiti.
La tecnica di filtraggio spaziale di definisce lineare quando la regola di trasformazione è una funzione dicreta dei valori di intensità dell’intorno considerato. quando la regola di trasformazione è una funzione lineare dei valori di intensità rispetto a tutta l'immagine. quando la regola di trasformazione è una funzione non lineare dei valori di intensità dell’intorno considerato. quando la regola di trasformazione è una funzione lineare dei valori di intensità dell’intorno considerato.
I meccanismi di convoluzione sono gli stessi di quelli della correlazione tranne per il fatto che il filtro viene prima traslato di 135°. il filtro viene prima ruotato di 180°. il filtro viene prima ruotato di 90°. il filtro viene prima ruotato di 45°.
Col termine sero padding si ci riferisce all'operazione per cui quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri solo sulle colonne. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri su entrambi i lati. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri solo sulle righe. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di uni su entrambi i lati.
L’operazione di filtraggio si riduce all’attenuazione o all’amplificazione di di tutte le componenti determinate da intervalli di frequenza ben precisi. di tutte le componenti determinate da intervalli di frequenza non ben definiti. di alcune componenti determinate da intervalli spaziali ben precisi. di alcune componenti determinate da intervalli di frequenza ben precisi.
La tecnica di filtraggio spaziale di definisce lineare quando la regola di trasformazione è una funzione non lineare dei valori di intensità dell’intorno considerato. quando la regola di trasformazione è una funzione lineare dei valori di intensità dell’intorno considerato. quando la regola di trasformazione è una funzione lineare dei valori di intensità rispetto a tutta l'immagine. quando la regola di trasformazione è una funzione dicreta dei valori di intensità dell’intorno considerato.
Col termine sero padding si ci riferisce all'operazione per cui quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri su entrambi i lati. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di uni su entrambi i lati. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri solo sulle colonne. quando ci sono parti della funzione che non combaciano si inseriscono tra la funzione f un numero sufficiente di zeri solo sulle righe.
I meccanismi di convoluzione sono gli stessi di quelli della correlazione tranne per il fatto che il filtro viene prima ruotato di 90°. il filtro viene prima traslato di 135°. il filtro viene prima ruotato di 180°. il filtro viene prima ruotato di 45°.
Cosa s’intende per elaborazione delle immagini mediante Analisi di Fourier continua? consiste nell’adoperare un insieme di strumenti per scompone un’immagine come somma di componenti di uguale frequenza. consiste nell’adoperare un insieme di strumenti per scompone un’immagine come somma di componenti a diversa frequenza. consiste nell’adoperare un insieme di strumenti per scompone un’immagine come differenze di componenti a diversa frequenza. consiste nell’adoperare un insieme di strumenti per scompone un’immagine come somma di componenti spaziali.
Un impulso unitario di una variabile continua è caratterizzato da: un segnale ad ampiezza finita applicato per un tempo infinitesimo. un segnale ad ampiezza finito applicato per un tempo finito. un segnale ad ampiezza infinita applicato per un tempo infinitesimo. un segnale ad ampiezza infinita applicato per un tempo finito.
A cosa serve la proprietà si Sifting rispetto all'integrazione ? a definire un'espressione per campionare una funzione mediante l'operatore di convoluzione. a definire un'espressione per campionare una funzione mediante l'operatore di correlazione. a definire un'espressione per traslare una funzione mediante l'operatore di correlazione. nessuna delle precedenti.
Il teorema della convoluzione afferma che: la convoluzione nel dominio spaziale corrisponde al rapporto nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde al rapporto nel dominio spaziale. la convoluzione nel dominio spaziale corrisponde alla somma nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde al prodotto nel dominio spaziale. la convoluzione nel dominio spaziale corrisponde al prodotto nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde al prodotto nel dominio spaziale. la convoluzione nel dominio spaziale corrisponde al rapporto nel dominio della frequenza. Analogamente, la convoluzione nel dominio della frequenza corrisponde alla somma nel dominio spaziale.
la trasformata di Fourier di una funzione campionata è: una sequenza infinita e di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento. una sequenza infinita e periodica di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento. una sequenza di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento. una sequenza finita e periodica di copie della trasformata della funzione continua originale shiftata della frequenza di campionamento.
L'operazione di campionamento può essere espressa come: la somma tra la funzione da campionare con il relativo passo di campionamento. la differenza tra la funzione da campionare con il relativo passo di campionamento. il prodotto tra la funzione da campionare con il relativo passo di campionamento. il rapporto tra la funzione da campionare con il relativo passo di campionamento.
Il concetto di campionamento critico sta indicare che: la frequenza di campionamento non è sufficiente a campionare corretamente la funzione originaria. nessuna delle precedenti. la frequenza di campionamento è ancora sufficiente a campionare corretamente la funzione originaria. la frequenza di campionamento è potrebbe non garantire il corretto campionamento della funzione originaria.
Si definisce aliasing: il processo in cui le componenti a bassa frequenza di una funzione continua si mascherano alle frequenze più alte nella funzione campionata. il processo in cui le componenti a media frequenza di una funzione continua si mascherano alle frequenze più basse nella funzione campionata. il processo in cui le componenti ad alta frequenza di una funzione continua si mascherano alle frequenze più basse nella funzione campionata. il processo in cui le componenti ad alta frequenza di una funzione continua si mascherano alle frequenze medie nella funzione campionata.
L’effetto di Aliasing può essere ridotto: interpolando l'immagine Nessuna delle precedenti ingrandendo l'immagine Applicando lo smoothing (sfocando la scena) prima del campionamento.
Cos'è l'effetto Moirè? E un artefatto che si riferisce alle strutture (pattern) periodiche prodotte tra due griglie sovrapposte caratterizzate da diversa distanza. E' un artefatto che si riferisce alle strutture (pattern) periodiche prodotte tra due griglie sovrapposte aventi, approssimativamente, un’uguale distanza. Nessuna delle precedenti E un artefatto che si riferisce alle strutture (pattern) non periodiche prodotte tra due griglie sovrapposte aventi, approssimativamente, un’uguale distanza.
Le basi de filtraggio lineare delle immagini nel dominio della frequenza sono stabilite: Dalla proprietà di simmetria dellta trasformata discreta di Fourier 2-D . Dal teorema della convoluzione 2-D . Dalla proprietà di rotazione dellta trasformata discreta di Fourier 2-D . Dalla proprietà di traslazione dellta trasformata discreta di Fourier 2-D .
Lo spettro di Fourier di un'immagine è Un vettore le cui componenti determinano le intensità dell’immagine Una matrice le cui componenti determinano informazioni sulla posizione degli oggetti riconoscibili nell’immagine. Nessuna delle precedenti Una matrice le cui componenti determinano le intensità dell’immagine.
Una matrice le cui componenti determinano le intensità dell’immagine. Ad un vettore di angoli che ci fornisce informazioni sulla posizione degli oggetti riconoscibili all’interno dell’immagine. Ad una matrice di angoli che ci fornisce informazioni sulla posizione degli oggetti riconoscibili all’interno dell’immagine. Nessuna delle precedenti Ad una matrice di angoli che ci fornisce informazioni sull'intensità e posizione degli oggetti riconoscibili all’interno dell’immagine.
Come può essere risolto l'errore di wraparound? Come può essere risolto l'errore di wraparound? Aggiungenzo degli 1 all'immagine originale. Nessuna delle precedenti Applicando il teorema della convoluzione.
Un filtro passa-basso definito nel dominio della frequenza: Permette di ottenere un’immagine filtrata sfocata. Permette di ottenere un’immagine filtrata messa a fuoco. Nessuna delle precedenti Permette di ottenere un’immagine filtrata più nitida.
Il filtraggio nel dominio della frequenza si ottiene: Modificando i coefficienti della trasformata inversa dell’immagine originale, per poi procedere alla trasformazione dell’immagine processata. Nessuna delle precedenti Moltiplicando i coefficienti della trasformata dell’immagine originale per una funzione discontinua a tratti, per poi procedere alla trasformazione inversa dell’immagine processata. Modificando i coefficienti della trasformata dell’immagine originale, per poi procedere alla trasformazione inversa dell’immagine processata.
Un filtro passa-alto definito nel dominio della frequenza: Permette di ottenere un’immagine filtrata con i dettagli migliorati a discapito della messa a fuoco. Permette di ottenere un’immagine filtrata con i dettagli degradati e contrasto migliorato. Permette di ottenere un’immagine filtrata con i dettagli e contrasto migliorati. Permette di ottenere un’immagine filtrata con i dettagli migliorati a discapito del contrasto.
Nel dominio della frequenza perché è opportuno aggiungere una costante al filtro passa-basso? Per recuperare la componente AC dell’immagine Non serve in nessun caso. Per recuperare la componente DC dell’immagine. Per migliorare la messa a fuoco dell'immagine.
Il legame fondamentale tra il filtraggio eseguito nel dominio spaziale e quello eseguito nel dominio della frequenza è costituito dal: Teorema della correlazione. Teorema della convoluzione. Teorema del campionamento. Nessuna delle precedenti.
I filtri basati sulle funzioni gaussiane sono interessanti perché sia la trasformata di Fourier della funzione gaussiana che la sua antitrasformata sono: Funzioni gaussiane immaginarie. Funzioni gaussiane complesse. Funzioni gaussiane reali. Funzioni discontinue a tratti.
Considerando due Gaussiane nella definizione di un filtro nel dominio della frequenza si ottiene: Un filtro passa-banda. Un filtro passa-alto. Un filtro che elimina solo la componente DC. Un filtro passa-basso.
Fornire una descrizione del concetto di legame tra il filtraggio eseguito nel dominio spaziale e quello eseguito nel dominio della frequenza. Il punto di transizione tra H(u,v)=1 e H(u,v)=1; Il punto di transizione tra H(u,v)=0 e H(u,v)=1; Il punto di transizione tra H(u,v)=1 e H(u,v)=0; Il punto di transizione tra H(u,v)=0 e H(u,v)=0;.
Lo smoothing nel dominio della frequenza è ottenuto tramite: L’attenuazione delle frequenze più alte, cioè tramite il filtraggio low pass. L’attenuazione delle frequenze più alte, cioè tramite il filtraggio high pass. L’attenuazione delle frequenze più alte, cioè tramite il filtraggio DC pass. L’attenuazione delle frequenze più basse, cioè tramite il filtraggio high pass.
La funzione di trasferimento del filtro low pass di Butterworth è: Graduale. Discontinua. A tratti. Periodica.
In generale, l’assenza del ringing in un filtro low pass di Butterworth è dovuta: Alla transizione graduale tra le frequenze medie e alte. Alla transizione paeriodica tra le frequenze basse e alte. Alla transizione brusca tra le frequenze basse e alte. Alla transizione graduale tra le frequenze basse e alte.
L’antitrasformata di Fourier del filtro low pass gaussiano è: Una funzione discontinua. Una funzione gaussiana. Una funzione logaritmica. Una funzione sinusoidale.
Tipicamente un filtro high pass di Butterworth (BHPF) presenta: Nessuna delle precedenti Un effetto ringing nullo. Un effetto ringing pronunciato. Un effetto ringing modesto.
Lo sharpening delle immagini si può ottenere nel dominio della frequenza con: I filtri high pass. I filtri low pass. Nessuna delle precedenti I filtri band pass.
Filtro high pass ideale (IHPF) presenta: Un effetto ringing modesto. Un effetto ringing nullo. Un effetto ringing pronunciato. Nessuna delle precedenti.
Tipicamente un filtro high pass gaussiano (GHPF) presenta: Dei risultati equiparabili al filtro ideale low pass. Dei risultati equiparabili al filtro di Butterwotrh low pass. Dei risultati più intensi rispetto agli altri filtri high pass. Dei risultati più tenui rispetto agli altri filtri high pass.
I filtri noch sono caratterizzati dal fatto che: possono processare sia l'intero rettangolo della frequenza che alcune porzioni di esso. Nessuna delle precedenti sono in grado di processare determinate bande di frequenza o piccole regioni del rettangolo della frequenza. processano l'intero rettangolo della frequenza.
Il filtraggio omomorfico è un tipo di filtraggio che opera nel dominio: Dello spazio o della frequenza a seconda del caso. Spaziale. Della frequenza. Nessuna delle precedenti.
Il colore viene utilizzato nelle immani digitali perché: Migliora il contrasto dell'immagine. E’ un descrittore che semplifica l’identificazione di un oggetto. E’ un descrittore che semplifica l’identificazione di un oggetto e la sua estrazione da una scena. E’ un descrittore che semplifica l'estrazione di un'oggetto da una scena.
La qualità della luce cromatica è descritta tramite: Radianza, saturazione, luminosità. Radianza, luminanza, luminosità. Radianza, luminanza, contrasto. Radianza, saturazione, croma.
La luce acromatica (senza colore) ha come unico attributo: L'intensità. Il contrasto. Il colore. La radianza.
Le caratteristiche utilizzate per distinguere un colore da un altro sono: La luminosità, la tonalità e la saturazione. La luminosità, la tonalità e la radianza. La luminosità, la radianza e la saturazione. La luminosità, il contrasto e la saturazione.
Cosa si intende per profondità del pixel nel modello RGB? E' il numero di bit utilizzato per rappresentare una regione di pixel nello spazio RGB. E' il numero di bit utilizzato per rappresentare ogni pixel nello spazio RGB. Nessuna delle precedenti E' il numero di byte utilizzato per rappresentare ogni pixel nello spazio RGB.
Cosa si intende per colori RGB scuri? Sono l' insieme di colori dei quali la riproduzione fedele è indipendente dalle capacità dell’hardware. Nessuna delle precedenti Sono un sottoinsieme di colori dei quali la riproduzione può essere fedele e/o indipendente dalle capacità dell’hardware. Sono un sottoinsieme di colori dei quali la riproduzione fedele è indipendente dalle capacità dell’hardware.
Il modello del colore HSI possiede la proprietà di: Nessuna delle precedenti Unisce la componente intensità dalle informazioni relative al colore (tonalità, saturazione) di un’immagine a colori. Divide la componente intensità dalle informazioni relative al contrasto di un’immagine a colori. Divide la componente intensità dalle informazioni relative al colore (tonalità, saturazione) di un’immagine a colori.
A cosa servono i modelli del colore? Servono per migliorare le immagini. Servono a definire le scale di contrasto di un'immagine a colori. Nessuna delle precedenti Servono per facilitare e standardizzare la specifica dei colori.
Nell'elaborazione delle immagini full-color: Ogni componente viene elaborata cumulativamente e poi si procede alla combinazione dell’immagine a colori finale. Ogni componente viene elaborata sia individualmente che cumulativamente e poi si procede alla combinazione dell’immagine a colori finale. Ogni componente viene elaborata individualmente e poi si procede alla combinazione dell’immagine a colori finale. Nessuna delle precedenti.
Il metodo trasformazioni da intensità a colore nell'elaborazioni delle immagini a falsi colori consiste: Nell’attuare tre trasformazioni indipendenti sulla posizione di ogni pixel di input. Nessuna delle precedenti Nell’attuare tre trasformazioni indipendenti sull’intensità di ogni pixel di input. Nell’attuare tre trasformazioni indipendenti sull’intensità e posizione di ogni pixel di input.
L’elaborazione di immagini a falsi colori è un metodo che consiste: Nell’assegnare opportunamente l’informazione colore ai valori di contrasto. Nell’assegnare opportunamente l’informazione colore ai valori di saturazione. Nell’assegnare opportunamente l’informazione colore ai valori di grigio. Nessuna delle precedenti.
Il Color Slicing serve per evidenziare: Una gamma specifica di colori e risulta utile per separare gli oggetti dai colori più scuri. Una gamma specifica di colori e risulta utile per separare gli oggetti da ciò che li circonda. Una gamma specifica di colori e risulta utile per separare gli oggetti dalle regioni più chiare dell'immagine. Una gamma generica di colori e risulta utile per separare gli oggetti da ciò che li circonda.
Le correzioni di tonalità del colore hanno come obiettivo: Quello di regolare in maniera sperimentale il contrasto di un'immagine. Quello di regolare in maniera sperimentale la luminosità e il contrasto di un'immagine. Quello di regolare in maniera sperimentale la luminosità di un'immagine. Quello di regolare in maniera sperimentale la luminosità o il contrasto di un'immagine.
A cosa si ci riferisce con il termine trasformazione di colore? Alle tecniche di elaborazione delle immagini per singola componente. Alle tecniche di elaborazione delle immagini per singola componente e alle tecniche di conversione degli spazi colore. Alle tecniche conversione degli spazi colore. Alle trasformazioni da RGB a HSI e viceversa.
I valori complementari dei colori sono utili per: Evidenziare un dettaglio inglobato in regioni scure di un'immagine a colori Evidenziare un dettaglio inglobato in regioni chiare di un'immagine a colori Evidenziare un dettaglio inglobato in regioni chiaro-scure di un'immagine a colori Evidenziare un dettaglio inglobato in regioni ad alto contrasto di un'immagine a colori.
Per l'elaborazioni degli istogrammi di immagini digitali a colori conviene lavorare nello spazio: CMYK. CMY. HSI. RGB.
Nello smoothing delle immagini a colori: Nessuna delle precedenti Si utilizzano i valori d'intensità scalari. Si utilizzano i vettori delle componenti colore. Si utilizzano i vettori delle componenti colore ed i valori d'intensità scalari.
Lo sharpering di un’immagine a colori può essere ottenuto mediante: L'utilizzo dell'operatore laplaciano. L'utilizzo dell'operatore integrale. L'utilizzo dell'operatore scalare. Nessuna delle precedenti.
Nella segmentazione di immagini basata sullo spazio a colori RGB: L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in funzione della saturazione dell'immagine. L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in funzione della tonalità dell'immagine. L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in una data immagine come un colore appartenente alla gamma specificata o al di fuori di essa. L’obiettivo della segmentazione è quello di classificare ogni pixel RGB in funzione dell'intensità dell'immagine.
Nello spazio a colori RGB si ottengono risultati: Peggiori rispetto a quello HSI anche se operare in quest’ultimo è molto più intuitivo. Identici rispetto a quello HSI anche se operare in quest’ultimo è molto più intuitivo. Nessuna delle precedenti Migliori rispetto a quello HSI anche se operare in quest’ultimo è molto più intuitivo.
Nella segmentazione di immagini basata sullo spazio a colori HSI la saturazione: E' usata come immagine maschera per isolare ulteriori regioni di interesse rispetto alla tonalità. E' usata per segmentare l'immagine. E' usata come immagine maschera per isolare ulteriori regioni di interesse rispetto all' intensità. Nessuna delle precedenti.
Nella segmentazione di immagini basata sullo spazio a colori HSI i valori della tonalità: Non contengono informazioni riguardanti i colori. Nessuna delle precedenti Possono essere utilizzati per segmentare l’immagine. Possono essere utilizzati per creare maschere per isolare regioni d'interesse.
Quando si passa dallo spazio RGB a quello HSI se solo uno dei canali RGB è affetto da rumore, la conversione in HSI: Distribuisce il rumore sollo alla componente luminosità. Distribuisce il rumore sollo alla componente saturazione. Distribuisce il rumore a tutte le immagini componenti. Distribuisce il rumore sollo alla componente croma.
In un’immagine a colori il rumore a grana è : più visibile rispetto che in un’immagine monocromatica Nessuna delle precedenti lo stesso rispetto che in un’immagine monocromatica; meno visibile rispetto che in un’immagine monocromatica.
Il rumore a grana fine ha la tendenza: Ad essere più evidente dal punto di vista visivo in un'immagine a colori rispetto a un'immagine monocromatica. Ad essere nullo dal punto di vista visivo in un'immagine a colori rispetto a un'immagine monocromatica. Ad essere meno evidente dal punto di vista visivo in un'immagine a colori rispetto a un'immagine monocromatica. Nessuna delle precedenti.
Nella morfologia la proprietà di riflessione è definita come: Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (-x,-y). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x,-y). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (-x,y). Se B è l’insieme dei pixel (punti 3-D) che rappresentano un oggetto in un’immagine, allora B^ è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (-x,-y).
Si definiscono elementi strutturanti (SE, Structural Elements): Insiemi random usati per esplorare un’immagine in riferimento alle proprietà di interesse. Nessuna delle precedenti. Raggruppamenti di insiemi usati per esplorare un’immagine in riferimento alle proprietà di interesse. Piccoli insiemi o sotto-immagini usati per esplorare un’immagine in riferimento alle proprietà di interesse.
Nella morfologia la proprietà di traslazione è definita come: Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x+z1,y+z2). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x+z1,y-z2). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x-z1,y+z2). Se B è l’insieme dei pixel (punti 2-D) che rappresentano un oggetto in un’immagine, allora (B)z è l’insieme dei punti in B le cui coordinate (x, y) sono state sostituite da (x-z1,y-z2).
Il concetto di dilatazione è definito come segue: La dilatazione di A attraverso B e l'insieme di tutti gli spostamenti z, tali che B^ e A si sovrappongano almeno per un elemento. Nessuna delle precedenti.. La dilatazione di A attraverso B e l'insieme di tutti gli spostamenti z, tali che B^ e A non si sovrappongano. La dilatazione di A attraverso B e l'insieme di tutti gli spostamenti z, tali che B^ e A si sovrappongano almeno per due elementi.
L'operazione di dilatazione: Accresce o Ispessisce gli oggetti in un'immagine binaria. Marca gli oggetti in un'immagine binaria. Nessuna delle precedenti.. Assottiglia gli oggetti in un'immagine binaria.
La dilatazione applicata alle immagini: Ha effetti simili a quelli del filtraggio hig-pass. Ha effetti simili a quelli del filtraggio band-pass. Ha effetti simili a quelli del filtraggio low-pass. Nessuna delle precedenti..
Il processo di apertura può anche essere considerato come: L’erosione di A attraverso B, seguita dalla dilatazione del risultato attraverso B. Nessuna delle precedenti.. L’erosione di A attraverso B, seguita dalla dilatazione del risultato attraverso A. L’erosione di B attraverso A, seguita dalla dilatazione del risultato attraverso B.
Per eliminare gli effetti del rumore in una immagine: Si applica una chiusura seguita da un'apertura. Si applica un'apertura. Si applica un'apertura seguita da una chiusura Nessuna delle precedenti..
Il processo di chiusura: Generalmente fonde insieme le interruzioni sottili e i segmenti stretti e lunghi eliminando piccoli buchi e riempendo i vuoti nel contorno. Generalmente elimina solo piccoli buchi e riempendo i vuoti nel contorno. Generalmente fonde insieme solamente le interruzioni sottili. Nessuna delle precedenti..
Un vuoto (Hole) è: Una regione di sfondo circondata da un bordo connesso di pixel del foreground. Una regione di sfondo circondata da un bordo sconnesso di pixel del foreground. Nessuna delle precedenti.. Una regione di sfondo circondata da un bordo connesso di pixel del background.
Una regione di sfondo circondata da un bordo connesso di pixel del foreground. Dilatazione, complemento ed intersezione. Nessuna delle precedenti.. Dilatazione, complemento. Erosione, complemento ed intersezione.
La trasformazione Hit-or-miss e: Fondamentale per l’individuazione dei contorni. Fondamentale per l’individuazione delle forme. Nessuna delle precedenti.. Fondamentale per l’individuazione degli sfondi.
L'algoritmo involucro convesso converge quando: Nessuna delle precedenti. Xik=Xik-n Xik=Xik-2 Xik=Xik-1.
L'algoritmo per l'estrazione di compomenti complesse termina quando: Xk-1= Xk Nessuna delle precedenti. Xk+1= Xk Xk-n= Xk.
I metodi di potatura rappresentano: Un complemento inessenziale per eliminare componenti spurie lasciate dal processo di scheletrizzazione. Nessuna delle precedenti.. Un complemento essenziale per eliminare componenti spurie lasciate dal processo di assottigliamento. Un complemento essenziale per eliminare componenti spurie lasciate dal processo di scheletrizzazione.
Lo scheletro di A può essere espresso in termini di sequenze di: Erosioni ed assottigliamenti. Erosioni e aperture. Aperture e chiusure. Assottigliamenti ed inspessimenti.
Il disco massimo nella schelettrizzazione è definito come: Il disco più grande centrato su z. Il disco più grande centrato su z e contenuto in A. Il disco più piccolo centrato su z e contenuto in A. Nessuna delle precedenti..
Gli elementi strutturanti utilizzati per l'ispessimento hanno la stessa forma di quelli mostrati nel caso dell’assottigliamento: Ma con tutti i valori posti ad 1. Nessuna delle precedenti.. Ma con tutti i valori 1 e 0 scambiati. Ma con tutti i valori posti a 0.
Nell'erosione geodetica l'operazione di unione garantisce che: L’erosione geodetica di un’immagine rimanga uguale alla sua immagine maschera. L’erosione geodetica di un’immagine rimanga minore o uguale alla sua immagine maschera. Nessuna delle precedenti.. L’erosione geodetica di un’immagine rimanga maggiore o uguale alla sua immagine maschera.
Nella dilatazione geodetica l'operazione d'intersezione garantisce che: La maschera G imponga la crescita (dilatazione) del marker F. La maschera G limiti la crescita (dilatazione) del marker F. Nessuna delle precedenti.. La maschera G limiti la contrazione del marker F.
L'apertura in scala di grigio di un’immagine f attraverso un elemento strutturante b: E' la dilatazione di f attraverso b, seguita da una erosione del risultato ottenuto con b. Nessuna delle precedenti.. E' l’erosione di f attraverso b, seguita da una dilatazione del risultato ottenuto con b. E' l’erosione di f attraverso b, seguita da una nuova erosione del risultato ottenuto con b.
L’erosione di f attraverso un elemento strutturante flat b è definita per ogni posizione (x, y) come: Il valore minimo dell’immagine nella regione coincidente con b, quando l’origine di b si trova al di fuori di (x, y). Il valore massimo dell’immagine nella regione coincidente con b, quando l’origine di b si trova in (x, y). Il valore minimo dell’immagine nella regione coincidente con b, quando l’origine di b si trova in (x, y). Nessuna delle precedenti..
Applicando un’erosione in scala di grigio otteniamo un’immagine: Più scura dell’originale. Più chiara dell’originale. A pià alto contrasto dell’originale. Più nitida dell’originale.
Nell'individuazione delle discontonuità la derivata seconda: Evidenzia meglio i cambiamenti bruschi mettendo in rilievo i dettagli spessi. Evidenzia meglio i cambiamenti lenti mettendo in rilievo i dettagli sottili. Evidenzia meglio i cambiamenti lenti mettendo in rilievo i dettagli spessi.. Evidenzia meglio i cambiamenti bruschi mettendo in rilievo i dettagli sottili.
Gli edge o segmenti di edge sono: Insiemi di pixel di edge connessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine diminuisce all’improvviso. Insiemi di pixel di edge diconnessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine aumenta all’improvviso. Insiemi di pixel di edge disconnessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine cambia all’improvviso. Insiemi di pixel di edge connessi, dove i pixel di edge sono pixel in cui l’intensità dell’immagine cambia all’improvviso.
Nei modelli di edge si definisce zero crossing: L’intersezione tra l’asse di intensità zero e una linea che passa per gli estremi della derivata seconda. L’intersezione tra l’asse di intensità zero e una linea che passa per gli estremi della derivata prima. L’intersezione tra l’asse di intensità uno e una linea che passa per gli estremi della derivata prima. L’intersezione tra l’asse di intensità uno e una linea che passa per gli estremi della derivata seconda.
Il modello di edge a roof: E' associato al bordo di una qualche regione e la base (la larghezza) di questo tipo di bordo è determinata dallo spessore e dalla sfocatura della linea. E' caratterizzato dalla sfocatura e dal rumore presenti nelle immagini presenti a causa del dispositivo di acquisizione. E' un edge ideale che separana due livelli di intensità alla distanza di 1 pixel. Nessuna delle precedenti..
Per poter individuare gli edge in modo più selettivo e mantenendo il più alto grado di connettività: Conviene effettuare uno smoothing (sfocatura) prima del calcolo del gradiente e quindi il thresholding all’immagine gradiente. Conviene effettuare uno smoothing (sfocatura) dopo il calcolo del gradiente e quindi il thresholding all’immagine gradiente. Conviene effettuare un thresholding all’immagine prima del calcolo del gradiente. Conviene effettuare un doppio smoothing (sfocatura) prima del calcolo del gradiente.
Quali dei seguenti obiettivi non rientra tra quelli su cui si basa l'algoritmo di Canny? Nessuna delle precedenti. I punti di edge devono essere ben localizzati. Basso tasso di errore. Risposta puntuale per edge singolo.
La trasformata di Hough, dati n punti in un’immagine, permette di trovare dei sottoinsiemi che si trovano su: Linee rette. Regioni chiuse. Curve qualsiasi. Poligoni.
Quale dei seguenti metodi non è adoperato per effettuare edge-linking ? Elaborazione globale utilizzando la trasformata di Hough. Nessuna delle precedenti. Elaborazione locale. Elaborazione nelle regioni.
Il metodo di elaborazioni delle regioni: Si utilizza quando non si ha una conoscenza a priori delle regioni di interesse. Si utilizza quando si ha una conoscenza a priori delle regioni di interesse e dell’appartenenza di un pixel ad una determinata regione. Nessuna delle precedenti.. Si utilizza quando non si ha una conoscenza a priori dell’appartenenza di un pixel ad una determinata regione.
Nell'algoritmo di bisezione con media si iterano i punti dal 2 al 4 sino a quando: Nessuna delle precedenti. La differenza tra i valori assegnati a Tnew risulta minore di un parametro predefinito ΔT. La somma tra i valori assegnati a Tnew non risulta minore di un parametro predefinito ΔT.
Nella segmentazione mediante sogliatura viene definito punto dell’oggetto ogni punto (x,y) nell’immagine in cui: f(x,y) = T f(x,y) > T f(x,y) >= T f(x,y) < T.
Quali dei seguenti fattori non influenza le proprietà delle valli nella segmentazione mediante sogliatura? Nessuna delle precedenti.. L’uniformità della fonte di illuminazione. La distanza tra i picchi. Il rumore contenuto nell’immagine.
Nella segmentazione mediante la sogliatura globale è caratterizzata dal fatto che: T è una costante applicabile all’intera immagine. T cambia nel corso del processo. Nessuna delle precedenti.. T dipende dalle coordinate spaziali (x,y).
La procedura di region growing: Raggruppa i pixel e le sotto-regioni in regioni via via più grandi basandosi su criteri predefiniti di similarità e connettività. Nessuna delle precedenti.. Raggruppa i pixel o le sotto-regioni in regioni via via più grandi basandosi su criteri predefiniti di similarità e connettività. Raggruppa i pixel o le sotto-regioni in regioni via via più grandi basandosi su criteri predefiniti di similarità o connettività.
Nella procedura di watershed morfologica con utilizzo dei marker, imarker interni sono definiti come: la diversa intensità. Nessuna delle precedenti.. Una regione circondata da punti di altitudine elevata tale che i punti nella regione formino una componente disconnessa in cui tutti i punti nella componente connessa abbiano la stessa intensità. la stessa intensità. Una regione circondata da punti di altitudine elevata tale che i punti nella regione formino una componente connessa in cui tutti i punti nella componente connessa abbiano.
La procedura di region splitting e merging: E’ una procedura che suddivide un’immagine in un insieme di regioni arbitrarie. Nessuna delle precedenti.. E’ una procedura che suddivide un’immagine in un insieme di regioni arbitrarie, ma disgiunte e successivamente le fonde e/o le separa in regioni. E’ una procedura che suddivide un’immagine in un insieme di regioni arbitrarie e successivamente le fonde e/o le separa in regioni.
Is softcomputnig unisce metodologie “soft” nel senso che: La loro precisione è discreta e che la logica su cui si basano è elastica. La loro precisione è sfumata e che la logica su cui si basano è rigida. La loro precisione è sfumata e che la logica su cui si basano è elastica. La loro precisione è discreta e che la logica su cui si basano è rigida.
L'hard computing: Non prevede l'incertezza e l'imprecisione solo nelle fasi di calcolo. Nessuna delle precedenti.. Prevede l'incertezza e l'imprecisione nelle fasi di calcolo, di elaborazione e di decisione. Non prevede l'incertezza e l'imprecisione nelle fasi di calcolo, di elaborazione e di decisione.
Un sistema Fuzzy: Nessuna delle precedenti.. Mappa gli input agli output di un sistema in modolineare. Mappa gli input agli output di un sistema in modo logico ed in modo non lineare. Mappa gli input agli output di un sistema in modo discreto ed in modo non lineare.
Una delle ragioni per cui gli esseri umani hanno capacità di controllo migliori di quelle delle macchine attuali è che: Gli esseri umani non sono in grado di prendere decisioni sulla base di informazioni linguistiche imprecise. Gli esseri umani sono in grado di prendere decisioni sulla base di informazioni linguistiche precise. Gli esseri umani sono in grado di prendere decisioni sulla base di informazioni linguistiche imprecise. Nessuna delle precedenti..
La derivata della funzione sigmoide è pari a: Ay(1+y); Nessuna delle precedenti. Ay/(1-y); Ay(1-y);.
Si definisce paradigma connessionista: Il comportamento intelligente che emerge dalle numerose interazioni tra le unità interconnesse. Il comportamento intelligente che emerge dalle sconnesse. Nessuna delle precedenti. Il comportamento intelligente emerge dalla statistica delle unità interconnesse.
Nel algoritmo di Widrow-Hoff il coefficiente noto come learning rate ha valore compreso tra: -1 ed 1 0 ed 1. -10 e 10 -1 e 0.
Nelle reti MPL il termine di momentum ha l’effetto di: Filtrare le variazioni a media frequenza della superficie di errore E, nello spazio dei pesi w. Filtrare le variazioni a bassa frequenza della superficie di errore E, nello spazio dei pesi w. Filtrare le variazioni ad alta frequenza della superficie di errore E, nello spazio dei pesi w. Nessuna delle precedenti.
Nell'apprendimento denominato “competitive learning”: I neuroni si competono la vittoria ad ogni presentazione di un ingresso. Nessuna delle precedenti. I neuroni si competono la vittoria ad ogni presentazione di un neurone. I neuroni si competono la vittoria ad ogni computazione di uscita del neurone in questione.
L’algoritmo di Widrow-Hoff calcola i pesi necessari: Partendo da pesi casuali e apportando ad essi piccole variazioni, graduali e progressive, in un processo che converge alla soluzione finale. Nessuna delle precedenti. Partendo da pesi casuali e apportando ad essi piccole variazione in un processo che converge alla soluzione finale. Partendo da pesi casuali e apportando ad essi generiche variazioni, graduali e progressive, in un processo che converge alla soluzione finale.
Calcolare la Wout, dimensione (orizzontale) della feature map di output caratterizzata da: Stride = 1, Padding = 0, Win = 35, F = 5 31 32 30 28.
L’interazione sparsa permette di: Incrementare le dimensioni del kernel rispetto all’input. Ridurre le dimensioni del kernel rispetto all’input. Ridurre le dimensioni del kernel rispetto all'output. Incrementare le dimensioni del kernel rispetto all’output.
Quale delle seguenti proprietà non è una delle quali si fondano le CNN? L’interazione sparsa. Nessuna delle precedenti. L’invarianza rispetto a traslazioni. La condivisione dei parametri.
Report abuse Consent Terms of use