Question:
Y a-t-il un nombre maximum d'images par seconde (FPS)?
CoolQuestionsGuy
2015-02-16 19:56:54 UTC
view on stackexchange narkive permalink

Prenez une caméra vidéo et augmentez le nombre d'images par seconde.

Si l'on ne tient pas compte des progrès technologiques actuels, le FPS d'une caméra pourrait-il aller si vite que deux images capturées seraient identiques ? Est-ce que cela défierait le "temps"?

Si une image précède une autre, les scènes peuvent ne pas être identiques.Il faudrait que la caméra soit si rapide que le temps entre les images soit de 0. C'est donc plus que "Time" défie d'accomplir cela.
Qu'est-ce que cela a à voir avec la mécanique quantique?Ensuite, vous supposez que la transmission est quasi instantanée, mais qu'en est-il de la réception d'images de la Terre?Est-ce aussi presque instantanément?Si tel est le cas, et si l'appareil photo est au repos lors de la prise de vue, oui, les Terriens se verront à présent.
@Sofia Vous avez raison.Je dois vraiment passer plus de temps à reformuler mes questions plus clairement.J'ai déjà créé quelques questions compliquées ici auparavant, je me demande s'il existe un moyen d'obtenir de l'aide pour structurer mes questions afin de ne pas avoir l'air stupide lorsque je les pose ici.Je suis allé de l'avant et j'ai complètement supprimé la deuxième partie de l'OP car elle n'était pas pertinente pour la question principale xD
Définissez «exactement identique».
@KyleKanos Exactement identique: D Ty pour avoir signalé cela xD
@CoolQuestionsGuy Je vous conseille de le faire le plus tôt possible.Votre question peut être considérée comme pas si claire, ou un problème d'ingénierie ou d'autres faiblesses.Ainsi, par exemple, vous pouvez peut-être exprimer plus clairement ce que vous avez à l'esprit lorsque vous dites «défier le temps».
Je suppose [l'inverse de l'heure de Planck] (http://www.wolframalpha.com/input/?i=planck+time+%5E+-1) ($ 1,855 \ times 10 ^ {43} \ \ textrm {fps}$), mais [l'explication de tom] (http://physics.stackexchange.com/a/165392/12770) à propos des photons atteignant la destination, auriez-vous alors besoin d'une caméra plus petite qu'une [longueur Planck] (http: // fr.wikipedia.org / wiki / Planck_length) pour obtenir autre chose que du noir pur (rien)?Sauf si vous comptez deux images consécutives de «rien» comme étant «exactement identiques».
Vous devriez jeter un œil à [cette conférence TED] (http://www.ted.com/talks/ramesh_raskar_a_camera_that_takes_one_trillion_frames_per_second?language=en).Nous sommes allés sur le territoire d'un billion d'images par seconde et avons en fait «vu» une dilatation du temps.
Sept réponses:
Ryan Colyer
2015-02-17 00:09:57 UTC
view on stackexchange narkive permalink

J'ai travaillé sur un appareil photo qui a comme l'une de ses caractéristiques principales la capacité d'augmenter le FPS jusqu'à ce que vous comptiez des photons uniques. Voici l'un des fichiers PDF à ce sujet. Vous verrez à partir des chiffres qu'il existe un compromis intrinsèque entre le bruit / qualité d'image et le FPS, qui est simplement dû aux statistiques du bruit de comptage de photons car vous obtenez moins de photons. Voir par exemple la figure 7, où il y a un examen des statistiques de photons sous divers binning temporels et spatiaux. Ce type d'analyse est très pertinent dans les limites de faible luminosité où nous sommes naturellement affamés de photons, mais il devrait être clair de voir que le même concept s'étendrait à une limite de lumière élevée, juste avec la possibilité d'aller à des temps de trame plus courts que nous. actuellement en mesure.

Une fois arrivé à une période TRÈS courte, le principe d'incertitude de Heisenberg commencerait à perturber gravement l'image. Depuis $ \ Delta E \ Delta t \ ge \ frac {\ hbar} {2} \ approx 5.3 \ times10 ^ {- 35} ~ \ textrm {Js} $, et un photon bleu vaut environ 5,0 $ \ times10 ^ {- 19 } ~ \ textrm {J} $, cela nous laisse à environ 1,1 $ \ times10 ^ {- 16} ~ \ textrm {s} $ comme le temps de trame auquel la mesure est si courte que l'incertitude énergétique serait équivalente à l'énergie des photons que nous essayions d'observer. Tout serait un flou bruyant à ce stade, et donc c'est probablement une limite fondamentale pour la lumière visible.

Nous ne sommes qu'à quelques ordres de grandeur de cela ... https://www.youtube.com/watch?v=snSIRJ2brEk
Ma réponse suppose un capteur en unobtanium;Je me demande si l'appareil photo que vous avez utilisé est tout aussi impossible à obtenir en termes d'argent nécessaire?Pourriez-vous donner un ordre de grandeur pour le prix?
tom
2015-02-16 20:53:54 UTC
view on stackexchange narkive permalink

En plus de la bonne réponse de MSalters, il convient de souligner que les photons individuels arrivent sur le détecteur de la caméra à des moments différents. La façon dont les caméras fonctionnent est de convertir les photons arrivant en un signal qui peut être lu.

Quelle que soit la fréquence d'images par seconde, il y aura un moment où une image sera terminée et la nouvelle commencera.

Pour que les deux images soient identiques, l'objet à imager doit rester stationnaire sur l'échelle de temps de la vitesse fps - ce qui signifie que l'objet ne peut pas se déplacer de plus d'une distance que la caméra peut résoudre d'une image à l'autre. .

.... et comme MSalters le souligne, l'arrivée de photons individuels au niveau du détecteur peut conduire à un autre point où à mesure que le fps augmente, moins de photons sont détectés par image et l'image peut changer d'une image à l'autre simplement en raison des statistiques selon lesquelles il n'y a que quelques photons détectés par image.

En prenant cela à un extrême logique si le fps devient si élevé que moins d'un photon est absorbé dans chaque image, vous pourriez avoir des paires d'images identiques car elles n'ont aucun signal ..., mais je ne pense pas que ce soit la réponse que vous vouliez.

Vous avez directement à la racine du «pourquoi» je posais cette question.C'est exactement pourquoi je posais cette question, même si je ne l'ai pas mentionnée dans le PO.Et compte tenu des informations fournies par MSalters, le fonctionnement des photons et des caméras est beaucoup plus clair pour moi.Je dois donc penser à quelque chose qui capture des moments qui n'ont pas besoin de photons.Des idées?xD
@CoolQuestionsGuy: Cela va devenir difficile à la hâte.À un moment donné, vous allez devoir faire une «mesure», qui invoque des limitations QM vraiment intéressantes car vous allez perturber le système.
@CoolQuestionsGuy Je pense que c'est exactement le type de question pour [worldbuilding.se].Avez-vous essayé de le publier là-bas?
@CoolQuestionsGuy - je ne suis pas sûr d'avoir des idées - sauf peut-être d'avoir deux caméras à des positions différentes capturant le même moment dans le temps - mais elles obtiendraient des images différentes de la même chose.Capturer un instant sans photons ... ce n'est pas facile à penser.Ce ne serait pas une caméra que vous utiliseriez, car ils voient la lumière, qui est, bien sûr, composée de photons.
Juste curieux ... pourquoi avoir une fréquence d'images?Pourquoi ne pas simplement ne pas avoir de cadre et enregistrer le flux de photons au fur et à mesure qu'il entre?Cela vous donne une fréquence d'images infinie en effet.Ou est-ce une question idiote?
@user1013388 Ce n'est pas une question idiote, c'est même possible avec des situations de très faible luminosité, voir la réponse très cool de Ryan Colyer sur un détecteur spécial qui peut faire cela avec des photons arrivant à un taux de 10 ^ 3 photons par pixel et par seconde.Cependant, à la lumière du jour, un détecteur de résolution similaire serait atteint de l'ordre de 10 ^ 11 photons par pixel et par seconde (très approximativement).Vous rencontrez rapidement ce qu'on appelle le taux de numérisation d'une caméra, l'électronique ne peut pas gérer la lecture et le stockage des informations aussi rapidement.
MSalters
2015-02-16 20:28:29 UTC
view on stackexchange narkive permalink

Savez-vous que la lumière est constituée de quanta (Sophia aurait pu être un peu prématurée dans son commentaire pour dire que la QM n'est pas impliquée). Chaque photon capturé par l'appareil photo est capturé dans une seule image, à des fins pratiques. Donc, le problème à mesure que nous augmentons le FPS est que chaque image est maintenant basée sur de moins en moins de photons.

Ce n'est pas qu'une théorie. Nous avons fait cette expérience et vous obtenez des résultats surprenants. En particulier, nous avons fait cette expérience avec de la lumière qui brille à travers une double fente. Avec un FPS bas, on obtient des bandes plus sombres et plus claires. Mais avec un FPS élevé, nous voyons que chaque image a un motif incroyablement aléatoire de coups de photons. Les bandes les plus sombres sont sombres car il n'y a pas de coup dans la plupart des images, alors que les bandes plus claires ont un ou plusieurs coups de photons dans chaque image.

L'essentiel ici est que chaque photon se comporte de manière assez aléatoire. C'est juste dans l'agrégat où vous voyez la vraie image émerger du hasard.

Wow, c'est vraiment cool en fait.Il semble que j'ai besoin d'en savoir plus sur Light.Je viens de regarder l'expérience Double Slit dont vous parlez, et cela me souffle vraiment en ce moment.
En fait, ce phénomène a un impact assez lourd sur la technologie actuelle.Alors que les téléphones portables remplacent les appareils photo portatifs et que la résolution augmente, la surface par pixel du capteur est de plus en plus petite.Ainsi, chaque pixel capture moins de photons lors de l'exposition.Les résultats sont des performances de faible luminosité et un bruit de couleur dégradés.
Gendergaga
2015-02-16 21:33:26 UTC
view on stackexchange narkive permalink

Le Planck-Time est un peu plus élevé que $ t_p = 5 \ cdot 10 ^ {- 44} \, \ text {sec} $ donc la fréquence d'images maximale autorisée par la mécanique quantique est inférieure que $ 1 \, \ text {frame} / t_p = 2 \ cdot 10 ^ {43} \, \ text {frames / sec} $.

Cela fait beaucoup de cadres!
On ne sait pas à ce jour si le Planck-Time a une signification physique (en particulier une signification limitative).Et comme le montre [la réponse de Ryan] (http://physics.stackexchange.com/a/165440/97), l'incertitude produit des fréquences d'images beaucoup plus faibles (pour le VIS au moins)
Warbo
2015-02-19 19:20:12 UTC
view on stackexchange narkive permalink

Il existe un phénomène intéressant connu sous le nom d ' effet Zeno quantique qui concerne des mesures extrêmement rapides (comme votre caméra hypothétique) et des objets restant stationnaires.

Pour dire dans quel état un système est dans, par exemple. que le spin d'un électron soit vers le haut ou vers le bas, nous devons le mesurer. Selon la physique classique , le système est dans un état particulier, et la réalisation de la mesure nous informe simplement de l’état qui est.

Selon la physique quantique , le système est en fait dans un mélange d'états différents, qui est décrit par une "fonction d'onde". Lorsqu'une mesure est effectuée, la fonction d'onde "s'effondre" * et le système se trouve dans un état particulier; la fonction d'onde nous indique la probabilité que chaque état soit "choisi".

Après une mesure est faite, une nouvelle fonction d'onde se forme, puisque la probabilité que le système reste dans le même état diminue avec le temps, et la probabilité qu'il se trouve dans d'autres états augmente.

L'effet quantique Zeno se produit lorsque nous mesurons le système si rapidement qu'il n'y a pas assez de temps pour que la probabilité «étalé» aux autres États. Chaque fois que nous prenons une mesure, il est très probable que la fonction d'onde "s'effondre" dans le même état que nous avons mesuré précédemment. En mesurant le système assez rapidement, nous pouvons faire qu'il reste stationnaire aussi longtemps que nous le voulons!

  • L'effondrement de la fonction d'onde est la description donnée par le Copenhague interprétation de la mécanique quantique. Il existe d'autres interprétations, comme de nombreux mondes, qui expliquent les choses différemment, mais les mathématiques et les expériences se révèlent toutes identiques.
Andrew Hill
2015-02-19 13:47:25 UTC
view on stackexchange narkive permalink

Je crois que la limite d'imagerie actuellement atteignable est d'environ 10 atto-secondes par tranche de temps (environ 10 ^ -17) à partir de laquelle il est possible d'observer les transitions d'état individuelles d'un électron dans le silicium (ce qui prend environ 450 atto secondes, soit environ une demi-femto-seconde).

selon la réponse de Ryan Colyer, l'incertitude peut empêcher l'imagerie en un seul passage, mais avec des passes d'imagerie répétées, l'incertitude peut être surmontée.

enter image description here sur http://phys.org/news/2014-12-attosecond-laser-movie-fast-electrons.html

Volker Siegel
2015-04-01 13:38:33 UTC
view on stackexchange narkive permalink

Cadres identiques? Oui!

Alors, ignorons la faisabilité technique, et supposons que nous avons quelque chose de similaire à un capteur de caméra CCD, mais en unobtanium, et juste "assez rapide", toujours. Je l'appellerai uCCD. Il n'y a pas de bruit thermique, bien sûr.

Maintenant, nous prenons une photo normale, avec l'obturateur réglé sur 1/60 de seconde.
Qu'a fait le capteur uCCD? Chaque pixel a collecté des photons pendant 1/60 s, et à la fin, nous avons demandé au capteur combien de photons il avait pour chaque pixel.
En prenant une autre photo comme celle-ci immédiatement après, nous obtenons des pixels nous montrant à quoi ressemblait la scène pendant les 1/60 s suivants en moyenne. Ainsi, la différence entre deux images ne consiste pas à comparer ce à quoi elle ressemblait à deux moments dans le temps, mais à deux périodes de temps en moyenne.

Nous voulons une fréquence d'images très élevée, alors essayons avec un obturateur plus court temps, beaucoup plus court.
Maintenant, nous obtenons des moyennes de périodes beaucoup plus courtes. Et des images très sombres.
Les images sont plus sombres simplement parce que nous obtenons beaucoup moins de photons dans le temps beaucoup plus court.

Maintenant, ça devient intéressant; Nous rendons le temps d'obturation si court que nous ne voyons qu'un photon par pixel en moyenne.
Maintenant, les images sont presque complètement sombres - et extrêmement bruyantes!
Le bruit est dû au fait que certains pixels sont absolument sombres, car ils n'ont vu aucun photon pendant le temps d'obturation. C'est parce que les photons arrivent assez aléatoirement; juste plus souvent là où l'image est plus claire.
Nous pouvons ajouter certaines des images sombres et bruyantes ensemble - puis le bruit s'équilibre et le résultat n'est pas si sombre.

Ensuite, nous faisons le temps d'obturation est si court que nous n'obtenons qu'un seul photon dans tout le capteur en moyenne, de sorte que la plupart des images ont des pixels absolument noirs sauf un.
On pourrait dire qu'il est devenu encore plus sombre - et encore plus bruyant. Mais ajouter des images continuerait de fonctionner.
À l'heure actuelle, la fréquence d'images est aussi élevée que possible si nous voulons obtenir des données de pixels significatives dans la plupart des images.

Bien sûr, nous raccourcissons à nouveau le temps d'obturation, disons la moitié du précédent.
Cela nous donne un photon toutes les secondes seulement.
Mais que se passe-t-il entre les deux, quand nous autre cadre? Pour autant que nous puissions voir, absolument rien ne se passe - rien ne change du tout. Lorsque nous ajoutons quelques cadres pour obtenir une image plus claire, c'est le même résultat avec et sans cadre absolument noir. Nous ne voyons aucun changement - même si la scène que nous regardons change à la vitesse la plus élevée possible. En termes de ce que nous voyons, aucun temps ne s'est écoulé.

Oh, et si vous n'avez pas assez d'Unobtanium sous la main, jetez un œil à la réponse de Ryan Colyers.



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...