Deep Fusion: Dickes Kamera-Update mit iOS 13.2

2 Minuten
Bei der Vorstellung der neuen iPhones im September hat Apple Deep Fusion zum ersten Mal vorgestellt. Diese Technologie soll Bilder bei schlechten Lichtbedingungen deutlich besser aussehen lassen. Zum Release von iOS 13 war sie jedoch noch nicht einsatzbereit. Bald lässt sie sich in der iOS 13.2 Beta ausprobieren.
iphone 11 kamera symbolbild
iphone 11 kameraBildquelle: Apple

Apple wird im Laufe des Tages die erste Beta von iOS 13.2 für registrierte Entwickler freigeben. Eine Public-Beta sollte zeitnah ebenfalls zur Verfügung stehen. Größte Neuerung in dieser Version ist die neue Kamera-Funktion Deep Fusion. Diese steht für iPhone 11 und iPhone 11 Pro Nutzer zur Verfügung. Ältere Geräte können die neue Funktion leider nicht nutzen, da ein A13 Chip vorausgesetzt wird.

Was ist Deep Fusion?

Deep Fusion ist eine neue Kamera-Technologie. Diese hat Apple auf der iPhone-Keynote im September vorgestellt. Sie soll für eine deutlich bessere Bildqualität bei schlechteren Lichtverhältnissen sorgen, wo der Night Mode jedoch noch nicht benötigt wird. Dazu stehen den iPhone-Kameras nun drei Möglichkeiten zur Verfügung:

  • helle bis normale Lichtbedingungen: Smart HRD
  • normal bis wenig Licht: Deep Fusion
  • wenig Licht bis dunkel: Night-Mode

Die Zoom-Linse wird den neuen Deep Fusion Modus noch stärker nutzen und nur bei sehr hellen oder sehr dunklen Motiven auf die anderen Modi zurückgreifen. Die Ultraweitwinkel-Kamera hingegen unterstützt weder Deep Fusion noch den Nachtmodus.

Wie funktioniert Deep Fusion?

Deep Fusion funktioniert völlig ohne Einfluss des Users. Im Gegensatz zum Night-Mode, wird in der Kamera-App nicht angezeigt, wann der neue Modus aktiv ist. Im Hintergrund passiert jedoch ziemlich viel. Noch bevor du den Auslöser drückst, nimmt das iPhone bereits vier Fotos mit kurzer Verschlusszeit auf. Aus diesen wird später die Bildschärfe berechnet. Drückst du dann den Auslöser, wird ein länger belichtetes Bild aufgenommen. Anschließend sucht das iPhone automatisch das schärfste der vier kurz-belichteten Bilder und fügt die drei anderen mit dem lang-belichteten Bild zusammen. Dieses Bild wird anschließend mit dem vorher ausgewählten, schärfsten Bild kombiniert. In einem Bildbearbeitungsprozess wird das Bild nun Pixel für Pixel optimiert, um klarere Details und eine gute Bilddynamik zu erreichen. Der gesamte Vorgang dauert ungefähr eine Sekunde und damit etwas länger als das technisch weit weniger aufwändige Smart HDR.

Bis Deep Fusion bei allen Nutzern ankommt, kann es noch ein paar Wochen dauern. Die Beta-Phase von iOS 13.2 hat gerade erst begonnen und mit einem Release vor Ende Oktober ist eher nicht zu rechnen.

Deine Technik. Deine Meinung.

1 KOMMENTAR

  1. Nutzerbild Reinhard Schäfer

    Apple, Google und Samsung profitieren davon, dass Trump Huawei den Krieg erklärt hat. Waren die chinesischen Geräte noch vor einem Jahr scheinbar unaufhaltsam auf dem Weg an die Spitze, sind sie jetzt in vielen Ländern unbrauchbar, weil sie die Google-Dienste nicht mehr nutzen dürfen. Überraschend ist, wie wenig Gegenwehr die Chinesen zeigen – schließlich könnten auch sie eine Menge tun, um amerikansichen Firmen zu schaden, ob über die Produktionsstätten, die seltenen Erden oder andere technologische Sanktionen. Natürlich wären sie auch selbst betroffen, wenn sie Foxconn Einschränkungen oder Sperren auferlegen, aber die aktuelle Situation weitgehend hinzunehmen ist seltsam. Immerhin hat Huawei auch das modernste 5G, was durch den Bann ebenso in vielen Ländern nicht eingesetzt werden darf.
    Trump bekämpft aktuell ja wieder stärker Europa und Kanada, spielt Demokratien gegeneinander aus, mischt sich in den Brexit ein, indem er den Briten neue Abkommen anbietet. Offenbar bringt ihm der Handelskrieg mit China und das „Freundschaftsverhältnis“ zu Kim Jong Un derzeit nicht genug Popularität, deshalb braucht er neue Schauplätze.

    Antwort

Und was sagst du?

Bitte gib Dein Kommentar ein!
Bitte gibt deinen Namen hier ein