NextPit

Gerüchte zur Kamera des iPhone 14: Geht Apple mit dem Trend?

Gerüchte zur Kamera des iPhone 14: Geht Apple mit dem Trend?

Es gibt neue Gerüchte zum iPhone 14. Der Analyst Ming-Chi Kuo erscheint wieder auf der Bildfläche und behauptet, dass das neue iPhone eine 48-Megapixel-Kamera erhalten wird, die bereits 2023 um eine Periskop-Linse erweitert werden soll. Als Grundlage für diese Behauptung dient ein Forschungsbericht der Investmentfirma TF International Securities.


  • Analyst Ming-Chi Kuo vermutet, dass im iPhone 14 eine 48-Megapixel-Kamera verbaut sein wird
  • Bereits 2023 soll der Einsatz einer Periskop-Linse erfolgen, um den optischen Zoom noch weiter zu verbessern.
  • Kuo stützt sich auf einen Bericht der Firma TF International Securities, gibt aber sonst keine Informationen preis.

Einem Bericht von TF International Securities zufolge, wird sich der Wert von Largan Precision in den nächsten Jahren signifikant steigern, bedingt durch die besseren Kameralinsen, die in den kommenden iPhones verwendet werden sollen. Der taiwanische Hersteller gilt als Hauptzulieferer für die Kameralinsen in iPhones, wodurch Kuo seine Aussage stützt. Vorweg sei allerdings gesagt, dass der Analyst sonst keinerlei Informationen herausgibt, was Gerücht insgesamt doch sehr vage erscheinen lässt.

Im kommenden Jahr soll neben dem neuen iPhone ebenfalls das AR/VR-Headset von Apple erscheinen. Um das Headset optimal nutzen zu können, wäre es von Vorteil, wenn die Smartphones des amerikanischen Herstellers Videos in passender Auflösung liefern würden. So behauptet der Analyst, dass die Smartphones in naher Zukunft 8K-Aufnahmen machen könnten. Diese ultrahohen Auflösungen werden im Jahr 2021 bereits von einigen Smartphones unterstützt – Displays mit 8K-Auflösung gibt es dabei noch äußerst selten.

Mit Binning und Periskop-Linse für bessere Bilder

Vor kurzer Zeit behauptete Kuo bereits, dass eine 48-Megapixel-Linse im neuen iPhone zu finden sein wird. Darüber hinaus ist von einer 12-Megapixel-Kamera die Rede, was ein Hinweis darauf sein könnte, dass Apple nun auch den Schritt zum "Pixel-Binning" wagt. Dieser Vorgang bezeichnet das Zusammenfassen benachbarter Bildelemente in Digitalkameras. Durch diesen Prozess erreichen viele Smartphones eine höhere Lichtempfindlichkeit und sammeln mehr Informationen für computational photography.

Um das Gerücht noch weiter anzufeuern behauptet Kuo ebenfalls, dass 2023 eine Periskop-Linse zum Einsatz kommt. Diese dienen dazu, den optischen Zoom durch eine Krümmung zu verbessern, wodurch das iPhone noch näher heranzoomen könnte, ohne einen Verlust der Bildqualität hinnehmen zu müssen.

Es bleibt allerdings dabei, dass es sich hierbei um ein Gerücht handelt. Kuo stützt seine Aussage lediglich auf einen Bericht und nennt auch sonst keine weiteren Details. Dementsprechend bleibt nur abzuwarten, bis im kommenden Jahr das neue iPhone vorgestellt wird oder es tatsächliche Leaks zum neuen Flaggschiff von Apple geben wird.

Quelle: Macrumors

Hat Dir der Artikel gefallen? Jetzt teilen!
Jetzt mitdiskutieren
NEXTPITTV

Neueste Artikel

Empfohlene Artikel

11 Kommentare

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • Stan Lee vor 3 Wochen Link zum Kommentar

    Also ich denke wenn sie es ändern sollten dann auch nur weil es für die neue Brille u iPhone von Vorteil wäre.


  • Karsten vor 1 Monat Link zum Kommentar

    Es wird sogar seitens J.P Morgan vorhergesagt,das nächstes Jahr 1 Milliarde !!!! Menschen zu Apple abwandern. War der schon mit dem Delorean aus der Zukunft zurück,um uns zu verraten welches Handy wir nächstes Jahr benutzen werden?


  • Tim vor 1 Monat Link zum Kommentar

    Das ist der gleiche Unsinn, wie schon vor Wochen bzw. eigentlich JAHREN.
    Zum fünften(!) mal in Folge behauptet Kuo, dass das nächste iPhone 48MP bekommt. Angefangen beim iPhone XS und auch beim 13 kam dieser Quatsch von ihm.

    Das ganze ist halt kompletter Unsinn, da offensichtlich vergessen wird, dass Apple kein Android-Hersteller ist. Seit der aller ersten Dual-Kamera hat Apple IMMER darauf geachtet, dass alle Kameras die exakt gleichen Video-Möglichkeiten hatten. Allein schon deshalb ist 100% ausgeschlossen, dass Apple beim Hauptsensor auf 48MP (und 8K Video) setzt, bei den anderen Kameras aber weiterhin auf 12MP (und damit 4K). Sowas macht Apple einfach nicht. Apple ist nicht Samsung und Co., die bis heute teilweise Ultraweitwinkel auf 4K30 beschränken, der Hauptsensor aber 4K60 oder eben sogar 8K kann.

    Und Apple wird auch zu 100% nicht diese aktive Kundenverarsche aka Pixel-Binning bringen. Aufs Datenblatt schön viele Mehapixel klatschen, in der Praxis dann aber auf 12MP beschränken. Pixel-Binning ist ohnehin der mit Abstand dümmste Trend überhaupt. Man viertelt (oder gar Neuntelt) die Pixel, damit man auf dem Papier mehr Megapixel hat, nur um sie dann aufwendig und mit unnötigem Rechenaufwand wieder zusammenzufügen 🤦🏻‍♂️ Man erreicht damit faktisch keine höhere Lichtempfindlichkeit, sondern reproduziert einfach nur exakt die gleiche, wie die, die man hätte, wenn man die Pixel nicht idiotischerweise zerteilt hätte.
    Und wenn man höhere Auflösungen will, dann sollte man sich Pixel-Shift bedienen. Smartphones machen heutzutage ohnehin mit jeder Aufnahme 5-20 Bilder. Dann kann man diese auch nutzen, um sie zu einer höheren Auflösung zusammenzufügen. DAS wäre eine Lösung. Es andersherum zu machen ist dumm, nichts weiter.


    • paganini vor 1 Monat Link zum Kommentar

      Tim
      Ich bin gespannt jetzt sind es ja nur noch maximal 9 Monate bis man es weiß. Du hattest dich ja schonmal getäuscht und bei Technik verwende ich das Wort „nie“ eher nicht. Apple wird früher oder später auf 8k aufspringen und auch mehr MP Bringen ob du es willst oder nicht ;-) und dann bin ich mal gespannt wie „mies“ die Fotoqualität sein wird denn wie sagte es hier eine so schön „mehr MP bringen ÜBERHAUPT KEINEN Vorteil“ 😬
      Dumm sind detailreichere Bilder nicht. Das habe ich beim S21 Ultra gemerkt. Da kann das 13 Pro Max bei gutem Licht einfach nicht mithalten, wie auch 12MP gegen 108MP. Da sind viel mehr Informationen auf dem Bild drauf. Soll aber nicht heißen dass 108MP automatisch besser sind, Samsung bekommt es aber gut hin


      • Tim vor 1 Monat Link zum Kommentar

        Und genauso oft hatte ich gerade bei sowas auch recht... Ich sage seit Kuo das erste mal damit angekommen ist, dass Apple nicht auf 48-64MP springt usw. Und bisher hat das jedes mal gestimmt.

        Natürlich wird Apple wahrscheinlich früher oder später auf 8K Video springen. Aber eben zu 100% nicht SO. WENN, dann verwendet Apple bei allen drei Rückkameras 48MP und nicht nur beim Hauptsensor. Das ist komplett ausgeschlossen.
        Zumal ich persönlich einen Zwischenschritt bei Apple für deutlich realistischer halte. Apple bietet selbst kein einziges Gerät an, dass nativ - Pixel für Pixel - überhaupt 8K darstellen kann. Entsprechend würde es viel mehr Sinn für Apple machen, eher sowas wie 6K Video zu bringen. Dafür müssten sie auch nicht sofort auf idiotische 48MP springen, sondern "nur" etwa 30.

        Und ja sorry, aber ausnahmslos alle Android-Hersteller beweisen immer wieder, dass diese wahnwitzigen Megapixelwerte absolut gar nichts bringen. Und meine Meinung dazu würde sich auch nicht ändern, wenn Apple so einen Müll abzieht.

        Und die Bilder sind auch bei gutem Licht nicht immer detailreicher. Ich kann mich noch gut erinnern, wo mir hier mal einer zeigen wollte, wie viel detailreicher die Bilder beim S21 Ultra doch seien und dann einen Artikel dazu verlinkt hat, der nur blöderweise genau das Gegenteil gezeigt hat, da die Bilder vom S21+ mit 12MP schärfer waren, als die 108MP beim ultra.
        Dass die Bilder beim 13 Pro Max leider nicht so scharf sind, hat absolut GAR NICHTS mit der Auflösung zu tun, sondern weil Apple leider mittlerweile die Bearbeitung völlig übertreibt. Ich habe noch sehr viele Bilder vom iPhone X, 8 Plus etc. auf meinem PC und auch vom iPhone 12 und ganz ehrlich - die älteren iPhones haben allesamt schärfere Bilder gemacht. Eben weil sie bei der Nachbearbeitung bei weitem nicht so aggressiv waren.


      • paganini vor 1 Monat Link zum Kommentar

        Ja also liegen deine Prognosen bei 50/50 ;-) Sprich kann kommen oder nicht kommen nur weil du es sagst 😜

        Hier kannst du mal einen Vergleich sehen

        phonearena.com/news/Samsung-Galaxy-S20-Ultra-108MP-vs-12MP-Galaxy-S20-Plus-64MP-vs-12MP_id122956

        Und JA das Gesicht ist durch die 108MP detaillierter. Sorry wer das nicht sieht ist vermutlich blind 🤷🏼‍♂️ Alleine schon weil mehr MP auch mehr Details einfangen können sollte das klar sein (gilt jetzt nur mal bei gutem Licht)


    • Michael K. vor 1 Monat Link zum Kommentar

      Der Nutzen von Pixelbinning liegt ja darin, bei guten Lichtverhältnissen, wenn die kleinen Pixel der nativen Auflösung genug Signal- zu Rauschabstandstand (SNR) erzeugen können, man die hohe Sensorauflösung auch für qualitativ hochwertige Bilder nutzen kann, weil diese dann eben nicht verrauscht sind. Das Zusammenfassen mehrerer Pixel ist nur in dunklen Szenen nötig. Da hier der Signal- zu Rauschabstand der Sensorpixel eben nicht mehr für rauscharme Bilder reicht, lässt er sich durch durch Aufintegration der Signale von 4 oder 9 Pixeln verbessern, allerdings auf Kosten der Auflösung. Da in der Dunkelheit aber ohnehin viele Bilddetails verloren gehen, und das menschl. Auge nur eingeschränkt farbfähig ist, kann man mit diesem Kompromiss leben, und gewinnt sozusagen das Beste aus zwei Welten.
      Pixelshift versucht umgekehrt aus einer kleineren Sensorpixelzahl eine höhere Auflösung zu erzeugen und hat dabei eigene Vor- und Nachteile.
      So kann Pixelshift Moire-Effekte mindern. Aber bei schnellen Bildbewegungen verändern sich die Bildinhalte während des Pixelshifts, was das Verfahren für solche Aufnahmen ungeeignet macht. Auch für Blitzaufnahmen ist Pixelshift nicht gut geeignet, da der Blitz nur einen Teil der Aufnahmen belichtet.


      • Tim vor 1 Monat Link zum Kommentar

        Auch bei gutem Licht sind die Bilder verrauscht. Alles andere ist Unsinn. Das ist durch die winzigen 0,8µm geradezu vorbestimmt. Smartphones versuchen nur ihr bestes, um eben jenes Rauschen herauszurechnen. Würde man eine niedrigere Auflösung mit größeren Pixeln verwenden, müsste man weit weniger Rauschen rausrechnen und würde allein dadurch schon ähnlich scharfe Bilder hinkriegen. Das beweisen DSLRs bis heute. Meine uralte D7000 mit 16MP lässt bis heute jedes Smartphone in Sachen Bildschärfe WEIT hinter sich.

        Und auch die Nachteile von Pixel-Shift existieren längst nicht mehr. Oppo hat bereits 2013(!!) gezeigt, dass es problemlos geht. Damals hat das ich glaube Find 5 aus 5 13MP-Bildern ein Bild mit 50MP gemacht. und das hat schon damals SO gut funktioniert, dass selbst fahrende Autos gestochen scharf waren. Das wäre heutzutage alles überhaupt kein Problem mehr. Auch das mit dem Blitz nicht. Bei Smartphones ist das Blitzlicht bedeutend länger aktiv, als bei DSLRs und Co. Smartphones nehmen im Bruchteil einer Sekunde locker ein Dutzend Bilder auf. Wenn das mit dem Blitz zusammen nicht funktionieren würde, dann müssten Smartphones die Bilder mit Blitzlicht komplett anders bearbeiten, da sie ja laut deiner Aussage nicht genauso viele Bilder machen können. Aber nichts dergleichen stimmt.


      • paganini vor 1 Monat Link zum Kommentar

        Tim
        Hast du mal einen direkten Vergleich selbst gesehen? Ich hatte das Ultra und kann sagen das es NICHT verrauscht ist. Das ist echt Blödsinn was du hier erzählst. Vielleicht solltest du nicht nur mal Bilder aus dem Internet anschauen sondern selbst mal so ein Gerät besitzen…


      • Michael K. vor 1 Monat Link zum Kommentar

        Wenn ein kleiner Bildsensor genügend Licht bekomnt, muss er gar nichts herausrechnen. Das Pixelrauschen ist wesentlich durch den Dunkelstrom bestimmt und der nimmt mit der Fläche zu, aber eben nicht linear proportional zur Fläche. Das Nutzsignal nimmt bis zur Sättigung proportional zur Helligkeit zu. Also nimmt auch bei kleinen Pixelgrößen der Signal-Rauschabstand mit zunehmender Helligkeit zu, und es ist bei genügend Licht möglich, hinreichend gute Rauschabstände zu erzielen. Über das Prinzip muss man nicht diskutieren, das ist unumstritten.
        Die beschriebenen Nachteile des Pixelshift-Verfahrens habe ich auf den Seiten namhafter Kamerahersteller nachgelesen, die ich gerne verlinken kann. Die sind prinzipieller Natur, und dadurch auch bei Smartphones nicht gänzlich zu vermeiden. Bestenfalls lassen Sie sich durch höhere Aufnahmegeschwindigkeit und Softwarenachbearbeitung abmildern.
        Generell ist der Vergleich von Smartphonekameras mit Spiegelreflex oder Systemkameras problematisch, weil letztere über wesentlich hochwertigere Optiken verfügen. Auch die gibt es mit sehr hoher Auflösung von z.B. 50 Megapixel. Die haben zwar auch große Sensoren, aber die Pixel sind trotzdem kleiner, als bei gleich großen Sensoren mit geringerer Auflösung.

        https://olypedia.de/index.php?title=Pixelshift

        https://www.princetoninstruments.com/learn/camera-fundamentals/signal-to-noise-ratio

        https://www.heise.de/news/Sony-Alpha-1-Spiegellose-Profikamera-mit-50-Megapixeln-und-8K-5037433.html

        Quellen: olypedia.de, princetoninstruments.com, heise.de


  • Olaf vor 1 Monat Link zum Kommentar

    Ja, und das Samsung Galaxy S23 Note, welches gemäß einem unbekannten Nintendo-Mitarbeiter auch in einer grünen Yoshi-Variante herauskommen soll, wird vermutlich für vier Stunden bis 200 m wasserdicht. Dies wiederum war aus Kreisen der Apnoe-Taucher zu vernehmen. Zudem setzt auch Samsung in Zusammenarbeit mit Roborock künftig auf einen Lidar-Sensor. Allerdings handelt es sich auch hier lediglich um Gerüchte. Genaues wissen wir erst zur Vorstellung der S23-Reihe, die voraussichtlich auf einem Event im ersten Quartal 2023, höchstwahrscheinlich im Februar, präsentiert wird. Ach, Leute...

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!