Ergebnisse für "Allergen" nach Erscheinungsdatum sortieren.

Die Suche nach "Allergen" in einem dieser Themenfelder durchführen:

Verbraucher: Lebensmitteltests | Lebensmittelzusatzstoffe | Ratgeber | Rezepte

Informationsdienst:
Sämtliche Kategorien | Bio und Ökolandbau | Ernährung, Gesundheit | Gentechnik | Kommunikation | Landwirtschaft und Umwelt | Lebensmittelsicherheit | Markt, Produkte

Pressefächer: Pressefächer pr4food

Per RSS Feed über zukünftige Suchergebnisse zu "Allergen" informiert werden.
Wie das geht?

KI sucht Insekten im Essen

[…] einem Smartphone – mehr braucht ein neues KI-System nicht, um etwa Allergene wie Laktose zu ermitteln. Auch die in der EU neu zugelassenen Insekten in Lebensmitteln soll das System erkennen. Ein Foto vom vollen Teller und einen Augenblick später verrät die Ernährungs-App, aus welchen Zutaten das Mittagsgericht aus der Kantine besteht. Neu ist das Prinzip nicht. Die Mustererkennung beschränkt sich bislang aber in der Regel darauf, Zutaten wie Gemüse, Käse oder Fleisch zu identifizieren . Statt grob auf Form und Farbe zu achten, analysiert das KI-System FAIGE (Foodscan Artificial Intelligence Generic Entry) die Nahinfrarotanteile im Spektrum auf Pixelebene. Die Idee stammt von einer Projektgruppe aus Studenten unterschiedlicher Fakultäten der Leibniz Universität Hannover. Deren KI erkennt im Rauschen der Fotos handelsüblicher Smartphones Moleküle wie Laktose, Stärke und sogar Insektenproteine. Letztere sind spannend, da nach der Novel-Food-Verordnung der Europäischen Union immer mehr Insekten als Lebensmittel zugelassen sind . So darf etwa seit Anfang 2023 der Getreideschimmelkäfer (Alphitobius diaperinus, Handelsname „Buffalowurm“) als Proteinquelle beigemischt werden. Die Hersteller müssen zwar kennzeichnen, wenn sie in Brot, Getreideriegeln oder Nudeln das teure Insektenmehl beimischen, aber gerade, wer auswärts isst, kann das auf die Schnelle kaum selbst prüfen. Smartphonekamera erkennt Infrarotreflexionen Damit die Erkennung zuverlässig klappt, benötigt man ein modernes Android-Smartphone im Entwicklermodus – eine iOS-Version gibt es noch nicht. Den Entwicklermodus im Android-Gerät entsperren Sie, indem Sie siebenmal in den Einstellungen auf die Android-Versionsnummer tippen. Im Entwicklermodus bekamen die Nachwuchsforscher Zugriff auf das Rohdaten-Histogramm der Fotos, das auch Informationen zum im sichtbaren Bild herausgerechneten Nahinfrarotanteil des Fotosensors im Farbspektrum enthält.Besonders gut klappt die Erkennung mit einer extrem fein auflösenden Kamera wie der im Samsung Galaxy S23 Ultra mit 200-Megapixel-Kamera . „Wir experimentieren seit mehr als fünf Jahren mit Quantenfeldresonanzen von Polysacchariden mit Lasern im nahinfraroten Wellenlängenbereich knapp außerhalb des von Menschen wahrgenommenen Spektrums. Wir waren aber alle überrascht, wie viel Licht dieser Wellenlänge normale CMOS-Sensoren aufnehmen können.“, kommentiert Professorin Dr. Ingeborg Zymniak das bahnbrechende Untersuchungsergebnis ihrer Studenten. Bei den Versuchen wurden Moleküle mit α-D-Glucose-Einheiten wie Stärke mithilfe von Licht im sichtbaren Spektrum in Schwingung versetzt und strahlten einen Anteil davon charakteristisch im nahinfraroten Spektrum ab. Die aufgrund der Farbe vorhergesagte Strahlungsintensität erhöhte sich durch die Eigenschwingung je nach Substanz um bis zu 1,4 Prozent. Gemittelt über mindestens zwölf Millionen Pixel ließ sich eine stabile und statistisch signifikante Abweichung aus dem Bildrauschen je nach Substanz herausrechnen. Anders gesagt: Wenn Erbsen nicht nur grün sind, sondern auch ein bestimmtes nahinfrarotes Spektrum abstrahlen, ist ein ganz bestimmter Zusatzstoff oder sogar ein Allergen dafür verantwortlich. Das raffinierte Analyseverfahren läuft so ab: Zunächst fotografieren Sie mit dem Smartphone mehrere Referenzbilder, um den lernfähigen KI-Algorithmus auf die Kameraeigenheiten zu kalibrieren. Wichtig ist dabei, dass dabei von den Referenzlebensmitteln nicht abgewichen wird, sonst schlägt die Kalibrierung fehl. Zymniak dazu: „Schon als wir Basmatireis einer Marke durch den einer anderen Marke ersetzten, verfälschte dies die Messergebnisse.“ Steht die Kalibration, folgt das Foto von dem Essen oder dem Fertiggericht, das Sie analysieren möchten. Die Analyse übernimmt ein tiefes Convolutional Network auf einem remote GPU-Server. Das neuronale Netz sucht nach Mustern in der Abweichung im Rauschverhalten zwischen Kalibrierungsbildern und Analysebild. >>>Klick zum Bild Klick zum Bild Mail an Keywan Tonekaboni