Mastodon CC2.tv: Computerclub 2
CC2tv-Logo

DE09 2004 1111 0470 6628 00
COBADEHDXXX
Wolfgang Werner Rudolph
Stichwort: cc2.tv

Paypal
Spenden per Paypal

Falls eine Namensnennung erwünscht ist, bitte im Verwendungszweck Name darf genannt werden oder Pseudonym XY darf genannt werden ergänzen. Vielen Dank!

Kontakt
redaktion klammeraffe cc2.tv

Neueste Sendungen

CC2tv-Folge 414:     Youtube, HD 1080p
     RSS-Feed der Videosendungen

CC2-Audio Folge 700:

     Ogg Vorbis, 56 kBit/s (~18 MB)
     MP3, 128 kBit/s (~40 MB)
     MP3, 32 kBit/s (~12 MB)
     RSS-Feed der Audiosendungen


Echo-Skill für CC2-Blogeinträge
Powered by Speedpartner

Fingerprint-Technik (CC2tv Folge 414)

Samstag, 2025-12-06 10:00, Eintrag von Wolfgang Rudolph


So erkennt dein Gerät deinen Finger – einfach erklärt
In diesem Video erklären wir die vier wichtigsten Techniken der Fingerabdruck-Erkennung: optisch, kapazitiv, ultraschallbasiert und thermisch.
Wir erklären, wie die Sensoren R503, R507, R528, R558 und ähnliche Module funktionieren und warum sie sich technisch unterscheiden.
Von der einfachen LED-Kamera über kapazitive Messfelder bis hin zum 3D-Ultraschallverfahren – wir erklären, was im Inneren passiert.
Kurz und verständlich, damit jeder sofort versteht, welche Technik wo ihre Stärken hat.

Wir danken allen Spendern für ihre Unterstützung:
SIEGFRIED ERICH SCHARNECK
Bernd Tilche
Joachim Schepsmeier
Klaas Koch
Andreas Neidhart
Valentin Perl
Robin ypid Schneider
OGU
Backemann
DL2IAB+DL2IAC
Jens Biskup
Katze Murka und Kater Rigik und Seiko
Chris42
M1Molter
Stephan Hege
DG3BK
Bernd Hillert
Andreas Schell
Atze1005
nossy
Dritter Detektiv
Oliver Buhmann
RONNY RONALD SCHMIDT
Dr. Harm Friedrich Harms
Yogi
DG1FCB
Philipp Rozanek
uliuli
lichtstreufolie.de
CyberG
Klaas Koch
Dieter Homann
Marcel Straube


Die Sendung ist auf Youtube zu finden: https://youtu.be/6Uqskpi3k8E


CC2tv Audiocast Folge 700

Montag, 2025-12-01 20:00, Eintrag von Wolfgang Rudolph


     Ogg Vorbis, 56 kBit/s (~18 MB)
     MP3, 128 kBit/s (~40 MB)
     MP3, 32 kBit/s (~12 MB)

BoltzGen – KI entwirft neue Moleküle für schwierige Krankheiten
Heute beginnen wir mit einer Entwicklung aus der medizinischen Forschung. Am Massachusetts Institute of Technology arbeitet ein Team um den Wissenschaftler Hannes Stärk an einem neuen KI-Modell namens BoltzGen. Und dieses Modell kann etwas, das bisher als reine Zukunftsvision galt: Es erzeugt Moleküle direkt am Computer. Nicht simuliert, nicht gesucht — sondern wirklich neu entworfen.

Die Idee dahinter ist einfach, aber enorm wirkungsvoll. Viele Krankheiten gelten als schwer behandelbar, weil passende Wirkstoffmoleküle fehlen. Moleküle, die an ganz bestimmten Stellen eines Proteins ansetzen. Genau dafür entwirft BoltzGen neue Kandidaten. Die KI analysiert, wie ein Protein aufgebaut ist, berechnet potenzielle Bindungsstellen und kombiniert dann chemische Bausteine so, dass daraus ein neues, stabiles Molekül entsteht. All das passiert in Sekundenbruchteilen.

Die Forscher berichten, dass einige der digital erzeugten Moleküle tatsächlich eine hohe Bindungsaffinität aufweisen. Das bedeutet: Die Wahrscheinlichkeit, dass daraus neue Medikamente entstehen, ist real. Der gesamte Prozess könnte die Medikamentenentwicklung erheblich beschleunigen. Statt Jahre zu suchen, könnte man in Wochen oder Tagen zu einem ersten Kandidaten gelangen. Die Technologie ist also mehr als nur ein theoretisches Werkzeug. Sie könnte ein neuer Standard für die frühe Phase der Wirkstoffforschung werden.

Und noch ein Punkt ist wichtig: BoltzGen erschließt chemische Räume, die ein Mensch nie durchdenken könnte. Eine KI hat keine Vorurteile, keine Gewohnheiten. Sie kombiniert Bausteine, die Forscher nicht einmal in Betracht ziehen würden. Genau das macht das System so wertvoll. So könnten Therapien entstehen, die wir heute noch nicht einmal erahnen.

Zukunftsmedizin mit Hilfe von KI — das könnte der Beginn einer neuen Ära sein.

[https://news.mit.edu/2025/mit-scientists-debut-generative-ai-model-that-could-create-molecules-addressing-hard-to-treat-diseases-1125]
[https://news.mit.edu]
[https://www.mit.edu]

Rekord in der Halbleiterforschung – schnellere Chips durch Germanium auf Silizium
Unser zweites Thema führt uns in die Halbleitertechnik. Forscher der University of Warwick gemeinsam mit dem kanadischen National Research Council haben eine bemerkenswerte Entwicklung vorgestellt. Sie haben eine dünne Germaniumschicht auf Silizium aufgebracht — und zwar so, dass das Material unter kompressiver Spannung steht. Dadurch verändert sich die Bandstruktur, und die sogenannten Löcher, also die positiv geladenen Ladungsträger, bewegen sich darin schneller als je zuvor.

Warum ist das so wichtig? Weil die Geschwindigkeit dieser Ladungsträger darüber entscheidet, wie schnell ein Chip arbeitet und wie viel Energie er dabei verbraucht. Je leichter sich Ladungsträger bewegen, desto weniger elektrische Spannung ist nötig und desto weniger Wärme entsteht. Das bedeutet: schnellere Prozessoren, weniger Energieverbrauch und vor allem mehr Spielraum für komplexe Architekturdesigns.

Das Beste an diesem Material ist seine Kompatibilität mit heutigen Herstellungsprozessen. Germanium auf Silizium lässt sich in eine klassische CMOS-Fertigung integrieren, ohne die Produktionslinie umzubauen. Für die Industrie ist das ein entscheidender Punkt. Neue Materialien sind nur dann interessant, wenn sie sich in bestehende Abläufe einfügen.

Für die Zukunft hat diese Arbeit noch eine weitere Bedeutung. Germanium eignet sich sehr gut für Quantenbauelemente, etwa für Spin-Qubits. Das heißt: Die gleiche Technologie könnte sowohl die klassischen Computer als auch zukünftige Quantensysteme schneller und effizienter machen. Es ist also nicht übertrieben zu sagen, dass wir hier eine Brückentechnologie sehen, die beide Welten verbindet.

Ein erheblicher Fortschritt für die Mikroelektronik — und vielleicht einer der Bausteine für die Computer der Zukunft.

[https://thequantuminsider.com/2025/11/25/scientists-set-new-mobility-record-in-quantum-compatible-semiconductor]
[https://www.quantuminsider.com]
[https://www.warwick.ac.uk]


Quantencomputer werden zuverlässiger – KIT verbessert Messprozesse bei Qubits
Im dritten Beitrag bleiben wir in der Hochtechnologie, wechseln aber zur Quanteninformatik. Forscher des Karlsruher Instituts für Technologie und der Université de Sherbrooke haben untersucht, wie Messprozesse supraleitende Qubits stören. Und das ist ein echtes Problem, denn jeder Messvorgang beeinflusst ein Qubit und kann Fehler erzeugen.

Das Team hat sich besonders angesehen, wie Mikrowellenpulse den Zustand eines Qubits verändern. Normalerweise wird ein Qubit über einen Resonator ausgelesen. Dabei kann es passieren, dass die Messung mehr Energie einbringt, als das Qubit verträgt. Das Ergebnis: Es springt in einen höheren Zustand, und die Information ist beschädigt.

Die Forscher haben nun eine Methode entwickelt, diese Störungen stark zu reduzieren. Sie kalibrieren die Kopplung zwischen Qubit und Resonator so fein, dass das Qubit beim Auslesen kaum noch beeinflusst wird. Der Messvorgang bleibt, aber seine Nebenwirkungen sinken deutlich. Dabei geht es um extrem kleine Energieverteilungen, die nur durch präzise Regelung und moderne Messtechnik kontrollierbar sind.

Was bedeutet das für die Zukunft? Wenn Messungen stabiler sind, können Quantencomputer mit mehr Qubits gebaut werden, ohne dass die Fehlerraten explodieren. Das ist ein entscheidender Schritt, denn das größte Hindernis für skalierbare Quantencomputer ist nicht die Rechenleistung — es sind die Fehler. Sobald man die unter Kontrolle bekommt, kann man komplexere Systeme bauen und länger stabil betreiben.

Ein wichtiger Fortschritt, der zeigt, wie sehr die Entwicklung von Quantencomputern heute von präziser Messtechnik abhängt — nicht nur von Rechenleistung.

[https://www.kit.edu/kit/pi_2025_087_wie-quantencomputer-noch-zuverlaessiger-werden.php]
[https://www.kit.edu]
[https://sherbrooke.ca]

Die Genesis Mission – ein nationales Wissenschaftsprogramm für KI und Supercomputing
Unser viertes Thema kommt aus den Vereinigten Staaten. Dort wurde ein groß angelegtes Forschungsprogramm gestartet, die sogenannte Genesis Mission. Das US-Energieministerium und das Office of Science and Technology Policy, also der wissenschaftliche Beraterstab des Weißen Hauses, entwickeln gemeinsam eine Plattform, die Supercomputer und künstliche Intelligenz miteinander verzahnt. Ziel ist es, wissenschaftliche Forschung radikal zu beschleunigen.

Der Plan ist klar: Alle siebzehn nationalen Forschungslabore der USA sollen ihre Daten über eine gemeinsame KI-Plattform nutzbar machen. KI-Modelle sollen daraus Hypothesen generieren, Simulationen durchführen und dann Vorschläge für Experimente liefern, die von den Laboren getestet werden. Dieser Kreislauf aus Hypothese, Simulation und Experiment soll die Forschung enorm beschleunigen. Das erinnert an historische Großprojekte wie die Entwicklung der Raketen- oder Kernphysikprogramme, nur diesmal auf die gesamte Wissenschaft verteilt.

Beteiligt sind unter anderem Lawrence Berkeley National Laboratory, Argonne National Laboratory, Los Alamos und viele weitere. Alle sollen ihre Datenpools, Simulationsergebnisse und Modelle bündeln. Der Vorteil liegt auf der Hand. Wenn Daten offen und vereinheitlicht vorliegen, kann KI in kürzester Zeit Muster erkennen, die ein Mensch oft übersehen würde.

Für die Energiebranche bedeutet das schnellere Materialforschung, etwa für Batterien und Fusionsprozesse. Für die Medizin bedeutet es präzisere Wirkstoffentwicklung. Und für die Grundlagenforschung heißt es schlicht: mehr Tempo, mehr Erkenntnisse, mehr Kooperation.

Die Genesis Mission könnte zu einem neuen wissenschaftlichen Rhythmus führen. Forschung wird nicht mehr als lineare Abfolge gesehen, sondern als paralleler, datengesteuerter Prozess. Das könnte den globalen Forschungsfortschritt auf ein neues Niveau heben.

[https://news.fnal.gov/2025/11/u-s-department-of-energy-launches-genesis-mission-to-transform-american-science-and-innovation-through-the-ai-computing-revolution/]
[https://www.aip.org/fyi/trump-administration-launches-genesis-mission-to-boost-science-through-ai]
[https://politico.com/news/2025/11/24/trump-directs-science-agencies-to-embrace-ai-00667318]

Thema 5: SETI und NVIDIA – ein neuer Blick ins All dank KI
Zum Abschluss ein Thema aus der Astronomie. Das SETI Institute arbeitet zusammen mit NVIDIA und dem Allen Telescope Array an einem neuen KI-System, das Radiosignale aus dem Weltraum sechshundertmal schneller auswertet als bisherige Methoden. Und das ist mehr als nur eine technische Verbesserung. Damit wird eine Echtzeit-Suche möglich.

Die klassische Analyse ist rechenintensiv. Man muss große Datenmengen durchforsten, kurze Radiopulse isolieren und schmalbandige Signale erkennen, die vielleicht Hinweise auf natürliche oder künstliche Quellen geben. Die neue Pipeline nutzt neuronale Netze, die direkt auf die Rohdaten angewendet werden. Sie erkennt Muster, die für Menschen oder klassische Algorithmen schwer sichtbar sind.

Die Forschenden berichten nicht nur von der sechshundertfachen Geschwindigkeit, sondern auch von einer deutlich geringeren Zahl falsch positiver Ergebnisse. Das System arbeitet präziser, schneller und stabiler. Dadurch wird es möglich, den Himmel nahezu in Echtzeit zu überwachen. Ob es um Fast Radio Bursts geht oder um die Suche nach möglichen Technosignaturen anderer Zivilisationen – die Methode bietet eine neue Qualität.

Das Projekt zeigt außerdem, wie eng moderne Astronomie und Industrie kooperieren. Ohne die Rechenleistung der Grafikhardware wäre dieses System kaum denkbar. Und genau diese Verbindung aus wissenschaftlicher Expertise und technischer Infrastruktur macht den Fortschritt möglich.

Ein spannender Ausblick in die Zukunft der Weltraumbeobachtung — und vielleicht ein kleiner Schritt hin zu Antworten auf die großen Fragen des Universums.

[https://www.seti.org/news/revolutionary-ai-system-achieves-600x-speed-breakthrough-in-the-search-for-signals-from-space/]
[https://www.seti.org]
[https://www.nvidia.com]

Ich möchte mich herzlich bei allen bedanken,
die den Audiocast regelmäßig hören und mit Interesse verfolgen. Viele begleiten uns seit Jahren, und diese Treue bedeutet mir viel. Mein Dank gilt ebenso allen, die mit einer Spende dazu beigetragen haben, dass unsere Arbeit unabhängig bleiben kann.

Zum bevorstehenden Weihnachtsfest wünsche ich Ihnen ruhige und erholsame Tage, Zeit für die wichtigen Dinge im Leben und ein wenig Abstand vom Alltag. Für das neue Jahr wünsche ich Ihnen Gesundheit, Zuversicht und viele gute Momente.

Vielen Dank für Ihre Unterstützung und Ihr Vertrauen.



CC2tv #413: Wie KI zuverlässig wird

Samstag, 2025-11-22 10:00, Eintrag von Thomas


Wie KI zuverlässig wird
In diesem Beitrag analysieren wir zentrale Herausforderungen der aktuellen KI-Forschung und KI-Entwicklung anhand der wesentlichen Ergebnisse einer neuen wissenschaftlichen Veröffentlichung. Wir erläutern, unter welchen Bedingungen ein KI-Modell so trainiert werden muss, dass es verlässliche Resultate liefert. Zudem betrachten wir die Auswahl geeigneter Trainingsdaten hinsichtlich Struktur und Umfang, die Verfahren zur Feinabstimmung sowie das Verhalten einer KI unter Live-Bedingungen. Darüber hinaus vergleichen wir Trainingsszenarien mit dem praktischen Einsatz und geben einen Ausblick auf mögliche zukünftige Entwicklungen.

Zum erwähnten Paper.

Vielen Dank für Ihre Spenden!
MarcO F.
Norbert Segger
DL1EAB Stefan Voß
FrankiePete
Patrick Jäger
Joe Urs
DC1MIK
JDUO
David Hommel
HUPi Balina
RapidRalf
JDUO
Matthias Liebich
Micha L
Tasso
Ulrich Pohl
Richard Butterbach
Dr. Daniel Jung
DO7PE
Christopher Dunkel
Friedhelm Verhufen
SIEGFRIED ERICH SCHARNECK

Die Sendung ist auf Youtube zu finden: https://youtu.be/TclCPE1UOrY


Wohnung im Röntgenblick

Samstag, 2025-11-08 10:00, Eintrag von Wolfgang Rudolph


Mal ein ganz langer Text, den ich mir für die Moderationsvorbereitung geschrieben habe.
1) Warum WLAN mehr kann als Daten übertragen

WLAN-Netze messen bei jeder Paketübertragung ihren Funkkanal, um die Verbindung zu optimieren. Diese Messwerte lassen sich zweckentfremden: Aus den Veränderungen des Funksignals kann ein System Bewegungen, Präsenz und sogar grobe Topologieänderungen im Raum erkennen – ganz ohne Kamera oder zusätzliche Sender. Der Fachbegriff dafür lautet „WLAN Sensing“. Die Idee: Was die Luftschnittstelle ohnehin über den Zustand des Kanals verrät, wird nicht nur für die Wahl von Modulation, Codierung und Beamforming genutzt, sondern zusätzlich ausgewertet, um ein Abbild der Umgebung zu gewinnen. Der Ansatz ist unaufdringlich, funktioniert durch Wände und nutzt vorhandene Access Points. Damit entsteht eine sensorische Ebene über dem bestehenden Netz, die für Komfort, Sicherheit und Effizienz neue Anwendungen ermöglicht – vom Präsenz-Trigger im Smart Home bis zur anonymen Belegungsmessung in Gebäuden.

2) Physikalische Grundlage: OFDM, MIMO, Multipath

WLAN (ab 802.11a/g) nutzt OFDM: Das Gesamtspektrum wird in viele schmale Unterträger zerlegt, die parallel übertragen werden. Mehrantennensysteme (MIMO) senden/empfangen mehrere räumliche Datenströme gleichzeitig. In Innenräumen trifft jedes Signal über viele Wege ein (Multipath). Jeder Weg addiert sich vektoriell – mal konstruktiv, mal destruktiv – und verändert die Phase und Amplitude pro Unterträger. Bewegt sich ein Objekt, verschieben sich diese Interferenzen zeit- und frequenzabhängig; zusätzlich entstehen Doppler-Anteile. Genau diese winzigen Änderungen sind die Quelle für Sensing: Das Netz „sieht“ nicht das Objekt selbst, sondern dessen Einfluss auf den Funkkanal. Je breiter der Kanal und je größer die Antennenapertur, desto feiner lassen sich Wege unterscheiden und Richtungen schätzen.

3) Channel State Information (CSI) – das Messobjekt

Bei der Kanalschätzung bestimmt der Empfänger pro Unterträger und pro Antennenkombination einen komplexen Übertragungskoeffizienten (H(f)). Die Gesamtheit dieser Werte nennt man Channel State Information (CSI). CSI liegt als Matrix über Unterträger, räumliche Streams und Antennenpaare vor und wird bei jeder Übertragung aktualisiert. Access Points und Endgeräte nutzen CSI, um Modulation/Codierung (MCS), Sendeleistung, Beamforming und Kanalwahl anzupassen. Für Sensing wird dieselbe CSI gespeichert und zeitlich analysiert. Änderungen von Amplitude/Phase weisen auf Bewegungen, Topologieereignisse oder Präsenz hin. Wichtig: Sensing benötigt keine zusätzlichen Pilotsignale – es nutzt die ohnehin vorhandenen Pilottöne und Nutzpakete. Damit bleibt die Datenübertragung unbeeinflusst.

4) Signalverarbeitung: von Rohdaten zu Ereignissen

Eine typische Pipeline beginnt mit Kalibrierung (Gain/Phase), Korrektur von Trägerfrequenz- und Symboltaktfehlern, sowie Outlier-Filtern. Danach werden Amplituden- und Phasenverläufe pro Unterträger/Stream extrahiert und über die Zeit analysiert. Kurzzeit-Fourier-Transformationen liefern Doppler-Spektren; Array-Verfahren wie AoA/AoD schätzen Einfalls-/Abstrahlwinkel. Aus den Merkmalen – etwa RMS-Delay-Spread, Rician-K-Faktor, Dopplerpeaks, Koherenzzeit – entstehen Features für Klassifikatoren. Für Tracking eignen sich Kalman- oder Partikelfilter; für Erkennung sorgen Schwellen, Clustering oder ML-Modelle. Entscheidend ist die Stabilisierung gegen Temperatur-/Drift-Effekte, sowie die Fusion mehrerer AP-Sichten, damit aus lokalen Indizien robuste Ereignisse werden.

5) Hardware und Standards: ac/ax/be, MU-MIMO, 80/160 MHz

Moderne Netze nach 802.11ac/ax und perspektivisch 802.11be (Wi-Fi 7) stellen breite Kanäle (80/160 MHz) und MU-MIMO bereit. Breite erhöht die Delay-Auflösung, MIMO erweitert die räumliche Auflösung. Beamforming schafft gerichtete Pfade mit gut messbaren Korrelationen. Für Sensing genügen 2×2-Systeme, 4×4 oder 8×8 steigern die Qualität deutlich. Wichtig ist der CSI-Zugang: Manche Chips erlauben paketweises CSI-Export, andere nur Summenstatistiken. Für verteilte Szenarien lohnt eine Uhr-Disziplinierung (z. B. über PTP) zwischen APs, um Zeitbasen zu stabilisieren und Winkel-/Laufzeitmessungen sauber zu fusionieren.

6) Leistungskennzahlen und Auflösung

Die „Auflösung“ wird nicht als Zentimetermaß allein verstanden, sondern als Gesamtsystem-Leistung: Entdeckungswahrscheinlichkeit (P_d), Falschalarmrate (P_{fa}), Reichweite bei gegebener SNR, Latenz bis zur Erkennung und Genauigkeit von Richtung/Entfernung. Bandbreite verbessert die Delay-Diskriminierung, Antennenapertur/Winkelabstand verbessert AoA-Schätzungen, Paketdichte senkt die Latenz. In ruhigen Umgebungen ist Präsenzdetektion extrem zuverlässig; feine Gesten erfordern hohe Paketdichten und gute SNR. Für Personen-Zählung zählt die robust kombinierte Sicht vieler APs mehr als das Einzelgerät. Messkampagnen mit Ground-Truth (z. B. Lichtschranken, IMU-Logger) sind Pflicht, um ROC-Kurven zu erstellen und Schwellen sauber zu setzen.

7) Anwendungen: von Präsenz bis Gebäudeeffizienz

Im Smart Home schalten Präsenz-Trigger Licht/Heizung ohne Kameras. In Büros messen Systeme anonym die Belegung, optimieren Reinigung und Klima. In Logistik-/Industrieflächen erkennt Sensing Bewegungen in Sperrzonen, zählt Durchgänge oder triggert Forklift-Warnungen. Gesundheitsnahe Szenarien reichen von Sturzerkennung (nur als technischer Hinweis, keine Diagnose) bis zu Aktivitätsprofilen. In Retail-Flächen lassen sich Besucherströme grob erfassen, ohne personenbezogene Videos. Gebäudetechnik profitiert doppelt: Sensing liefert Lastprognosen für HVAC und verbessert WLAN-Selbstoptimierung – beides spart Energie. Wichtig bleibt, die Erkennungsziele klar zu definieren: Präsenz ja/nein, Anzahl, Bewegungsrichtung, Aufenthaltszonen – jede Zielgröße verlangt eine passende Feature- und Sensorfusion-Strategie.

8) Systemintegration und Geräte im Feld

Sensing benötigt keine Spezialgeräte – Smart-Home-Aktoren, Steckdosen, Thermostate, Sensor-Hubs wirken als zusätzliche „Messpunkte“, sofern ihr Treiber CSI oder geeignete Statistiken liefert. Auf AP-Seite sammeln Dienste die Rohdaten, normalisieren sie und verteilen sie an eine Auswerte-Engine. Für Edge-Betrieb bieten sich leichte Modelle an; für große Gebäude lohnt ein zentraler Inferenz-Server. API-Design ist entscheidend: Roh-CSI ist datenintensiv, daher sind vorverarbeitete Merkmale (z. B. Subträger-Energiebänder, Doppler-Bins) oft die bessere Austauschgröße. Für die Aktorik reicht ein einheitlicher Ereignis-Bus („presence.zoneA=true; confidence=0.93“) – angebunden an Hausautomation (z. B. KNX, MQTT, Home Assistant).

9) Datenschutz, Sicherheit, Ethik

WLAN Sensing arbeitet ohne Kamerabilder und kann datenarm sein, doch es bleibt ein Sensor. Gute Praxis: klare Zweckbindung (z. B. „Präsenz fürs Licht“), Datenminimierung (nur Events statt Roh-CSI speichern), lokale Auswertung, kurze Speicherfristen und transparente Nutzerinformation. Personenidentifikation ist nicht Ziel; Modelle sollten auf anonyme Zustandsgrößen trainiert sein. Sicherheit: Zugriff auf CSI und Sensing-API strickt authen­tifizieren, TLS erzwingen, Logs härten. In regulierten Umgebungen sind Betriebsvereinbarungen und Datenschutz-Folgenabschätzungen sinnvoll. Ethik bedeutet hier: Funktionen erklären, Opt-out anbieten, und falsche Sicherheit vermeiden – Sensing ist ein probabilistischer Detektor, kein Garant.

10) Grenzen, Tücken und Roadmap

Grenzen entstehen durch SNR, starke Störer, metallische Strukturen und sich ändernde Möbel. Systeme müssen regelmäßig re-kalibrieren und Drift erkennen. Falschalarm-Quellen (Ventilatoren, Vorhänge) lassen sich über Frequenz-Signaturen und Mehr-AP-Konsens dämpfen. Für kleine Gesten braucht man viele Pakete oder dedizierte Trainingsphasen. Roadmap: Wi-Fi 7 (802.11be) erhöht Paketdichte, Bandbreite und MLO-Robustheit; die Sensing-Spezifikation 802.11bf (in Arbeit) standardisiert Prozeduren/Interfaces. Kurzfristig lohnt die saubere Datenerfassung (CSI-Export), mittelfristig die Fusion mit anderen passiven Quellen (z. B. BLE-RSSI, Stromzähler), langfristig On-Device-Modelle mit Transfer-Learning, die sich an neue Räume anpassen, ohne Ground-Truth-Orgie.


Vielen Dank an die Spender:
Backemann
Robin ypid Schneider
Georg Kramer
Hund Bobby
OE5WZO
OGU
Katze Murka und Kater Rigik und Seiko
M1Molter
DG1FCB
Stephan Hege
Andreas Schell
Yogi
Rene Liebich
DG3BK
Bernd Hillert
Dritter Detektiv
Oliver Buhmann
RONNY RONALD SCHMIDT
Klaas Koch
Philipp Rozanek
Marcel Straube
Krümelkutsche
DL1MAZ
Der Michelstädter
MarcO F.


Die Sendung ist auf Youtube zu finden: https://youtu.be/HXtHwFFh3ng



CC2tv Audiocast Folge 699

Montag, 2025-11-03 20:00, Eintrag von Wolfgang Rudolph


     Ogg Vorbis, 56 kBit/s (~18 MB)
     MP3, 128 kBit/s (~40 MB)
     MP3, 32 kBit/s (~12 MB)

Quantenradar
Quantenradar verlässt das Labor: Ein neuer, extrem empfindlicher Photonendetektor könnte schwächste Echos im Rauschen sichtbar machen – und damit die Verfolgung schwer detektierbarer Ziele verbessern. Was realistisch ist, wo Grenzen bleiben und warum am Ende belastbare Feldtests entscheiden.
Wikipedia: Quantenradar
Nature Photonics: Quantum illumination (Hintergrund)
ESA Sentinel-1 SAR: Missionsüberblick


Grokipedia
Grokipedia ist xAIs KI-Enzyklopädie: Artikel entstehen per Sprachmodell statt durch Communityarbeit. Das bringt Tempo und Reichweite – birgt aber Risiken wie Halluzinationen, Bias und Lizenzfehler. Entscheidend sind offene Quellen, saubere CC-Attribution und konsequente menschliche Qualitätssicherung.
ZDFheute: Grokipedia – Wie neutral ist Musks Wikipedia-Alternative? The Verge: Grokipedia startete mit teils kopierten Wikipedia-Seiten AP News: Musk startet Grokipedia als Wikipedia-Konkurrent

„Olo“ ein neuer Farbeindruck
„Olo“ ist ein neuartiger Farbeindruck, der entsteht, wenn Forscher einzelne Netzhaut-Zapfen gezielt mit Laser und Adaptiver Optik stimulieren. So wird fast nur ein M-Zapfen aktiviert – ein extrem gesättigtes Blaugrün, das Displays nicht zeigen können. Spannend für Farbwahrnehmung, Diagnostik und Sehhilfen.
Science Advances: Novel color via stimulation of individual photoreceptors The Guardian: Scientists claim to have found colour no one has seen before scinexx: Olo – Wie können wir neuartige Farben sehen?


Ältere Beiträge      --     Beiträge als RSS-Feed