#45 PRASÓWKA: Intel haltuje inwestycję w Polsce, oszuści próbują dorobić się na powodzi, Chiny restrykcyjnie regulują treści generowane, OpenAI chwali się ryzykiem stwarzanym przez swoje modele
Najważniejsze informacje ze świata cyfrowego na dzień 17 września 2024 r.
Dzień dobry!
To kolejne wydanie codziennej prasówki TECHSPRESSO.CAFE, która ukazuje się w wolnym dostępie dla wszystkich. Oprócz tego, w sobotę opublikowane zostanie kolejne wydanie newslettera analitycznego - dla społeczności Patronów TECHSPRESSO.CAFE.
Będzie mi bardzo miło, jeśli zechcesz wesprzeć moją działalność na Patronite, lub poprzez wykupienie subskrypcji na Substacku. Piszę dla Was teksty w serwisie TECHSPRESSO.CAFE i nagrywam swój podcast a także prowadzę Instagram z newsami tworząc niezależne media o tematyce technologiczno-społecznej tylko i wyłącznie dzięki swoim czytelnikom - nie biorę pieniędzy ani od wielkich firm technologicznych, ani od polityków.
#45 Prasówka TECHSPRESSO.CAFE - 17 września 2024 r.:
Intel wciska pauzę na inwestycjach w Europie - konkretniej, w Polsce i w Niemczech. Wstępnie na dwa lata. Tak oto szumnie zapowiadane przez rządy Zjednoczonej Prawicy oraz Kordonowej Koalicji plany nie ziszczą się - Intel ma problemy finansowe. Osobiście mam jedno pytanie: czy CEO Intela rzeczywiście przekazał informacje o decyzji firmy urzędnikom obecnego rządu osobiście, czy też MC dowiedziało się o tym z tej oto notatki, którą tutaj wszystkim linkuję - a która została opublikowana na krótko przed komunikatem ze strony wicepremiera i ministra cyfryzacji? Pytam z dziennikarskiej, lekko złośliwej ciekawości. Komunikat Intela możecie przeczytać pod tym adresem.
Gdzie są klęski i cierpienie, tam jest chęć pomocy, ale i oszuści oraz dezinformacja. Nie inaczej jest i tym razem, w przypadku powodzi na Dolnym Śląsku. Cyberprzestępcy wykorzystują dobrze znany arsenał. Mamy więc fałszywe linki do social mediów wyłudzające dane do logowania, fałszywe alerty RCB i fałszywe zbiórki. Wszystko zebrał i pokazał jak na dłoni serwis Niebezpiecznik. Więcej przeczytasz na jego stronie.
Thierry Breton odchodzi i nie będzie już unijnym komisarzem ds. wewnętrznego rynku. Breton od dawna ścierał się z Ursulą von der Leyen, która została przewodniczącą KE na drugą kadencję. Był też twarzą regulacji dotyczących nowych technologii oraz ścigania platform za ich nieprzestrzeganie - to jego głos wybrzmiewał, gdy mowa była np. o podejrzeniach pierwszych naruszeń Aktu o usługach cyfrowych choćby przez należący do Elona Muska serwis X (Twitter). Francja zaproponowała na jego stanowisko obecnego ministra spraw zagranicznych Stephane’a Sejourne’a, należącego do obozu macronistów. Osobiście uważam, że odejście Bretona to dobra informacja - podejście do regulacji technologicznych w UE wymaga mniej urzędniczego, a bardziej realistycznego podejścia. Wiem też oczywiście, że jedno stanowisko i komisarz na nim tego nie zmieni. Więcej na ten temat przeczytasz w depeszy agencji Reutera.
Chiny proponują bardzo restrykcyjne regulacje dotyczące oznaczania treści generowanych przez sztuczną inteligencję. Chińska Administracja Cyberprzestrzeni (CAC) w sobotę opublikowała wstępną wersję przepisów, z której wynika, że platformy i usługi online będą musiały oznaczać treści generowane przez AI zarówno w przypadku grafik, jak i nagrań audio-video. Oznaczenia mają być widoczne i słyszalne, słowem - percypowalne dla użytkowników. Informacje o tym, że treści są generowane, mają być też zawarte w metadanych. W przypadku wizualiów jak i nagrań, komunikat informacyjny ma pojawiać się w kilku miejscach. Zobowiązani do informowania, że umieszczają treści generatywne, będą także użytkownicy internetu. Dodatkowo, jeśli korzystają do generowania treści z platform oferujących taką możliwość, muszą być zalogowani w sposób umożliwiający identyfkację konkretnej osoby i powiązanie z nią wytwarzanych materiałów, a dane o tej aktywności przechowywane będą przez pół roku. Więcej na ten temat przeczytasz w serwisie Register.
OpenAI Samuela Altmana chwali się ryzykiem, które stwarzają nowe modele o1 tej firmy, zwiększając prawdopodobieństwo użycia ich np. do prac nad bronią biologiczną. Celowo piszę: chwali się, bo od pewnego czasu ostrzeżenia wydawane przez firmę Altmana brzmią jak sprawny marketing, mający zakomunikować odbiorcom: patrzcie, nasz produkt jest tak zaawansowany, że można z jego użyciem wyrządzić całe zło, którego się obawiacie. Słowem, jeśli przekona się opinię publiczną, że produkt spółki to ten koszmar z filmów science-fiction, którego zawsze wszyscy się bali, to akcje pójdą w górę, dosłownie i w przenośni. Modele o1 mają mieć nowe możliwości w zakresie wnioskowania, rozwiązywania trudnych zadań obliczeniowych, a także odpowiadania na pytania dotyczące nauki i badań. Według OpenAI, stanowią “średnie ryzyko” w obszarach takich, jak praca nad bronią biologiczną, chemiczną, radiologiczną i nuklearną (najwyższy stopień ryzyka, jaki firma pozwala mieć swoim produktom). Więcej na ten temat przeczytasz w dzienniku “Financial Times”.
To wszystko na dziś; do przeczytania jutro!
Gosia Fraser