Мы в соціальних мережах

Facebook

Showreel

Video

Дубль Жезуса приніс Арсеналу перемогу над Інтером

07:38:50

Команди влаштували яскравий початок. До середини першого тайму вони встигли обмінятися забитими м'ячами. На 10-й хвилині Жезус вдало зіграв на добиванні, а Сучіч на 18-й хвилині з відскоку влучив під поперечину. Далі ледь не вийшли вперед "нерадзуррі". Але після удару Тюрама м'яч пролетів над воротами. Натомість Арсенал скористався своїм шансом - Троссар після кутового влучив у каркас воріт, а Жезус підправив м'яч у порожні. Новий сплеск активності стався на початку другого тайму. З ударом Езе впорався голкіпер Інтера, в той час як Троссар пробив повз ворота. Відповідно, Тюрам перевірив реакцію Раю дальнім пострілом, а Еспозіто з розвороту надіслав м'яч поруч зі стійкою. Під кінець матчу добив пострілом у дев'ятку Йокерес. Команда Крістіана Ківу зазнала третьої поразки поспіль і випала з верхньої вісімки (12 очок). Натомість Арсенал продовжує мати 100-відсотковий результат (21 бал).

Вчені попередили про небезпеку надрозумного ШІ

00:05:12

  Команда вчених, в тому числі з Центру людей і машин Інституту розвитку людини Макса Планка, прийшла до висновку, що людство не зможе тримати під контролем штучний суперінтелект, навіть якщо прийме для цього всі можливі заходи. Стаття з відповідними висновками була опублікована в Journal of Artificial Intelligence Research, повідомляє  EurekAlert .     "Надрозумна машина, яка керує світом - звучить як наукова фантастика. Але вже є роботи, що виконують певні важливі завдання незалежно. При цьому програмісти взагалі не розуміють, як вони цього навчилися. В результаті, виникає питання: чи може цей процес в якийсь момент стати неконтрольованим і небезпечним для людства?" - підкреслив один з авторів дослідження Мануель Себріан.   Пройшовши через безліч алгоритмів і сценаріїв, дослідники прийшли до висновку, що повністю контролювати надрозумний ШІ неможливо.   Навіть якщо закласти в суперрозумну машину дані про етичні принципи і обмежити її зв'язки із зовнішнім світом (наприклад, відключити доступ в інтернет), це не врятує людство від ризиків того, що подібна система вийде з-під контролю.   Раніше про небезпеку ШІ попереджали американський бізнесмен Ілон Маск і фізик Стівен Гокінг.       Новини від  Корреспондент.net  у Telegram. Підписуйтесь на наш канал  https://t.me/korrespondentnet