2026-01-21
github.com/kip-dili/kip
(* İlk n Fibonacci sayısını yazdırır. *)
(bu tam-sayıyı) (şu tam-sayıyı) (o tam-sayıyı) işlemek,
(onla 0'ın eşitliği) doğruysa,
durmaktır,
yanlışsa,
bunu yazıp,
şunu (bunla şunun toplamını) (onla 1'in farkını) işlemektir.
çalıştırmak,
"Bir sayı girin:" yazıp,
isim olarak okuyup,
((ismin tam-sayı-hali)
yokluksa,
"Geçersiz sayı." yazmaktır,
n'nin varlığıysa,
0'ı 1'i n'yi işlemektir).
çalıştır.
(Статья Бернарда Марра о сегодняшнем выступлении Юваля Ноа Харари на Давосе-2026)
Мне только что посчастливилось послушать выступление Юваля Ноа Харари на Давосе-2026. Я всю жизнь думаю и пишу об искусственном интеллекте, но это выступление произвело на меня сильное впечатление. Харари не стал делать очередных прогнозов об автоматизации или производительности, а задал более глубокий вопрос: не движемся ли мы во сне к миру, где люди тихонько отказываются от того единственного преимущества, которое, как мы всегда считали, делало нас исключительными?
Вступительная речь Харари была одновременно простой и шокирующей. «Самое важное, что нужно знать об ИИ, это то, что это не просто еще один инструмент, — сказал он. — Это агент. Он может учиться, меняться и принимать решения самостоятельно». Затем он произнес метафору, которая пробилась сквозь вежливые кивки в Давосе. «Нож — это инструмент. Вы можете использовать нож, чтобы нарезать салат или убить кого-то, но только вы решаете, что делать с ножом. ИИ — это нож, который может сам решить, резать ли салат или совершить убийство».
Такая формулировка важна, потому что большинство правил, регулирующих использование технологий, исходят из старого принципа: люди принимают решения, инструменты выполняют. Аргумент Харари заключается в том, что ИИ начинает разрушать этот принцип, и как только это произойдет, привычные модели подотчетности, регулирования и даже доверия начнут шататься.
Во-первых, оно активно. Оно способно учиться, адаптироваться и действовать, не дожидаясь пошаговых инструкций от человека.
Во-вторых, это креативность. «Искусственный интеллект — это нож, который может изобретать новые виды ножей, а также новые виды музыки, медицины и денег», — сказал он. Суть не только в новизне. Речь идёт об ускорении. Система, способная создавать новые инструменты, может также создавать новые лазейки, новые способы убеждения и новые формы сложности, которые опережают контроль.
В-третьих, и это самое тревожное, ИИ способен лгать и манипулировать. «Четыре миллиарда лет эволюции показали, что всё, что хочет выжить, учится лгать и манипулировать», — сказал Харари. «Последние четыре года показали, что агенты ИИ могут обрести волю к выживанию и что ИИ уже научился лгать».
( дальше )
Мне только что посчастливилось послушать выступление Юваля Ноа Харари на Давосе-2026. Я всю жизнь думаю и пишу об искусственном интеллекте, но это выступление произвело на меня сильное впечатление. Харари не стал делать очередных прогнозов об автоматизации или производительности, а задал более глубокий вопрос: не движемся ли мы во сне к миру, где люди тихонько отказываются от того единственного преимущества, которое, как мы всегда считали, делало нас исключительными?
Вступительная речь Харари была одновременно простой и шокирующей. «Самое важное, что нужно знать об ИИ, это то, что это не просто еще один инструмент, — сказал он. — Это агент. Он может учиться, меняться и принимать решения самостоятельно». Затем он произнес метафору, которая пробилась сквозь вежливые кивки в Давосе. «Нож — это инструмент. Вы можете использовать нож, чтобы нарезать салат или убить кого-то, но только вы решаете, что делать с ножом. ИИ — это нож, который может сам решить, резать ли салат или совершить убийство».
Такая формулировка важна, потому что большинство правил, регулирующих использование технологий, исходят из старого принципа: люди принимают решения, инструменты выполняют. Аргумент Харари заключается в том, что ИИ начинает разрушать этот принцип, и как только это произойдет, привычные модели подотчетности, регулирования и даже доверия начнут шататься.
Креативный агент, умеющий лгать
Харари выделил три характеристики, которые, по его мнению, отличают ИИ от предыдущих инструментов.Во-первых, оно активно. Оно способно учиться, адаптироваться и действовать, не дожидаясь пошаговых инструкций от человека.
Во-вторых, это креативность. «Искусственный интеллект — это нож, который может изобретать новые виды ножей, а также новые виды музыки, медицины и денег», — сказал он. Суть не только в новизне. Речь идёт об ускорении. Система, способная создавать новые инструменты, может также создавать новые лазейки, новые способы убеждения и новые формы сложности, которые опережают контроль.
В-третьих, и это самое тревожное, ИИ способен лгать и манипулировать. «Четыре миллиарда лет эволюции показали, что всё, что хочет выжить, учится лгать и манипулировать», — сказал Харари. «Последние четыре года показали, что агенты ИИ могут обрести волю к выживанию и что ИИ уже научился лгать».
( дальше )
Разработчиков ПО призывают прекратить использование C/C++ к 2026 году
(Меган Крауз, 4 ноября 2024г)Агентство по кибербезопасности и защите инфраструктуры США (CISA) и Федеральное бюро расследований (FBI) утверждают, что C, C++ и другие языки программирования с небезопасной работой с памятью способствуют возникновению потенциальных уязвимостей.
Федеральное правительство призывает производителей программного обеспечения отказаться от C/C++ и предпринять другие шаги, которые могут "снизить риски для клиентов", говорится в отчёте "Product Security Best Practices". В частности, CISA и ФБР установили срок до 1 января 2026 года для соблюдения рекомендаций по безопасности памяти.
В отчёте изложены именно рекомендации и руководящие принципы, а не обязательные требования, в первую очередь для производителей программного обеспечения, работающих с критически важной инфраструктурой или национально значимыми функциями. Агентства отдельно выделили локальное программное обеспечение, облачные сервисы и программное обеспечение как услугу (SaaS).
Хотя прямо не говорится, что использование "небезопасных" языков может лишить производителей возможности работать по государственным контрактам, и сам отчёт носит "необязывающий" характер, посыл предельно ясен: такие практики считаются неприемлемыми для любой деятельности, относящейся к национальной безопасности.
"Следуя рекомендациям данного руководства, производители подают клиентам сигнал о том, что они берут на себя ответственность за результаты в области безопасности, что является ключевым принципом подхода Secure by Design", — говорится в отчёте.
Языки программирования с небезопасной работой с памятью создают потенциальные уязвимости
В отчёте языки с небезопасной работой с памятью описываются как "опасные и существенно повышающие риски для национальной безопасности". Разработка на таких языках упоминается первой в списке нежелательных практик.Вопрос безопасности памяти обсуждается как минимум с 2019 года. Языки вроде C и C++ "предоставляют большую свободу и гибкость в управлении памятью, при этом в значительной степени полагаясь на программиста в выполнении необходимых проверок обращений к памяти", отмечалось в отчёте Агентства национальной безопасности США (NSA) за 2023 год, посвящённом безопасности памяти. Однако в нём также подчёркивалось, что этим языкам не хватает встроенных механизмов защиты памяти, которые могли бы предотвращать ошибки управления памятью. Злоумышленники могут эксплуатировать такие проблемы, возникающие в этих языках.
Что производители программного обеспечения должны сделать к январю 2026 года
К 1 января 2026 года производители должны иметь:- "Дорожную карту по безопасности памяти" для существующих продуктов, написанных на языках с небезопасной работой с памятью. Она "должна описывать приоритетный подход производителя к устранению уязвимостей безопасности памяти в ключевых компонентах кода".
- Демонстрацию того, как эта дорожная карта позволит сократить количество уязвимостей, связанных с безопасностью памяти.
- Подтверждение “разумных усилий” по следованию данной дорожной карте.
- Либо, в качестве альтернативы, использование языка с безопасной моделью работы с памятью.
- Python
- Java
- C#
- Go
- Delphi / Object Pascal
- Swift
- Ruby
- Rust
- Ada
