Создатель C++ раскритиковал навязывание безопасных языков программирования
Бьёрн Страуструп опубликовал возражения против выводов, сделанных в отчёте АНБ. В нем организациям было рекомендовано отойти от использования языков программирования С и С++, перекладывающих управление памятью на разработчика. Агенство предложило сделать выбор в пользу C#, Go, Java, Ruby, Rust и Swift, поскольку эти языки обеспечивают автоматическое управление памятью или выполняют проверки безопасной работы с памятью во время компиляции.
По мнению Страуструпа, упомянутые в отчёте АНБ безопасные языки, на деле не превосходят C++. В частности, развиваемые последние годы базовые рекомендации по использованию C++ (C++ Core Guidelines), охватывают методы безопасного программирования и предписывают применение средств, гарантирующих безопасную работу с типами и ресурсами. При этом разработчикам, которым не требуются подобные строгие гарантии безопасности, предоставляется возможность продолжения использования старых методов разработки.
Страуструп считает, что хороший статический анализатор, соответствующий рекомендациям C++ Core Guidelines, может обеспечить необходимые гарантии безопасности C++ кода. И при этом требует значительно меньше затрат, чем переход на новые безопасные языки программирования. Например, большинство рекомендаций Core Guidelines уже реализованы в статическом анализаторе и профиле безопасной работы с памятью из состава Microsoft Visual Studio. Часть рекомендаций также учтена в статическом анализаторе Clang tidy.
Объектом критики также стало акцентирование отчёта АНБ только на проблемах работы с памятью, оставляя без внимания многие другие проблемы языков программирования. Страуструп рассматривает безопасность как более широкое понятие, различные грани которого могут быть достигнуты комбинацией стиля написания кода, библиотек и статических анализаторов. Для управления включением правил, обеспечивающих безопасность работы с типами и ресурсами, предлагается использовать аннотации в коде и опции компиляторов.
В приложениях, в которых производительность важнее безопасности, подобный подход даёт возможность выборочного применения средств, гарантирующих безопасность только там, где это необходимо. Инструменты повышения безопасности также можно применять частично. Например, вначале ограничиться правилами проверки диапазонов и инициализации, а затем постепенно адаптировать код для более строгих требований.
Google обратилась за помощью к Ларри Пейджу и Сергею Брину. В компании ищут симметричный ответ ChatGPT
В компании признали угрозу нового чат-бота для 149-миллиардного поискового бизнеса Google.
В прошлом месяце основатели Google провели несколько встреч с руководителями компании. Сундар Пичаи попросил Ларри Пейдж и Сергея Брина включиться в обсуждение мер, которые может предпринять компания в ответ на развитие ChatGPT.
Пейдж и Брин оставили свои должности в компании в 2019 году и придерживались политики невмешательства, занимаясь собственными проектами, например стартапом летающих автомобилей. Но сейчас им пришлось включиться в рабочие процессы и пересмотреть стратегию Google в области AI. Основатели одобрили новые планы и предложили идеи по добавлению дополнительных функций чат-бота в поисковую систему Google.
В результате, Google развернул работу над более чем 20 AI-проектами. Например, на конференции Google в мае ожидается презентация Image Generation Studio, которая создаёт и редактирует изображения, и функцию «зелёного экрана» для создания фонов на YouTube. Кроме того, в работе два инструмента для генерации кода: Colab + Android Studio и PaLM-Coder 2. Чтобы успеть к маю, компания ввела ускоренный процесс проверки, названный инициативой «Зелёная полоса»: группы сотрудников, которые обеспечивают справедливость и этичность технологии, буквально подталкивают быстрее одобрять AI-проекты.
Apple разрешила опубликовать исходный код Lisa OS 3.1
Коммерческий компьютер с графическим интерфейсом Apple Lisa несколько дней назад отметил 40-летний юбилей. В честь этого события Apple разрешила Музею компьютерной истории опубликовать исходный код Lisa OS версии 3.1.
Получить доступ к нему можно на сайте музея, согласившись с некоторыми базовыми ограничениями и соглашением на использование ОС.
Apple Lisa не был первым компьютером с графическим интерфейсом. По данным музея, в 1970-х годах исследовательское подразделение Xerox PARC представило первый графический интерфейс на Smalltalk на компьютере Xerox Alto, оснащённом трёхкнопочной мышью. Кроме того, компания разработала саму концепцию графического интерфейса — WIMP (Windows, Icons, Menus, Pointers).
В 1979 году делегация Apple Computer во главе со Стивом Джобсом посетила PARC и ознакомилась с демонстрационной версией интерфейса. Увидев его, Джобс оценил возможный потенциал нового способа взаимодействия с компьютером. К сожалению, на тот момент Xerox не продвигала технологию широкой публике. Вскоре после визита в PARC этим занялась Apple.
Apple Lisa, согласно данным музея, назван в честь дочери Стива Джобса Лизы Бреннан. Аббревиатура расшифровывается как — Local Integrated Systems Architecture. Считается, что она придумана позже для избежания прямых ассоциаций с дочерью Джобса.
Lisa OS обладала кучей интересных для своего времени возможностей, например, перекрывающимися окнами и возможностью перемещать и копировать файлы при помощи мыши. Кроме того, в ОС входил комплект программ для работы с различными документами, графикой, БД и не только. При этом многозадачность ОС была слишком тяжёлой для установленного в компьютере процессора Motorola 68K, поэтому система работала медленно.
Linux Foundation создаст платформу метавселенной с открытым исходным кодом
Как заявили в организации, проект под названием Open Metaverse Foundation обеспечит пространство для совместной разработки программного обеспечения с открытым исходным кодом и стандартов для инклюзивной, глобальной, независимой и масштабируемой метавселенной.
К разработке уже присоединились Cloud Native Computing Foundation, Futurewei, GenXP, Гуандунский научно-исследовательский институт цифровой промышленности и другие организации.
Фонд Open Metaverse организован в группы по интересам, которые принимают решения по ключевым темам. В рамках этих групп заработали ресурсы и форумы, которые привлекают участников из конкретных областей. Всего их восемь:
- пользователи,
- транзакции,
- цифровые активы,
- моделирование и виртуальные миры,
- искусственный интеллект,
- нетворкинг,
- безопасность и конфиденциальность,
- законодательство и политика.
Также, уже работают сайт и сообщество Open Metaverse Foundation в Discord. 10–12 мая в Ванкувере пройдёт мероприятие Open Source Summit North America, где участники также будут делиться своими идеями по поводу проекта.
GitHub с 8 января 2024 года прекратит поддержку системы управления версиями Subversion
Впервые возможность работать с Subversion GitHub представил в 2010 году. Тогда централизованные системы контроля версий были очень распространены. Однако ситуация менялась, росла популярность распределенных систем, и сейчас доминирующее положение получила Git. По данным Stack Overflow, в 2022 году 94% разработчиков применяли Git, и только 5% – Subversion.
В GitHub решили полностью сосредоточиться на развитии Git, потому и объявили о прекращении поддержки системы Subversion.
Полное отключение произойдет после 8 января 2024 года, однако в конце 2023 года сервис произведет ряд тестовых отключений – на несколько часов и на целый день. Следующая версия GitHub Enterprise Server, которая будет выпущена после 8 января, также выйдет без поддержки Subversion.
Google сворачивает большинство проектов в своём инкубаторе Area 120
В Area 120 разрабатывалось около 20 новых идей одновременно. Теперь 3 проекта до конца года будут присоединены к основным продуктовым подразделениям Google, а остальные закроют.
События в Area 120 стали частью радикальных сокращений в Google, которые затронут 12 тыс. человек из 187 тыс. работающих в компании.
Работа над какими именно проектами будет остановлена, представители Google не сообщают. Но TechCrunch, ссылаясь на свой источник, сообщил, что, скорее всего, Aloud, который разрабатывает платформу для расшифровки, перевода и озвучивания видео, продолжит работу.
Microsoft закрывает проект AltspaceVR
Microsoft представила платформу AltspaceVR в 2013 году. Тогда компания планировала развивать VR-пространство для общения пользователей, игр и знакомств. В своем блоге корпорация рассказала, что вкладывала в проект много сил и старалась сделать из него мощный инструмент социального взаимодействия.
Сейчас Microsoft планирует улучшить опыт взаимодействия пользователей в виртуальном пространстве и хочет обеспечить более безопасную и доступную среду. Для этого было принято решение закрыть AltspaceVR и переключить внимание и силы команды разработчиков на Microsoft Mesh.
Пользователей предупредили, что AltspaceVR проработает до 10 марта 2023 года. Также компания напомнила, что в разделе AltspaceVR My Data можно получить доступ к своим данным внутри платформы и сохранить их локально.
Что касается Microsoft Mesh, то он представляет собой VR-пространство для совместной работы, учёбы и развлечения. Пользователи могут подключаться к виртуальной вселенной практически с любых устройств, включая мобильные гаджеты, компьютеры, VR-шлемы и фирменные гарнитуры HoloLens 2. Также у Mesh есть интеграция с Microsoft Teams, позволяющая использовать виртуальный аватар в групповых звонках.
Глава OpenAI рассказал, что компания выпустит инструмент для обнаружения генеративного текста ChatGPT
Сэм Альтман, генеральный директор OpenAI, рассказал, что в ближайшее время компания представит инструменты для обнаружения текста сгенерированного нейросетью в работах школьников.
При этом Альтаман отметил, что не гарантирует полностью рабочее решение, которое будет обнаруживать нейросеть в 100% случаев.
Генеральный директор не считает, что надо ограничивать работу ChatGPT. По его мнению, людям надо принять факт появления нейросетей и научиться работать с ними. В интервью он привёл пример, что после появления калькуляторов школам пришлось изменить подход к преподаванию математики и тестированию учеников. Весь этот процесс прошёл без запрета калькуляторов на законодательном уровне.
OpenAI использовала кенийских работников за $2 в час, чтобы сделать ChatGPT менее токсичным
Time опубликовало расследование, посвящённое условиям работы кенийских фрилансеров, которые фильтровали десятки тысяч строк текста за $1,5 — $2 в час. Как отмечает издание, «похоже, большая часть этого текста была извлечена из самых тёмных уголков Интернета». Работников нанимали через компанию-посредника Sama для OpenAI, и они маркировали и отфильтровывали «токсичный контент» с описаниями насилия из набора обучающих данных ChatGPT.
Документы, попавшие в руки журналистов Time, раскрывают, что в конце 2021 года OpenAI подписала с Sama три контракта на общую сумму почти в $200 тыс. для маркировки текстовых описаний насилия и призывов к ненависти. Sama наняла около трёх десятков кенийских работников, которые за девятичасовую смену должны были прочитать и отметить от 150 до 250 отрывков подобных текстов.
Четверо кенийских сотрудников, согласившихся ответить на вопросы журналистов, рассказали, что эта работа их морально травмировала, и одного из них довела до «повторяющихся видений». Хотя они имели право посещать занятия с «консультантами по здоровью», все четверо сказали, что эти занятия были бесполезными и редкими из-за высоких требований к производительности труда.
Травматичный характер работы в конечном итоге привёл к тому, что Sama свернула сотрудничество с OpenAI в феврале 2022 года, на восемь месяцев раньше, чем планировалось.
В контрактах утверждалось, что OpenAI будет платить Sama почасовую ставку в размере $12,50, что в разы больше суммы, которую выплачивали кенийским работникам. Среднее вознаграждение тех не превышало $170 в месяц, плюс ещё $70 они получали за «вредный характер работы».
Позже представитель Sama выступил с заявлением, что работников просили маркировать 70 фрагментов текста за девятичасовую смену, а не 250, и что они могли зарабатывать от $1,5 до почти $4 в час после вычета налогов. «Ставка в размере $12,50 покрывает все расходы, такие как расходы на инфраструктуру, а также заработную плату и льготы для сотрудников и их полностью преданных своему делу аналитиков по обеспечению качества и руководителей групп», — добавил представитель.
Sama базируется в Сан-Франциско и нанимает работников в Кении, Уганде и Индии для маркировки данных для клиентов из Кремниевой долины. Sama позиционирует себя как компанию, занимающуюся «этическим искусственным интеллектом», и утверждает, что помогла вывести из бедности более 50 тыс. человек. В феврале прошлого года вышло ещё одно расследование Time: в нём рассказывалось, как Sama наняла в Африке фрилансеров по заказу Facebook, и их работа заключалась в просмотре контента, содержащего сцены жестокости, за $1,5 в час.
Объясняя цели своего расследования, Time пишет, что несмотря на всю свою привлекательность, AI часто полагается на скрытый человеческий труд, который может оборачиваться эксплуатацией. И все эти невидимые работники остаются на обочине, даже несмотря на то, что их работа вносит вклад в миллиардные отрасли.
Тестовое задание, выполненное ChatGPT, обмануло рекрутеров
Нейросеть справилась с задачей лучше, чем 80% соискателей вакансии в коммуникационно-консалтинговой компании Schwa. В результате рекрутеры, использующие, кстати, AI-инструменты для отбора специалистов, рекомендовали пригласить на «живое собеседование» неизвестного претендента, за которым скрывался ChatGPT. Нил Тейлор, основатель Schwa, таким образом проверял работу своих HR’ов и ПО для найма.
Тестовое задание предлагало описать основные критерии хорошего текста. По признанию Тейлора и его сотрудников, эссе ChatGPT продемонстрировало компетентность в копирайтинге и контент-маркетинге. Вот, например, несколько предложений из этого текста: «Секрет хорошего письма прост: расскажите хорошую историю. По своей сути писательство — это общение и связь с вашей аудиторией. И лучший способ достичь этого — рассказать историю, которая найдёт отклик. Написать хороший текст — больше, чем просто связать воедино кучу слов и надеяться, что они приживутся».
Справедливости ради, стоит добавить, что изначальная работа ChatGPT была забракована Тейлором и он дополнительно забрифовал AI, посоветовав переписать текст в стиле американского писателя Дэйва Тротта. Второй вариант текста и произвёл впечатление на рекрутеров.
Эксперимент Тейлора повторила Беатрис Нолан из Insider. Она использовала ChatGPT, чтобы написать два сопроводительных письма для соискателей должностей ассистента по работе с соцсетями и делопроизводителя. А после попросила двух профессиональных рекрутеров оценить их. Оба сказали, что авторы таких писем получат приглашение на собеседование, и оба признали, что этим письмам не хватает индивидуальности.