31.01.2023
31 хвилин перегляду

Новини ІТ від 31.01.2023

Сергій Немчинський
<strong>Новини ІТ від 31.01.2023</strong>

Автор C++ розкритикував нав’язування безпечних мов програмування⁠⁠

 

Бйорн Страуструп опублікував заперечення проти висновків, зроблених у звіті АНБ. У ньому організаціям було рекомендовано відійти від використання мов програмування С і С++, що перекладають управління пам’яттю на розробника. Агенство запропонувало зробити вибір на користь C#, Go, Java, Ruby, Rust та Swift, оскільки ці мови забезпечують автоматичне керування пам’яттю або виконують перевірки безпечної роботи з пам’яттю під час компіляції.

 

На думку Страуструпа, згадані у звіті АНБ безпечні мови, насправді не перевершують C++. Зокрема, базові рекомендації щодо використання C++, що розвиваються останні роки (C++ Core Guidelines), охоплюють методи безпечного програмування та застосування засобів, що гарантують безпечну роботу з типами та ресурсами. При цьому розробникам, яким не потрібні такі суворі гарантії безпеки, надається можливість продовження використання старих методів розробки.

 

Страуструп вважає, що хороший статичний аналізатор, який відповідає рекомендаціям C++ Core Guidelines, може забезпечити необхідні гарантії безпеки C++ коду. І при цьому вимагає значно менше витрат, аніж перехід на нові безпечні мови програмування. Наприклад, більшість рекомендацій Core Guidelines вже реалізовані у статичному аналізаторі та профілі безпечної роботи з пам’яттю зі складу Microsoft Visual Studio. Частина рекомендацій також врахована у статичному аналізаторі Clang Tidy.

 

Об’єктом критики також стало акцентування звіту АНБ лише на проблемах роботи з пам’яттю, залишаючи поза увагою багато інших проблем мов програмування. Страуструп розглядає безпеку як ширше поняття, різні грані якого можна досягти комбінацією стилю написання коду, бібліотек і статичних аналізаторів. Для керування включенням правил, що забезпечують безпеку роботи з типами та ресурсами, пропонується використовувати анотації в коді та опції компіляторів.

 

У додатках, в яких продуктивність важливіша за безпеку, подібний підхід дає можливість вибіркового застосування засобів, що гарантують безпеку тільки там, де це необхідно. Інструменти підвищення безпеки також можна використовувати частково. Наприклад, спочатку обмежитися правилами перевірки діапазонів та ініціалізації, а потім поступово адаптувати код для суворіших вимог.

 

Google звернулася за допомогою до Ларрі Пейджа і Сергія Бріна. У компанії шукають симетричну відповідь ChatGPT

 

У компанії визнали загрозу нового чат-бота для 149-мільярдного пошукового бізнесу Google.

 

Минулого місяця засновники Google провели кілька зустрічей із керівниками компанії. Сундар Пічаї попросив Ларрі Пейджа та Сергія Бріна включитися в обговорення заходів, які може вжити компанія у відповідь на розвиток ChatGPT.

 

Пейдж і Брін залишили свої посади в компанії в 2019 році і дотримувалися політики невтручання, займаючись власними проектами, наприклад, стартапом автомобілів, що літають. Але зараз їм довелося включитися в робочі процеси та переглянути стратегію Google в галузі AI. Засновники схвалили нові плани та запропонували ідеї щодо додавання додаткових функцій чат-бота до пошукової системи Google.

 

В результаті Google розгорнув роботу над більш ніж 20 AI-проектами. Наприклад, на конференції Google у травні очікується презентація Image Generation Studio, яка створює та редагує зображення, та функцію «зеленого екрана» для створення фонів на YouTube. Крім того, у роботі два інструменти для генерації коду: Colab + Android Studio та PaLM-Coder 2. Щоб встигнути до травня, компанія ввела прискорений процес перевірки, названий ініціативою «Зелена смуга»: групи співробітників, які забезпечують справедливість та етичність технології, буквально підштовхують швидше схвалювати AI-проекти.

 

Apple дозволила опублікувати вихідний код Lisa OS 3.1

 

Комерційний комп’ютер із графічним інтерфейсом Apple Lisa кілька днів тому відзначив 40-річний ювілей. На честь цієї події Apple дозволила Музею комп’ютерної історії опублікувати вихідний код версії Lisa OS 3.1.

 

Отримати доступ до нього можна на сайті музею, погодившись із деякими базовими обмеженнями та угодою на використання ОС.

 

Apple Lisa не був першим комп’ютером із графічним інтерфейсом. За даними музею, у 1970-х роках дослідницький підрозділ Xerox PARC представив перший графічний інтерфейс на Smalltalk на комп’ютері Xerox Alto, оснащеному трикнопковою мишею. Крім того, компанія розробила саму концепцію графічного інтерфейсу – WIMP (Windows, Icons, Menus, Pointers).

 

В 1979 делегація Apple Computer на чолі зі Стівом Джобсом відвідала PARC і ознайомилася з демонстраційною версією інтерфейсу. Побачивши його, Джобс оцінив можливий потенціал нового способу взаємодії з комп’ютером. На жаль, на той момент Xerox не просувала технологію широкому загалу. Незабаром після візиту до PARC цим зайнялася Apple.

 

Apple Lisa, згідно з даними музею, названо на честь дочки Стіва Джобса Лізи Бреннан. Абревіатура розшифровується як Local Integrated Systems Architecture. Вважається, що вона вигадана пізніше для уникнення прямих асоціацій з дочкою Джобса.

 

Lisa OS володіла купою цікавих для свого часу можливостей, наприклад, вікнами, що перекриваються, і можливістю переміщати і копіювати файли за допомогою миші. Крім того, до ОС входив комплект програм для роботи з різними документами, графікою, БД і не тільки. При цьому багатозадачність ОС була надто важка для встановленого в комп’ютері процесора Motorola 68K, тому система працювала повільно.

 

Linux Foundation створить платформу метавсесвіту з відкритим вихідним кодом

 

Як заявили в організації, проект під назвою Open Metaverse Foundation забезпечить простір для спільної розробки програмного забезпечення з відкритим вихідним кодом і стандартів для інклюзивного, глобального, незалежного і масштабованого метавсесвіту.

 

До розробки вже приєдналися Cloud Native Computing Foundation, Futurewei, GenXP, Гуандунський науково-дослідний інститут цифрової промисловості та інші організації.

 

Фонд Open Metaverse організований до груп за інтересами, які приймають рішення на ключові теми. В рамках цих груп запрацювали ресурси та форуми, які залучають учасників із конкретних областей. Усього їх вісім:

  • користувачі,
  • транзакції,
  • цифрові активи,
  • моделювання та віртуальні світи,
  • штучний інтелект,
  • нетворкінг,
  • безпека та конфіденційність,
  • законодавство та політика.

 

Також, вже працюють сайт та спільнота Open Metaverse Foundation у Discord. 10–12 травня у Ванкувері відбудеться захід Open Source Summit North America, де учасники також ділитимуться своїми ідеями щодо проекту.

 

GitHub з 8 січня 2024 року припинить підтримку системи керування версіями Subversion

 

Вперше можливість працювати з Subversion GitHub представив у 2010 році. Тоді централізовані системи контролю версій були дуже поширені. Однак ситуація змінювалася, зростала популярність розподілених систем, і зараз домінуюче становище отримала Git. За даними Stack Overflow, у 2022 році 94% розробників застосовували Git, і лише 5% – Subversion.

 

У GitHub вирішили повністю зосередитися на розвитку Git, тому оголосили про припинення підтримки системи Subversion.

 

Повне відключення відбудеться після 8 січня 2024 року, проте наприкінці 2023 року сервіс здійснить низку тестових відключень – на кілька годин та на цілий день. Наступна версія GitHub Enterprise Server, яку буде випущено після 8 січня, також вийде без підтримки Subversion.

 

Google згортає більшість проектів у своєму інкубаторі Area 120

 

В Area 120 розроблялося близько 20 нових ідей одночасно. Тепер 3 проекти до кінця року будуть приєднані до основних продуктових підрозділів Google, а решту закриють.

 

Події в Area 120 стали частиною радикальних скорочень у Google, які торкнуться 12 тис. осіб із 187 тис. працюючих у компанії.

 

Роботу над якими саме проектами буде зупинено, представники Google не повідомляють. Але TechCrunch, посилаючись на своє джерело, повідомило, що, швидше за все, Aloud, який розробляє платформу для розшифрування, перекладу та озвучування відео, продовжить роботу.

 

Microsoft закриває проект AltspaceVR

 

Microsoft представила платформу AltspaceVR у 2013 році. Тоді компанія планувала розвивати VR-простір для спілкування користувачів, ігор та знайомств. У своєму блозі корпорація розповіла, що вкладала в проект багато зусиль і намагалася зробити з нього потужний інструмент соціальної взаємодії.

 

Зараз Microsoft планує покращити досвід взаємодії користувачів у віртуальному просторі та хоче забезпечити більш безпечне та доступне середовище. Для цього було прийнято рішення закрити AltspaceVR та переключити увагу та сили команди розробників на Microsoft Mesh.

 

Користувачів попередили, що AltspaceVR пропрацює до 10 березня 2023 року. Також компанія нагадала, що у розділі AltspaceVR My Data можна отримати доступ до своїх даних усередині платформи та зберегти їх локально.

 

Що стосується Microsoft Mesh, то він є VR-простором для спільної роботи, навчання та розваг. Користувачі можуть підключатися до віртуального всесвіту практично з будь-яких пристроїв, включаючи мобільні гаджети, комп’ютери, VR-шоломи та фірмові гарнітури HoloLens 2. Також Mesh має інтеграцію з Microsoft Teams, що дозволяє використовувати віртуальний аватар у групових дзвінках.

 

Глава OpenAI розповів, що компанія випустить інструмент для виявлення генеративного тексту ChatGPT

 

Сем Альтман, генеральний директор OpenAI, розповів, що найближчим часом компанія представить інструменти для виявлення тексту згенерованого нейромережею у роботах школярів.

 

При цьому Альтаман зазначив, що не гарантує повністю робоче рішення, яке виявлятиме нейромережу у 100% випадків.

 

Генеральний директор не вважає, що треба обмежувати роботу ChatGPT. На його думку, людям треба прийняти факт появи нейромереж та навчитися працювати з ними. В інтерв’ю він навів приклад, що після появи калькуляторів школам довелося змінити підхід до викладання математики та тестування учнів. Весь цей процес пройшов без заборони калькуляторів на законодавчому рівні.

 

OpenAI використовувала кенійських працівників за $2 на годину, щоб зробити ChatGPT менш токсичним

 

Time опублікувало розслідування, присвячене умовам роботи кенійських фрілансерів, які фільтрували десятки тисяч рядків тексту за $1,5 — $2 за годину. Як зазначає видання, «схоже, більшу частину цього тексту було вилучено з темних куточків Інтернету». Працівників наймали через компанію-посередника Sama для OpenAI, і вони маркували та відфільтровували «токсичний контент» з описами насильства з набору навчальних даних ChatGPT.

 

Документи, що потрапили до рук журналістів Time, розкривають, що наприкінці 2021 року OpenAI підписала з Sama три контракти на загальну суму майже $200 тис. для маркування текстових описів насильства та закликів до ненависті. Sama найняла близько трьох десятків кенійських працівників, які за дев’ятигодинну зміну мали прочитати та відмітити від 150 до 250 уривків подібних текстів.

 

Четверо кенійських співробітників, які погодилися відповісти на запитання журналістів, розповіли, що ця робота їх морально травмувала, і одного з них довела до «видінь, що повторюються». Хоча вони мали право відвідувати заняття з «консультантами зі здоров’я», всі четверо сказали, що ці заняття були марними та рідкісними через високі вимоги до продуктивності праці.

 

Травматичний характер роботи зрештою призвів до того, що Sama звернула співпрацю з OpenAI у лютому 2022 року, на вісім місяців раніше, ніж планувалося.

 

У контрактах стверджувалося, що OpenAI платитиме Sama погодинну ставку в розмірі $12,50, що в рази більше за суму, яку виплачували кенійським працівникам. Середня винагорода тих не перевищувала $170 на місяць, плюс ще $70 вони отримували за “шкідливий характер роботи”.

 

Пізніше представник Sama заявив, що працівників просили маркувати 70 фрагментів тексту за дев’ятигодинну зміну, а не 250, і що вони могли заробляти від $1,5 до майже $4 на годину після вирахування податків. “Ставка у розмірі $12,50 покриває всі витрати, такі як витрати на інфраструктуру, а також заробітну плату та пільги для співробітників та їх повністю відданих своїй справі аналітиків із забезпечення якості та керівників груп”, – додав представник.

 

Sama базується в Сан-Франциско та наймає працівників у Кенії, Уганді та Індії для маркування даних для клієнтів з Кремнієвої долини. Sama позиціонує себе як компанію, яка займається “етичним штучним інтелектом”, і стверджує, що допомогла вивести з бідності понад 50 тис. людей. У лютому минулого року вийшло ще одне розслідування Time: у ньому розповідалося, як Sama найняла в Африці фрілансерів на замовлення Facebook, і їхня робота полягала у перегляді контенту, що містить сцени жорстокості, за $1,5 на годину.

 

Пояснюючи цілі свого розслідування, Time пише, що незважаючи на всю свою привабливість, AI часто покладається на приховану людську працю, яка може обертатися експлуатацією. І всі ці невидимі працівники залишаються на узбіччі, навіть незважаючи на те, що їхня робота робить внесок у мільярдні галузі.

 

Тестове завдання, виконане ChatGPT, обдурило рекрутерів

 

Нейросеть справилася із завданням краще, ніж 80% претендентів на роботу в комунікаційно-консалтинговій компанії Schwa. В результаті рекрутери, які, до речі, використовують AI-інструменти для відбору фахівців, рекомендували запросити на «живу співбесіду» невідомого претендента, за яким ховався ChatGPT. Ніл Тейлор, засновник Schwa, таким чином перевіряв роботу своїх HR’ів та ПЗ для найму.

 

Тестове завдання пропонувало описати основні критерії хорошого тексту. За визнанням Тейлора та його співробітників, есе ChatGPT продемонструвало компетентність у копірайтингу та контент-маркетингу. Ось, наприклад, кілька пропозицій із цього тексту: «Секрет гарного листа простий: розкажіть добру історію. За своєю суттю письменство — це спілкування та зв’язок із вашою аудиторією. І найкращий спосіб досягти цього – розповісти історію, яка знайде відгук. Написати хороший текст — більше, ніж просто пов’язати купу слів і сподіватися, що вони приживуться».

 

Заради справедливості варто додати, що початкова робота ChatGPT була забракована Тейлором і він додатково забрифував AI, порадивши переписати текст у стилі американського письменника Дейва Тротта. Другий варіант тексту і справив враження на рекрутерів.

 

Експеримент Тейлора повторила Беатріс Нолан із Insider. Вона використовувала ChatGPT, щоб написати два супровідні листи для претендентів посад асистента по роботі з соцмережами та діловода. А потім попросила двох професійних рекрутерів оцінити їх. Обидва сказали, що автори таких листів отримають запрошення на співбесіду, і обидва визнали, що цим листам не вистачає індивідуальності.

Додати коментар

Ваш імейл не буде опубліковано. Обов'язкові поля відзначені *

Зберегти моє ім'я, імейл та адресу сайту у цьому браузері для майбутніх коментарів