Искусственный General Int ...

Какие прорывы в искусственном интеллекте сделали отдельные люди?

Любит | Нелюбов | Ответы | Вид | 5366


Кирилл Персианов к.т.н.   
@ | Обновлено Right Now


Именно Стэнфордский профессор и бывший главный научный сотрудник Google Cloud Фэй-Фэй Ли оказали большую помощь Ольге Руссаковской.

Две умные женщины изменили все в ML / AI с проектом ImageNet. Вместо алгоритмов вы должны полагаться на большую онтологию объектов и богатые наборы данных, катализатор для бума искусственного интеллекта, который мир испытывает сейчас.

If the AI boom could be attributed to a single reason, it would be the announcement of the 2012 ImageNet challenge results.

At its start, the ImageNet project failed to win any of the federal grants, receiving comments on proposals that it was shame for Princeton to research such a topic, and that the only strength of proposal was a woman.

Just by chance, after finding Mechanical Turk, the visual dataset took 2,5 years to complete. It consisted of 3.2 million labelled images, separated into 5,247 categories, sorted into 12 subtrees like “mammal,” “vehicle,” and “furniture.”

What’s ImageNet?

In the late 1980s, Princeton psychologist George Miller started a project called WordNet, with the aim of building a hierarchical structure for the English language. It would be sort of like a dictionary, but words would be shown in relation to other words rather than alphabetical order: “dog” < “canine < “mammal,” and so on. It was a way to organize language that relied on machine-readable logic, and amassed more than 155,000 indexed words.

Having read about WordNet’s approach, Li, now chief scientist at Google Cloud, a professor at Stanford, and director of the university’s AI lab, met with professor Christiane Fellbaum, who had the idea that WordNet could have an image associated with each of the words, more as a reference rather than a computer vision dataset. Coming from that meeting, Li imagined something grander—a large-scale dataset with many examples of each word.

“We’re going to map out the entire world of objects,” deciding the core tensions in machine learning: overfitting and generalization.

Li joined the Princeton faculty, her alma mater, and started on the ImageNet project (in 2007)

Latter she with coauthors published a paper: ImageNet: a Large-Scale Hierarchical Image Database.

http://www.image-net.org/papers/... (http://www.image-net.org/papers/...)

“The explosion of image data on the Internet has the potential to foster more sophisticated and robust models and algorithms to index, retrieve, organize and interact with images and multimedia data. But exactly how such data can be harnessed and organized remains a critical problem.

We introduce here a new database called “ImageNet”, a largescale ontology of images built upon the backbone of the WordNet structure.

ImageNet стремится заполнить большинство из 80 000 синтаксисов WordNet в среднем 500–1000 чистых изображений с полным разрешением. Это приведет к созданию десятков миллионов аннотированных изображений, организованных семантической иерархией WordNet. Этот документ предлагает подробный анализ ImageNet в его текущем состоянии: 12 поддеревьев с 5247 наборами и 3,2 миллиона изображений в общей сложности. Мы показываем, что ImageNet намного больше по масштабу и разнообразию и намного более точен, чем текущие наборы данных изображений. Создание такой крупномасштабной базы данных является сложной задачей. Мы описываем схему сбора данных с помощью Amazon Mechanical Turk. Наконец, мы иллюстрируем полезность ImageNet через три простых приложения для распознавания объектов, классификации изображений и автоматической кластеризации объектов. Мы надеемся, что масштаб, точность,

В 2012 году Джеффри Хинтон, Илья Суцкевер и Алекс Крижевский из Университета Торонто представили архитектуру нейронной сети с глубоким свертыванием, названную AlexNet, чтобы опередить поле на 10,8 процентных пункта, что на 41% лучше, чем у следующего лучшего.

В 2016 году Google выпустил базу данных Open Images, содержащую 9 миллионов изображений в 6000 категориях. Google недавно обновил набор данных, включив в него метки, указывающие на то, где в каждом изображении были размещены конкретные объекты, что является основной проблемой в ImageNet после 2014 года.

Сегодня многие считают ImageNet решенным - уровень ошибок невероятно низок - около 2%. Но это для классификации или определения объекта на изображении. Это не означает, что алгоритм знает свойства этого объекта, откуда он взялся, для чего он используется, кто его создал или как он взаимодействует с окружающей средой. Короче говоря, он не понимает, что видит.

Это отражается в распознавании речи и даже в большей части обработки естественного языка. В то время как наш ИИ сегодня прекрасно знает, что это такое, понимание этих объектов в контексте мира является следующим. Как туда попадут исследователи ИИ, пока неясно.

Наборы данных стали модными. Основатели стартапов и венчурные капиталисты напишут «Средние посты» с криками о последних наборах данных и о том, как их алгоритмы развивались в ImageNet.

Интернет-компании, такие как Google, Facebook и Amazon, начали создавать свои собственные внутренние наборы данных, основанные на миллиарде изображений, голосовых клипов и фрагментов текста, ежедневно вводимых и публикуемых на их платформах. В частности, Google построил внутренний набор данных из 300 миллионов изображений, помеченных категориями 18291, который называется JFT-300M. Пересмотр необоснованной эффективности данных

Данные, которые изменили исследования ИИ и, возможно, мир

Чтобы прыгнуть на подножку, MS Celeb был создан для MSR Image Recognition Challenge (IRC) . Исследователи ИИ использовали визуальный набор данных из 10 миллионов изображений знаменитостей, собранных по всему Интернету, чтобы обучить их алгоритмам распознавания лиц и бороться за высочайшую точность на стандартизированном наборе изображений лиц.

MS-Celeb-1M: проблема распознавания миллиона реальных людей в реальном мире - Microsoft Research

В транснациональном масштабе Комиссия ЕС создает общее пространство данных в ЕС в качестве основной цели своей политики ИИ. «Данные также признаются все более важным активом для разработки новых технологий, таких как искусственный интеллект (ИИ) и Интернет вещей (IoT)».

Коммуникация "На пути к общему европейскому пространству данных" - Единый цифровой рынок - Европейская Комиссия

Сегодня каждый узел иерархии ImageNet представлен сотнями и тысячами изображений, в среднем более пятисот изображений на узел, что является «полезным ресурсом для исследователей, преподавателей, студентов и всех вас, кто разделяет нашу страсть к изображениям». ImageNet

Опять же, в то время как ML AI сегодня великолепен в автоматическом распознавании того, что есть, знание и реальное понимание этих объектов в контексте мира - это следующая большая вещь.

Это все о принципиально новой сквозной модели WorldNet, охватывающей WordNet, ConceptNet, MindNet, TextNet, ImageNet, SpeechNet, ActionNet, PeopleNet, SocialNet, InterNet, CityNet, IndustryNet, NationNet,… PlanetNet, SpaceNet.

Как исследователи ИИ доберутся до этого, есть еще одна великая и последняя человеческая история.

Реальный Манифест ИИ: Искусственный Глобальный Интеллект (AGI)

«Тот, кто создает настоящий искусственный интеллект, будет править миром»

https: //www.linkedin.com/pulse/g ...

Универсальная компьютерная онтология в применении к человеческому уму и общему искусственному интеллекту:

https: //www.igi-global.com/book / ...

Ответ Кирилла Персианова на «Какие основные виды искусственного интеллекта?»

Ответ Кирилла Персианова «Какой набор данных понадобится искусственному общему интеллекту»?

| |



Онлайн-курс
«Квантовые технологии»
Один из самых трендовых курсов в сфере Цифровой экономики.