Category: технологии

Category was added automatically. Read all entries about "технологии".

Паук С.В.

Интервью Владимира Воеводского (часть 2)

Оригинал взят у baaltii1 в Интервью Владимира Воеводского (часть 2)

Это продолжение интервью Владимира Воеводского. Первая часть была воспринята читателями с интересом. Мы благодарим за содержательные вопросы и продолжаем.



- Мне трудно представить, что происходит внутри человека атеистических взглядов, когда перед ним раскрываются необычные для него слои реальности. Для людей религиозного восприятия и воспитания это часть пути, состояния, в которых раскрываются новые аспекты бытия, это просто нормально, как без этого. Лично я с первого дыхания стремился к мистицизму, верил, искал, находил, бросался в секты и тайные общества. Тебя же, насколько понимаю, в определенный момент выбросило в «непонятное», бытие просто поставило перед лицом странной данности. Типа что делать, если на тебя смотрят ангелы, и после того, как ты закроешь глаза и откроешь их снова, ангелы будут продолжать на тебя смотреть?! То, что нормально и правильно для человека мистическо-религиозного воспитания, людей другого восприятия может запросто свести с ума.
 
- Наверное, мои взгляды на тот момент стоило бы назвать не столько атеистическими, сколько агностическими. Реакция была двоякая. Во-первых, возмущение, поскольку больше всего в открывшемся было грязи и издевательства над людьми. Во-вторых, восхищение и надежда, когда в этой грязи вдруг появлялись проблески любви, красоты и разума. 
 
С ума я не сходил, хотя иногда и были "заносы", когда я начинал всерьез верить в ту или иную "теорию". Как правило, эти заносы выправлялись быстро, обычно за несколько часов. Более серьезными были периоды безнадеги. В такие периоды очень помогала мысль о том, что нужно продолжать бороться, потому что от этого, пусть и в небольшой степени, зависит то, в каком духовном мире будут жить сегодняшние дети. 
 

Collapse )


Паук С.В.

размер имеет значение, - остальное - для слабаков

https://ailev.livejournal.com/1518532.html

SoTA искусственного интеллекта принадлежит богатым, и это не случайно
Опять вспомним тезис Sutton (http://incompleteideas.net/IncIdeas/BitterLesson.html), что в AI главное -- это вычислительная мощь, а не хитрость алгоритмов. Этот тезис получил интересные теоретические и экспериментальные свидетельства в работах https://arxiv.org/abs/1909.12673 и https://arxiv.org/abs/2001.08361. Ошибка генерализации оказалась вполне гладкой степенной функцией от размеров набора данных, размера сетки (число гиперпараметров, но форма -- ширина и высота -- оказались неважными) и вычислительной мощности. Тот, у кого больше вычислительной мощности, может для данного набора данных использовать модель побольше -- и его сетка будет умнее.
Паук С.В.

хорошо написано

toshick

9 мая 2020, 18:51:32 Комментарий изменен: 9 мая 2020, 18:53:32 ВЫБРАТЬСВЕРНУТЬ
Отслеживать
Ты таки думаешь, это удобно, перескакивать из поста в пост с комментами? ;-)

Смотри, если оставаться в тех рамках, для которых существует аппроксимационная теорема, т.е. в пространстве непрерывных функций:
1) никто не гарантирует, сколько тебе потребуется параметров и как их число растет при добавлении функций (чтобы та же нейросеть узнавала несколько),
2) никто не гарантирует устойчивости решения, т.е. совершенно не факт, что "близкие" функции будут с достаточной точностью аппроксимироваться одним и тем же набором весов.
Далее, как только мы выходим за пределы непрерывных функций, функции с особенностями уже не аппроксимируются. Задачи на графах к непрерывным функциям очевидным образом не сводятся.

Человеческий мозг использует аппарат дискурсивного рассуждения, который значительно мощнее (мощности естественного языка достаточно, чтобы описать на нем решение вообще любой задачи, которая теоретически имеет решение конечной сложности), но менее эффективен и не реализуется feed-forward нейросетью. Итого, мы имеем задачи, которые могут быть решены дискурсивным рассуждением, т.е. реализующей его сложной нейросетью (но это займет очень много времени) и не могут быть решены простой нейросетью. Причем "сложная" нейросеть еще и не может быть обучена с нуля за срок человеческой жизни, ее структура создана за миллионы лет эволюции.
Соответственно, нет никакого резона заставлять эту нейросеть решать неудобные для нее задачи (какая у твоего мозга производительность в нанохэшах в секунду ? ;-))), а надо учить ее пользоваться калькуляторами, своим для каждой задачи.
Паук С.В.

(no subject)

http://nymag.com/intelligencer/2018/12/how-much-of-the-internet-is-fake.html




lexa


В начале ноября на питерском кинофестивале "Мир знаний" устроили научный квартирник по разоблачению мифов об искусственном интеллекте. Жаль, видеозаписей не было, хотя само место - Цифербург на Фонтанке - очень симпатичное для съёмок: это комплекс старинных зданий, превращенный в нечто среднее между кафе, сквотом и совокингом (совокинг - это как совок, только для хипстеров).

Зато мне прислали фотку, сделанную на том квартирнике. Фотка прекрасно отражает всё то, что я думаю о "бурном развитии искусственного интеллекта" - поэтому с неё и начнём:

lexa-AI-discussion

Полностью пересказывать содержание дискуссии мне лень. Но одну забавную идею запишу. Я почти всегда забываю озвучить эту идею во время выступлений про AI. Но мне про неё всегда напоминают, задавая вопросы в конце. А само выступление без этой идеи обычно получается довольно пессимистичным. Например, я рассказываю такие мрачные вещи:

(1) Выход машинного обучения из стерильной лаборатории в большой реальный мир почти всегда сопровождается ростом ошибок на два-три порядка. А поскольку самый мощный надзор за гражданами с использованием искусственного интеллекта происходит в либеральных и демократических странах - то именно в этих странах ожидается большинство косяков.

(2) Самостоятельный AI - сказка для домохозяек. На деле, почти во всех случаях системы искусственного интеллекта требуют поддержки в виде целой армии человеческих рабов: асессоры в поиске, слухачи в голосовых помощниках и др. Про это не пишут в рекламе AI-продуктов, потому что следующая логичная мысль - а будет ли галера плыть, если рабы вдруг бросят вёсла?

(3) Работу нейронных сетей почти невозможно интерпретировать: дрессированные мышки не умеют говорить. Это значит, что вы не понимаете, как принято решение и почему возникла ошибка. Поэтому нейросети легко взламывать и обманывать, особенно с учётом того, что их разработчики почти никогда не тестируют свои поделки на "враждебное поведение". Зато они выкладывают коды своих ML-моделей в свободный доступ (даже Microsoft), а для обучения используют публичные датасеты, собранные хрен знает кем (прекрасный кейс - "отрезанные пальцы Тинькова");

(4) Самоходных роботов более ста лет изображали в фантастике, но они не появились среди нас. И на то есть веские причины. По тем же причинам беспилотные автомобили - это не про транспорт. Это скорее проект по сокращению численности населения на основе спортивного отбора. Чаще всего беспилотники будут врезаться в неподвижные объекты - и для этого тоже есть простое техническое объяснение. Так что если вы собираетесь жить в городе с беспилотниками, начинайте тренировки по бегу уже сегодня. (Некоторые попытаются скрыться в метро, но это всё равно что надеть на голову микроволновку. А вы не знали? - в метро реализуется другая техника сокращения населения, под названием "бесплатный WiFi").

(5) Искусственный интеллект, который "скоро превзойдет человеческий" - это рекламная выдумка чокнутого пиарщика из Гугла. Тот же чокнутый дедушка обещал, что в 2020 году (т.е. сейчас) в наших телах поселятся нанороботы, поправляющие наше здоровье (ничего подобного не существует даже в проекте, хотя в США уже потратили $20 миллиардов на "разработки в области нанотехнологий"). Поэтому правильный перевод всей этой сингулярности на русский язык звучит как слоган Незнайки на Луне: "Коротышки, покупайте акции Общества Гигантских Растений!".

(6) Вообще, технологические прорывы остались в прошлом. Удивительно, но это факт. Электричество и радио, автомобиль и ракета, компьютер и Интернет, пластик и гормональные контрацептивы - ничего такого прорывного не придумано в XXI веке. Это касается и алгоритмов машинного интеллекта: они все из хрущёвских времён. Отчего же возник такой AI-бум сейчас? В основном благодаря количественному росту Интернета, то есть огромных объемов данных. Но время бесконтрольного шпионажа проходит - например, из-за законов типа GDPR. А публичные данные теперь сильно замусорены и фальшивы. В начале 2000-х около 70% контента в Интернете было оригинальным, а сейчас - лишь около 7%. Ну и какое обучение будет на этом мусоре?

(7) Все вышеописанные AI-алгоритмы, даже будучи кривыми и опасными, всё равно будут активно размножаться в нашей техногенной монокультуре (благодаря чокнутым пиарщикам). Поэтому нужны правила безопасности - но не в виде азимовских "законов робототехники", предписанных роботам (это всё равно, что предписать этический кодекс деревьям и мышам). В первую очередь правила безопасности относительно машин должны быть закреплены в правах и обязанностях людей. Например, право в любых случаях знать, общаешься ли ты с роботом или с человеком, право получить человеческий аналог любого робосервиса и право отключить любую вредоносную машину.

...ну и так далее.

И вот после того, как я вволю оттоптался на тупых роботах, мне обычно задают вопрос - неужели не ожидается совсем ничего хорошего от искусственного интеллекта? Людям хочется увидеть Белоснежку, а не только уродливых гномов. И в этот раз модератор дискуссии тоже спросил - скажите напоследок, какие могут быть позитивные открытия в этой области?

И вот после того, как я вволю оттоптался на тупых роботах, мне обычно задают вопрос - неужели не ожидается совсем ничего хорошего от искусственного интеллекта? Людям хочется увидеть Белоснежку, а не только уродливых гномов. И в этот раз модератор дискуссии тоже спросил - скажите напоследок, какие могут быть позитивные открытия в этой области?

И я сказал, что да, ожидаются открытия! Ведь всё вышесказанное, непозитивное и уродливое, касается только тех серьёзных сфер, где нельзя ошибаться и где нужно понимать, что происходит. Но в жизни человека есть сферы, где ни точность, ни понимание нафиг не нужны. И с помощью искусственного интеллекта многие люди совершат великое открытие - они узнают, что значительная часть их жизни (а может, и вообще вся жизнь) проходит именно в таких необязательных сферах.

Скажем, вы идёте на выставку современной живописи. Там куча людей пялятся на стены с разноцветными пятнами. Можно ли заменить все красные пятна на зелёные? Конечно, можно! И никто не пострадает. Живопись - это сфера необязательных развлечений.

А в кино или в компьютерной игре можно нарисовать осьминога с 11 щупальцами вместо 8? Тоже можно. И даже в новостях можно. А уж в литературе - и подавно.

Значит, художников, актёров, писателей, журналистов и ещё кучу людей так называемых "творческих профессий" можно легко заменить искусственным интеллектом. Он не хуже них будет генерировать разноцветные пятна и прочее "творческое разнообразие", из которого массовая культурка будет сама отбирать себе то, что её бодрит на данный исторический момент.

Какие ещё сферы внезапно окажутся необязательными? Да многие, многие. Вот вы наверняка не помните почти ничего из того, что учили в школе. Потому что оно такое и было - необязательное. Значит, и тут робота можно посадить. Хватит уже этого нытья про низкую зарплату учителей! - роботу вообще платить не нужно.

А как насчёт науки? Наука, по определению академика Арцимовича, - это "лучший способ удовлетворения личного любопытства за государственный счет". То есть опять - развлечение. И действительно, искусственный интеллект здесь применяется круче всего! Начиная с первой программы "Элиза" 1966 года, которая состояла из десятка строчек кода и успешно имитировала психотерапевта (некоторые считают это наукой) и заканчивая самым современным методом научной работы, имя которому "мета-анализ". Знаете, что это такое? Это когда вы не проводите никаких экспериментов, не ездите по опасным джунглям, не выдумываете гениальных гипотез и вообще ничего в реальном мире не делаете - просто берёте данные чужих исследований и прогоняете через AI-программу, которая ищет корреляции. Тысячи публикаций, тысячи диссертаций так сделаны. Но мы же понимаем, что человека можно совсем убрать из этой машины научных развлечений.

И даже главный современный пример интеллектуальности машин - он из той же развлекательной оперы. Вы конечно слышали этот пример: Гугл потратил миллиард баксов на разработку... еще одного игрового автомата для Лас-Вегаса. Ну а как иначе назвать весь этот шум о программе Allah Go, которая обыграла чемпиона в го? Абстрактная настольная игра, не имеющая никакого практического применения и никак не влияющая на вашу реальную жизнь. Вполне естественно, чтобы там вкалывал робот.

Поэтому многим гражданам уже сейчас стоит задуматься о получении приличной профессии будущего. Не развлекательной, а реальной. Например, профессии сотрудника службы по отстрелу роботов. А то будете потом побираться на случайных подработках, как Гарри Каспаров (если кто не знает - это бывший мировой чемпион по бессмысленной игре в шахматы, которую тоже долгое время считали признаком интеллекта, пока индустрия игровых автоматов не поставила её на правильное место - в стойло необязательных развлечений).

Вот такая она, Белочка Белоснежка искусственного интеллекта. Надеюсь, теперь никто не скажет, что у меня нет позитивных прогнозов?
Паук С.В.

(no subject)

"Цифровой баланс" Научно-фантастический рассказ : Часть 1. Рассказ о ближайшем будущем, где практически каждый человек обладает вживленным в мозг нейроинтерфейсом. Описан довольно утопический вариант цифрового мира со всеобщей свободой и демократией и принципы, на которых он мог бы функционировать.


http://znatech.ru/proekty/prognozy/cifrovoj_balans_nauchnofantasticheskij_rasskaz_chast_1/

Как же это все примитивно то! Малограмотные все, пишут для малограмотных.

Ошибки сложных баз будут всегда, и чем сложнее - тем больше, критические моменты неустранимы, может блокчейн только слегка поможет, но ограниченно слишком.

И кого в этот нейроинтерфейс окунут - плебс?

а семьи прекрасно обойдутся?
Паук С.В.

(no subject)

https://medium.com/@sergey_57776/%D0%B2-%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%B5-%D0%BC%D0%B8%D1%80%D0%B0-%D0%BF%D1%80%D0%BE%D1%81%D1%82%D1%8B%D0%B5-%D0%BF%D0%B0%D1%82%D1%82%D0%B5%D1%80%D0%BD%D1%8B-8dcd6d49710d

берем текст, выкидываем все слова, оставляем только запятые, точки и пр. знаки препинания, - только по ним можно вычислить автора


https://medium.com/@sergey_57776/1%D0%B5-%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D0%B8%D0%B5-2019-%D0%B2%D0%BE%D0%B7%D0%BC%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D0%B8-%D0%B8%D0%B8-%D0%BE%D0%BA%D0%B0%D0%B7%D0%B0%D0%BB%D0%B8%D1%81%D1%8C-%D0%BD%D0%B5%D0%B1%D0%B5%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%BC%D0%B8-fff6e63febd0

Суть всех этих статей в следующем.
Обнаружены сценарии, в которых невозможно доказать, может ли алгоритм машинного обучения решить конкретную проблему.
Этот вывод может иметь огромное значение, как для существующих, так и для будущих алгоритмов обучения.
Обучаемость ИИ не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики, поскольку это связано с парадоксами, открытыми австрийским математиком Куртом Гёделем в 1930-х годах.

https://miro.medium.com/max/800/1*fGWRDgO-L4OtMZUmx_Eb3Q.jpeg

Паук С.В.

(no subject)

https://medium.com/@sergey_57776/%D0%BA%D0%BE%D0%B4-%D1%80%D0%B0%D0%B7%D1%83%D0%BC%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%B0-%D0%BF%D1%80%D0%BE%D1%88%D0%B8%D0%B2%D0%BA%D0%B8-%D0%BC%D0%BE%D0%B7%D0%B3%D0%B0-%D0%B7%D0%B0%D0%BA%D0%BE%D0%B4%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D1%8B-%D0%B2-%D0%B3%D0%B5%D0%BD%D0%BE%D0%BC%D0%B5-%D0%BC%D0%B8%D0%BB%D0%BB%D0%B8%D0%BE%D0%BD%D0%B0%D0%BC%D0%B8-%D0%BB%D0%B5%D1%82-%D1%8D%D0%B2%D0%BE%D0%BB%D1%8E%D1%86%D0%B8%D0%B8-%D1%81-eb445ae3fa0e

) Хватит морочить себе голову, и пора признать следующее.
Современные исследования в области ИИ вообще не ведут к созданию разума, а лишь имитируют его отдельные возможности (бумажный голубь тоже парит, но он — вовсе не птица, не модель птицы и даже не этап к построению модели птицы).
Во многих отношениях ИИ далек от возможностей интеллекта детенышей собаки, мыши или даже паука, и не похоже, что простое расширение существующих подходов позволит хоть когда-то достичь этих целей (многие животные эффективно функционируют после 10⁶ и даже меньшего количество секунд жизни: белка может прыгать с дерева на дерево через несколько недель от рождения, жеребенок может ходить через несколько часов, а пауки рождаются готовыми к охоте).
Никакими из существующих методов машинного обучения эту проблему не решить в принципе (земные живые существа не имеют такого времени и объемов данных, что требуются даже при самых продвинутых и эффективных методах машинного обучения).
Разрыв между мышью и человеческим интеллектом намного меньше, чем между нынешним ИИ и мышью. Это значит, что даже если наша конечная цель — догнать (не то что перегнать) человеческий интеллект, разумной ближайшей целью для ИИ было бы достичь интеллекта мыши.


Например, послание может быть адресовано коллективному бессознательному, записано на языке гильбертовых пространств и отправлено с помощью феномена синхроничности (подробней здесь и здесь.
Паук С.В.

Yuval Noah Harari in Conversation with Fei-Fei Li, Moderated by Nicholas...



1️⃣ Миллиарды, вкладываемые в попытки решить проблему «черного ящика ИИ» путем создания ИИ, способного объяснять свои решения (XAI — Explainable AI), — просто выбрасываются на ветер, т.к. эти объяснения не сможет понять ни одни человек (ИИ принимает решения совершенно иным образом, чем люди)
— см. на видео здесь
2️⃣ Уже сегодня, даже очень глупый ИИ, способен хакнуть вас и настучать о вас, куда скажут (пример из жизни гея Харари)
— см. на видео здесь
3️⃣ Риск от уже начавшейся гонки ИИ вооружений настолько выше риска гонки ядерных вооружений, насколько выше риск при ежедневном использовании потенциально опасного инструмента по сравнению с риском от инструмента, десятки лет лежащего в кладовке вообще без использования
— см. на видео здесь
Паук С.В.

(no subject)

На прошлой неделе многих поразила новость о размерах финансовых потерь крупнейшего в мире исследовательского центра по ИИ — принадлежащей Alphabet компании DeepMind. За три года компания уже потеряла более $1млрд, а долг в размере более $1млрд должен быть погашен в течение следующих 12 месяцев.
• Значит ли это, что ИИ разваливается?
• Что эти потери означают для будущего ИИ?
• Находится ли DeepMind на правильном пути и являются ли эти немалые инвестиций разумными?
• Как, в конце концов, эти потери повлияют на ИИ в целом?

https://medium.com/@sergey_57776/%D0%B2%D1%81%D0%B5-%D0%B8%D0%B8-%D0%B8%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F-%D0%BB%D0%B5%D0%B6%D0%B0%D1%82-%D0%B2-%D0%BE%D0%B4%D0%BD%D0%BE%D0%B9-%D0%BA%D0%BE%D1%80%D0%B7%D0%B8%D0%BD%D0%B5-6f5a65c3b074
Паук С.В.

(no subject)

Малоприятный футурологический прогноз
Вот какой интересный сценарий будущего намечается:
Нарастающий переизбыток «обычных людей», вследствие ИИ-автоматизации
Нарастающий дефицит «умных людей», вследствие приближения к сингулярности сложности.
В таком сценарии возможны два решения.
Либо человечество найдет способ массовой трансформации «обычных людей» в «умных».
Либо «обычные люди» станут просто не нужны, а нехватка «умных людей» будет преодолеваться с помощью ИИ.
Какой из двух вариантов получится у человечества — неизвестно.

https://slatestarcodex.com/2018/11/26/is-science-slowing-down-2/

Все эти линии доказательств приводят меня к одному и тому же выводу: постоянные темпы роста в ответ на экспоненциально растущий вклад - нулевая гипотеза. Если это не так, мы должны ожидать 50% -ный рост ВВП, легко обнаруживаемое бессмертие и тому подобное. Никто не ожидал, что до чтения BJRW, поэтому мы не должны удивляться, когда BJRW предоставит модель, управляемую данными, показывающую, что этого не происходит. Я понимаю, что это само по себе не является объяснением; это не говорит нам, почему исследователи не могут поддерживать постоянный уровень продукции, измеренный в открытиях. Это звучит немного как «Бог не спроектировал бы вселенную таким образом», что является своего рода подозрительной аргументацией, особенно для атеистов. Но это, по крайней мере, сдвигает нас с объектива, где мы рассматриваем проблему как «Какие три ухищрения мы должны внести в систему образования для выпускников, чтобы решить эту проблемупрямо сейчас ? »к тому, где мы рассматриваем это как« Почему Марк Аврелий бессмертен? »


1. Только лучшие исследователи в этой области на самом деле добиваются прогресса, а лучшие исследователи уже находятся в этой области, и, вероятно, их нельзя держать вне поля с колючей проволокой и нападающими собаками. Если вы расширите поле, вы получите группу просто компетентных карьеристов, которые будут относиться к этому как к работе с 9 до 5. Поле из 5 по-настоящему вдохновленных гениев и 5 компетентных карьеристов сделает X успехов. Поле из 5 по-настоящему вдохновленных гениев и 500 000 компетентных карьеристов добьются того же X прогресса. Добавление дополнительных компетентных карьеристов бесполезно для чего-либо, кроме как сделать графики более экспоненциальными, и мы должны прекратить это делать. См. Также закон научных взносов Прайса .

2. Некоторые особенности современной академической системы, такие как недоплачиваемая степень доктора наук, бесконечно долгий срок постдока, бесконечная рутинная работа по написанию грантов и невежественные спонсоры снизили производительность. Академическая система 1930-х годов была действительно в 25 раз более эффективной, чтобы заставить исследователей действительно проводить хорошие исследования.

3. Все низко висящие фрукты уже собраны. Например, элемент 117 был обнаружен международным коллаборационистом, который получил нестабильный изотоп берклия от единственного ускорителя в Теннесси, способного его синтезировать, отправил его в ядерный реактор в России, где он был прикреплен к титановой пленке, доставил его в ускоритель частиц в другом российском городе, где он был засыпан сделанным на заказ экзотическим изотопом кальция, отправил полученные данные глобальной команде теоретиков и в конце концов нашел подпись, указывающую, что элемент 117 существовал в течение нескольких миллисекунд. Между тем, первое современное открытие элемента, фосфора в 1670-х годах, произошло от парня, смотрящего на свою мочу., Не следует удивляться, что для открытия элемента 117 потребовалось больше людей, чем для обнаружения фосфора.

https://medium.com/@sergey_57776/%D1%81%D0%B5%D0%BA%D1%80%D0%B5%D1%82%D0%BD%D0%BE%D0%B5-%D0%BE%D1%80%D1%83%D0%B6%D0%B8%D0%B5-%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D1%87%D0%B5%D1%81%D1%82%D0%B2%D0%B0-%D0%BE%D0%BA%D0%B0%D0%B7%D0%B0%D0%BB%D0%BE%D1%81%D1%8C-%D0%BF%D0%BE%D1%81%D0%BB%D0%BE%D0%B6%D0%BD%D0%B5%D0%B5-%D0%BC%D1%83%D1%80%D0%BC%D1%83%D1%80%D0%B0%D1%86%D0%B8%D0%B8-2b12c4211ba0

Наука, до сего времен, обладала пятью основными способами измерения социальной сложности.
Размер сообщества — количество индивидов, входящих в сообщество.
Число социальных ролей — количество, типы и разнообразие ролей, которые индивиды берут на себя в сообществе.
Число уровней социальной структуры — количество ступеней в социальной иерархии сообщества.
Уровень дифференциации отношений — степень индивидуализации разных социальных групп, внутри сообщества.
Степень социальной неопределенности — степень непредсказуемости и неопределенности развития социальной ситуации при взаимодействии членов сообщества (используется энтропия Шеннона для количественной оценки изменчивости состава подгрупп в социальных структурах с динамикой их расщепления, где группы распадаются и сливаются снова, и где конкретные люди, присутствующие в подгруппах, могут отличаться).