HoverHellF
всё_равно_вброс abstract Имеется: модель абстрактного “оптимизатора” (“интеллекта”), напр. как объекта-механизма в физической реальности (“когнитивный механизм”). Любая реальность для такого интеллекта представляется исключительно в виде входных данных (и сводится к ним), существование этих входных данных для интеллекта является фактом, существование чего-либо ещё (напр. материальной реальности) — теорией (одной из возможных). Также, ценность для интеллекта является особой частью входного потока (в частности потому что по этой части интеллектом производится оптимизация, для чего эта ценность должна быть сводима в пространство вещественных чисел). Если в рассматриваемый механизм ценность не задаётся извне, можно выделить некоторое (материальное) подмножество рассматривого механизма, вычисляющего эту ценность (вещественное число) из потока входных данных (и, напр., помечающего (annotate) входные данные этим значением), и рассматривать оставшуюся часть (т.е. подмножество пространства изначально рассматриваемого интеллекта минус подмножество kвычислителя ценности”). В результате, единственная задача получившегося интеллекта (в т.ч. с точки зрения его самого) — максимизация интеграла поступающего значения ценности от текущего момента до бесконечности, для чего интеллекту требуется предсказывать входные данные (в т.ч. “значение ценности”) как функцию от собственных действий (“волевых актов”, “выходных данных”) и, соответственно, выбирать действие, максимизируюее значение вышеупомянутого интеграла (“ожидаемую ценность”) (т.е. “оптимизировать действия по значению ценности”).
Применимость абстрактной модели “интеллекта” (“оптимизатора”): модель применима к практически любому объекту, но для большинства объектов (не называеиых обычно “интеллектом”, напр. механизм “часы”) это является не самой простой описывающей моделью (и поэтому неоптимальна по Оккаму). В основном применимость возможна при введении понятия “эффективности оптимизации”: поведение (действия), не являющееся оптимальным, является результататом менее точной аппроксимации (невычислимых / вычислительно-затратных) функций предсказания входных данных и выбора действий. Например, человеческий интеллект, хоть и считается наиболее эффективным (по параметру оптимизации), имеет серьёзные погрешности оценки даже сравнительно простых ситуаций, а также свойство оптимизировать бещ учёта выделения механизма вычисления ценности как отдельного.
Неоднозначность выделения подмножества пространства как “интеллекта”: требует рассмотрения.
HoverHellF
Imagine a situation: person/group A does constant work to create production that can be sold, person/group B finds customers that would purchase it. Now, assume that B found a stable set of customers and does not have to do
anything more. Economical and utilitarianistic question: should B keep getting paid?
* Note: B can keep getting paid by withholding information from A. However, A can still somehow obtain that information.
* The possible catch: similarity of the situation to the work automation.
HoverHellF
braindump … Интересный вывод из кучки моделирования в голове: можно сэкономить всем тонны времени за счёт уменьшения средней скорости хождения общественного транспорта. Предполагая, что за счёт этого будет больше пространство возможностей для поддержания предсказуемого расписания (schedule) хождения этого самого общественного транспорта. Что позволит уменьшить за счёт этого необходимый запас времени чтобы прибыть в нужное место к нужному моменту. Предполагая что в значительной части случаев использования общественного транспорта это именно то что надо.
Конечно же, помимо двух явных предположений тут ещё кучка неявных (но в целом более надёжных). И, конечно же, для успешности может потребоваться и изменение менталитета пользователей транспорта даже если предполоажения верны.
Madness or not madness?
HoverHellF
crimson_eyes Python Себе на заметку: если в python хочется много раз обработать список через list comprehension но при этом сохранить для дебага/использования отдельные версии, лучше не делать `l_a = [… for v in l …]; l_b = [… l_a …]; …`, а делать вместо этого `l = l_a = [… for v in l …]; l = l_b = [… for v in l …]; …`.
HoverHellF
random wild guess: AGI сложно построить потому что оптимальность завязана на коммуникацию (“передача знаний”), которая является “вершиной” (системно-структурно и эволюционно) в механизме человеческой деятельности (а также завязана на другую почти-вершину — эмпатию) и поэтому плохо поддаётся интроспектвному исследованию (e.g. для превращения в алгоритм и, тем более — метаалгоритм).
HoverHellF
consciousness note to self: a cognitive mechanism is defied by “building a model of outside worls (environment)”; the building / model has a value of “precision”; values can be derived given model and output.
Yet, if there is no mathematical definition of a “layered structure”, there might be no specific way to select a subset of the material wold to view as “a cognitive mechanism”: each of the multiple overlapping subsets would still be “a cognitive mechanism”. Maybe.
HoverHellF
CoffeeScript finishes the same idea that Python somewhat started spreading:
Brackets are, almost always, non-human-readable: it is inconvenient and too easy to miss. So, more visually-clear indentation is used instead. But then, brackets become unnecessary (almost always) because the indentation already provides sufficient information for the interpreter.

(in Python — lists, tuples, dicts, etc. still require brackets; which can create various horrors, best example being this: bitbucket.org — see how it looks as a result, esp. in tuples instead of lists; the current code version is third one already, after lot of thinking)