constrob

(no subject)

Первый сезон Westworld (2016) понравился.
Ассоциации:
- идея трёх миропроектов
- "Матрица" в интерпретации Жижека
- финал: (Zombie) Revolution at the Gates
- камео: "Сталкер"


Взялся за нейросети
С тех пор как прочитал про них книгу в 90х - по сути ничего не поменялось
Просто выросла вычислительная мощность и стало веселее
В "искусственный интеллект", впрочем, по-прежнему не верю



(оригиналы утещены:
https://www.instagram.com/p/BkFlCcxHn1X/?taken-by=poems_perfumes и
https://www.instagram.com/p/BkHv8TRnN8T/?taken-by=mtmt1114
)
constrob

criminally sane

"Shakespeare for the stupid", "Internet for the stupid" and now "Poirot for the stupid". As if it wasn't silly enough already. Yes, machines will rule over you.

P1150930_1_2_HDR
constrob

(no subject)

Человечество убило бога.

И это было важным шагом.

Но не надо останавливаться на достигнутом.

Надо вскрыть его труп, изучить его анатомию.

И используя полученные знания создать нового бога, по последнему слову техники.


бу.
constrob

"poddavki" - не переводится

Let A be the native world perception context of an agent a
a < A
The same for B and b
b < B

Consider the argument X. Assume that b wins X in the context B
b < B |= X(b)

However in the context A - a wins X
a < A |= X(a)

The natural strategy for winning the argument X in a vs b situation for both parties would be trying to make the opposite party to accept the opposing worldview.
b < B |= X(b)
a < B |= X(b)
-- b wins


Now consider the following situation:
b < B |= Y(a)
a < A |= Y(b)
-- each side looses the argument within his own worldview, but looks as a winner to the opponent.

Assume a switches the view for the b's one in order to get some gains out of this freak situation.
b < B |= Y(a)
a < B |= Y(a)
-- a wins.

At this point if X comes up a is totally screwed unless he switches the worldview once again which would be totally lame, so a is screwed anyway.
a < B |= X(b)
-- b wins.

a < C |= whatever man, not listening