Три логических состояния #254828


#0 by Max_Minsk
D-Wave продемонстрировала Orion - самый мощный на сегодня квантовый компьютер Революция или эволюция? Но три реализованных логических состояния - это круто: да, нет, может быть.
#0 by Max_Minsk
D-Wave продемонстрировала Orion - самый мощный на сегодня квантовый компьютер Революция или эволюция? Но три реализованных логических состояния - это круто: да, нет, может быть.
#1 by NS
Это бред - просто нечем заняться.
#2 by France
оцтой.. наш бабаян раньше реализовал троичную логику  - на эльбрусах..
#3 by Max_Minsk
а не факт. три логических состояния определенно быстрее должны работать чем два.
#4 by France
вот почему "определенно быстрее" если расшифруеш - то можно в утверждение и поверить..
#5 by NS
Определенно быстрее? Даже не смешно :)
#6 by Max_Minsk
10 десятичной системы в троичной системе это 101, в двоичной 1010. Вывод ясен?
#7 by NS
Абсолютно неясен. Применяя двоичную ситему, в современных процах мы оперируем 64 разрядными числами. 64 битнаяч арифметика (+ плюс часть команд имеет намного большую разрядность - расширения), теперь мне интересно услышать насчет троичной логики. Что она дает?
#8 by France
а аппаратные затраты, конечно,не учитываются.. ясный ты наш.. и ваще - поди почитай ПТЦА..
#9 by Эльниньо
Сколько ты вобьёшь инфы в 64 двоичных бита, и сколько в 64 троичных?
#10 by Max_Minsk
101 хранить проще, чем 1010. Обработать его проще, передать его проще. А проще - это легче и быстрее. А насчет современных процессоров - это ты говоришь о двоичных процессорах на которых от троичной логики не будет толку, кроме тормоза.
#11 by Max_Minsk
статью читал? из-за топчущихся на месте, как ты, топчатся все.
#12 by France
господа.. тема пройденная.. в СССР создавали машины на базе троичной логики - но как видите, жизнь показали, что преимуществ нету.. хотя, математически выведено, что самой оптимальной является система счисления по основание 2,7 (почти 3)..
#13 by Max_Minsk
про советские уже просветился. преимуществ нет, потому как два состояния легко получить в отличии от трех на уровне транзистора.
#14 by NS
Как это проще? Для хранения информации В ЛЮБОЙ СИСТЕМЕ СЧИСЛЕНИЯ требуется одинаковое количество помяти. Что значит ПРОЩЕ ОБРАБАТЫВАТЬ? Я чего-то не въехал. Может Быстрее? Бред. Прогресс на месте? А может всё-таки дать мошенникам денег чтоб успокоились? :) А то  очень распространенная тема - Назад к аналоговым вычислениям, нейронные сети и т.д.
#15 by smaharbA
А аналоговые еще круче
#16 by France
и точность их впечатляет..
#17 by Широкий
разве одинковое? :)) в троичной системе все же будет побольше
#18 by Max_Minsk
Проще - это с наименьшими аппаратными затратами. А по поводу мошенников - все же число Эйлера ближе к 3, нежели к 2. Так что есть смысл. А то, что создано что-то, что умеет хранить три состояния - это уже что-то значит.
#19 by Широкий
+17 немного неправильно выразился... короче Серега - ты не прав :))
#20 by DGorgoN
А что ты против нейронных сетей имеешь? Это вообще другой клас вычислений, принципиально другой и он используется и будет использоваться..
#21 by smaharbA
а кулми там изобретать, храни положительный заряд/отрицательный/и нету ниче... Давно уже изобретено...
#22 by NS
То есть - сейчас не знают не только как использовать 256 бит, но и 64, а мы сейчас сделаем круто, не просто сделаем 1024 бита, а еще у каждого по три состоянии - на ка разработчик, выкуси, ищи применение этому бреду. Одинаковой. Для хранения числа от 0 до 1023  в несжатом виде требуется 10 бит хоть в троичной, хоть в двоичной, хоть в десятичной системе счисления :) А насчет мошенничество. Самое простое - генетические алгоритмы, а кто-нибудь может сказать что это такое? :) Я могу... Это терминология для запудривания мозгов.
#23 by smaharbA
На счет хранения и количества памяти NS абсолютно прав
#24 by NS
Используется, только для получения степеней, самое обыкновенное мошенничество, так-же как и генетические алгоритмы, еще раз - начнем с более простого - что же такое генетические алгоритмы?
#25 by France
почему ж.. видел продукт на базе этих алгоритмов.. весьма впечатляющая весч....
#26 by DGorgoN
Значит ты просто не вкурил тему, и пытается доказать, без никаких знаний то, что на самом деле таковым не является..
#27 by Широкий
А я бы сказал ... что в 10-чной потребуется к примеру 4 бита: 0000-9999
#28 by NS
Прыгаешь вперед паровоза. Давай лучше сначала с более простого, с генетических алгоритмов. Что это такое, и для чего используются.
#29 by smaharbA
а причем тут биты ?
#30 by NS
Нет, в 10-чной системе, и даже в другой галактике - с помощью четырех бит ты можешь запомнить одно из 16-ти состояний. Но никак не больше.
#31 by DGorgoN
Для нахождения самого оптимального решения..
#32 by France
впереди какого паравоза? есть продукт PowerSim ... использует генетические алгоритмы..
#33 by AeDen
Ну, для многопараметрической оптимизации, например...
#34 by NS
Для поиска Экстремумов они используются. В чем их отличие от модификаций спусков, с наложенным Монте-Карло?
#35 by корум
Угу. Написание в римской системе так же легко обрабатывать, как и в 10-тичной...
#36 by корум
+ в смысле, римские цифры и арабские.
#37 by France
раз есть " модификаций спусков, с наложенным Монте-Карло", то генетические алгоритмы не имеют права на существование?.. я верно отразил твою позицию
#38 by NS
Посмотри пост Генетические алгоритмы - не более как пустой звук, громкое название для всех модификаций спусков, которые в отличии от "генетических алгоритмов" появились достаточно давно. Просто громкое называние для того чтоб поразить слух неподготовленного пользователя.
#39 by andrey995
хм... думаю 1С 9.0 на сабже взлетит... низенько-низенько...
#40 by Молния
К сожалению я плохо помню лекции за 3 курс схемотехники. Но там было показано что самое оптимально число состояний где то 2,7. Т.е. если будет 3 состояния то системы будут проще и быстрее потому что 3 больше ближе к 2,7.
#41 by NS
Нет никаких "Генетических алгоритмов", есть модификации покоординатных и   градиентных спусков, которым придумали громкое имя для получения большей известности и т.д., а в конечном итоге для выколачивания денег.
#42 by ШтушаКутуша
в использовании производных
#43 by NS
А теперь можно перейти к нейронным самообучающимся сетям. Так что же это такое?
#44 by tsr
Вообще-то лучше для начала почитать, что есть квантовый компьютер. Там принцип вычислений совершенно другой. Есть неплохие статьи на эту тему в тырнете
#45 by France
ну порази ты тоже слух - как давно появились модификации спусков и когда появились первые работы по поводу эволюционных методов
#46 by Широкий
вроде ты продолжаешь мысль в двоичном системе? следи за моей логикой: в двоичной системе бит варьируется : 0-1 в троичной системе бит варьируется : 0-2 ... в десятеричной системе бит варьируется : 0-9 и т.д. к примеру число 4 100 = 11 = 4
#47 by NS
То есть в спусках не используются производные???? А что-же тогда такое градиентный спуск?
#48 by ШтушаКутуша
ну для начала: 1.обучение с учителем,например персептрон 2.обучение без учителя,напр.ассоциативные сети Хопфилда
#49 by NS
Да чего поражать. Несколько столетий назад они появились. И накладывали Монте-Карло для поиска локальных экстремумов и для улучшения сходимости всегда...
#50 by ШтушаКутуша
вектор из производных-указывает направление наибольшего возрастания функции. Примерно тот же подход используется и в наискорейшем спуске
#51 by France
а генетические как раз таки устойчивы к локальным экстримумам и дают возможность приблизится, по возможности, к глобальному...
#52 by Молния
как то по одному предмету делал доклад по нанотехнологиям. Там в числе всего была такая фишка - один мужик делал просто супер открытия которые ни у кого больше не получались. Типа у него там все вообще круто, что вот вот изобретет как делать процы сразу из атомов и т.д. И где то год все ему верили и восхищались. Потом стали удивляться что его эксперименты ни у кого больше не получаются. Потом начали копать под мужика. Оказалось что все данные по экспериментам вообще не существуют, а мужик ездил по ушам. А он отмазывался что просто на винте места не хватило и он потер экспериментальные данные и оставил только итоги.
#53 by ШтушаКутуша
"И накладывали Монте-Карло для поиска локальных экстремумов и для улучшения сходимости всегда." может глобального экстремума?
#54 by NS
Нейроные сети - это просто сбор статистики для последующего предсказания. Такое-же как и любой другой, только намного более медленный и заморочный, поэтому имеющий применение только в теории. На практике это тоже самое что и остальные методы, только медленней из-за своей извращенности...
#55 by NS
Генетические Алгоритмы - Это и есть Спуски, с внесенной погрещностью для лучшей сходимости, и с запоминанием нескольких точек для поиска локальных экстремумов, которые применялись всегда, задолго до возникновения "громкого" термина.
#56 by ШтушаКутуша
устойчивость,можно предположить,является в ген.алг. как раз м.Монте-Карло:обмен генной инф,репликация,если не ошибаюсь,носит в знач.степени случ.характер,только вот распределение случ.величины не скажу.
#57 by xPalych
бит = "BInary digiT" т.е. состояния всет-таки два. Ты же говоришь о неделимой единице измерения количества информации.
#58 by TSerge
Call please!
#59 by France
если следовать твоей логие, автомобиль - та же арба, и термин придумали ради того "красивого словца".. знаеш, ты прав в том, что называеш все авто - арбой..
#60 by NS
Нет, во времена Арбы не былоо автомобилей, в том и отличие. А до генетических алгоритмов генетические алгоритмы были, только назывались модификациями спусков, и к генетике они имеют ну уж совсем отдаленное отношение... Сложение тоже похоже на спаривание...
#61 by ШтушаКутуша
если под сбором статистик ты имеешь ввиду обучающую выборку, то да,это так,но так же можно сказать практически обо всем-это оч.общ. утверждение. Главное топология сети и обучающий алгоритм- фактически это тоже оптимизационная задача,как и суть генных алгоритмов, но! Вся фишка в том,что здесь уже было сказано о "многопараметричности", так што классич. град.методы в том числе и наискорейшего спуска, просто не сможет работать на,скажем 1000,3000 и более параметров это так называемое "проклятье размерности"
#62 by ШтушаКутуша
+61 поэтому:говорить,что м.наискорейшего спуска=ген.алгоритму=нейросети, будет неправомочным обобщением
#63 by France
каждый имеет право называть свою идею так, как он хочет.. так что, если кто то и назвал модификацию других методов "генетическими", то это его право...
#64 by ШтушаКутуша
+62 из за своей ограниченности к применению
#65 by корум
ну ладно. "Трит", Трайт, килоТрайт, МегаТрайт... Суть ты уловил.
#66 by xPalych
Я уловил, да
#67 by Широкий
если ты значешь название данного термин - скажи, я могу запатентовать термин трит и десятерит :))) если конечно от этого станет легче :))
#68 by ШтушаКутуша
+64 то есть обобщать на основании,что там и там применяются градиенты-неправильно, т.к. я применяю и арифметические действия,так что это можно назвать "арифметическими" методами?
#69 by smaharbA
А причем тут бит ? объем любой памяти характеризуется содержимым а 10 что в 10-чной что в двоичной, всеравно 10
#70 by France
хм.. как легко увели тему от сабжа..
#71 by ШтушаКутуша
всего несколько уточнений,это не "увести"
#72 by xPalych
Разряд?
#73 by France
я не про тебя... а про то, что объявив тему "еретичным", сразу же приплели и алгоритмы оптимизации, никакого отношения к теме не имеющие..
#74 by ШтушаКутуша
А! Да,согласен.
#75 by FreeFin
А чо тока три? Вот штоб штук сто = ото дело. Тока кому оно надо.)
#76 by Широкий
а отражающее количество состояний?
#77 by NS
Самообучение - это только громкий термин для сбора статистики - это способ сбора статистики и её использования, а не сомообучения. Насчет спусков - У меня выложен пример подсчета рейтингов - Спуск по 3000 параметрам - сходится очень хорошо, накладывание генетических алгоритмов тут по сути ничего не меняет, так как экстремум один. Несколько - нужны уже генетические для поиска глобального минимума/максимума - только какие-жк это Гнетические (о какое слово) алгоритмы, когда это тот-же спуск с наложенным моенте-Карло, и с запоминанием нескольких точек. И Генетические алгоритмы - тоже можно назвать самообучением - но какое-же это самообучение когда это наибанальнейший поиск экстремумов???
#78 by ШтушаКутуша
ИМХО:а ваще,если наращивать состояния,то с необходимостью придется оперировать внешними формами близкими к привычным,человеческим представлениям
#79 by xPalych
Троичная цифровая техника базируется на трехзначных сигналах и трехстабильных элементах памяти (тритах). Объекты, принимающие более чем три значения, реализуются в ней как совокупности тритов. Операции над этими объектами осуществляются как последовательности операций трехзначной логики. Аналогом байта служит шестерка тритов - трайт. Двузначные объекты и операции над ними содержатся в троичной технике как вырождения тритов и операций трехзначной логики.
#80 by Каанкереде
Самый прикол, когда я читал книгу Шеннона, так там была такая оговорка, что мол мы используем двоичную систему, а где нибудь на марсе может ктото использует троичную. И тут же сноска переводчика, в которой говорилось о советских ЭВМ на троичной логике..Я валялся под стулом...
#81 by France
почему валялся?
#82 by Широкий
все-таки триты :))
#83 by NS
Не приплели. Было мнение выдающихся Советских матаматиков, могу поискать в инете. Для выкачивания денег было придумано три громких названия - Генетические алгоритмы, нейронные сети, и нечеткие множества. И так-же было придумано направление - обратно к аналоговым вычислениям, несколько (а не два) устойчивых состояний и т.д. Это всё ягоды одного поля. Чистое мошенничество и темы для публикаций и диссертаций. И если генетические алгоритмы - просто другое название всем известных методов, то остальное - просто очковтирательство.
#84 by Каанкереде
Ну не знаю, мне показлось смешным, прочитать, про то, что троичной логикой пользуются какие то инопланетяне в отличии от землян, и тут же прочитать, что марсиане из СССР реализовали таки такую систему
#85 by ШтушаКутуша
ключевое понятие здесь:"так как экстремум один" т.е. утверждение что глобальный экстремум существует и он один, но строго доказать,что ты достиг его,можно только аналитически, что согласись,затруднительно,потому что аналитического выражения для такой сложной целевой(оптимизируемой)функции ты скорее всего не имеешь. И насчет "3000 переменных" может ты их путаешь с количеством отсчетов(значений) ф-ии? То есть с диной обучающей выборки?
#86 by ШтушаКутуша
диной=длиной
#87 by NS
Метод максимального правдоподобия. По 3000 параметрам максимизируем вероятность. Метод наискорейшего спуска. Предшественники (аналоги) искали экстремумы до 1000 параметров, я значитеьно улучшил сходимость видоизменив (прологарифмировав) целевую функцию, и использовав статистику для расчета значения шага в наискорейшем градиентном спуске. Конечно ничего не путаю - именно функция от 3000 параметров.
#88 by NS
Причем тут длина обучающей выборки? :) Наискорейший градиентный спуск. С переменным шагом. В чистом виде.
#89 by ШтушаКутуша
(87,88) итак,у тебя имеется некая функция,имеющая N(N=3000) переменных,параметров. есть таблица со значениями, количество значений M,котрые ты описываешь(апроксимируешь) этой функцией с 3000 переменных,так? В качестве критерия у тебя,скорее всего взято средне кв.отклонение, то есть сумма кадратов деленное на M. Так?
#90 by ШтушаКутуша
+89 таким образом табл.экспериментальных значений имеет размерность N колонок и M строк. Так?
#91 by NS
Два разных метода. Метод наибольшего правдоподобия - максимизируется вероятность (произведение вероятностей), одно значение, и метод наименьших квадратов - минимизируется сумма квадратов отклонений, в данном случае 3000*2999/2 Значений :) - так-же градиентным спуском. В случае метода наименьших квадратов значения похожие, но немного хуже (наибольшее правдоподобие Рулезззз), может использоваться только для проверки. Нет гарантий что метод наименьших квадратов приведет к сумме квадратов равной нулю, Поэтому проверкой может служить только модуль градиента. Именно три тысячи параметров - на всякий случай повторю :) Для проверки что экстремум не локальный, используется расчет двумя методами - наименьших квадратов и наибольшего правдоподобия (Должны давать близкие результаты), и значения посчитанные программами аналогами. Так-же можно использовать Монте-Карло - Последовательно спускаемся из различных "хороших" точек. Должны приходить к одному месту (Если Экстремум один)
#92 by NS
Таблица 3000*3000.
#93 by ШтушаКутуша
а ваще на этот счет,советую:Химмельблау,там все четко. Я по ней учился.
#94 by ШтушаКутуша
это матрица производных?
#95 by NS
Матрица значений, исходя из которых при участии вектора из 3000 значений (Парамтры функции, максимизирующие значения которых должны найти) считается вероятность. Производная (Градиент) считается "По честному" По каждому измерению (Ф(Х+Дельта)-Ф(X))/Дельта - в аналитичском виде производная для такой функции неизвестна...
#96 by ШтушаКутуша
"X" это вектор?
#97 by NS
Чтоб было понятней, расчет функции в чистом виде, неоптимизированный (Для нагладности) Function MatOj(Elo:Double):Double; Begin MatOj:=1/(1+Exp(-Elo*Ln/400)); end; Function Ver(Var rating:rr):Double; var i,j,kol:integer; var sum,MO:double; Begin  Sum:=0;  for i:=1 to NameCount do     for j:=1 to NameCount do          Begin              kol:=Table[i,j];              MO:=MatOj(Rating[i]-Rating[j]);                sum:=sum-ln(MO)*kol;          end;   Ver:=Sum; end; Считается Логарифм вероятности. Матрица 3000*3000, 3000 параметров.
#98 by NS
Считается ГРАДИЕНТ. Х - изначально вектор, для расчета градиента фиксируются все значения кроме одного. и так 3000 раз - получаем градиент.
Тэги: IT-новости
Ответить:
Комментарии доступны только авторизированным пользователям

В этой группе 1С