#0
by Max_Minsk
D-Wave продемонстрировала Orion - самый мощный на сегодня квантовый компьютер Революция или эволюция? Но три реализованных логических состояния - это круто: да, нет, может быть.
#0
by Max_Minsk
D-Wave продемонстрировала Orion - самый мощный на сегодня квантовый компьютер Революция или эволюция? Но три реализованных логических состояния - это круто: да, нет, может быть.
#7
by NS
Абсолютно неясен. Применяя двоичную ситему, в современных процах мы оперируем 64 разрядными числами. 64 битнаяч арифметика (+ плюс часть команд имеет намного большую разрядность - расширения), теперь мне интересно услышать насчет троичной логики. Что она дает?
#8
by France
а аппаратные затраты, конечно,не учитываются.. ясный ты наш.. и ваще - поди почитай ПТЦА..
#10
by Max_Minsk
101 хранить проще, чем 1010. Обработать его проще, передать его проще. А проще - это легче и быстрее. А насчет современных процессоров - это ты говоришь о двоичных процессорах на которых от троичной логики не будет толку, кроме тормоза.
#12
by France
господа.. тема пройденная.. в СССР создавали машины на базе троичной логики - но как видите, жизнь показали, что преимуществ нету.. хотя, математически выведено, что самой оптимальной является система счисления по основание 2,7 (почти 3)..
#13
by Max_Minsk
про советские уже просветился. преимуществ нет, потому как два состояния легко получить в отличии от трех на уровне транзистора.
#14
by NS
Как это проще? Для хранения информации В ЛЮБОЙ СИСТЕМЕ СЧИСЛЕНИЯ требуется одинаковое количество помяти. Что значит ПРОЩЕ ОБРАБАТЫВАТЬ? Я чего-то не въехал. Может Быстрее? Бред. Прогресс на месте? А может всё-таки дать мошенникам денег чтоб успокоились? :) А то очень распространенная тема - Назад к аналоговым вычислениям, нейронные сети и т.д.
#18
by Max_Minsk
Проще - это с наименьшими аппаратными затратами. А по поводу мошенников - все же число Эйлера ближе к 3, нежели к 2. Так что есть смысл. А то, что создано что-то, что умеет хранить три состояния - это уже что-то значит.
#20
by DGorgoN
А что ты против нейронных сетей имеешь? Это вообще другой клас вычислений, принципиально другой и он используется и будет использоваться..
#21
by smaharbA
а кулми там изобретать, храни положительный заряд/отрицательный/и нету ниче... Давно уже изобретено...
#22
by NS
То есть - сейчас не знают не только как использовать 256 бит, но и 64, а мы сейчас сделаем круто, не просто сделаем 1024 бита, а еще у каждого по три состоянии - на ка разработчик, выкуси, ищи применение этому бреду. Одинаковой. Для хранения числа от 0 до 1023 в несжатом виде требуется 10 бит хоть в троичной, хоть в двоичной, хоть в десятичной системе счисления :) А насчет мошенничество. Самое простое - генетические алгоритмы, а кто-нибудь может сказать что это такое? :) Я могу... Это терминология для запудривания мозгов.
#24
by NS
Используется, только для получения степеней, самое обыкновенное мошенничество, так-же как и генетические алгоритмы, еще раз - начнем с более простого - что же такое генетические алгоритмы?
#26
by DGorgoN
Значит ты просто не вкурил тему, и пытается доказать, без никаких знаний то, что на самом деле таковым не является..
#28
by NS
Прыгаешь вперед паровоза. Давай лучше сначала с более простого, с генетических алгоритмов. Что это такое, и для чего используются.
#30
by NS
Нет, в 10-чной системе, и даже в другой галактике - с помощью четырех бит ты можешь запомнить одно из 16-ти состояний. Но никак не больше.
#32
by France
впереди какого паравоза? есть продукт PowerSim ... использует генетические алгоритмы..
#34
by NS
Для поиска Экстремумов они используются. В чем их отличие от модификаций спусков, с наложенным Монте-Карло?
#37
by France
раз есть " модификаций спусков, с наложенным Монте-Карло", то генетические алгоритмы не имеют права на существование?.. я верно отразил твою позицию
#38
by NS
Посмотри пост Генетические алгоритмы - не более как пустой звук, громкое название для всех модификаций спусков, которые в отличии от "генетических алгоритмов" появились достаточно давно. Просто громкое называние для того чтоб поразить слух неподготовленного пользователя.
#40
by Молния
К сожалению я плохо помню лекции за 3 курс схемотехники. Но там было показано что самое оптимально число состояний где то 2,7. Т.е. если будет 3 состояния то системы будут проще и быстрее потому что 3 больше ближе к 2,7.
#41
by NS
Нет никаких "Генетических алгоритмов", есть модификации покоординатных и градиентных спусков, которым придумали громкое имя для получения большей известности и т.д., а в конечном итоге для выколачивания денег.
#44
by tsr
Вообще-то лучше для начала почитать, что есть квантовый компьютер. Там принцип вычислений совершенно другой. Есть неплохие статьи на эту тему в тырнете
#45
by France
ну порази ты тоже слух - как давно появились модификации спусков и когда появились первые работы по поводу эволюционных методов
#46
by Широкий
вроде ты продолжаешь мысль в двоичном системе? следи за моей логикой: в двоичной системе бит варьируется : 0-1 в троичной системе бит варьируется : 0-2 ... в десятеричной системе бит варьируется : 0-9 и т.д. к примеру число 4 100 = 11 = 4
#48
by ШтушаКутуша
ну для начала: 1.обучение с учителем,например персептрон 2.обучение без учителя,напр.ассоциативные сети Хопфилда
#49
by NS
Да чего поражать. Несколько столетий назад они появились. И накладывали Монте-Карло для поиска локальных экстремумов и для улучшения сходимости всегда...
#50
by ШтушаКутуша
вектор из производных-указывает направление наибольшего возрастания функции. Примерно тот же подход используется и в наискорейшем спуске
#51
by France
а генетические как раз таки устойчивы к локальным экстримумам и дают возможность приблизится, по возможности, к глобальному...
#52
by Молния
как то по одному предмету делал доклад по нанотехнологиям. Там в числе всего была такая фишка - один мужик делал просто супер открытия которые ни у кого больше не получались. Типа у него там все вообще круто, что вот вот изобретет как делать процы сразу из атомов и т.д. И где то год все ему верили и восхищались. Потом стали удивляться что его эксперименты ни у кого больше не получаются. Потом начали копать под мужика. Оказалось что все данные по экспериментам вообще не существуют, а мужик ездил по ушам. А он отмазывался что просто на винте места не хватило и он потер экспериментальные данные и оставил только итоги.
#53
by ШтушаКутуша
"И накладывали Монте-Карло для поиска локальных экстремумов и для улучшения сходимости всегда." может глобального экстремума?
#54
by NS
Нейроные сети - это просто сбор статистики для последующего предсказания. Такое-же как и любой другой, только намного более медленный и заморочный, поэтому имеющий применение только в теории. На практике это тоже самое что и остальные методы, только медленней из-за своей извращенности...
#55
by NS
Генетические Алгоритмы - Это и есть Спуски, с внесенной погрещностью для лучшей сходимости, и с запоминанием нескольких точек для поиска локальных экстремумов, которые применялись всегда, задолго до возникновения "громкого" термина.
#56
by ШтушаКутуша
устойчивость,можно предположить,является в ген.алг. как раз м.Монте-Карло:обмен генной инф,репликация,если не ошибаюсь,носит в знач.степени случ.характер,только вот распределение случ.величины не скажу.
#57
by xPalych
бит = "BInary digiT" т.е. состояния всет-таки два. Ты же говоришь о неделимой единице измерения количества информации.
#59
by France
если следовать твоей логие, автомобиль - та же арба, и термин придумали ради того "красивого словца".. знаеш, ты прав в том, что называеш все авто - арбой..
#60
by NS
Нет, во времена Арбы не былоо автомобилей, в том и отличие. А до генетических алгоритмов генетические алгоритмы были, только назывались модификациями спусков, и к генетике они имеют ну уж совсем отдаленное отношение... Сложение тоже похоже на спаривание...
#61
by ШтушаКутуша
если под сбором статистик ты имеешь ввиду обучающую выборку, то да,это так,но так же можно сказать практически обо всем-это оч.общ. утверждение. Главное топология сети и обучающий алгоритм- фактически это тоже оптимизационная задача,как и суть генных алгоритмов, но! Вся фишка в том,что здесь уже было сказано о "многопараметричности", так што классич. град.методы в том числе и наискорейшего спуска, просто не сможет работать на,скажем 1000,3000 и более параметров это так называемое "проклятье размерности"
#62
by ШтушаКутуша
+61 поэтому:говорить,что м.наискорейшего спуска=ген.алгоритму=нейросети, будет неправомочным обобщением
#63
by France
каждый имеет право называть свою идею так, как он хочет.. так что, если кто то и назвал модификацию других методов "генетическими", то это его право...
#67
by Широкий
если ты значешь название данного термин - скажи, я могу запатентовать термин трит и десятерит :))) если конечно от этого станет легче :))
#68
by ШтушаКутуша
+64 то есть обобщать на основании,что там и там применяются градиенты-неправильно, т.к. я применяю и арифметические действия,так что это можно назвать "арифметическими" методами?
#69
by smaharbA
А причем тут бит ? объем любой памяти характеризуется содержимым а 10 что в 10-чной что в двоичной, всеравно 10
#73
by France
я не про тебя... а про то, что объявив тему "еретичным", сразу же приплели и алгоритмы оптимизации, никакого отношения к теме не имеющие..
#77
by NS
Самообучение - это только громкий термин для сбора статистики - это способ сбора статистики и её использования, а не сомообучения. Насчет спусков - У меня выложен пример подсчета рейтингов - Спуск по 3000 параметрам - сходится очень хорошо, накладывание генетических алгоритмов тут по сути ничего не меняет, так как экстремум один. Несколько - нужны уже генетические для поиска глобального минимума/максимума - только какие-жк это Гнетические (о какое слово) алгоритмы, когда это тот-же спуск с наложенным моенте-Карло, и с запоминанием нескольких точек. И Генетические алгоритмы - тоже можно назвать самообучением - но какое-же это самообучение когда это наибанальнейший поиск экстремумов???
#78
by ШтушаКутуша
ИМХО:а ваще,если наращивать состояния,то с необходимостью придется оперировать внешними формами близкими к привычным,человеческим представлениям
#79
by xPalych
Троичная цифровая техника базируется на трехзначных сигналах и трехстабильных элементах памяти (тритах). Объекты, принимающие более чем три значения, реализуются в ней как совокупности тритов. Операции над этими объектами осуществляются как последовательности операций трехзначной логики. Аналогом байта служит шестерка тритов - трайт. Двузначные объекты и операции над ними содержатся в троичной технике как вырождения тритов и операций трехзначной логики.
#80
by Каанкереде
Самый прикол, когда я читал книгу Шеннона, так там была такая оговорка, что мол мы используем двоичную систему, а где нибудь на марсе может ктото использует троичную. И тут же сноска переводчика, в которой говорилось о советских ЭВМ на троичной логике..Я валялся под стулом...
#83
by NS
Не приплели. Было мнение выдающихся Советских матаматиков, могу поискать в инете. Для выкачивания денег было придумано три громких названия - Генетические алгоритмы, нейронные сети, и нечеткие множества. И так-же было придумано направление - обратно к аналоговым вычислениям, несколько (а не два) устойчивых состояний и т.д. Это всё ягоды одного поля. Чистое мошенничество и темы для публикаций и диссертаций. И если генетические алгоритмы - просто другое название всем известных методов, то остальное - просто очковтирательство.
#84
by Каанкереде
Ну не знаю, мне показлось смешным, прочитать, про то, что троичной логикой пользуются какие то инопланетяне в отличии от землян, и тут же прочитать, что марсиане из СССР реализовали таки такую систему
#85
by ШтушаКутуша
ключевое понятие здесь:"так как экстремум один" т.е. утверждение что глобальный экстремум существует и он один, но строго доказать,что ты достиг его,можно только аналитически, что согласись,затруднительно,потому что аналитического выражения для такой сложной целевой(оптимизируемой)функции ты скорее всего не имеешь. И насчет "3000 переменных" может ты их путаешь с количеством отсчетов(значений) ф-ии? То есть с диной обучающей выборки?
#87
by NS
Метод максимального правдоподобия. По 3000 параметрам максимизируем вероятность. Метод наискорейшего спуска. Предшественники (аналоги) искали экстремумы до 1000 параметров, я значитеьно улучшил сходимость видоизменив (прологарифмировав) целевую функцию, и использовав статистику для расчета значения шага в наискорейшем градиентном спуске. Конечно ничего не путаю - именно функция от 3000 параметров.
#88
by NS
Причем тут длина обучающей выборки? :) Наискорейший градиентный спуск. С переменным шагом. В чистом виде.
#89
by ШтушаКутуша
(87,88) итак,у тебя имеется некая функция,имеющая N(N=3000) переменных,параметров. есть таблица со значениями, количество значений M,котрые ты описываешь(апроксимируешь) этой функцией с 3000 переменных,так? В качестве критерия у тебя,скорее всего взято средне кв.отклонение, то есть сумма кадратов деленное на M. Так?
#90
by ШтушаКутуша
+89 таким образом табл.экспериментальных значений имеет размерность N колонок и M строк. Так?
#91
by NS
Два разных метода. Метод наибольшего правдоподобия - максимизируется вероятность (произведение вероятностей), одно значение, и метод наименьших квадратов - минимизируется сумма квадратов отклонений, в данном случае 3000*2999/2 Значений :) - так-же градиентным спуском. В случае метода наименьших квадратов значения похожие, но немного хуже (наибольшее правдоподобие Рулезззз), может использоваться только для проверки. Нет гарантий что метод наименьших квадратов приведет к сумме квадратов равной нулю, Поэтому проверкой может служить только модуль градиента. Именно три тысячи параметров - на всякий случай повторю :) Для проверки что экстремум не локальный, используется расчет двумя методами - наименьших квадратов и наибольшего правдоподобия (Должны давать близкие результаты), и значения посчитанные программами аналогами. Так-же можно использовать Монте-Карло - Последовательно спускаемся из различных "хороших" точек. Должны приходить к одному месту (Если Экстремум один)
#95
by NS
Матрица значений, исходя из которых при участии вектора из 3000 значений (Парамтры функции, максимизирующие значения которых должны найти) считается вероятность. Производная (Градиент) считается "По честному" По каждому измерению (Ф(Х+Дельта)-Ф(X))/Дельта - в аналитичском виде производная для такой функции неизвестна...
#97
by NS
Чтоб было понятней, расчет функции в чистом виде, неоптимизированный (Для нагладности) Function MatOj(Elo:Double):Double; Begin MatOj:=1/(1+Exp(-Elo*Ln/400)); end; Function Ver(Var rating:rr):Double; var i,j,kol:integer; var sum,MO:double; Begin Sum:=0; for i:=1 to NameCount do for j:=1 to NameCount do Begin kol:=Table[i,j]; MO:=MatOj(Rating[i]-Rating[j]); sum:=sum-ln(MO)*kol; end; Ver:=Sum; end; Считается Логарифм вероятности. Матрица 3000*3000, 3000 параметров.
#98
by NS
Считается ГРАДИЕНТ. Х - изначально вектор, для расчета градиента фиксируются все значения кроме одного. и так 3000 раз - получаем градиент.
Тэги: IT-новости
Ответить:
Комментарии доступны только авторизированным пользователям
Похожие вопросы 1С
В этой группе 1С
- как из даты получить месяц прописью?
- Stream format error
- Выгрузка контактной информации
- Интернет на ноутбуке за границей
- Почему в ЗУП "Плановые начисления работников" не РН, а РС?
- v7: Поступление на лицевой счет
- Как получить объект на запись?
- Камеральная самопроверка декларации по налогу на добавленную стоимость
- Где можно посмотреть какой релиз платформы сейчас текущий
- v7: ошибка загрузки модуля CONFIG.DLL
- v7: Как отразить договор-основание в печатной форме документа?
- Вопросы к экзамену "1С: Профессионал", конфигурация "1С:Бухгалтерия 8.0"
- Какой драйвер надо использовать для подключения сканера который читает двум
- Экспорт печатных форм в Word
- Подскажите где найти ТЗ на 1с
- Как измерить загрузку сервера 1С предприятия и SQL?
- не считается НДФЛ в камине
- Сохранение Word в ХранилищеЗначений
- Как напечатать прайс-лист в 2 колонки?
- Как очистить все параметры области табличного документа?