- Видео 22
- Просмотров 2 080 624
3Blue1Brown translated by Sciberia
Россия
Добавлен 22 янв 2019
Наши переводы MIT и Stanford: ruclips.net/user/sciberia_science
[Calculus | глава 12] Другой способ визуализации производных
Оригинальная запись: ruclips.net/video/CfW845LNObM/видео.html
Просмотров: 28 318
Видео
[Calculus | глава 11] Ряд Тейлора
Просмотров 73 тыс.2 года назад
Оригинальная запись: ruclips.net/video/3d6DsjIBzJ4/видео.html
[Calculus | глава 10] Производные высших порядков
Просмотров 21 тыс.2 года назад
Оригинальная запись: ruclips.net/video/BLkz5LGWihw/видео.html
[Calculus | глава 9] Какое отношение площадь имеет к наклону?
Просмотров 20 тыс.2 года назад
Оригинальная запись: ruclips.net/video/FnJqaIESC2s/видео.html
[Calculus | глава 8] Интегрирование и основная теорема матанализа
Просмотров 30 тыс.2 года назад
Оригинальная запись: ruclips.net/video/rfG8ce4nNh0/видео.html
[Calculus | глава 7] Пределы, правило Лопиталя и эпсилон-дельта определение
Просмотров 36 тыс.2 года назад
Оригинальная запись: ruclips.net/video/kfF40MiS7zA/видео.html
[Calculus | глава 6] Неявное дифференцирование - что здесь происходит?
Просмотров 31 тыс.2 года назад
Оригинальная запись: ruclips.net/video/qb40J4N1fa4/видео.html
[Calculus | глава 5] Что особенного в числе Эйлера?
Просмотров 44 тыс.2 года назад
Оригинальная запись: ruclips.net/video/m2MIpDrF7Es/видео.html
[Calculus | глава 4] Визуализация правила произведения и сложной функции
Просмотров 15 тыс.2 года назад
Оригинальная запись: ruclips.net/video/YG15m2VwSjA/видео.html
[Calculus | глава 3] Формулы производных через геометрию
Просмотров 18 тыс.2 года назад
Оригинальная запись: ruclips.net/video/S0_qX4VJhMQ/видео.html
[Calculus | глава 2] Парадокс производной
Просмотров 24 тыс.2 года назад
Оригинальная запись: ruclips.net/video/9vKqVkMQHKk/видео.html
[Calculus | глава 1] Суть матанализа
Просмотров 61 тыс.2 года назад
Оригинальная запись: ruclips.net/video/WUvTyaaNkzM/видео.html
Теория групп и 196883-мерный монстр
Просмотров 338 тыс.3 года назад
Оригинальная запись: ruclips.net/video/mH0oCDa74tE/видео.html
[DeepLearning | видео 4] Формулы обратного распространения
Просмотров 49 тыс.3 года назад
Оригинальная запись: ruclips.net/video/tIeHLnjs5U8/видео.html
[DeepLearning | видео 3] В чем на самом деле заключается метод обратного распространения?
Просмотров 91 тыс.3 года назад
Оригинальная запись: ruclips.net/video/Ilg3gGewQ5U/видео.html
[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети
Просмотров 172 тыс.3 года назад
[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети
[Covid-19] Экспоненциальный рост и эпидемии
Просмотров 12 тыс.4 года назад
[Covid-19] Экспоненциальный рост и эпидемии
[Bitcoin | видео 1] Что значит владеть биткоином?
Просмотров 33 тыс.4 года назад
[Bitcoin | видео 1] Что значит владеть биткоином?
[Riemann | видео 1] Визуализация гипотезы Римана и аналитическое продолжение
Просмотров 122 тыс.4 года назад
[Riemann | видео 1] Визуализация гипотезы Римана и аналитическое продолжение
[Collisions | видео 1] Крайне неожиданный результат подсчёта
Просмотров 67 тыс.5 лет назад
[Collisions | видео 1] Крайне неожиданный результат подсчёта
[DeepLearning | видео 1] Что же такое нейронная сеть?
Просмотров 769 тыс.5 лет назад
[DeepLearning | видео 1] Что же такое нейронная сеть?
а почему, "...кажется что производная 2^t равно 2^t ....."?? из пояснений кажется что равна как раз 2^t-1
у меня защита проекта в 10 классе благодаря вашем роликам думаю сдам на отлично upd: точно сказу завтра как сдал
Если у кого-то не работает перемножение матрицы: 14:54 - ошибка небольшая - у матрицы b должно быть k элементов, а не n
Все бы хорошо, но числа не кОмплексные кОмплексный обед, а числа комплЕксные
Спасибо Гранту Сандерсону , за человеческое объяснение этой не простой для понимания темы.
принцип работы нейросетИИИИ есть торговые сЕти, социальные сЕти, нейро сЕти, рыболовные сЕти.. разместить товар в одной торговой (нейро, водосточной) сетИ. где? - в сетИ. одной сетИ. одна рыба положена в сЕть. рыба лежит в одной сетИ. стопкой лежат сЕти. (множественное число) выбросить информацию в социальные сЕти, разместить информацию в одной социальной сетИ. разместить в сетИ интернет
Когда вся актуальная политата на сегодня просмотрена, на оливьешку надо под что то есть. Пошёл ставить чайник
Это просто лучшее, что можно найти на данную тему. Спасибо!
1:57 алгоритм 2:38 MNIST Database 3:10 4:00 вычисление функции ошибки (математическим языком - добавить квадрат разности между каждым "плохим" значением) 4:56 функция ошибки 5:19 6:50 7:04 7:34 8:02 многомерный анализ 8:24 9:18 10:06 10:42 ! 11:27 11:45 вычисл. градиента функции двух переменных 12:10 12:28
легенда бро просто шедевр просто гений просто целую твои пятки
у меня после 8 минут голова взорвалась
видел видео и понятней по нейросетям. автор сильно погряз в математической закостенелости и не может осознать, что если называть каждую переменную 3 символами, то не удивительно, что ничего не будет понятно. легче было бы дать полные имена каждой переменной, как это принято в программировании
всё чётко сжато, настоящий талант
ваш канал это библия математики
Смотрю получаестья пи, такой думаю ха-ха похоже на "пи" смотрю дальше 31414 + 1, думаю "пи", и тут автор говорит про "пи" , и тут тогда взрыв башки от эмоций. это 3,14здец =)
Привет всем, кому матан нужен для аналитики или датасаенса, особенно кто по рекомендации канала Data Science Guy.
Зачем так долго объяснять то что нужно взять производную от сложной функции??
Это кокаято нейросеть или игра где можно также😢
Благодарю вас!
А цифры числа е можно получить макаром типа такого?
Калейдоскоп дуальностей Люцифера манипуляции с числами вот и всё, что представляет из себя сеть.
я честно говоря не понял, почему производная d(sin(h)) равна cos(h) * dh
Видишь ли, это тоже самое как если бы ты брал производную от sin(x). Производная от sin(x) равна cos(x). Тоже самое и тут, только вместо x у тебя другая буква - h. В общем ты умножаешь производную внешней функции по внутренней на производную внутренней по переменной.
А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?
НИXPEHA НЕ ПОНЯТНО. 😢
Я посмотрел наверное с пару десятков видео про Nl и прочитал несколько десятков статей, но я до сих пор ниxpeна на понял как это работает.... 😢 Я пока сделал только один вывод - дадасапиенсы либо банально не умеют объяснять предмет для широких масс, либо сами не до конца понимают. Увы.
@@xxphall Логика в том, что если ты не умеешь объяснять (часто равно не знаешь предмет), то не нужно объяснять, ибо ты только запутываешь людей и тратишь их время. Сквозь тысячи видео/постов го*на очень сложно найти нормальные материалы. Теперь понятно?
Давно проходил этот плейлист, потом ещё 1, скоро буду курс изучать по нейронкам, после курса по машинному обучению, плейлисты, которые я смотрел не показывают всю работу нейронов детально, шаг за шагом, очень не хватает глубины понятия материала. Может нормально только в универах зарубежных будут объяснять, фиг знает
Я ничего не понял. То есть чтобы узнать значения потерь нужно разметить вручную (!!) сотни правильных примеров?
Чёрт, как же интересно. Я просто в афиге. Очень круто!
Я, как зритель искушённый, всё, что хотел донести мистер Грант, понял. На самом деле, чтобы по-настоящему понять данный ролик, нужно не так много подготовки, как может показаться. Упомянутая тут теорема о классификации простых конечных групп, пожалуй, самый глубокий результат в математике. Осознав это, прочувствовав, можно испытать самые невероятные чувства... (покруче тех, которые испытывали древние люди, впервые осознав тот факт, что Земля имеет шарообразную форму)
Отличный интересный рассказ для не специалистов в этой области, т.е. для меня! Спасибо! С удовольствием послушал бы продолжение, больше погружающее в группы!
Мне странно что кто-то может не знать этого, это же самые азы.
преподы бы так объясняли, то зачастую базис свой сами объяснить не могут, зато как высоко при этом о себе думают, что аж зубы сводит
Нужно быть немного аккуратнее с обозначениями dF и dx всегда друг на друга дают нам производную, требование предела для dx не нужно. Ведь dx это дифференциал, а не приращение, а вот для приращения F уже нужно такое требование. Понятно, что тут не пытаются в строгость, но всё-таки, на второй минуте можно было просто использовать обозначения для приращений, а не дифференциалы писать. А то потом студент это запомнит и на экзамене ему тройку впаяют, и будут правы.
👍
Гораздо проще это объясняется с точки зрения геометрии. Сначала мы выбираем характеристики, получаем н-мерное пространство характеристик. В этом пространстве у нас есть точки. Затем мы строим н - 1 мерную плоскость, чтобы разделить характеристики на 2 группы. Она определяется с помощью матрицы и и оффсета. По сути задача построения модели для обучения есть построение различных плоскостей, которые будут эффективно делить наши характеристики на каждом этапе до получения результата.
А разве 2хdx не дифференциал функции, а производная?
Спасибо, просто великолепная подача материала!!
ты лучший
Живая слышу многочлена два разные видео😂😂😂
Нихера не понятно. Увы. Градиенты, спуски... Это понятно даже воробушку, но представить это на этой сети - не получается. Что, куда? Аа... уже не поспеваешь за роликом и энтропия в голове наслаивается и наслаивается превращаясь в ком "непоняток". Само видео - крутое, качественная анимация, вроде должно дать понимание, представление... но увы, в 45 лет это тяжело осознавать
Мдаа... видео хоть и качественное, сделано грамотно, визуализация крутая, но... НИЧЕГО НЕ ПОНЯЛ, было просто интересно. 🤣
немного не понял вообще :) есть ли кто, кто может как-то иначе объяснить неявное дифференцирование?
6969696969696969696969
Откуда взялся зеленый Пи?
Здравствуйте, можете рассказать про среднеквадратичную производную?
Каеф, вот только не "рывок", а "тряска", вроде как
Почему-то кто-то решает, что это число некрасиво, но кто сказал, что десятичная система самая красивая из выбранных? Уже представляю себе систему счисление с количеством знаков равным монстру Было бы ещё забавно, если бы число оказалось простым
Ничего не понял, но очень интересно
Очень хороший перевод, спасибо и респект)
Миллионный приз чепуха по сравнению со взломом биткоина. 😂
задача с корнем графически сформулирована неверно