RTX 3080 – Мечта, которой нет в наличии

    Выход поколения Ampere ждали все. Предыдущий Turing оказался слишком дорогим и совершенно посредственным, а подоспевшие позже карты с припиской Super только больше запутали публику. Все с нетерпением ожидали анонса поколения, которое станет поводом для долгожданного апгрейда с блестящей линейки Pascal. И Ampere при всех слухах, тизерах и ожиданиях обещал стать именно тем, на что так рассчитывали фанаты – мечтой, которая вот-вот станет реальностью.

    image

    Для начала напомним технические фишки Ampere. Согласно официальной презентации, которая состоялась 1 сентября, главными особенностями нового поколения стали сильно возросшие цифры CUDA-ядер (более чем в 2 раза превышающие значения Turing) и новое поколение RT-ядер, с помощью которого NVidia обещала сократить падение производительности при использовании трассировки лучей. Также особый акцент был сделан на применение технологии мультисемплинга DLSS 2.0, дебют которой в Control и Death Stranding стал настоящим потрясением для большинства игроков. Неудивительно, что именно эта технология выступает одним из ключевых преимуществ решений NVidia перед видеокартами AMD.

    image

    При этом у новинок есть и технические недостатки. Производством чипов Ampere на 8-нм техпроцессе занимается компания Samsung, технические решения которой значительно уступают конкурентным предложениям TSMC, 7-нм пластины которой значительно плотнее в плане бюджета транзисторов на квадратный мм, и предлагают лучшие характеристики производительности на ватт. Использование компромиссного варианта корейской компании привело к тому, что размер чипов оказался довольно велик, а энергопотребление, несмотря на смену техпроцесса, в среднем на 40% превышает значения аналогичного сегмента видеокарт поколения Turing (произведенного на базе 12-нм техпроцесса TSMC). Именно возросшие аппетиты стали причиной появления того необычного высокотехнологичного кулера референсных моделей, призванного сохранить тишину и обеспечить эффективное отведение более чем 300 Вт тепла. Напомним, что RTX 3080 в базовом исполнении без разгона потребляет 320 Вт, а при повышении частот это значение может возрасти до 360 Вт или даже выше. Для юзера это означает лишь одно – простеньким блоком питания от предыдущей сборки уже не обойтись.

    image

    Теперь к презентации. В рамках анонса Дженсен Хуанг сделал серьезные заявления, сообщив о двукратном преимуществе новой RTX 3080 над своей предшественницей – RTX 2080 (не путать с Super). Смазанные графики без упоминания кадров в секунду, а также постоянное подчеркивание 4К, трассировки лучей и технологии DLSS во многом заставили пользователей насторожиться – а что если сырая производительность новинки далека от ожиданий? Многочисленные утечки и ожидания пророчили Ampere трехкратный, а то и четырехкратный прирост производительности с трассировкой лучей (а некоторые даже предполагали, что необычная компоновка кулера NVidia связана с присутствием на задней стороне платы отдельного RT-чипа, отвечающего за обработку таких инструкций). В этом плане официальная презентация оказалась куда скромнее, — 80% прироста в сравнении с 2080, но даже такой шаг нельзя назвать разочарованием в рамках всего одного поколения.

    Наконец, вишенкой на торте стала цена – всего $700 за «новую флагманскую видеокарту» (как назвал её сам Дженсен) выглядело чуть ли не подарком на фоне $1000 цены 2080Ti, но многие люди в индустрии сразу подчеркнули, что первые поставки будут очень скромными, поэтому спешить с выводами не нужно. Кто-то не послушал, и ринулся в панике продавать свои карты за бесценок, уповая на удачу. На деле же всё оказалось куда хуже, но об этом чуть позже.
    16 сентября обзоры RTX 3080 появились в сети. Впечатления от реальных сравнений 3080 vs 2080 оказались неоднозначными – с одной стороны, преимущество над картой поколения Turing практически никогда не превышало 50-70%, с другой – благодаря расширенному до 10 Гб буферу видеопамяти новинка получила возможность блеснуть более существенным приростом в 4К. Помните официальную презентацию Nvidia, где в Doom Eternal новинка отрывалась от предшественницы аж на 60 фпс? Выяснилось, что выбор этой игры был не случаен – при использовании пресета графики Ultra Nightmare в 4К-разрешении игра потребляет ровно 10 Гб видеопамяти, из-за чего RTX 2080 с 8 Гб на борту испытывает острую нехватку буфера, позволяя RTX 3080 без труда показать колоссальный прирост в более чем 100%. К несчастью для будущих владельцев, эта игра оказалась единственным исключением.

    image

    Неизбежное сравнение с 2080Ti показало, что карта всего на 25-30% быстрее прошлого флагмана, что стало еще одним поводом для жесткой критики. Сырой 50% прирост на фоне прошлого лидера позволил бы задать совершенно новую планку производительности, недостижимую для AMD, однако теперь загадочные карты на базе RDNA2 получили возможность навязать серьезную конкуренцию серии Ampere.

    Но куда большей неожиданностью стали результаты тестирования RTX 3080 в играх с поддержкой RTX и DLSS 2.0. Оказалось, что Ampere практически не получила прироста эффективности в работе алгоритмов трассировки лучей по сравнению с первым поколением RT-ядер в Turing – новинки в среднем были быстрее в работе со сложными эффектами и освещением всего на 20%, а в ряде случаев цифры были даже ниже этих значений. Во многом разница в общем fps здесь достигается не благодаря продвинутым RT-ядрам нового поколения, а за счет банального повышения общей сырой производительности видеокарты – это логично, но где же обещанные на презентации 80%? Даже в сравнение с 2080 разница чаще всего лежала всё в той же плоскости 50-70%. Digital Foundry, как Вы могли?

    Многие возразят, сказав – «Да черт с ним, посмотрите на цену! Мы платим куда меньше, а получаем на 30% больше, чем раньше!». Но так ли это? Здесь всё куда сложнее, чем может показаться на первый взгляд. После старта продаж 17 сентября все RTX 3080 были разобраны за считанные минуты, и уже в скором времени на Ebay стали появляться очень «выгодные» предложения по покупке предзаказа, ставки на которые иногда превышали реальную стоимость новинки в десятки раз.

    image
    Источник

    NVidia довольно быстро оказалась неспособна принимать предварительные заказы (карт просто не было в наличии), партнерские решения точно также разлетелись чуть ли не мгновенно. Кое-где появлялись отдельные экземпляры карт, но цены на них были тоже существенно выше нормы.

    В России RTX 3080 тоже появилась – и стоила по 85 тысяч рублей (при рекомендованной цене в 63 490 рублей). Встречались и более доступные модели, но и они предусматривали наценку в 15 тысяч рублей или выше. Кто-то уже советовал присмотреться ко всем известному немецкому магазину в желании купить заветную карту, но не обольщайтесь – несмотря на вкусные цены, их, как и везде, до сих пор нет в наличии.

    Что можно сказать об этом релизе? Дженсен Хуанг, как и всегда, заставил тысячи людей ахнуть и бежать в магазины, занимая очередь и перепродавая предзаказы за бешеные деньги. RTX 3080 оказалась далеко не такой производительной, как все ожидали, трассировка лучей всё еще превращает 100 фпс в 50, а очень приятная цена также далека от реальности, как второй чип на обратной стороне платы. К счастью, когда-нибудь всё образуется, и мы надеемся, что еще к Черной Пятнице магазины пополнят свои складские запасы и предложат оголодавшим ПК-боярам долгожданные новинки поколения Ampere. Ну а если нет — всегда будет возможность купить Big Navi.

    Не ведитесь на громкие обещания, не верьте в красивый маркетинг, и никогда не продавайте железо за бесценок из-за красивых заявлений.

    Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.

    Ждете карты AMD?

    • 48,4%Да, безусловно341
    • 23,8%Нет, AMD печка168
    • 27,8%Не знаю, у меня встройка196
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 50

      +3

      только ценник не 800, а 700 (699)

        +19
        20% и «почти не получила» в одной фразе.
        Не, я понимаю, что хотелося бы удесятерения производительности и еще и за 10 баксов. Но есть же реальный мир. 20% вполне прилично, больше, чем сейчас поколения процессоров дают.
          +11
          К тому же 20% — это по сравнению с карточкой за $1200.
            +1
            Да-да, есть реальный мир, напомню вам как же он выглядит:
            image

            А у нвидии в презенташке написано «GREATEST GENERATIONAL LEAP» и «up to 2x». Ну, конечно, можно и дальше находить оправдания для прямой лжи и дешевых приемчиков в стиле шаурмячной на углу, но реальная феноменальность нового поколения это цена. Тем не менее, они профакапили и тут, потому что не смогли обеспечить предложение.
              0
              Поделите эти проценты на время между генерациями и все станет не так радужно.
                0
                Поделить проценты на время? Интересно. Вы бы не могли сами это сделать чтобы донести то, что вы имели в виду? Вот прям последние 3 генерации возьмите.
                  0
                  Прирост по годам. Если для 130% потребовалось 4 года, а другие сделали три раза по +30% к предыдущему за год, то кто в среднем быстрее развивался?
                    +1
                    Я не понимаю, почему вы приводите не аргументы, а лишь какую-то методологию, которую сами отказываетесь применять?

                    Ну хорошо, давайте я сделаю это за вас, мне не трудно, возьмем последние 3 поколения, не Ti.

                    GTX 980 -> GTX 1080
                    +60% за 19 месяцев

                    GTX 1080 -> RTX 2080
                    +35% за 26 месяцев

                    RTX 2080 -> RTX 3080
                    +52% за 24 месяца

                    Данные все отсюда.

                    Все, уже тут видно вранье про «GREATEST GENERATIONAL LEAP», даже в более старые генерации не надо забираться.
                      –2
                      То, что вы делаете называется подтасовка данных. В чью пользу — неважно в данном случае.
                      Постройте график по времени и выведите среднее значение.
                      И вообще, у вас никак не получится по этим данным вывести «почти не получила»(смотрите начало ветки)
                        +2
                        А можно уточнить какие именно данные я подтасовал? Ну, чисто чтобы не продолжать делать громкие бездоказательные заявления вместе с NVIDIA?
                        0
                        Я не понимаю, почему вы приводите не аргументы, а лишь какую-то методологию, которую сами отказываетесь применять?
                        потому, что её запросил ваш оппонент, а я просто указал, как правильнее рассматривать прирост между поколениями в привязке ко времени, ибо не через одинаковые промежутки выпуск происходил.
              +2
              Пора уже какое то крепление дополнительное делать. А то такие монстры со временем провисают и начинают отваливаться контакты. Приходится угол подпирать чем то. Тут кто то писал что палочками для еды подпирал чтобы работало.
                +1
                Палочки как то совсем не надежно звучит.
                Palit придумали и кладут в комплект к 3080 карте прозрачный акриловый держатель.
                У меня в комплекте к корпусу Cooler Master CM 690 II Advanced была тоже приблуда для поддержки видеокарт.
                Ну и в нормальные материнки сейчас уже ставять усиленные слоты РСІ-Е.
                  +2
                  К слову сказать поддержка периферийных карт (на тот момент еще обычного PCI и AGP) была by design сделана в корпусе Thermaltake Xaser III выпущенного в 2003 году.
                  Этот старичок скоро встретит двадцатилетие на подстольном боевом посту
                    0
                    Оно и раньше было, для fullsize карт поддержка была ещё в первых ATX корпусах, но потом пришло время красивых дизайнов… А так пожалуйста — www.trepup.com/hitechcomputercentre/products/compaq-400546-001-smart-array-221-pci-scsi-raid-card/494976 пример карты для установки с этой поддержкой на второй фотографии (эта пластиковая ручка на заду карты удачно входила в ответку на корпусах (и это не только «белая» сборка от компака, но и во всякие Inwin S500 оно также вставлялось прекрасно)).
                      +1
                      это было ещё в корпусах для ХТ, с длиннющими SCSI или CGA видяхами
                      кстати вариант — вернуться к формфактору лежачий десктоп
                        0
                        Или взять корпус, где видеокарта стоит вертикально. Ну или через райзер + держатель для видеокарты
                      0
                      Штатные кулеры корпуса до сих пор работают и не думают помирать.
                        +1
                        А чего им будет? Только машинного масла раз в год капнуть, чтобы не гундели.
                          0
                          не, штатные все передохли, хоть я масла и подливал =(
                          и штатный БП умер году в 2010, на 420 ватт. 420 в базе в 2003, когда еще массово ставили на 250вт и это считалось нормой
                          на 99% умерла штатная подсветка логотипа — даже не знаю что там за технология светящейся пленки.
                          У реобаса разболтались ручки
                          Но все равно я считаю что это были лучшие вложения моей первой зарплаты в 2003 году — хотя бы как ностальгия которая до сих пор мне служит, и которую я с легкостью могу потрогать ногой прям щас, перечитывая хабр
                      +1

                      Было уже у AMD, то есть ATI. На R600, ЕМНИП.

                        +3
                        В «старые времена» в корпусах была предусмотрена съемная вертикальная балка, с помощью которой(и пластиковых клипс, вставляемых в балку) подпирались видеокарты, сейчас такая «новинка» снова начинает появляться, спустя 15 лет.
                        Даже в закромах еще есть такой, оказывается.
                        image
                          +7
                          Были времена и постарее)
                          image
                            +3
                            А у вас и стандартная поддержка полноразмерных карт есть.
                            Красным выделена
                            image
                            0
                            В комплектах с некоторыми картами уже идут поддерживающие пластины. Ну и в дорогих корпусах давно существуют поддерживающие крепления.
                              +5
                              Пора уже какое то крепление дополнительное делать.

                              Ага, вертикальную установку.
                                +1
                                А если мамку положить, то поддерживать и тяжелый кулер на процессор не надо… Правда для полных ATX корпус какой-то большой получается, а для mATX — норм.
                                  0
                                  Жаль, что не сделали какого-нибудь стандарта крепления процессорных кулеров для ATX, и в итоге производители только экономят металл на вырезах для удобства пользователей.
                                  А для видеокарт в принципе ничто не мешает как я понимаю цепляться за корпус. Но везде где я видел к корпусу прикручивается задняя железка, она прикручена к плате, а уж к плате прикручено охлаждение весом чуть ли не в килограмм. Вот нафига так делать, и почему бы не соединить две железки напрямую?
                                    0
                                    У меня сквозные дырки для крепления задней планки. И я за****ся скручивать их вместе, т.к. нужно было минимум три руки чтобы всё соединить.
                                      0
                                      Вот вот. А были бы фиксированные стойки прямо в корпусе, и хватило бы одной руки.
                                  +1
                                  Уже, Sharkoon REV200 RGB
                                  Заголовок спойлера
                                  image
                                  +1
                                  А как сторонникам mini-itx жить? И так далеко не в каждый корпус влазили, а сейчас вообще печалька будет.
                                    0
                                    Не референс 3080 на два слота должен без проблем влезть в корпуса 7+ литров по типу Dan A4.
                                      0
                                      Да, но там с охлаждением намудрили. По идее в большом кейсе с хорошо организованным потоком воздуха оно работает, а вот в «сэндвичных» mini ITX корпусах… Ждем тестов от энтузиастов короче, сразу как легче с наличием станет.
                                        0
                                        Не референс это дизайн от сторонних производителей. А там у всех классические три вертушки с одной стороны и старые разъемы питания.
                                          0
                                          А, тьфу, умудрился проглядеть «не». Да. Однако по габаритам FE, похоже, самая мелкая при всем при этом.
                                            0
                                            С самыми первыми версиями всегда так. У всех вендоров практически одинаковый охлад и он большой, т.к. печатные платы они чаще всего не успевают свои разработать. Нужно немного подождать, пыль уляжется и пойдут уже интересные версии. Уверен и короткие будут на 2 вертушки.
                                    –2

                                    Комп на бок положить и никакие палочки не нужны ) сервера так десятилетия работают и ничего не провисает. Ну разве что чсв владельцев ЛГБТ подсветки )

                                      0
                                      Он так больше места занимает. А гроб у меня и так без подсветки и окошек, не нужно тут всех приписывать к владельцам подсветки. И да, в подсветке нет ничего плохого, пока есть возможность её отключить, кому нравится, тот оставит и настроит для себя.
                                    0
                                    Уважаемый автор, обновите картиночку с характеристиками. Кол-во CUDA -ядер в 2 раза больше.(хар-ки) И раз уж сравнивать, то брать обе карты из топа серии. 2080 ti и 3090. Или тогда сравнивать 2080 Super с 3080(S). И тогда становится интересней — 3072 против 8704 cuda ядер. И памяти уже 8GB против 20GB. И производительность лучше подросла.
                                      0
                                      Сравнение тут верное: 3080 прямой конкурент 2080ti, а 3090 замена rtx titan. Ну и на счет игровой производительности: реальная разница там 15-20% в 2k и без dlss. Сравнение в 4к просто маркетинговая чушь, так как обе карты не в состоянии предоставить стабильные 60фпс в этом разрешении на макс графе. Но в любом случае это отличный результат учитывая цену в 2 раза ниже.
                                        +3
                                        Сравнивать нужно исходя из стоимости на старте продаж (грубо сколько производительности получишь за 1$), и тут получается что 3080 прямой конкурент 2080 — оба на старте продаж стоили 700$ — сразу виден ощутимый прирост, ибо за те же деньги получаешь на 70% больше фпс (по тесту DOOM Eternal из статьи). Для 3090 (1500$) нет прямого конкурента т.к. 2080TI стоила 1200$, а TITAN RTX — 2500$, тут либо ждать 3080TI либо как-то по удельной стоимости сравнивать.
                                      +1

                                      Игры это хорошо, но мне вот, например, не менее интересна домашняя студия и Nvidia Broadcast… Хромакей доставать и свет расставлять лениво, шумы проезжающих тракторов за окном появляются в самый неподходящий момент совещания — а новый софт обещает исправлять все лучше прежнего… И несмотря на krisp.ai chromacam.me RemoteFace.ai хочется надеятся, что качество стримов с RTX 3080 возрастет. К сожалению, моя 1080 не потянула релиз, а толковых обзоров Nvidia Broadcast еще не видел…
                                      Приятно также что во время простоя, видюха вполне способна майнить, особенно по ночному тарифу и по-тихоньку себя отбивать. Да, с AntMiner S19 не сравнится, но и цели другие: 2 года, по 8 часов по ночному тарифу 2.13р/кВт — отбивается практически вся цена видюхи, а если не жалеть и с idle приоритетом гонять круглосуточно, то и заработать получится.

                                        0
                                        Что майнить то?
                                          0

                                          Эфир на Dagger Hashimoto сегодня дает 284р/сутки на 3080.

                                          0

                                          Сегодня в 11:36 пришло уведомление из DNS, а в 11:43 никакой Palit RTX ожидаемо не оказалось в наличии. И вот эмоции угасли, включилась логика, youtube, поиск Nvidia Broadcast и вот этот дядька окончательно отбил желание охотиться на 3800 как минимум до выхода BigNavi. Snap Camera технически делает все тоже самое что и Nvidia Broadcast. Да, стабильные драйверы AMD (ATI) так и не научились делать и будут еще год после выхода железа отлаживаться на проде… Но 350Вт печь после десятков независимых тестов выглядит уже не так революционно...

                                          0

                                          Бюджет транзисторов на квадратный мм? Серьёзно? Это левый русский или я так отстал от жизни?


                                          А вообще, неужели тех.дизайн у чипов Самсунг настолько плох, что 8-нм чипы потребляют на 40% больше, чем 12-нм тайваньские? Даже не верится как-то.

                                            0
                                            Там новая память еще весьма прожорливая.
                                              0
                                              А вообще, неужели тех.дизайн у чипов Самсунг настолько плох, что 8-нм чипы потребляют на 40% больше, чем 12-нм тайваньские?
                                              Почему плох-то? Транзисторов ведь стало в два раза больше.
                                                0
                                                Чипы то крупнее/сложнее стали, а не просто тот же самый чип на новый тп перевели. Потребление энергии выросло на 30-40%, но производительность в большинстве случаев выросла на еще больший %, так что энергоэффектиность (производительность / Вт) все-таки увеличилась. Просто не так существенно, как ожидало большинство.

                                                В результате 8нм от Самсунга все-таки лучше тем 12нм от TSMC, но при этом оказались намного хуже чем 7нм от них же. Хотя до этого опять же многие почему-то считали что у них примерно паритет или даже наоборот самсунговские 8нм лучше.

                                              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                              Самое читаемое