что такое сэмплы в блендере

SamplingпѓЃ

Render ‣ Sampling

The integrator is the rendering algorithm used to compute the lighting. Cycles currently supports a path tracing integrator with direct light sampling. It works well for various lighting setups, but is not as suitable for caustics and some other complex lighting situations.

Rays are traced from the camera into the scene, bouncing around until they find a light source such as a light, an object emitting light, or the world background. To find lights and surfaces emitting light, both indirect light sampling (letting the ray follow the surface BSDF) and direct light sampling (picking a light source and tracing a ray towards it) are used.

Number of samples for viewport rendering. Setting this value to zero enables indefinite sampling of the viewport.

Number of paths to trace for each pixel in the final render. As more samples are taken, the solution becomes less noisy and more accurate.

Renders scene until time limit or sample count is reached. When the time is set to 0, the sample count is used to determine when the render stops.

The time limit does not include pre-render processing time, only render time.

Adaptive SamplingпѓЃ

With adaptive sampling Cycles automatically reduces the number of samples in areas that have little noise, for faster rendering and more even noise distribution. For example hair on a character may need many samples, but the background may need very few.

With adaptive sampling it is also possible to render images with a target amount of noise. This is done by settings the Noise Threshold, typical values are in the range from 0.1 to 0.001. Then render samples can then be set to a high value, and the renderer will automatically choose the appropriate amount of samples.

The error threshold to decide whether to continue sampling a pixel or not. Typical values are in the range from 0.1 to 0.001, with lower values meaning less noise. Setting it to exactly 0 lets Cycles guess an automatic value for it based on the total sample count.

The minimum number of samples a pixel receives before adaptive sampling is applied. When set to 0 (default), it is automatically set to a value determined by the Noise Threshold.

DenoisingпѓЃ

Denoising removes noise while previewing scenes in Rendered mode in the 3D Viewport or for final renders.

Open Image Denoise

Uses Intel’s Open Image Denoise, an AI denoiser which runs on the CPU.

Uses an artificial intelligence algorithm to remove noise from renders. It is based on the OptiX acceleration engine and therefore has the same GPU requirements as rendering with Optix.

Denoising for the Rendered mode in the 3D Viewport can be enabled or disabled for with the checkbox.

Uses the faster available denoiser for 3D Viewport rendering (OptiX if available, otherwise OpenImageDenoise).

Uses Intel’s Open Image Denoise, an AI denoiser which runs on the CPU.

Uses an artificial intelligence algorithm to remove noise from renders. It is based on the OptiX acceleration engine and therefore has the same GPU requirements as rendering with Optix.

Sample to start denoising in the 3D Viewport.

Controls which Render Pass the denoiser should use as input, which can have different effects on the denoised image. Generally, the more passes the denoiser has to denoise the better the result. It is recommended to at least use Albedo as None can blur out details, especially at lower sample counts.

Denoises the image using color data.

Denoises the image using color and albedo data.

Denoises the image using color, albedo, and normal pass data.

Controls whether or not prefiltering is applied to Input Passes for use when denoising. Visible only when using OpenImageDenoise.

Does not apply any prefiltering to the input passes. This option retains the most detail and is the fastest, but assumes the input passes are noise free which may require a high sample count. If the input passes aren’t noise free, then noise will remain in the image after denoising.

Assumes the input passes are not noise free, yet does not apply prefiltering to the input passes. This option is faster than Accurate but produces a blurrier result.

Prefilters the input passes before denoising to reduce noise. This option usually produces more detailed results than Fast with increased processing time.

AdvancedпѓЃ

Seed value for integrator to get different noise patterns.

Use Animated Seed (clock icon)

Changes the seed for each frame. It is a good idea to enable this when rendering animations because a varying noise pattern is less noticeable.

Random sampling pattern used by the integrator. When Adaptive Sampling is enabled, Progressive Multi-Jitter is always used instead of Sobol.

Uses a Sobol pattern to decide the random sampling pattern used by the integrator. See Sobol sequence on Wikipedia for more information.

Uses a progressive multi-jitter pattern to decide the random sampling pattern used by the integrator. Its advantage is to provide a well distribution of samples over iterating sample counts. Because of its good distribution over a range of different sample counts, this sample pattern is used for Adaptive Sampling. See this Pixar paper for more information.

Scrambling Distance Multiplier

Lower values Reduce randomization between pixels to improve GPU rendering performance, at the cost of possible rendering artifacts if set too low. Only works when not using adaptive sampling.

Uses a formula to adapt the scrambling distance strength based on the sample count.

Uses the Scrambling Distance value for the viewport rendering. This will make the rendering faster but may cause flickering.

Minimum number of light bounces for each path, after which the integrator uses Russian Roulette to terminate paths that contribute less to the image. Setting this higher gives less noise, but may also increase render time considerably. For a low number of bounces, it is strongly recommended to set this equal to the maximum number of bounces.

Min Transparent Bounces

Minimum number of transparent bounces. Setting this higher reduces noise in the first bounces, but can also be less efficient for more complex geometry like hair and volumes.

Probabilistically terminates light samples when the light contribution is below this threshold (more noise but faster rendering). Zero disables the test and never ignores lights. This is useful because in large scenes with many light sources, some might only contribute a small amount to the final image, and increase render times. Using this setting can decrease the render times needed to calculate the rays which in the end have very little affect on the image.

When render layers have per layer number of samples set, this option specifies how to use them.

The render layer samples will override the set scene samples.

Bound render layer samples by scene samples.

Ignore render layer sample settings.

© Copyright : This page is licensed under a CC-BY-SA 4.0 Int. License. Last updated on 12/06/2021.

Источник

Настройки рендера Cycles

Данная статья раскроет все параметры присутствующие в меню: Sampling, Volume Sampling и Light Paths. С помощью данных меню производится большинство настроек качества и скорости рендера Cycles. Применяя их на практике Вы сможете добиться лучшего качества за меньше время.

Прежде чем начать, стоит сказать пару слов об интеграторе. Интергратор — это алгоритм использующийся для вычисления освещения. В настоящее время Cycles поддерживает алгоритм трассировки прямых лучей. Это очень хорошо работает для большинства типов освещения, но плохо работает в очень сложных сценах, особенно если в них присутствует каустика.

Sampling

Render Samples
Количество путей трассировки для каждого пикселя в финальной визуализации. Чем большее значение, тем меньше шума.

Preview Samples
Количество путей трассировки для каждого пикселя в окне 3D-вида.

При значении 0 рендеринг будет происходить до тех пор, пока Вы его не прервете.


Здесь же, для каждого кадра анимации установлено различное значение параметра Seed. В случае шумных анимаций с малым количеством семплов используйте данный параметр.

На изображении ниже сцена с отключенным параметром Clamp (оба в значении 0). Яркое пятно на полу — это прямой свет, падающий на него от источника света. Практически все остальное — это отраженный свет. Плоскости слева назначен шейдер Glossy, а той что в воздухе — Diffuse.


Ниже Вы можете наглядно увидеть разницу между удалением части прямых и отраженных лучей. Шума становится значительно меньше, но вместе с ним и освещения.

При использовании режима branched path tracing у Вас есть возможность установить количество отскоков луча для каждого типа шейдера. Это очень полезно в сценах, где, например, доминируют диффузные шейдеры и отсутствуют шейдеры объема. Вы можете установить нужное количество проходов для диффузного щейдера и добиться хорошего качества и убрать полностью объем, тем самым сохранив время рендеринга. Чтобы добиться такого же качества диффузного шейдера как при 250 семплах (режим path tracing), вам необходимо установить 10 AA samples и 25 diffuse samples. 25 diffuse samples — это количество отскоков луча для каждого AA семпла (10 Х 25 = 250). К счастью, арифметикой заниматься не придется, потому как все итоговые значения выводятся внизу данного меню. А теперь немного подробнее…

На изображениях видно как можно улучшить качество отдельных поверхностей не затрагивая остальные:

Сюзанну освещает три лампы типа Point:

Очень удобно устанавливать высокие значения семплов не вводя большие числа. 4 AAx3 Glosyy = 12 samples. 12×12=144:

Также в данном меню присутствуют две предустановленные настройки (Final и Preview), которые Вы можете дополнить любым количеством собственных, чтобы каждый раз не проделывать одно и тоже.

Volume Sampling

Для наглядности я увеличил Step Size до 1. Как видите качество огня и дыма плохое, но и рендер занял всего 6,8 секунды:

А теперь сравните два изображения со значением по умолчанию (0,1) и очень низким значением (0,01):

Step Size 0.1 (35,8 секунд)


Step Size 0.01 (5,27 минут)

При 10 семплах визуальная разница отсутствует, зато время рендера во втором случае возросло в 10 раз.

На изображении ниже рендер со значением по умолчанию (1024). На него потребовалось 35,2 секунды:

А теперь еще два рендера с более низкими значениями:



Max Step 50 (35,2 секунд)


Max Step 10 (13,2 секунд)

Как итог можно сказать, что данные параметры по умолчанию отлично подходят для большинства задач и регулировать их нужно лишь в особых случаях и пониманием дела.

Light Paths

Чтобы избежать светлячков и черных частей изображения устанавливайте оба значения одинаковыми.

Ниже изображение из 20 прозрачных паралелепипедов. При значении 8 мы видим лишь сквозь 8 плоскостей (тоесть через 4 паралелепипеда), а дальше свет не проходит. При значении 30 все объекты становятся прозрачными:

На изображении ниже оба типа каустики: Белые пиксели вокруг зеркального куба — это Reflective каустика. Белые пиксели за диамантом — это Refractive каустика.

Результаты с отключением каустик:

Данная опция не плохая альтернатива полному отключению каустики.

Также рекомендуется устанавливать минимум и максимум идентичными.

При значении 0 свет будет попадать на объект и полностью им поглощаться. На картинке ниже красный куб никак не влияет на свое окружение (красный цвет присутствует лишь на нем). В реальности же такого не бывает:

При значений 1 луч будет отскакивать от красного куба на пол и правый куб, а при 2 еще и на левый куб от правого. Таким образом, чем выше будет значение, тем светлее (потому как много белых объектов) и краснее (из-за красного куба) будет становится сцена.

На изображении ниже две плоскости с шейдером Glossy (два зеркала направленных друг на друга). В зависимости от того, сколько отскоков Вы установите, столько раз они отразятся друг в друге:

На изображении ниже три сферы расположенных одна в одной как матрешки с шейдером Transculent. Позади них находится лампа. При низких значениях практически весь свет остается внутри сфер:

На изображении два куба с шейдером Volume Scatter. Чем больше отскоков, тем реалистичнее объем:

Также как и в меню Sampling в данном меню присутствуют предустановленные настройки, которые Вы можете дополнить любым количеством собственных, чтобы каждый раз не проделывать одно и тоже.

Включение и увеличение большинства выше перечисленных параметров улучшает Ваш рендер и добавляет ему реализма ценой продолжительности времени визуализации. Поэтому приходится все время искать золотую середину, чтобы и красиво было и увидели не только внуки 🙂
Надеюсь теперь Вы немного лучше стали понимать как ведет себя луч света, какие параметры больше всего влияют на количество шума и как ускорить время рендеринга отключив просчет того, чего в Вашей сцене попросту нет. Всем быстрых и качественных рендеров и до встречи в следующих уроках!

Источник

Рендер и обработка в Blender

Это третья статья из цикла по работе в Blender. Вот ссылки на все три, выбирай ту, которая тебе нужна:

Эта статья поможет новичкам научиться рендерить и обрабатывать свои модели для портфолио или проекта. Ты узнаешь, как пользоваться инструментами Blender и Photoshop, чтобы сделать сочную картинку. Внимательное изучение статьи займет около 10 минут. Если возникнут вопросы — пиши в чат-бот (кнопка справа внизу). Там на связи живой менеджер 🙂 Он поможет разобраться.

Если ты ни разу в жизни не пользовался Blender, для тебя у нас есть бесплатный курс Intro Blender. Ты научишься моделить простые формы, выучишь хоткейсы и поймешь как устроен технический процесс моделинга в Blender.

Чтобы сохранить volume иллициев и убрать кривое отображение, нужно рендерить в Cycles. Заходим во вкладку Render Properties. В разделе Sampling изменяем числовое значение в строке Render, чтобы поменять качество финального рендера. Но это влияет на производительность и скорость рендера, так что в своей работе мы выставляем значение для Render — 1200. При этом настройки Max Bounces в разделе Light Paths остаются почти без изменений. Единственный параметр, который мы немного меняем — это Volume (ставим «2» вместо «0»). Это нагрузит систему, но улучшит отображение тумана и свечения.

Вторая вкладка, которая нас интересует — Output Properties. Выставляем разрешение «2000”. Этого достаточно для портфолио на Artstation, алгоритмы сайта все равно «сожмут» итоговую картинку.

Наконец, включаем во вкладке View Layer Properties необходимые renderpass`ы в разделах Data, Light, Cryptomatte. Вместо Denoising внизу этой вкладки, активируем Denoising Data из раздела Data.

Источник

Рендер и обработка в Blender

Привет, меня зовут Сергей Мингулин, я — 3D-художник и преподаватель курса по созданию стилизованных 3D-персонажей в XYZ. Посмотреть на мои проекты можно здесь. Это — третья статья из цикла о визуализации в Blender.

Последняя наша тема, — это настройка рендера и обработка: рассмотрим инструменты, которые есть в самой программе и в Photoshop. Также я расскажу об особенностях настоящего плёночного снимка и способах их имитации, и покажу, какие функции Photoshop может спокойно заменить Blender.

Настройка рендера

Как я уже рассказывал в предыдущем материале, чтобы сохранить volume иллициев и избежать некорректного отображения, мы рендерим в Cycles.

Заходим во вкладку Render Properties. В разделе Sampling мы можем контролировать качество финального рендера, изменяя числовое значение в строке Render. Но это прямо влияет на производительность и скорость рендера, так что в своей работе я обычно выставляю значение для Render — на 1200. При этом настройки Max Bounces в разделе Light Paths остаются практически без изменений.

Единственный параметр, который мы незначительно меняем — это Volume (ставим «2» вместо «0»). Это сильнее нагрузит систему, но улучшит отображение тумана и свечения.

Вторая вкладка, которая нас интересует, — Output Properties. Выставляем разрешение «2000». Этого будет достаточно для портфолио на Artstation, с учётом того, что алгоритмы сайта «пожмут» итоговую картинку.

Наконец, перед рендером включаем во вкладке View Layer Properties необходимые renderpass`ы в разделах Data, Light, Cryptomatte. И вместо Denoising, который находится в самом низу этой же вкладке, активируем Denoising Data из раздела Data.

После того, как изображение отрендерилось, переходим во вкладку Compositing и ставим галочку на Use Nodes и Backdrop в выдвигающейся панели справа. Перед нами появились отрендеренная картинка и ноды, с которыми мы теперь можем работать, редактируя изображение прямо в программе.

По умолчанию будет доступен только нод Render Layers, в котором активны ранее выбранные нами аутпуты. Для этого мы и включали все те настройки на предыдущем этапе.

Обработка в Blender после рендера

Помимо того, что количество сэмплов влияет на скорость рендера, от него зависит «шумность» картинки. Вот так, к примеру, выглядит в нашем случае отрендеренное изображение, если установить значение в 300 сэмплов.

Избавиться от шумов можно несколькими способами, самый простой из которых — установить большее значение сэмплов. Оптимальное количество сэмплов зависит от конкретной сцены. В моём случае достаточно 1200.

Чем больше освещён объект, тем меньше шумов. Больше всего их появляется в затенённых местах (см. пример выше).

Конечно, получить качественную картинку без денойза можно, установив, к примеру, 2000 сэмплов. Но всё зависит от ограничений железа и времени, которое вы можете потратить на ожидание.

Второй способ — тот самый денойз. Нажимаем в композиторе «Shift+A» и через поиск вводим «Denoise». Теперь появившийся нод подключаем к Render Layers.

Если нажать «Shift+Ctrl+лкм», изначальное изображение сменится на превью выбранного нода. Так можно просматривать каждый выбранный нод в отдельности, — например, изображение после денойза, АО, тени и т.д.

После того, как избавились от шумов, нужно настроить свечение. Соединяем аутпут Image денойза с нодом Glare, который вызывается также через панель Search. Нажимаем «Shift+Ctrl+лкм», и теперь можем настраивать, ориентируясь на превью.

По умолчанию в Glare стоит Streaks — режим, в котором свет тянется от источника полосами. Переключаемся на Fog Glow и получаем более-менее правдоподобное свечение.

Здесь же есть следующие настройки:

4. Size — интенсивность излучения (от 6 до 9)

Cryptomatte — ещё один полезный нод, который представляет собой аналог PhotoShop в блендере и работает по принципу масок. Чтобы его использовать, необходимо перед рендером активировать соответствующие настройки в панели справа.

Далее вызываем нод через Search и подключаем к Render Layers (CryptoMaterial и Image).

Здесь у нас есть 3 режима:

Image — изображение, полученное на выходе с рендера;

Matte — показ выбранной области;

Pick — выбор;

Переключаемся между ними, нажимая «Shift+Ctrl+лкм».

В режиме Pick выбираем инструмент «пипетка» (Add) и щёлкаем область, которую хотим изменить. Теперь переходим в режим Matte: выбранный нами фон отобразился серым и мы можем работать с ним, например, подкрутив контраст (RGB Curves) или настроив цвет (Hue Saturation Value, Color ).

Закончив, миксуем итоговый Image с рендером. Вот так, например, выглядит изменённый фон:

Особенности плёночного изображения

Теперь поговорим об отличиях плёночной фотографии от цифрового рендера и инструментах, с помощью которых можно добиться ощущения реалистичной фотографии.

Плёночное фото имеет:

1) меньший динамический диапазон в сравнении с рендером;

2) искажения, связанные с особенностями оптики;

3) искажения, появившиеся во время проявки и сканирования.

Кроме того, любая оптика имеет своё фокусное расстояние и светосилу, от которых зависит глубина резкости кадра.

Чтобы кадр вышел достоверным в воспроизведении плёночного снимка, возвращаемся на этап до рендера и в настройках камеры выставляем нужное значение Focal Lenght (фокусное расстояние), активируем Depth of Field.

В Depth of Field нас интересует настройка Distance, которую мы можем изменить вручную в попытке поймать в фокус нужный объект или зону кадра, либо выбрать пипеткой конкретный объект, который должен остаться резким.

Ещё один способ настроить фокус на части объекта — создать объект Empty и разместить в нужной точке, после чего выбрать его в Focus Object.

На размытие также влияет параметр F-Stop (светосила): чем ближе значение к единице, тем сильнее размытие.

Итак, у плёночных фотоаппаратов динамический диапазон меньше, чем у цифрового кадра. Это значит, что в тени и на свету изображение не будет таким же проработанным, как в рендере. Кроме того, точки чёрного и белого в случае плёнки смещены.

Добиться аналогичного эффекта можно через compositor в самом Blender с помощью RGB Curves, или же в Photoshop.

Кроме того, плёночный фотоаппарат неизбежно даёт ряд искажений. Чтобы сымитировать их, вызываем в композиторе Lens Distortion и подключаем Image.

Нас интересуют следующие настройки:

Jitter — даёт эффект зернистости плёнки.

На просторах интернета можно найти целые библиотеки шумов, в которых можно подобрать имитацию конкретной плёнки. Но если нет цели добиться максимального сходства, можно просто поставить галочку в программе.

В Photoshop, чтобы добиться зернистости, действуем следующим образом:

Distort — настройка искажения «линзы».

С ней нужно быть аккуратными. Чтобы добиться эффекта съёмки на плёночную камеру, ставим совсем небольшие значения («0,005»), иначе рискуем получить эффект рыбьего глаза. Соответственно, выставляя отрицательное значение параметра, получаем противоположный эффект.

Dispersion — эффект рассеивания света; разложение пучка белого света на пучки различных цветов. Эта настройка поможет воссоздать хроматическую аберрацию, свойственную изображениям, полученным с камеры.

Хроматическая аберрация может быть более или менее выраженной в зависимости от качества оптики. Фотографы, как правило, стараются свести её к минимуму. Нам такое искажение нужно, наоборот, для придания большего реализма. И здесь мы тоже имеем дело с небольшими значениями ( «0,02»).

Важно: настройка Dispersion также даёт небольшое искажение «линзы», растягивая каналы. Применяя этот эффект, не забываем брать изображение с «запасом» по краям.

Следующая особенность фотографии связана с фокусным расстоянием. Это боке — размытие объектов, источников света и/или бликов, которые остались вне фокуса. В результате получаем круги или многогранники, размер и форма которых зависят от глубины резкости и количества пластин в диафрагме.

Контроль над формой боке внутри Blender происходит в этой вкладке при выбранном объекте камеры:

Blades отвечает за количество лепестков в диафрагме, Rotation — за поворот этих лепестков, Ratio — за коэффициент искажения, призванный имитировать анаморфный эффект боке. Значение меньше 1 растягивает боке по горизонтали, «1» означает «без искажения», а значение больше единицы приведёт к вертикальному растяжению.

Здесь, как и в случае с зернистостью, можно найти готовые шаблоны в интернете, но в таком случае результат будет малоконтролируемым. А можно, так как мы имеем дело с физически корректным рендером, создать частицы в самом блендере.

Для этого создаём бокс: нажимаем «Shift+A» и выбираем Mesh — Cube. В этом ограниченном объёме мы создадим партиклы, которые и будут отражать свет от источника и размываться в боке.

Следующим шагом, также с помощью хоткея «Shift+A», выбираем и создаём айкосферу (Icosphere). И выставляем «1» в значениях Subdivision и Radius. Большего нам не требуется, так как объект всё равно будет размыт в итоге, а сцена уже тяжёлая сама по себе.

Хотя, даже при таких значениях объект вышел слишком большой. Так что после я выставил «0,01» во всех осях Dimensions. Дальше, при желании, мы можем настроить форму получившегося объекта и сдвинуть вертексы (здесь всё зависит от ваших вкусов и задач).

Теперь заходим во вкладку Particle Properties, включаем Hair и ставим Emit From Volume. Выбираем Render As Object во вкладке Render и назначаем объектом созданную айкосферу.

Параметр Scale отвечает за размер объектов и по своей сути является множителем для заданного изначально объекта. Ставим «0,1».

Scale Randomness определяет степень различия по размеру наших сфер. Тут ставим по-максимуму, чтобы айкосферы не были все как одна.

В этой же панели нас интересуют Emission, от значения Number которого зависит плотность заполнения куба пылью, и в Source — Jittering Amount, который отвечает за равномерность заполнения. Соответственно, чем больше Number, тем плотнее забит куб, а чем выше Jittering Amount, тем более разнообразно расстояние между объектами.

Активируем Rotation: Randomize, Phase и Randomize Phase отвечают за рандомный поворот объектов по всем осям и здесь нам не нужны большие значения. Ставим ненамного отличающиеся от нуля. В Orientation Axis выбираем Normal.

Наш куб заполняется:

Точки на скриншоте не шумы, а заполнившие куб айкосферы.

Наконец, выставляем куб между камерой и объектом так, чтобы на него падал источник света. Фокусное расстояние у нас определено на лицо модели, и чем дальше от фокуса наш куб, тем больше будет эффект боке.

Здесь можно видеть разные этапы обработки и как на них изменялось боке.

Процесс настройки в Blender затратный по времени. Но, если других вариантов нет или если хочется большего контроля над результатом, функционал программы позволяет создавать различные эффекты.

Хотя, есть и такие, которые действительно проще создать в PhotoShop.

Виньетирование — это затемнение по краям кадра, появление которого зависит от размера диафрагмы аппарата. Чем сильнее та открыта, тем больше темноты по краям кадра.

Чтобы его сымитировать, создаём слой и выбираем на панеле слева Gradient Tool, настраиваем цвета и ставим галочку Reverse. После чего задаём радиус нашему затемнению.

Применяем к слою Multiply и уменьшаем прозрачность.

Ещё одна особенность плёночной фотографии — пыль. Она появляется при сканировании и, можно сказать, является такой же отличительной чертой реальной фотографии, как искажение линзы или хроматическая аберрация. Пыль можно также, как и зерно, скачать из интернета и добавить в PhotoShop.

Напоминаю, так в итоге выглядит готовое изображение, большая часть эффектов которого была исполнена в Blender:

Если хочешь научиться создавать стилизованных 3D-персонажей — записывайся на курс STYL. Стартуем 1 октября — если записаться сейчас, успеешь получить скидку.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *