جهت ورود به تالار گفتمان سایت کلیک کنید


فناوری سخت افزاری G-Sync چیست؟

فناوری های اختصاصی-سخت افزاری از جمله جذاب ترین مباحث این حوزه به شمار می رود که کاربران علاقمند به مطالعه آن هستند؛ وب سایت “سخت افزار” نیز از ابتدای کار تا کنون همواره در پی ارائه مطالب تخصصی مرتبط با این مقوله گام برداشته و موارد متعددی را برای شما عزیزان منتشر نموده ایم. در همین راستا اینبار به جدید ترین مباحث مرتبط با فناوری سخت افزاری NVIDIA G-Sync می پردازیم. با ما همراه باشید.

فناوری سخت افزاری G-Sync

G-Sync

انجام بازی های کامپیوتری را می توان یکی از سخت ترین بخش های علوم سخت افزار دانست که از سالهای دور تا کنون در حال تکامل و پیشرفت بوده است. از توسعه نرم افزار گرفته تا سخت افزار، هزاران مشکل و مانع بر سر راه آن قرار داشته است؛ با این وجود هم اینک شاهد اوج این مهم در صنعت کامپیوتر هستیم. مواردی از جمله زمان بازسازی تصاویر در پنل نمایشگر (Refresh Rate) و پاسخ به فرکانس (Respond Time) از جمله مواردی است که لزوم توجه به آنها برای انجام یک بازی روان همواره مورد بحث است. کمپانی NVIDIA در سال 2013 به فکر برداشتن موانع در این زمینه افتاده و با هدف بهبود دو مقوله یاد شده، تکنولوژی G-Sync را به صورت اختصاصی معرفی نمود. اما G-Sync به طور دقیق چه مشکلاتی را از سر راه بر می داشت؟ “لکنت” یا “پارگی” در تصاویر که اصطلاحا Screen Tearing خوانده می شود، لذت انجام بازی ها با کیفیت مناسب را از کاربران می گرفت؛ اما ریشه Screen Tearing در چیست؟ در برخی موارد، سیگنال های ویدئویی که از کارت گرافیک به خروجی و سپس مانیتور یا نمایشگر منتقل می گردد، با فرکانس و سیگنال های مانیتور همخوانی نداشته و منجر به نمایش خطوط افقی یا پارگی تصویر در یک یا چند مرحله می گردد.

در طی سال های 2012 تا 2014 مطالعات فراوانی در زمینه تولید نرم افزار هایی با هدف افزایش فریم به صورت تکراری، نمونه برداری اسلایدی، شناسایی پیکسل های نمایش داده شده و… انجام گرفت تا نرخ های خروجی کارت گرافیک با نمایشگرها یکسان شده و زمان تاخیر نیر به حداقل برسد. البته G-Sync تنها فناوری نبود که به همگام سازی (Sync) اهمیت داده و برای رفع مشکلات آن تلاش می کرد؛ مجموعه قوانین VESA در بخش Adaptive-Sync نیز از جمله توسعه دهندگان این حوزه بودند. انویدیا اینترفیس DisplayPort 1.2a را به عنوان حداقل رابط مورد استفاده تصویب کرده و به خودی خود موجب افزایش استفاده از آن در کارت گرافیک های GTX/TITAN شد. همانطور که گفته شد نسخه اولیه فناوری G-Sync در سال 2013 معرفی شد و حداقل کارت گرافیکی که می توانست از آن استفاده نماید، NVIDIA GeForce GTX 650Ti به بالا است. درایور R340.52 به بالا نیز قادر به هندل آن هستند. تمامی سیستم عامل های مایکروسافت از ویندوز 7 به بعد و همچنین سیستم عامل لینوکس نیز با G-Sync همخوانی کامل دارند. این فناوری با تمامی پنل های VA/IPS/LPS/TN سازگاری کامل دارد. G-Sync تنها به عنوان یک فناوری نرم افزاری شناخته نمی شود و برای استفاده از آن علاوه بر پشتیبانی، نیازمند یک تراشه-سخت افزاری هستیم. فناوری G-Sync به همراه یک ماژول عرضه می گردد که بر اساس مدار مجتمع FPGA ساخته شده است.

این ماژول با فرآیند TSMC 28LP تولید گشته که از شرکای قدیمی انویدیا است. در این ماژول از تراشه های رم DDR3L DRAM با ظرفیت حداکثر 768 مگابایت استفاده شده است. تولید کنندگان مانیتور تنها این تراشه را به ورودی های تصویری ترمینال کرده و از آن استفاده می کنند. بسیاری از تولید کنندگان مانیتور اعم از ACER، Samsung، ASUS، Philips، Benq، Dell و… از جمله برندهایی هستند که از G-Sync به طور عمده در نمایشگر و مانیتورهای خود استفاده می کنند. در جدول زیر می توانید شاهد کارت گرافیک هایی باشید که در کلاس دسکتاپ از این فناوری پشتیبانی می کنند:

برای مشاهده جدول به بخش تصاویر مراجعه کنید

نکته: در نوت بوک ها نیز شاهد پشتیبانی از این فناوری هستیم؛ کارت گرافیک های NVIDIA Polaris که دقیقا در نوت بوک ها نیز استفاده شده اند، G-Sync را هندل کرده اما در نسل های پیشین مانند Maxwell در کنار عناوین شاهد پسوند M بودیم؛ آنها نیز از G-Sync پشتیبانی می کنند. در نوت بوک ها، تراشه G-Sync مانند دسکتاپ نبوده اما کارایی یکسان است.

در برخی بازی ها شاهد استفاده از گزینه V-Sync هستیم؛ وی سینک در منوی تنظیمات با هدف کنترل خروجی کارت گرافیک با مانیتور و تطابق آنها استفاده می گردد؛ با این وجود گزینه V-Sync می تواند موجب تاخیر در سیگنال ورودی و به طبع فشار بیشتر بر روی GPU و کارت گرافیک می گردد. در نتیجه عملکرد کلی را در Gameplay تغییر دهد. اما در اینجا یک سوال وجود دارد؛ چگونه G-Sync بهتر از V-Sync است؟ در حالی که V-Sync برای بهبود شکست تصاویر خروجی کارت گرافیک را کنترل می کند، G-Sync به طور مستقیم نمایشگر را برای رسیدن سیگنال ویدئویی کارت گرافیک کنترل می کند. افزون بر آن، G-Sync برخی باگ و اشکلات غیر قابل اجتناب V-Sync را حذف کرده است. V-Sync گاها مجبور به پایین آوردن سیگنال کارت گرافیک برای سازگاری با مانیتور می گردد که بسیار بیش از حد استاندارد است. اما G-Sync نرخ Refresh Rate مانیتور را بالا برده و یا کنترل می کند و حتی می توان زمانبندی GPU را پیشبینی کرده و از این رو عملکرد بهتری را ارائه می دهد.

جدید ترین نسخه فناوری G-Sync به تازگی، در سال 2017 و در جریان نمایشگاه CES 2017 معرفی شد؛ این فناوری تنها یک ارتقاء کلی را به همراه داشت و آن هم پشتیبانی از فناوری HDR بود. در نتیجه هم اینک شاهد پشتیبانی G-Sync از HDR و HDR 10 هستیم. در برنامه بعد به معرفی AMD FreeSync خواهیم پرداخت؛ اما در این مطلب به یکی از مهمترین تفاوت های آنها اشاره خواهیم کرد. فناوری FreeSync دقیقا کاربردی مشابه با NVIDIA G-Sync را ارائه می دهد اما تفاوت هایی در آنها وجود دارد. به عنوان مثال AMD برای Adaptive Sync از یک الگوریتم مشابه با V-Sync بهره می برد و G-Sync در نرخ فریم پایین در پردازش های گرافیکی شدید، عملکرد بهتری را ارائه می دهد. در نتیجه FreeSync گاها مشکلات سنتی V-Sync را به همراه دارد. تفاوت عمده دیگر آنها در وجود تراشه است؛ جی سینک نیازمند وجود یک تراشه مجزا است که در اواسط متن بدان اشاره شد؛ اما FreeSync یک فناوری استاندارد باز است که به عنوان یک تکنولوژی در مانیتور و نمایشگرها مورد استفاده قرار می گیرد. در نتیجه با هزینه کمتر مورد استفاده قرار می گیرد و به همین علت مانیتورهایی که از AMD FreeSync بهره می برند دارای قیمتی به مراتب کمتر از مدل های دارای G-Sync هستند. تولید کنندگان مانیتور با برخی تغییرات در برد دیجیتال، قادر به استفاده از AMD FreeSync هستند و این در حالی است که برای استفاده از G-Sync در لپ تاپ یا مانیتورها نیازمند استفاده از ماژول آن هستیم. امروزه G-Sync به خوبی از 4K و HDR پشتیبانی می کند و عملکردی بهتر از AMD FreeSync را اما با قیمت بالاتر ارائه می دهد.

منبع : سخت افزار

جهت تبادل گفتگو و حل مشکلات در باره این موضوع , کلیک کنید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *