Nvidia 【כל המידע】
תוכן עניינים:
- היסטוריה של Nvidia
- Nvidia GeForce ו- Nvidia Pascal, שולטים במשחקים
- בינה מלאכותית ואדריכלות וולטה
- העתיד של נווידיה עובר על טיורינג ואמפרה
- NVIDIA G-Sync, סיום בעיות בסנכרון תמונות
תאגיד Nvidia, הידוע יותר בכינויו Nvidia, הוא חברת טכנולוגיה אמריקאית אשר התאגדה בדלאוור ובסיסה בסנטה קלרה, קליפורניה. Nvidia מעצבת יחידות עיבוד גרפיות למשחק הווידיאו והשווקים המקצועיים, וכן מערכת יחידת שבבים (SoC) לשוק המחשוב הרכב והנייד. קו מוצרי הליבה שלה, GeForce, נמצא בתחרות ישירה עם מוצרי Radeon של AMD.
אנו ממליצים לקרוא את המדריכים הטובים ביותר לחומרה ולרכיבי מחשב:
בנוסף לייצור מכשירי GPU, Nvidia מספקת יכולות עיבוד מקבילות ברחבי העולם לחוקרים ומדענים, ומאפשרת להם להריץ ביעילות אפליקציות בעלות ביצועים גבוהים. לאחרונה היא עברה לשוק המחשוב הנייד, שם היא מייצרת מעבדי טגרה ניידים לקונסולות משחקי וידאו, טאבלטים ומערכות ניווט ובידור אוטונומיות. זה הוביל לכך ש- Nvidia הפכה לחברה המתמקדת בארבעה שווקים מאז 2014 : גיימינג, הדמיה מקצועית, מרכזי נתונים, ובינה מלאכותית ומכוניות.
מדד התוכן
היסטוריה של Nvidia
Nvidia הוקמה בשנת 1993 על ידי ג'ן-הסון הואנג, כריס מלאצ'ובסקי וקרטיס פרים. שלושת המייסדים של החברה השערו כי הכיוון הנכון למחשוב יעבור עיבוד מואץ גרפי, מתוך אמונה שמודל מחשוב זה יכול לפתור בעיות שמחשוב לשימוש כללי לא יכול היה לפתור. הם גם ציינו שמשחקי וידאו הם כמה מהנושאים המאתגרים ביותר מבחינת חישוב, וכי יש להם היקפי מכירות גבוהים להפליא.
מחברת משחקי וידאו קטנים ועד ענקית בינה מלאכותית
החברה נולדה עם הון התחלתי של 40, 000 דולר, בתחילה לא היה לה שם, והמייסדים המשותפים שמו את כל תיקי ה- NV שלה, כמו ב"הפרסום הבא ". הצורך לשלב את החברה גרם למייסדים המשותפים לסקור את כל המילים בשני האותיות הללו, מה שהביא אותם ל"אינדידיה ", המילה הלטינית שמשמעותה" קנאה ".
השקת RIVA TNT בשנת 1998, איחדה את המוניטין של Nvidia בפיתוח מתאמים גרפיים. בסוף 1999, Nvidia שיחררה את GeForce 256 (NV10), שהציגה בעיקר את התמורה והתאורה ברמת הצרכן (T&L) בחומרת תלת מימד. הוא פעל במהירות 120 מגה הרץ והכיל ארבע שורות של פיקסלים, והטמיע האצת וידאו מתקדמת, פיצוי תנועה ותערובת תת-חומרה של חומרה. GeForce הצליחה יותר מביצועים קיימים של מוצרים קיימים.
בשל ההצלחה של מוצריה, Nvidia זכתה בחוזה לפיתוח החומרה הגרפית עבור קונסולת המשחקים Xbox של מיקרוסופט, והרוויחה את Nvidia מקדמה של 200 מיליון דולר. עם זאת, הפרויקט לקח רבים מהמהנדסים הטובים ביותר שלו מפרויקטים אחרים. בטווח הקצר זה לא משנה, ו- GeForce2 GTS נשלח בקיץ 2000. בדצמבר 2000, Nvidia הגיעה להסכם לרכישת הנכסים הרוחניים של 3dfx היחידה המתחרה שלה, חלוצה בתחום הטכנולוגיה הגרפית התלת-ממדית עבור הצרכן. שהוביל את התחום מאמצע שנות התשעים לשנת 2000. תהליך הרכישה הסתיים באפריל 2002.
ביולי 2002 רכשה נווידיה את אקסלונה תמורת סכום כסף שלא פורסם. אקסלונה הייתה אחראית על יצירת כלי עיבוד תוכנה שונים. מאוחר יותר, באוגוסט 2003, רכשה Nvidia את MediaQ תמורת כ -70 מיליון דולר. והיא גם רכשה את iReady, ספקית של פתרונות TCP / IP ו- iSCSI עם ביצועים גבוהים ב- 22 באפריל, 2004.
כה גדולה הייתה ההצלחה של Nvidia בשוק משחקי הווידיאו, עד שבדצמבר 2004 הוכרז שהיא תעזור לסוני בעיצוב מעבד ה- RSX הגרפי של פלייסטיישן 3, קונסולת משחקי הווידאו מהדור החדש של המשרד היפני, הייתה לה המשימה הקשה לחזור על ההצלחה של קודמתה, הנמכרת ביותר בהיסטוריה.
בדצמבר 2006 קיבלה נווידיה ציטוטים ממשרד המשפטים האמריקני. ביחס להפרות אפשריות בתחום ההגבלים העסקיים בענף הכרטיסים הגרפיים. באותה תקופה AMD הפכה ליריבתה הגדולה, לאחר שרכשה את ATI על ידי האחרונה. מאז AMD ו- Nvidia היו היצרנים היחידים של כרטיסי משחק גרפיים, לא שוכחים את השבבים המשולבים של אינטל.
פורבס הגדיר את Nvidia החברה הטובה ביותר של השנה לשנת 2007, וציין את ההישגים שעשתה בחמש השנים האחרונות. ב- 5 בינואר 2007, Nvidia הודיעה כי השלימה את הרכישה של PortalPlayer, Inc, ובפברואר 2008 רכשה Nvidia את Ageia, מפתחת מנוע הפיזיקה של PhysX ויחידת עיבוד הפיזיקה שמפעילה את המנוע הזה. Nvidia הודיעה כי היא מתכננת לשלב את טכנולוגיית PhysX במוצרי GeForce GPU העתידיים שלה.
Nvidia התמודדה עם קושי גדול ביולי 2008, אז קיבלה ירידה בהכנסות של כ -200 מיליון דולר לאחר שדווח כי ערכות שבבים ניידות ו GPUs ניידים המיוצרים על ידי החברה היו שיעורי כישלון חריגים בגלל ליקויי ייצור. בספטמבר 2008, Nvidia הפכה לנושא תביעה ייצוגית של הנפגעים, בטענה כי ה- GPUs הפגומים שולבו במודלים מסוימים של מחברות המיוצרים על ידי אפל, Dell ו- HP. אופרת הסבון הסתיימה בספטמבר 2010, אז נווידיה הגיעה להסכמה כי בעלי המחשבים הניידים המושפעים יוחזרו עבור עלות התיקונים או, במקרים מסוימים, החלפת מוצר.
בנובמבר 2011, Nvidia שיחררה את מערכת השבבים ARG Tegra 3 שלה למכשירים ניידים לאחר שהציגה אותה לראשונה בקונגרס העולמי. Nvidia טען כי השבב כלל את המעבד הנייד הראשון עם ארבע ליבות. בינואר 2013 הציגה Nvidia את Tegra 4, כמו גם את Nvidia Shield, קונסולת משחקים ניידת מבוססת אנדרואיד המופעלת על ידי המעבד החדש.
ב- 6 במאי 2016 Nvidia הציגה את כרטיסי הגרפיקה GeForce GTX 1080 ו- 1070, הראשון מבוסס על המיקרו-ארכיטקטורה החדשה של פסקל. Nvidia טענה ששני הדגמים ביצעו ביצועים טובים יותר מדגם ה- Titan X מבוסס על מקסוול. כרטיסים אלה משלבים זיכרון GDDR5X ו- GDDR5 בהתאמה, ומשתמשים בתהליך ייצור של 16 ננומטר. ארכיטקטורת פסקל תומכת גם בתכונה חומרה חדשה המכונה הקרנה מרובה סימולטני (SMP) בו זמנית, אשר נועדה לשפר את האיכות של ריבוי צגים ועיבוד מציאות מדומה. פסקל אפשרה ייצור מחשבים ניידים העומדים בתקן העיצוב Max-Q של Nvidia.
במאי 2017 הכריזה Nvidia על שיתוף פעולה עם טויוטה מוטור קורפ, במסגרתה האחרונה תשתמש בפלטפורמת הבינה המלאכותית של סדרת Drive X של Nvidia לרכביה האוטונומיים. ביולי 2017, Nvidia וענקית החיפוש הסינית Baidu, Inc. הכריזו על שותפות AI עוצמתית הכוללת מחשוב ענן, נהיגה אוטונומית, מכשירי צרכנים ומסגרת AI של באידו, PaddlePaddle.
Nvidia GeForce ו- Nvidia Pascal, שולטים במשחקים
GeForce הוא שם המותג של כרטיסים גרפיים המבוסס על יחידות עיבוד גרפי (GPUs) שנוצרו על ידי Nvidia משנת 1999. עד היום, סדרת GeForce ידעה שישה עשר דורות מאז הקמתה. הגרסאות המתמקדות במשתמשים מקצועיים בכרטיסים אלה תחת השם Quadro וכוללות כמה מאפיינים המבדילים ברמת הנהג. התחרות הישירה של GeForce היא AMD עם כרטיסי הראדיון שלה.
פסקל הוא שם הקוד למיקרו-ארכיטקטורה GPU האחרונה שפותחה על ידי Nvidia שנכנסה לשוק משחקי הווידיאו, כיורשת של הארכיטקטורה הקודמת של מקסוול. ארכיטקטורת פסקל הוצגה לראשונה באפריל 2016 עם השקת ה- Tesla P100 לשרתים ב- 5 באפריל 2016. נכון לעכשיו משתמשים בפסקל בעיקר בסדרת GeForce 10, כאשר GeForce GTX 1080 ו- GTX הם 1070 כרטיסי משחק הווידאו הראשונים שוחררו עם ארכיטקטורה זו, ב- 17 במאי 2016 ו -10 ביוני 2016 בהתאמה. פסקל מיוצרת בתהליך FinFET 16nm של TSMC, ומאפשרת לה להציע יעילות אנרגטית וביצועים עדיפים בהרבה בהשוואה למקסוול, שיוצר ב FinFET 28nm.
ארכיטקטורת פסקל מאורגנת באופן פנימי במה שמכונה הזרמת רב מעבד ( SM), יחידות פונקציונליות המורכבות מ -64 ליבות CUDA, אשר בתורן מחולקות לשני גושי עיבוד של 32 ליבות CUDA כל אחת מתוכם ומלווה במאגר הוראות, מתכנן עיוות, 2 יחידות מיפוי טקסטורה ושתי יחידות שיגור. כונני SM אלה הם המקבילה ל- CUs של AMD.
ארכיטקטורת הפסקל של Nvidia תוכננה להיות היעילה והמתקדמת ביותר בעולם המשחקים. צוות ההנדסה של Nvidia השקיע מאמץ רב ביצירת ארכיטקטורת GPU המסוגלת למהירויות שעון גבוהות מאוד, תוך שמירה על צריכת חשמל הדוקה. כדי להשיג זאת, נבחר עיצוב זהיר מאוד ומעודד בכל המעגלים שלו, וכתוצאה מכך פסקל הייתה מסוגלת להגיע לתדר הגבוה ב- 40% ממקסוול, נתון גבוה בהרבה מהתהליך היה מאפשר ב 16 nm ללא כל האופטימיזציות ברמה העיצובית.
זיכרון הוא מרכיב מרכזי בביצועים של כרטיס גרפי, טכנולוגיית GDDR5 הוכרזה בשנת 2009, כך שהיא כבר התיישנה עבור כרטיסי הגרפיקה החזקים ביותר של ימינו. זו הסיבה לפסקל תומך בזיכרון GDDR5X, שהיה תקן ממשק הזיכרון המהיר והמתקדם ביותר בהיסטוריה בזמן השקתו של כרטיסים גרפיים אלה, והגיע למהירויות העברה של עד 10 ג'יגה-סיביות או כמעט 100 פיקוסו-שניות בין ביטים. של נתונים. זיכרון GDDR5X מאפשר גם לכרטיס הגרפי לצרוך פחות חשמל בהשוואה ל- GDDR5, מכיוון שמתח ההפעלה הוא 1.35V, לעומת 1.5V או אפילו יותר מזה שצריכים שבבי GDDR5 מהירים יותר. הפחתה במתח זה מתורגמת לתדר הפעלה גבוה יותר של 43% עם אותה צריכת חשמל.
חידוש חשוב נוסף של פסקל נובע מטכניקות דחיסת זיכרון ללא אובדן ביצועים, מה שמקטין את הביקוש לרוחב הפס על ידי ה- GPU. פסקל כוללת את הדור הרביעי של טכנולוגיית הדחיסת צבע דלתא. בעזרת דחיסת צבע דלתא, ה- GPU מנתח סצנות כדי לחשב את הפיקסלים שניתן לדחוס את המידע שלהם מבלי להקריב את איכות הסצנה. בעוד שארכיטקטורת מקסוול לא הצליחה לדחוס נתונים הקשורים לאלמנטים מסוימים, כמו צמחייה וחלקי מכונית במשחק Project Cars, פסקל מצליחה לדחוס את מרבית המידע על אלמנטים אלה, ובכך להיות יעילה בהרבה מ מקסוול. כתוצאה מכך, פסקל מצליחה להפחית משמעותית את מספר הבתים שצריך לחלץ מהזיכרון. הפחתה זו של בתים מתורגמת ל 20% נוספים של רוחב הפס האפקטיבי, וכתוצאה מכך עלייה של רוחב הפס פי 1.7 בעזרת השימוש בזיכרון GDDR5X בהשוואה לארכיטקטורת GDDR5 ו Maxwell.
פסקל מציעה גם שיפורים חשובים ביחס למחשוב אסינכרוני, דבר חשוב מאוד מכיוון שכעת עומסי העבודה מורכבים מאוד. הודות לשיפורים אלה, ארכיטקטורת פסקל יעילה יותר בהפצת העומס בין כל יחידות ה- SM השונות שלה, מה שאומר שכמעט ואין גרעיני CUDA שאינם בשימוש. זה מאפשר לאופטימיזציה של ה- GPU להיות הרבה יותר גדול, תוך ניצול טוב יותר של כל המשאבים שיש לו.
הטבלה הבאה מסכמת את התכונות החשובות ביותר של כל כרטיסי GeForce מבוססי פסקל.
כרטיסי גרפיקה לפורום של NVIDIA GEFORCE |
||||||
ליבות CUDA | תדרים (MHz) | זיכרון | ממשק זיכרון | רוחב פס זיכרון (GB / s) | TDP (W) | |
NVIDIA GeForce GT1030 | 384 | 1468 | 2 GB GDDR5 | 64 סיביות | 48 | 30 |
NVIDIA GeForce GTX1050 | 640 | 1455 | 2 GB GDDR5 | 128 ביט | 112 | 75 |
NVIDIA GeForce GTX1050Ti | 768 | 1392 | 4 GB GDDR5 | 128 ביט | 112 | 75 |
NVIDIA GeForce GTX1060 3 GB | 1152 | 1506/1708 | 3GB GDDR5 | 192 סיביות | 192 | 120 |
NVIDIA GeForce GTX1060 6GB | 1280 | 1506/1708 | 6 GB GDDR5 | 192 סיביות | 192 | 120 |
NVIDIA GeForce GTX1070 | 1920 | 1506/1683 | 8GB GDDR5 | 256 סיביות | 256 | 150 |
NVIDIA GeForce GTX1070Ti | 2432 | 1607/1683 | 8GB GDDR5 | 256 סיביות | 256 | 180 |
NVIDIA GeForce GTX1080 | 2560 | 1607/1733 | 8 GB GDDR5X | 256 סיביות | 320 | 180 |
NVIDIA GeForce GTX1080 Ti | 3584 | 1480/1582 | 11 GB GDDR5X | 352 ביט | 484 | 250 |
NVIDIA GeForce GTX Titan Xp | 3840 | 1582 | 12 GB GDDR5X | 384 סיביות | 547 | 250 |
בינה מלאכותית ואדריכלות וולטה
מכשירי ה- GPU של Nvidia נמצאים בשימוש נרחב בתחומי הלמידה העמוקה, הבינה המלאכותית וניתוח מואץ של כמויות גדולות של נתונים. החברה פיתחה למידה עמוקה על בסיס טכנולוגיית GPU, במטרה להשתמש בבינה מלאכותית כדי להתמודד עם בעיות כמו גילוי סרטן, חיזוי מזג אוויר ורכבי נהיגה אוטונומיים, כמו טסלה המפורסמת.
המטרה של Nvidia היא לעזור לרשתות ללמוד "לחשוב ". מכשירי ה- GPU של Nvidia עובדים בצורה יוצאת דופן למשימות למידה עמוקה מכיוון שהם מיועדים למחשוב מקביל, והם עובדים היטב כדי להתמודד עם פעולות הווקטור והמטריקס השוררות בלמידה עמוקה. מדדי ה- GPU של החברה משמשים חוקרים, מעבדות, חברות טכנולוגיה ומפעלים עסקיים. בשנת 2009 Nvidia השתתפה במה שכונה המפץ הגדול ללמידה עמוקה, שכן רשתות עצביות למידה עמוקה שולבו עם יחידות העיבוד הגרפי של החברה. באותה שנה Google Brain השתמשה ב- GPUs של Nvidia כדי ליצור רשתות עצביות עמוקות המסוגלות ללמוד למכונה, שם אנדרו נג קבע כי הם יכולים להגדיל את המהירות של מערכות למידה עמוקה פי 100.
באפריל 2016 הציגה Nvidia את מחשב העל 8-GPU מבוסס אשכול DGX-1 כדי לשפר את יכולתם של המשתמשים להשתמש בלמידה עמוקה על ידי שילוב של GPUs עם תוכנה שתוכננה במיוחד. Nvidia פיתחה גם את המכונות הווירטואליות Nvidia Tesla K80 ו- P100 מבוססות GPU, הזמינות דרך הענן של גוגל, שגוגל התקינה בנובמבר 2016. מיקרוסופט הוסיפה שרתים המבוססים על טכנולוגיית ה- GPU של Nvidia בתצוגה מקדימה של סדרת N שלה, מבוסס על כרטיס Tesla K80. Nvidia גם שיתפה פעולה עם יבמ ליצירת ערכת תוכנה המגדילה את יכולות ה- AI של ה- GPUs שלה. בשנת 2017 הובאו GPUs של Nvidia באופן מקוון במרכז RIKEN לפרויקט האינטיליגנציה המתקדמת לפוג'יטסו.
במאי 2018, חוקרים ממחלקת הבינה המלאכותית של נווידי א ' הבינו את האפשרות שרובוט יכול ללמוד לבצע עבודה על ידי התבוננות פשוט באדם שעושה את אותה העבודה. כדי להשיג זאת הם יצרו מערכת שאפשר להשתמש בה לאחר סקירה ובדיקה קצרה כדי לשלוט ברובוטים אוניברסליים מהדור הבא.
וולטה הוא שם הקוד למיקרו-אדריכלות ה- GPU המתקדמת ביותר שפותחה על ידי Nvidia, זוהי ארכיטקטורת היורש של פסקל והוכרזה כחלק מהשאיפה לעתיד מפת הדרכים במרץ 2013. הארכיטקטורה נקראת על שם אלסנדרו וולטה, הפיזיקאי, הכימאי וממציא הסוללה החשמלית. ארכיטקטורת וולטה לא הגיעה לתחום המשחקים, אם כי היא עשתה זאת באמצעות כרטיס המסך הגרפי Nvidia Titan V, המתמקד בתחום הצרכנים ואשר ניתן להשתמש בו גם בציוד גיימינג.
זה Nvidia Titan V הוא כרטיס גרפי מבוסס ליבת GV100 ושלושה ערימות זיכרון HBM2, הכל באריזה אחת. בכרטיס יש זיכרון של HBM2 בסך הכל 12 ג'יגה-בייט העובד דרך ממשק זיכרון של 3072 סיביות. ה- GPU שלה מכיל מעל 21 מיליון טרנזיסטורים, 5, 120 ליבות CUDA ו -640 ליבות טנסור שיספקו 110 ביצועים של TeraFLOPS בלימוד עמוק. תדרי ההפעלה שלה הם של 1200 מגה הרץ ו- 1455 מגה הרץ במצב טורבו, ואילו הזיכרון עובד במהירות 850 מגה הרץ, ומציע רוחב פס של 652.8 ג'יגה-בתים / שניות. לאחרונה הוכרז גרסת מהדורת מנכ"ל שמגדילה את הזיכרון ל 32GB.
הכרטיס הגרפי הראשון שיוצר על ידי Nvidia בארכיטקטורת וולטה היה Tesla V100 שהוא חלק ממערכת ה- Nvidia DGX-1. ה- Tesla V100 עושה שימוש בגרעין ה- GV100 אשר שוחרר ב- 21 ביוני 2017. ה- Volta GV100 GPU בנוי בתהליך ייצור 12Fm FinFET, עם זיכרון HBM2 של 32 ג'יגה-בייט המסוגל לספק רוחב פס של עד 900 ג'יגה-בתים / שניות.
וולטה גם מחייה לחיים את ה- Nvidia Tegra SoC, המכונה Xavier, אשר הוכרז ב- 28 בספטמבר 2016. Xavier מכיל 7 מיליארד טרנזיסטורים ו 8 ליבות ARMv8 בהתאמה אישית, יחד עם Volta GPU עם 512 ליבות CUDA ו- TPU של קוד פתוח (יחידת עיבוד טנסור) בשם DLA (Deep Learning Accelerator). Xavier יכול לקודד ולפענח וידיאו ברזולוציית 8K Ultra HD (7680 × 4320 פיקסלים) בזמן אמת, והכל עם TDP של 20-30 וואט וגודל למות המוערך בסביבות 300mm2 הודות לתהליך הייצור של 12. nm FinFET.
ארכיטקטורת וולטה מאופיינת בכך שהיא הראשונה שכללה את ליבת הטנסור, ליבות שתוכננו במיוחד כדי להציע ביצועים מעולים בהרבה במשימות למידה עמוקה בהשוואה לליבות CUDA רגילות. ליבת טנסור היא יחידה שמכפילה שני מטריצות FP16 4 × 4 ואז מוסיפה לתוצאה מטריקס FP16 או FP32 לתוצאה, תוך שימוש בפעולות תוספת וכפלה ממוזגות, ולקבל תוצאה FP32 שאפשר להחליף אותה לתוצאה FP16. גרעיני טנסור מיועדים להאיץ את אימוני הרשת העצבים.
וולטה בולטת גם בכך שהיא כוללת את ממשק ה- NVLink המתקדם, המהווה פרוטוקול תקשורת מבוסס כבלים לתקשורת מוליכים למחצה לטווח קצר שפותחה על ידי Nvidia, שניתן להשתמש בה להעברת בקרת נתונים ובקרה במערכות מעבד המבוססות על מעבד ו- GPU ואלה המבוססים אך ורק על GPU. NVLink מציין חיבור נקודה לנקודה עם שיעורי נתונים של 20 ו -25 ג'יגה-בתים / שניות לכל נתיב נתונים ולכתובת בגירסאות הראשונות והשנייה שלה. שיעורי הנתונים הכוללים במערכות בעולם האמיתי הם 160 ו -300 ג'יגה-בתים לשנייה עבור הסכום הכולל של זרמי נתוני הקלט והפלט. מוצרי NVLink שהוצגו עד היום מתמקדים במרחב היישומים ביצועים גבוהים. NVLINK הוכרז לראשונה במרץ 2014 ומשתמש בחיבור איתות מהיר קנייני שפותח ופותח על ידי Nvidia.
הטבלה הבאה מסכמת את התכונות החשובות ביותר של כרטיסים מבוססי וולטה:
כרטיסי גרפיקה של NVIDIA |
||||||||
ליבות CUDA | טנסור ליבה | תדרים (MHz) | זיכרון | ממשק זיכרון | רוחב פס זיכרון (GB / s) | TDP (W) | ||
טסלה V100 | 5120 | 640 | 1465 | HBM2 32GB | 4, 096 ביט | 900 | 250 | |
GeForce Titan V | 5120 | 640 | 1200/1455 | 12 GB HBM2 | 3, 072 סיביות | 652 | 250 | |
מהדורת המנכ"ל של GeForce Titan V | 5120 | 640 | 1200/1455 | HBM2 32GB | 4, 096 ביט | 900 | 250 |
העתיד של נווידיה עובר על טיורינג ואמפרה
שתי האדריכלות העתידיות של Nvidia יהיו טיורינג ואמפר לפי כל השמועות שהופיעו עד כה, יתכן שכשאתה קורא את הפוסט הזה, אחד מהם כבר הוכרז רשמית. נכון לעכשיו, לא ידוע דבר בוודאות בשני האדריכלות הללו, למרות שנאמר כי טיורינג תהיה גרסה מפושטת של וולטה לשוק המשחקים, למעשה היא צפויה להגיע עם אותו תהליך ייצור בגובה 12 ננומטר.
אמפר נשמע כמו ארכיטקטורת היורש של טיורינג, אם כי זה יכול להיות גם יורשו של וולטה לתחום הבינה המלאכותית. שום דבר לא ידוע על זה, אם כי נראה הגיוני לצפות שהוא יגיע לייצור בשעה 7 ננומטר. השמועות מעלות כי Nvidia תכריז על כרטיסי GeForce החדשים שלה בגאמקום בחודש הבא של חודש אוגוסט, רק אז נשאיר ספקות לגבי מה שיהיה טיורינג או אמפר, אם הם באמת יתקיימו.
NVIDIA G-Sync, סיום בעיות בסנכרון תמונות
G-Sync היא טכנולוגיית סנכרון אדפטיבית קניינית שפותחה על ידי Nvidia, שמטרתה העיקרית היא לחסל את קריעת המסכים והצורך באלטרנטיבות בצורה של תוכנה כמו Vsync. G-Sync מבטל את קריעת המסך על ידי אילוץ להתאים אותו למסגרת של מכשיר הפלט, לכרטיס הגרפי, ולא למכשיר הפלט שמסתגל למסך, וכתוצאה מכך קרע בתמונה המסך.
כדי שמוניטור יהיה תואם G-Sync, עליו להכיל מודול חומרה שנמכר על ידי Nvidia. AMD (Advanced Micro Devices) הוציאה טכנולוגיה דומה לתצוגה, המכונה FreeSync, שתפקידה זהה ל- G-Sync אך אינה דורשת חומרה ספציפית.
Nvidia יצרה פונקציה מיוחדת בכדי להימנע מהאפשרות שמסגרת חדשה מוכנה תוך כדי ציור של כפילויות על המסך, משהו שיכול ליצור עיכוב ו / או גמגום, המודול מצפה לעדכון וממתין לסיים את המסגרת הבאה. עומס יתר של פיקסל הופך להיות מטעה גם בתרחיש עדכון שאינו קבוע, והפתרונות חוזים מתי העדכון הבא יתקיים, ולכן יש ליישם ולהתאים את ערך overdrive לכל פאנל על מנת להימנע מרוחות רפאים.
המודול מבוסס על FPGA משפחת Altera Arria V GX עם אלמנטים לוגיים של 156K, 396 בלוקים DSP ו 67 ערוצי LVDS. הוא מיוצר בתהליך ה- TSMC 28LP ומשולב עם שלושה שבבים בסך כולל של 768 מגה בייט של DDR3L DRAM, כדי להשיג רוחב פס מסוים. ה- FPGA המשמש גם כולל ממשק LVDS לשליטה בלוח הצג. מודול זה נועד להחליף מטפסים נפוצים ולהשתלב בקלות על ידי יצרני המסכים, אשר רק צריכים לדאוג ללוח מעגל אספקת החשמל ולחיבורי הקלט.
G-Sync התמודד עם ביקורת מסוימת בגלל אופיו הקנייני, והעובדה שהוא עדיין מקודם כאשר קיימות אלטרנטיבות חינמיות, כמו תקן VESA Adaptive-Sync, המהווה תכונה אופציונלית של DisplayPort 1.2a. בעוד FreeSync של AMD מבוסס על DisplayPort 1.2a, G-Sync דורש מודול תוצרת Nvidia במקום הסקלולרי הרגיל שעל המסך כדי שכרטיסי הגרפיקה של Nvidia GeForce יעבדו כראוי, והם תואמים את קפלר, מקסוול, פסקל ומיקרו-ארכיטקטורות. וולטה.
השלב הבא נעשה עם טכנולוגיית G-Sync HDR, שכפי ששמה מרמז, מוסיפה יכולות HDR כדי לשפר מאוד את איכות התמונה של הצג. כדי לאפשר זאת, היה צורך לבצע קפיצה משמעותית בחומרה. גרסה חדשה זו של G-Sync HDR משתמשת ב- Intel Altera Arria 10 GX 480 FPGA, מעבד מתקדם ומתכנת ביותר שניתן לקודד למגוון רחב של יישומים, המלווה על ידי 3 ג'יגה-בייט של זיכרון DDR4 2400 מגה-הרץ המיוצר על ידי Micron. זה הופך את מחיר המסכים הללו ליקר יותר.
כאן מסתיים הפוסט שלנו על כל מה שצריך לדעת על Nvidia. זכור שאתה יכול לשתף אותו ברשתות החברתיות כך שיגיע ליותר משתמשים. אתה יכול גם להשאיר תגובה אם יש לך הצעה או משהו להוסיף.
כל המידע על לוח יוגה lenovo
כל מה שקשור לטאבלט הראשון של מגוון Lenovo Yoga: מאפיינים טכניים, תמונות, סוללה, מצלמה, זמינות ומחיר.
Nvidia rtx 【כל המידע】
כבר יש לנו איתנו את כרטיסי הגרפיקה החדשים של NVIDIA RTX. מדגם הדגל: NVIDIA RTX 2080 Ti, לדגם לרוב הגיימרים ב- 4K:
▷ Nvidia quadro 【כל המידע】?
כל המידע על כרטיסי הגרפיקה המקצועיים של Nvidia Quadro: מאפיינים, עיצוב, ביצועים, יתרונות וחסרונות ✅