برای درک بهتر اینکه رایانش کوانتومی چیست، باید ابتدا متوجه شد محاسبات و رایانش در کامپیوترهای عادی و غیرکوانتومی چگونه صورت میگیرد.
در زبان انگلیسی واژه «Computing» به معنی محاسبه کردن است و برایناساس «کامپیوتر» (Computer) وسیلهای است که محاسبات را انجام میدهد.
این نامگذاری از آن جهت است که تمام سیستمهای دیجیتالی که در زندگی روزمره استفاده میشوند در واقع دادهها را به صورت اعداد باینری (ترکیب اعداد 0 و 1) ذخیره میکنند. در سمت دیگر زمانیکه کاربر دستوری را به صورت کلیک یا تایپ و فشردن دکمهای وارد میکند، کامپیوتر آنرا از طریق اعمال ریاضی و محاسبه مقادیر جدید متغیرها اجرا کرده و تغییرات مورد نظر را صورت میدهد.
این عمل ذخیرهسازی و پردازش اطلاعات توسط تراشهای انجام میشود که از میلیونها قطعه الکترونیکی بسیار ریز به نام «ترانزیستور» تشکیل شده است. هر ترانزیستور مانند یک کلید چراغ اتاق عمل میکند؛ یا روشن است یا خاموش. روشن بودن ترانزیستور به معنی ذخیره عدد 1 و خاموش بودن آن به معنی عدد 0 است. بر این مبنا تراشهها میتوانند به کمک ترانزیستورهای روی خود، اطلاعات را در قالب اعداد باینری ذخیره کرده و تغییرات جدید بر آنها را از طریق محاسبات ریاضی انجام و اعمال کنند. لذا یکی از عوامل موثر بر قدرت پردازشی تراشه، ابعاد ترانزیستورهای آن است؛ هر چه ترانزیستورها کوچکتر شوند، تعداد بیشتری از آنها روی روی تراشه با ابعاد ثابت قرار میگیرد و از اینرو میزان حافظه و سرعت پردازش اطلاعات بالاتر میرود.
از سال ۱۳۲۶/1947 که نخستین ترانزیستور اختراع شد، روند کوچک شدن ترانزیستورها و افزایش تعداد آنها روی تراشه با ابعاد ثابت سرعت ثابتی داشت که به آن قانون «مور»[3] میگفتند. طبق این قانون تجربی، سرعت پیشرفت فناوریهای مربوط به صنعت تراشه به گونهای است که تقریباً هر 18 ماه تعداد ترانزیستورهایی که میتوان روی یک تراشه قرار داد (و به تبع آن قدرت پردازش اطلاعات تراشه) دو برابر میشود.
این قانون اگرچه در پنج دهه گذشته برقرار بوده است، اما با در چند سال اخیر با رسیدن ابعاد ترانزیستورها به زیر 10 نانومتر، دیگر ادامه روند قبلی ممکن نیست. چراکه ابعاد ترانزیستورها به ابعاد اتم نزدیک شده و در این صورت به جای فرمولهای فیزیک نیوتن، قوانین فیزیک کوانتومی حکمفرما میشود و شرایط به کل تغییر میکند. از اینرو کار را برای کوچکسازی بیش از پیش ترانزیستورها و ساخت تراشههای قدرتمندتر دشوار میشود.[4]
برای عبور از محدودیتهای پردازندههای رایج، کامپیوترهای کوانتومی به جای منطق باینری، از قوانین محاسبات کوانتومی استفاده میکنند. در اینگونه محاسبات، مقدار یک بیت – که در کامپیوتر کوانتومی به آن «کیوبیت»[5] میگویند – دیگر فقط صفر یا یک نیست و طبق «اصل برهمنهی» فیزیک کوانتوم، میتواند به صورت همزمان هم یک باشد و هم صفر.[6]
اما قابلیت منحصر به فرد کیوبیتها در ذخیرهسازی چندین حالت به طور همزمان، به کامپیوترهای کوانتومی اجازه میدهد تا دادهها را به صورت موازی و با سرعتی بینظیر محاسبه کنند. این در حالی است که رایانههای کلاسیک دادهها را به صورت سریالی و یکی پس از دیگری پردازش میکنند. از اینرو کامپیوترهای کوانتومی میتوانند عملیاتهای محاسباتی را با سرعتی بسیار بالاتر از کامپیوترهای سنتی انجام دهند.
به طور کلی باید توجه داشت که محاسبات کوانتومی روی کیوبیتها به شدت به نویز و اختلال محیطی حساس بوده و نیازمند شرایط خاصی مثل ایجاد خلاء یا دمای خیلی پایین (در حد صفر مطلق کلوین[8]) است. از اینرو احتمال اینکه در آینده تراشههای کوانتومی در تلفن همراه یا کامپیوترهای خانگی استفاده شوند بعید به نظر میرسد.
هر چند برای کاربردهای روزمره، تراشههای فعلی به اندازه کافی قدرتمند و سریع هستند و اساساً هنوز نیازی برای جایگزین کردن پردازندههای کلاسیک با کوانتومی وجود ندارد. ضمن اینکه گسترش ایده «رایانش ابری» بر بستر شبکه اینترنت – یعنی نصب نرمافزارهای سنگین بر روی سرورها و استفاده آنلاین کاربران از آنها – عطش و نیاز بازار به پردازندههای قویتر از آنچه هماکنون موجود هست را گرفته است.
اما در عوض کامپیوترهای کوانتومی با توجه به توان و سرعت پردازش بالایی که دارند، برای حل هر نوع مسئله چند متغیره و پیچیده که نیازمند محاسبات و تحلیلهای سنگین است کاربرد دارد.
برای مثال یکی از کاربردهای بالقوه کامپیوترهای کوانتومی – که نگرانیهای بسیاری را نیز برانگیخته است – در زمینه رمزنگاری و امنیت سایبری است. چراکه کشف رمز عبورهای رایج برای کامپیوترهای کلاسیک زمانبر است. در حالیکه کامپیوترهای کوانتومی به کمک سرعت بالای پردازش و محاسباتی که دارند میتواند در زمان بسیار کوتاهی هر رمزی را پیدا کنند.
کاربرد مهم دیگر کامپیوترهای کوانتومی، در زمینه هوش مصنوعی است. در واقع از آنجا که هوشهای مصنوعی متکی بر یادگیری از روی کلاندادهها هستند، کامپیوترهای کوانتومی میتوانند با پردازش سریع انبوه دادهها برای مقاصدی مثل افزایش دقت تشخیص تصاویر و اشیاء، پردازش زبان طبیعی پیشرفتهتر و تولید متنهای روانتر یا تحلیل دادههای حجیم و پیچیده با سرعتی بالا مورد استفاده قرار گیرند.
[1] https://ark.intel.com/content/www/us/en/ark/products/27107/intel-celeron-d-processor-320-256k-cache-2-40-ghz-533-mhz-fsb.html
[2] https://www.youtube.com/watch?v=7d1eyZBpLn8
[3] Moore’s Law
[4] https://techovedas.com/4-reasons-why-moores-law-might-be-dead-finally/
[5] Qubit
[6] https://quantumai.google/discover/whatisqc
[7] https://www.cnbc.com/video/2020/01/17/how-quantum-computing-works-google-ibm-dwave-amazon.html
[8] معادل منفی ۲۷۳ درجه سانتیگراد