دانلود تحقیق با موضوع بهبود عملکرد، آشکارسازی

که تغییر قابل ملاحظهای در وزنها مشاهده نشود و یا وزنها به مقدار مطلوب جهت کیمنه کردن تابع هزینه و خطا همگرا شوند.
یکی از علل پرکاربرد بودن الگوریتم LMS راحتی پیادهسازی آن میباشد به نحوی که در شرایطی که سیگنالها غیرمختلط باشند و تعداد ضرایب فیلتر را برابر با L در نظر بگیریم، پیادهسازی الگوریتم LMS منجر به انجام 2L+1 ضرب (L ضرب برای محاسبه خروجی فیلتر و L ضرب برای بهروزرسانی وزنها و یک ضرب برای محاسبه 2μxe) و 2L جمع میشود و همان طور که مشخص است مرتبه محاسباتی این الگوریتم از مرتبه L میباشد. البته با وجود پیچیدگی محاسباتی کم، در الگوریتم LMS سرعت همگرایی وزنها و نحوه عملکرد الگوریتم برای حذف تداخل و آشکارسازی هدف در رادارهای پسیو مبتنی بر سیگنال DVB-T چندان مطلوب نبوده و توصیه میشود با الگوریتم VSLMS جایگزین شود. همان طور که بیان شد اندازه گام الگوریتم LMS عاملی مهم در عملکرد این الگوریتم میباشد. در واقع اثر μ در سرعت همگرایی الگوریتم میباشد. اگر μ مقداری بسیار کوچک انتخاب شود دقت الگوریتم بیشتر بوده و در نهایت خطای کمتری در همگرایی وزنها وجود خواهد داشت اما کوچک انتخاب کردن μ باعث کند شدن الگوریتم و پایین آمدن سرعت همگرایی میشود از طرفی بزرگ انتخاب کردن μ نیز منجر به داشتن سرعت همگرایی بالا و خطای نهایی بیشتر خواهد شد، حتی در حالاتی انتخاب μ بزرگتر از حدی باعث غیر همگرا شدن الگوریتم میشود. همین تناقض در نحوه انتخاب μ عاملی برای استفاده از الگوریتم VSLMS است. نتایج بررسیهای مختلفی که انجام شده است نشان میدهد که هرگاه μ مطابق رابطه زیر انتخاب شود بدون توجه به اینکه مقداردهی اولیه وزنها چگونه باشد (هر مقدار دلخواهی به عنوان مقدار اولیه وزنها انتخاب شود) ضرایب فیلتر به مقدار بهینه وینر خود همگرا میشوند.
که λmax بیانگر بزرگترین مقدار ویژه ماتریس R میباشد. در حالتی که λmax مشخص نباشد (یعنی اگر ماتریس R مشخص نباشد) با فرض اینکه بزرگترین مقدار ویژه ماتریس R از بقیه مقادیر ویژه بسیار بزرگتر است میتوان شرط همگرایی الگوریتم LMS را به صورت رابطه زیر در نظر گرفت:
همان طور که بیان شد در الگوریتم LMS به دلیل آن که در محاسبه P و R نمونههای زمانی جایگزین E{.} شدهاند ضرایب فیلتر حول مقدار بهینه وینر خود در نوسان هستند. این بدان معناست که در محاسبه ضرایب، میزانی خطا برابر با رابطه زیر وجود خواهد داشت:
در نتیجه مقدار تقریبی کواریانس خطا در ضرایب مطابق رابطه زیر میباشد:
IM ماتریس همانی مرتبه M است.
وجود خطای فوق در محاسبه ضرایب منجر به تولید خطای اضافی در خروجی فیلتر میشود، این خطای اضافی از رابطه زیر محاسبه میشود:
بنابراین در حالتی که داده ورودی رنگی و با پراکندگی زیاد مقادیر ویژه همراه باشد سرعت همگرایی الگوریتم با λmin و خطای حالت ماندگار با λmax تعیین میشود. بنابر رابطه فوق واضح است که افزایش طول فیلتر وفقی که با الگوریتم LMS کار میکند منجر به افزایش خطای اضافی در الگوریتم میشود چرا که مقادیر ویژه ماتریس R همواره نامنفی هستند. در حالت کلی خطای الگوریتم LMS از زابطه زیر بدست میآید:
واضح است که در این الگوریتم خطای محاسبهی وزنها هیچ وقت به خطای کمینه حالت وینر خود نمیرسد [35-36-37].
3-3-3- الگوریتم NLMS
الگوریتم NLMS در واقع همان الگوریتم LMS است که به صورت نرمالیزه پیادهسازی میشود. منظور از پیادهسازی نرمالیزه الگوریتم، نحوه محاسبه وزنها به صورت زیر میباشد:
که در این رابطه باید برقرار باشد. در این الگوریتم نحوه انتخاب پارامتر در سرعت همگرایی و نحوه عملکرد الگوریتم بسیار موثر است. استفاده از این الگوریتم زمانی سودبخش میشود که سیگنال ورودی فیلتر وفقی نسبتاً بزرگ باشد، در این حالت با مسئله نویز گرادیان8 روبرو شده و در محاسبه وزنها مطابق خود الگوریتم LMS با مقادیر بزرگی مواجه میشویم. الگوریتم NLMS با نرمالیزه کردن اندازه گام در فرمول محاسبه وزنها از رویارویی با مقادیر بزرگ و مسئله نویز گرادیان جلوگیری کرده و با گامهایی مناسبتر به وزنهای تقریباً ایدهآل همگرا میشود و در نهایت یک الگوریتم با پایداری و سرعت بیشتر را پیادهسازی میکند. بقیه مباحث ذکر شده در الگوریتم LMS برای این الگوریتم نیز صادق است، برای مثال پیچیدگی محاسباتی در این الگوریتم نیز مانند الگوریتم LMS از مرتبه طول فیلتر وفقی میباشد. در اصل الگوریتم LMS و NLMS به صورت یک الگوریتم در نظر گرفته میشوند با این وجود تفاوتهایی بین الگوریتم LMS و NLMS نیز وجود دارد. برای مثال الگوریتم NLMS بر خلاف الگوریتم LMS یک الگوریتم با اندازهی گام متفاوت با زمان میباشد و یا الگوریتم NLMS نرخ همگرایی را نشان میدهد که از نرخ همگرایی الگوریتم LMS بیشتر است یعنی الگوریتم NLMS سریعتر به مقادیر بهینه همگرا میشود [35-36-37].
3-3-4- الگوریتم VSLMS و VSNLMS
الگوریتم VSLMS در واقع بر پایه الگوریتم LMS پیادهسازی میشود، با این تفاوت که به هر یک از وزنهای فیلتر وفقی یک اندازه گام متغیر با زمان اختصاص داده میشود. علت این امر آن است که انتخاب μهای کوچک میزان خطای نهایی را کاهش میدهد، در حالی که برای کاهش زمان و افزایش سرعت همگرایی الگوریتم نیاز به انتخاب اندازه گامهای بزرگ میباشد. برای حل این تناقض در نحوه انتخاب μ از الگوریتم LMS با اندازه گامهای متغیر با زمان استفاده میشود به نحوی که میزان خطای نهایی نسبت به الگوریتم LMS کاهش یافته و سرعت همگرایی الگوریتم افزایش یابد. بهروزرسانی وزنها در این الگوریتم به صورت زیر انجام میشود [36-40-42-43-44]:
gi در رابطه فوق با نام بردار گرادیان شناخته میشود. در رابطه فوق واضح است که μmin مقداری کمتر از μmax داشته و هر کدام مقداری در محدوده صفر و دو اختیار میکنند. در این الگوریتم هر یک از اندازه گامهای انتخابی باید در بازه مجاز μ برای الگوریتم LMS نیز قرار گیرند. ρ و μmin از پارامترهای قابل تنظیم برای بهبود عملکرد الگوریتم میباشند. انتخاب کوچک ρ سبب کاهش خطای ماندگار شده اما سرعت همگرایی را نیز کاهش میدهد. در هر صورت با انتخاب مناسب ρ میتوان سرعت همگرایی را نسبت به الگوریتم LMS افزایش داد. μmin را میتوان نزدیک به صفر انتخاب کرد به نحوی که الگوریتم همگرا شود. نحوه انتخاب پارامتر μmin در سرعت همگرایی الگوریتم تاثیر به سزایی داشته و بهبود الگوریتم با تنظیم مناسب این پارامتر امکانپذیر است.
الگوریتم VSNLMS نیز همان الگوریتم VSLMS است که به صورت نرمالیزه پیادهسازی میشود، علت استفاده از این الگوریتم نیز مانند علت استفاده از الگوریتم NLMS است. منظور از نرمالیزه کردن در این حالت این است که مقدار μmax در الگوریتم VSLMS بر حسب توان سیگنال ورودی فیلتر وفقی تعیین میشود. یعنی در این الگوریتم نیز مانند الگوریتم NLMS اندازه گام با توان سیگنال ورودی نسبت عکس دارد. این الگوریتم در واقع همان الگوریتم VSLMS است با این تفاوت که در این الگوریتم علاوه بر اندازه گام و گرادیان، ماکزیمم اندازه گام نیز در هر مرحله بهروزرسانی میشود. نکته قابل توجه آن است که از آنجا که الگوریتمهای VSLMS و VSNLMS نیز بر پایه الگوریتم LMS عمل میکنند پیچیدگی محاسباتی این الگوریتمها نیز از مرتبه طول فیلتر وفقی یعنی همان L میباشد. بهروزرسانی وزنها در الگوریتم VSNLMS به صورت زیر انجام میپذیرد [36-40-42-43-44]:
در این الگوریتم نیز مانند VSLMS نحوه عملکرد و سرعت همگرایی الگوریتم با انتخاب مناسب پارامترهای ρ و μmin امکانپذیر است [36-40-42-43-44].
3-3-5- الگوریتم RLS
تا بدینجا فیلتر وینر و الگوریتمهای قابل پیادهسازی آن، یعنی الگوریتم خانواده LMS شامل الگوریتمهای LMS، NLMS، VSLMS و VSNLMS را معرفی کردیم. همانطور که در مقدمه بیان شد الگوریتمهای خانواده LMS بر اساس کمینه کردن میانگین آماری مربع خطا عمل میکنند اما الگوریتم RLS بر مبنای نظریه سیگنالهای قطعی استوار است. در الگوریتم RLS هدف کمینه کردن جمع وزندار مربع خطا عمل میکند. الگوریتم RLS در واقع پیادهسازی روش فیلترینگ LS9 (حداقل مربعات) به صورت بازگشتی است. پیادهسازی یک فیلترینگ بر مبنای روش LS نیازمند داشتن اطلاعات ورودی فیلتر و سیگنال مطلوب در فیلترینگ از زمان آغازین بوده و از لحاظ عملی به علت حجم پیچیدگی محاسباتی بالا تیاز به حجم عظیمی از حافظه دارد از این رو از الگوریتم بازگشتی آن که همان الگوریتم RLS است استفاده میشود. در روش حداقل کردن مربعات از تمام دادههای موجود از لحظه شروع تا لحظه nام استفاده میشود به همین دلیل طول دادههای در دسترس با افزایش زمان و طول داده زیاد میشود. برای حل این مشکل از ضریب وزندهی با نام ضریب فراموشی استفاده میشود تا دادههای قدیمیتر به دست فراموشی سپرده شده و عملیات فیلترینگ بر روی دادههای جدیدتر انجام شود. ضریب فراموشی در الگوریتم RLS معمولاً در بازه [9999999/0 , 9/0] قرار دارد. پیچیدگی محاسباتی الگوریتم RLS در مقایسه با الگوریتمهای خانواده LMS چندان کم نبوده چرا که پیچیدگی محاسباتی در این الگوریتم از مرتبه L2 میباشد[36-37]. در این الگوریتم به تخمین ماتریس کواریانس، P، احتیاج است. این تخمین در هر مرحله با استفاده از بهره g[n] به صورت زیر به روز شده و با کمک آن وزنهای فیلتر وفقی مطابق روابط زیر بهروزرسانی میشوند[35]:
در این الگوریتم، λ که ضریب فراموشی نامیده میشود عاملی مهم در سرعت همگرایی و کیفیت عملکرد الگوریتم میباشد. پیچیدگی محاسباتی الگوریتم RLS از مرتبه L2 (L طول فیلتر وفقی است) میباشد که این امر امکان پیادهسازی این الگوریتم برای فیلترهای با طول زیاد را مشکل میکند. با این وجود الگوریتم RLS از کیفیت و سرعت همگرایی بسیار بالاتری نسبت به الگوریتم LMS برخوردار است [17-36-37-45].
3-3-6- الگوریتم Fast-RLS
الگوریتم Fast-RLS که با نامهای FTF10 و FT-RLS11 نیز شناخته میشود راهی دیگر برای کمینه کردن جمع وزندار مربع خطا میباشد. مزیت این روش پیچیدگی محاسباتی کم آن در مقایسه با الگوریتم RLS میباشد. پیچیدگی محاسباتی در این روش از مرتبه L یا همان طول فیلتر وفقی است. الگوریتم FT-RLS یک نسخه سریع از الگوریتم RLS میباشد. همان طور که بیان شد این الگوریتم نیز به صورتی متناوب و بازگشتی به حل مسأله کمینه کردن مربع خطا میپردازد و از نظر خواص آماری به الگوریتم RLS بسیار نزدیک است. در این الگوریتم با تعریف متغیری با نام ضریب همگرایی و بهروزرسانی این ضریب به کمک پیشبینی میزان خطا، بهروزرسانی وزنهای فیلتر وفقی انجام میشود. در الگوریتم FT-RLS نیز مانند الگوریتم RLS، λ یا همان ضریب فراموشی عاملی مهمی در تعیین سرعت همگرایی و عمکرد الگوریتم میباشد الگوریتم FT-RLS بر مبنای فیلترهای لاتیس12 در حل کمینهسازی مربع خطا عمل میکند با این تفاوت که در ساختار این الگوریتم برای کاهش میزان محاسبات مورد نیاز از چهار فیلتر Trannsversal به صورت همزمان استفاده میشود. در شکل 3-5 بلوک دیاگرام فیلترهای مذکور نشان داده شده است [36-46].
شکل 3-5: بلوک دیاگرام فیلتر Fast-RLS
در ادامه به توضیح عملکرد فیلترهای بلوک دیاگرام مذکور میپردازیم.
• فیلتر پسین13: در این فیلتر بر اساس دادههای ورودی دریافتی ماقبل وزنهای بعدی فیلتر چنان بهروز میشوند که خطای پیشبینی14 کمینه شود، علاوه بر این، در این فیلتر خطای پیشبینی نیز با استفاده از وزنهای

دیدگاهتان را بنویسید