فی ژوو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فی ژوو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

تحقیق در مورد احتمال شرطی

اختصاصی از فی ژوو تحقیق در مورد احتمال شرطی دانلود با لینک مستقیم و پر سرعت .

تحقیق در مورد احتمال شرطی


تحقیق در مورد احتمال شرطی

ک پرداخت و دانلود *پایین مطلب*

 

فرمت فایل:Word (قابل ویرایش و آماده پرینت)

  

تعداد صفحه:30

 

فهرست مطالب ندارد

 

 

احتمال و احتمال شرطی

مدل احتمال شرطی

اگر A و B دو پیشامد از فضای نمونه ای S باشند و ، و بدانیم آگاهی از رخداد حتمی پیشامد B در مقدار احتمال سایر پیشامدها اثر می گذارد، احتمال پیشامد A به شرط این که پیشامد B رخ دهد به صورت زیر تعریف می شود:

 

قاعده ضرب احتمال

 

این رابطه به قاعده ضرب احتمال موسوم است. به کمک این قاعده می توان احتمال رخداد هم زمان دو پیشامد را تعیین کرد.

استقلال دو پیشامد

اگر آگاهی از رخداد پیشامد B در احتمال رخداد پیشامد A مؤثر نباشد، A را مستقل از B میگویند. پس:

 

 

 

 

احتمال تجربی

مجموعه ی همه ی نتایج ممکن در یک آزمایش تصادفی، فضای نمونه ای نامیده می شود.

نسبت «رو» هایی که در آزمایش پرتاب سکه به دست آمد، همان فراوانی نسبی است.

اگر داده های حاصل از آزمایش در محاسبه ی احتمال مورد استفاده قرار گیرد به احتمال تجربی یا تخمین احتمال گویند.

 

مثال: از 50 بار پرتاب یک سکه 30 بار رو ظاهر شده است تخمین احتمال رو آمدن سکه کدام است؟

 

به احتمال هایی که در آن پیشامدها به طور ایده آل رخ می دهند و داده های حاصل از آزمایش در آن نقشی ندارند احتمال نظری گفته می شود و در این حالت نتایج آزمایش هم شانس هستند.

 

مثال: در پرتاب یک تاس احتمال آمدن عدد بزرگتر از 4 کدام است؟

 

توضیح بهتر اینکه:‌احتمال نظری به احتمالهایی گفته می شود که به کمک آنچه که به طور ایده آل باید رخ دهد تعیین می گردند و داده های حاصل از آزمایش در آن نقشی نداشته باشند. برای مثال در پرتاب یک سکه فضای نمونه به صورت {پ و ر}=S می باشد که احتمال «رو» آمدن سکه و احتمال «پشت» آمدن سکه نیز است. این دو عدد احتمال نظری می باشند.

همچنین در پرتاب یک تاس فضای نمونه به صورت {6و5و4و3و2و1}=S می باشد که احتمال آمدن عدد3، می باشد، که این عدد احتمال نظری ظاهر شدن عدد3 می باشد.

احتمال تجربی: اگر یک سکه سالم را 100 بار پرتاب کنیم و از این 100 بار 55 بار «رو» ظاهر شود کسر را احتمال تجربی (تخمین احتمال) رو آمدن در این 100 بار آزمایش می گوییم همچنین اگر یک تاس را 30 بار پرتاب کنیم و 5 بار عدد 2 ظاهر شده باشد کسر را احتمال تجربی ظاهر شدن عدد 2 در این 30 بار آزمایش می گوییم

 

ظهور احتمال

اما ظهور احتمال به صورت یک نظریه ریاضی نسبتاً جدید است.

مصریان قدیم در حدود ۳۵۰۰ سال قبل از میلاد برای بازی از چیزی که امروزه آن را "قاپ" می‌نامند و شیئی استخوانی شبیه تاس چهار وجهی است استفاده می‌کردندکه در استخوان زانوی پای بعضی از حیوانات وجود دارد.

تاس شش وجهی معمولی در حدود سالهای ۱۶۰۰ بعد از میلاد ساخته شد و از آن به بعد در تمام انواع بازیها ابزار اصلی بوده است.

بدیهی است که ضمن انجام بازیهای تصادفی ،بازیکنان این بازیهادرباره فراوانی وقوع پیشامدهای معین و درباره احتمال آنها ایده‌های شهودی به دست آوردند اما تعجب اینکه تا قرن پانزدهم هیچگونه بررسی علمی در مورد پیشامدهای تصادفی انجام نشد.

گذر از احتمال کلاسیک

اوایل تئوری احتمالات به یک تعداد متناهی از نتایج یک امتحان دو شقی محدود شده بود.قانون محاسبه احتمال،در اصل بسیار ساده بود:

یک پیشامد مرکب،تعدادی پیشامد اولیه را شامل میشود.احتمال آن پیشامد مرکب برابر است با حاصل جمع احتمالات آن پیشامدهای اولیه.برای تعیین احتمالهای پیشامدهای مرکب،پیشامدهای اولیه باید احتمالهایی داشته باشند.طرح های تخمینی بر اساس پیشامدهای اولیه متقارن بنیان نهاده شده بودند.در نتیجه اگر تعداد پیشامدهای اولیه m بود،تقارن نتایج یک بازی به معنی زیبا بودن آن بازی بود.

محاسبات کلاسیک احتمالات که بسیار محدود بودند،بر پایهء تفسیر کلاسیک احتمال انجام میشدند.

تعبیر امواج دوبروی با نظریه احتمال

بر اساس اصل عدم قطعیت هایزنبرگ در مکانیک کوانتومی نمی‌توان در مورد پدیده‌ها با قطعیت کامل اظهار نظر نمود و لذا نتیجه ‌اندازه گیری‌ها و آزمایش‌های مختلف بوسیله نظریه احتمال تعبیر می‌شود. از جمله مفاهیمی ‌که در تعبیر و توصیف آنها از نظریه ‌احتمال استفاده می‌شود، تعبیر امواج دوبروی می‌باشد. امواجی که به ذرات مادی نسبت داده می‌شود.

تعبیر طبیعت موجی ذرات مادی برحسب احتمالات ، نخستین بار در سال 1926 توسط ماکس بورن ارائه شد. آن شاخه ‌از فیزیک کوانتومی‌ که مسئله یافتن مقادیر توابع موجی را بررسی می‌کند، مکانیک موجی یا مکانیک کوانتومی ‌نام دارد. مبتکران اصلی مکانیک موجی ذرات اروین شرودینگر و ورنر هایزنبرگ بودند که به‌صورت مستقل مکانیک کوانتومی ‌را با صورتهای ریاضی مختلف ، ولی هم‌ارز ، فرمول‌بندی کردند.

ارتباط مدل موجی و ذره‌ای بوسیله نظریه ‌احتمال

از الکترومغناطیس می‌دانیم که میدان موج وابسته به یک فوتون میدان الکترومغناطیسی است. تابش الکترومغناطیسی در بعضی موارد با استفاده‌ از مدل ذره‌ای و در موارد دیگر به کمک مدل موجی توصیف می‌شود. شدت تابش ، کمیتی است که در هر دو مدل به یک معنی است.با این تفاوت که در مدل ذره‌ای ، شدت تابش با تعداد فوتونها متناسب است، ولی در مدل موجی شدت تابش با مجذور میدان الکتریکی متناسب می‌باشد. از طرف دیگر ، احتمال مشاهده هر فوتون در هر نقطه با تعداد فوتونهایی که به‌ آن نقطه می‌رسند، متناسب است. چون اگر فوتونی در آن نقطه وجود نداشته باشد، در این صورت احتمال وجود فوتون صفر خواهد بود.
بنابراین با استفاده ‌از تعریف ارائه شده برای شدت در هر دو مدل موجی و ذره‌ای ، می‌توان چنین نتیجه گرفت که ‌احتمال مشاهده یک فوتون در هر نقطه ‌از فضا با مجذور شدت میدان الکتریکی در آن نقطه متناسب است. به بیان دیگر ، از دیدگاه نظریه کوانتومی‌ ، میدان الکتریکی نه تنها کمیتی است که نیروی الکتریکی به‌ازای واحد بار را بدست می‌دهد، بلکه کمیت تابعی است که مجذور آن احتمال مشاهده یک فوتون را در هر مکان مفروض بدست می‌دهد. هرچند نظریه ‌الکترومغناطیس کلاسیک قادر به توصیف خصوصیات دقیقا کوانتومی‌ تابش الکترومغناطیسی نیست، ولی قادر است با محاسبه مجذور میدان الکتریکی احتمال مشاهده فوتون‌ها را بدست دهد.

معرفی تابع احتمال

مفهوم طبیعت موجی یک ذره مادی مانند الکترون را می‌توان به ‌این صورت تشریح کرد که رابطه بین احتمال مشاهده یک ذره و مجذور دامنه موج آن دقیقا همان رابطه بین احتمال مشاهده یک فوتون با جرم سکون صفر و مجذور دامنه موج آن (که همان میدان الکتریکی است) می‌باشد. در مکانیک کوانتومی دامنه موج وابسته به یک ذره همان تابع موجی است که بر اساس رابطه دوبروی به یک ذره نسبت داده می‌شود. در مکانیک کوانتومی (یا مدل ذره‌ای) احتمال مشاهده یک ذره مادی به‌صورت مجذور تابع موج تعریف می‌شود.
بنابراین ، اگر تابع موج را با ψ نشان دهیم، در این صورت احتمال اینکه ذره در یک فاصله مفروض بین x و x + dx مشاهده شود، با ψ(x)|2dx| برابر خواهد بود. از طرف دیگر می‌دانیم که میدان الکتریکی ، در حالت کلی تابعی از مکان و زمان می‌باشد. بنابراین باید تابع موج و به تبع آن تابع احتمال نیز تابعی از مکان و زمان باشند. تعیین مکان مخصوص یک فوتون در یک زمان خاص با قطعیت کامل ، غیر ممکن است، اما تعیین احتمال مشاهده آن به کمک مجذور میدان الکتریکی امکان‌پذیر است. بطور مشابه ، تعیین مکان مخصوص یک ذره در یک زمان ویژه با قطعیت کامل غیرممکن بوده ولی تعیین احتمال مشاهده آن به کمک مجذور تابع موج ممکن است.

خصوصیات تابع احتمال

  • تابع احتمال یک کمیت حقیقی است، چون به صورت مجذور تابع موج تعریف می‌شود و مجذور یک کمیت باید حقیقی باشد، هرچند خود آن کمیت مختلط باشد.
  • تابع احتمال همواره مقداری بین صفر و یک دارد که یک ، بیشینه مقدار آن و صفر ، کمترین مقدار تابع احتمال است.

 

توزیع دو جمله ای

امتحان های تکراری نقش بسیار مهمی در آمار و احتمال بازی می کنند خصوصا" وقتی تعداد امتحان ها ثابت و پارامتر (احتمال پیروزی) برای تمام امتحان ها برابر و امتحان ها همگی مستقل باشند.
به منظور تهیه فرمولی برای احتمال به دست آوردن " پیروزی در امتحان " تحت شرایطی که بیان شد ملاحضه کنید که احتمال به دست آوردن پیروزی و شکست در یک ترتیب مشخص برابر است. برای هر پیروزی یک عامل و برای هر شکست یک عامل وجود دارد و بنا بر فرض استقلال عامل و عامل در یکدیگر ضرب می شوند. چون این احتمال با هر دنباله ای از امتحان که در آن پیروزی و شکست وجود دارد همراه است تنها باید تعداد دنباله هایی از این نوع را بشماریم و سپس را در این تعداد ضرب کنیم.روشن است تعداد راه هایی که می توانیم امتحان را که برآمد همه آنها پیروزی است انتخاب کنیم برابر است با و نتیجه می شود که احتمال مطلوب برای " پیروزی در امتحان " برابر است.

    تعریف

متغیر تصادفی توزیع دوجمله ای دارد و به آن عنوان متغیر تصادفی دو جمله ای داده می شود اگر و تنها اگر توزیع احتمال آن به صورت زیر باشد:

 

قضیه(1)

 

قضیه(2)

میانگین و واریانس توزیع دو جمله ای برابرند با :

 

قضیه(3)

اکر توزیع دو جمله ای با پارامترهای باشد و آنکاه:

 

قضیه(4)

تابع مولد گشتاور توزیع دوجمله ای به صورت است.

نکته : اگر امین پیروزی در امین امتحان رخ دهد باید پیروزی در اولین امتحان وجود داشته باشد و احتمال این پیشامد عبارت است از :

 

احتمال یک پیروزی در امین امتحان برابر است با و بنا براین احتمال آن که امین پیروزی در امین احتمال رخ دهد برابر است با:

 

توزیع دوجمله ای منفی

متغیرتصادفی توزیع دوجمله ای منفی دارد و به آن عنوان متغیر تصادفی دوجمله ای منفی داده می شود اکر و تنها اگر توزیع احتمالش به ازای به صورت زیر باشد:

 

قضیه(5)(
قضیه(6) میانگین و واریانس توزیع دوجمله ای منفی عبارتند از :

 

جمع احتمالها

جمع احتمالها

(منظور از «برآمد» در جملات زیر همان «پیشامد» است)

آزمایش پرتاب یک تاس را در نظر بگیرید. شش برآمد هم شانس 1، 6،5،4،3،2 برای این آزمایش وجود دارد، یعنی فضای نمون ای 6 عضو دارد. پیشامدهای زیر را تعریف می کنیم:

A: آمدن عدد 2

B: آمدن عدد 6

C: آمدن عدد زوج

D:‌آمدن عدد کوچکتر از 4

هر کدام از این پیشامدها مجموعه ای از یک یا چند برآمد هستند. در واقع

 

چون پیشامدها زیر مجموعه های فضای نمونه ای هستند، پس فضای نمونه ای مجموعه مرجع این پیشامدها است. به روش نمودار ون، فضای نمونه ای S را به صورت یک مستطیل بزرگ و پیشامدها را به صورت شکلهایی در داخل آن نشان می دهیم. پیشامدهای D,C در نمودار زیر نشان داده شده اند:

چون شش برآمد هم شانس وجود دارد، . در پیشامد «آمدن یک 2 یا یک 6» دو برآمد وجود دارد:

 

در این مثال می بینیم که

 

آیا این رابطه برای هر دو پیشامد دلخواه برقرار است؟‌

پیشامدهای D,C در بالا را در نظر بگیرید. پیشامد «C یایعنی شامل همه برآمدهای موجود در C یا D یا هر دوی آنها است، یعنی

(آمدن عدد زوج یا عددی کمتر از 4 ) p =

(آمدن 6،4،2 یا آمدن 3،2،1)P=

بنابراین، در هر برآمدی به جز 5 وجود دارد. از این رو دقیقاً 5 برآمد مجزّا وجود دارند که این پیشامد را تشکیل می دهند، زیرا در تعیین تعداد اعضای یک مجموعه، اعضای تکراری را فقط یکبار می شماریم، بنابراین

 

از طرف دیگر مشاهده می کنیم که که برابر است با . پس در این مثال، . علت این هماهنگی را بررسی می کنیم:

در پیشامد 3C برآمد و در پیشامد D نیز 3 برآمد وجود دارند ولی در

، 5 برآمد وجود دارند. برآمد 2 هم در C است و هم در D، ولی باید دقت کنیم که هر برآمد را دقیقاً یک بار بشماریم. هنگام محاسبه ، این برآمد را دو بار به حساب می آوریم پس باید یک بار آن را کم کنیم یعنی باید احتمال پیشامد «D,C» یا را از مجموع فوق کم کنیم، به این ترتیب

 

این با نتیجه ای که قبلاً برای به دست آوریم هماهنگی دارد. این مطلب ما را به قانون جمع احتمالها هدایت می کند یعنی برای دو پیشامد D,C

 

این رابطه برای پیشامدهای B,A در بالا نیز برقرار است زیرا B,A هیچ گاه همزمان رخ نمی دهند، یعنی رخ دادن پیشامد غیر ممکن است. چون احتمال رخ دادن پیشامدهای غیر ممکن صفر است، پس و

  

 

 

نظریه احتمالات

نظریه احتمالات مطالعه رویدادهای احتمالی از دیدگاه ریاضیات است.

ریاضی‌دانان عددی بین صفر و یک را به عنوان احتمال یک رویداد تصادفی به آن نسبت می‌دهند. رویدادی که حتما رخ دهد احتمالش یک است و رویدادی که اصلا ممکن نیست رخ دهد احتمالش صفر است[1]*. احتمال شیر آوردن در شیر یا خط یک سکه سالم است، همانطور که احتمال خط آوردن هم است. احتمال این‌که پس از انداختن یک تاس سالم شش بیاوریم است.

به زبان سادهٔ‌ ریاضی احتمال، نسبت تعداد اعضای مجموعهٔ پیشامدهای دلخواه به تعداد اعضای مجموعهٔ تمام پیشامدهای ممکن است. مثلا در مورد تاس برای محاسبهٔ‌احتمال آوردن عددی زوج:. مجموعهٔ پیشامدهای ممکن هست: {۱٫۲٫۳٫۴٫۵٫۶} و مجموعهٔ پیشامدهای دلخواه هست: {۲٫۴٫۶}. تعداد اعضای مجموعهٔ دلخواه هست ۳ و تعداد اعضای مجموعهٔ پیشامدهای ممکن هست ۶. پس احتمال هست:

جمع احتمال رخ دادن یک رویداد با احتمال رخ دادن رویداد مکمل آن، عدد یک می‌شود. مثلا در تاس ریختن جمع "احتمال آوردن شش" (که است) با "احتمال نیاوردن شش" (که است) می‌شود یک.

سؤال‌های ویژه‌ای که ریاضیدانان بزرگ را به اندیشیدن در این باره واداشت از درخواست‌های نجیب زادگانی نشأت می‌گرفت که با ورق یا تاس قمار می‌کردند ، به قول پواسون:مسأله‌ای مربوط به بازی‌های تصادفی که از سوی "مرد این جهانی به ریاضت کشی یانسنی(؟)" پیشنهاد شد ، سرچشمه حساب احتمالات است.این"مرداین جهانی" شوالیه دومره نجیب زاده‌ای بسیار با فرهنگ بود که با مسأله مربوط به مسأله نقطه‌ها به پاسکال مراجعه کرد.پاسکال باب مکاتبه را با فرما بر این مسأله و مسائل دیگر گشود و هر دو برخی از بنیادهای نظریه احتمال را پی‌ریزی کردند(۱۶۵۴).
در سال ۱۶۵۵دانشمند معروف هلندی
کریستین هویگنس به آنها پیوست و این همکاری بسیار پرثمر بود. در سال ۱۶۵۷هویگنس اولین کتاب درباره احتمال را تحت عنوان "درباره محاسبات بازیهای شانسی"نوشت. این کتاب به منزله تولد واقعی احتمال محسوب می‌شود.دانشمندانی که این کتاب را خواندند متوجه شدند که با نظریه‌ای عمیق سروکار دارند.بحث درباره مسائل حل شده و حل نشده و بسیاری از ایده‌های جدید خوانندگان آن زمان این کتاب ، زمینه ساز مباحث نو شد.
دانش‌پژوهان ایتالیایی ،
لوکا پاچولی(۱۵۱۴-۱۴۴۵) ، نیکولا تارتاگلیا(۱۵۵۷-۱۴۹۹) ، جرولامو کاردانو(۱۵۷۶-۱۵۰۱)  و به خصوص گالیلو گالیله‌ای(۱۶۴۲-۱۵۶۴) از جمله پیشکسوتان دانش ریاضی هستند که احتمالهای مربوط به بسیاری از بازیهای تصادفی را محاسبه کرده‌اند.علاوه بر این آنها کوشش کرده‌اند تا مبنایی ریاضی برای احتمال فراهم آورند.کاردانو حتی درباره قمار بازی کتابی نوشت که شامل بخشهایی درباره روشهای نیرنگ است.
به هر حال پیشرفت واقعی در فرانسه از سال ۱۶۵۴ وقتی
بلز پاسکال(۱۶۶۲-۱۶۲۳) و پیردو فرما(۱۶۶۵-۱۶۰۱) دو ریاضیدان نامی نامه‌هایی به یکدیگر ردوبدل کردند آغاز شد ، که در این نامه‌ها از روشهای کلی محاسبه احتمال‌ها بحث کرده‌اند ، اما نمی‌توان گفت که فرما و پاسکال بنیانگذاران نظریه احتمالات بودند.

خبر ظاهرا‌ً موثقی در دست است که فرما در بومون دولمانی نزدیک تولوز در۱۷ اوت ۱۶۰۱ بدنیا آمد.میدانیم که اودر کاستر یا در تولوز در ۱۲ ژانویهء۱۶۶۵ درگذشت.سنگ قبر او که بدواً در کلیسای آگوستین در تولوز بود و بعداً به موزهءملی منتقل شد،تاریخ مرگ فوق و سن فرما را در بدو مرگ ۵۷ سال میدهد.به دلیل اینکه اطلاعات متناقض تاریخ تاریخ تولد و مرگ فرما معمولاً به صورت ۱۶۶۵-۱۶۰۱ ثبت میشود.در واقع به دلایل متعدد تاریخ ولادت فرما به صورتی که نویسندگان مختلف داده اند از ۱۵۹۰ تا ۱۶۰۸ تغییر میکند.
فرما پسر یک تاجر چرم بود و تحصیلات مقدماتی را در زادگاه خود انجام داد.در ۳۰ سالگی به عضویت پارلمان محلی در تولوز در آمد و وظایف خود را در آنجا با دقت زیاد انجام داد.
وی که حقوقدانی متواضع و گوشه گیر بود قسمت اعظم ساعات فراغت خود را وقف مطالعهء ریاضیات کرد.
گرچه در دوران حیات خود مطالب کمی را منتشر کرد ولی با ریاضیدانان برجستهء زیادی که با او همزمان بودند مکاتبهء علمی داشت و از راه همین مکاتبات تا حد زیادی معاصران خود را تحت تاثیر قرار داد.
شاخه های ریاضی که وی موجب غنای آنها به قدری متعددند و سهم وی در آنها به قدری اهمیت دارد که بزرگ ترین ریاضیدان قرن هفدهم فرانسه نامیده شده است.
قبلاً خاطر نشان کردیم که مکاتبات بین پاسکال و فرما اساس علم احتمال را پیریزی کرد.متذکر میشویم که به اصطلاح ‌"
مسئلهء امتیازها" بود که آغازگر این مطلب گردید:"نحوهء تقسیم جایزه در بازی نیمه تمام مانده ای بین دو بازیکن به فرض داشتن مهارت یکسان با معلوم بودن امتیاز های دو بازیکن در موقع قطع بازی و تعداد امتیازات لازم برای برنده شدن را تعیین کنید."

فرما به بحث در حالتی پرداخت کهA،یکی از بازیکن ها برای برنده شدن ۲ امتیاز و Bبازیکن دیگر ۳ امتیاز میخواست.در اینجا جواب فرما برای حالتی اینچنین می آوریم.
چون آشکار است که چهار بازی دیگر نتیجه را معین خواهد کرد اگر
aمعرف بازی ای باشد که در آن Aبرنده میشود و bمعرف بازی ای که در آن Bبرنده میشود و ۱۶ تبدبل دو حرف aوbرا ۴ به ۴ در نظر بگیریم:
aaaa,aaab,abba,bbab

baaa,bbaa,abab,babb

abaa,baba,aabb,abbb

aaba,baab,bbba,bbbb

حالت هایی که در آن aدو بار یا بیشتر ظاهر میشود،مساعد برای Aست.۱۱ تا از این حالتها وجود  دارند.حالتهایی که در آن bسه بار یا بیشتر ظاهر میشود مساعد برای Bست.تعداد آنها ۵ است.بنابر این باید به نسبت ۱۱:۵تقسیم شود.در حالت کلی که برای برنده شدن Aبهmامتیاز و Bبه n امتیاز نیاز دارند،۲^m+n-۱
        جایگشت  ممکن دو حرف
aوbرا m+n-۱ بهm+n-۱ مینویسیم:در این صورت عدد aتعداد حالتهایی را کهa،mبار یا بیشتر و عددbتعداد حالتهایی که در آن b،nبار یا بیشتر ظاهر میشود به دست می آوریم بنابراین باید جایزه به نسبت a:bتقسیم کرد.پاسکال مسئلهء امتیازها را با استفاده از مثلث معروف خود حل کرد

 

احتمال در قرن هیجدهم و نوزدهم(سیر تئوری)

بعد ار کارهای پاسکال،فرما و هویگنس در سال ۱۷۱۳ کتابی که یاکوب برنولی(۱۷۰۵-۱۶۵۴)و همچنین در سال ۱۷۳۰ کتابی که نوشت،پشرفت ناگهانی عمده ای بود.یاکوب برنولی،یکی از نخستین دانش پژوهان نظریهء احتمالات بود و در این موضوع کتاب "فن گمان" را نوشت که پس از مرگش در سال ۱۷۱۳ منتشر شد.در بخش اول این کتاب مقالهء هویگنس دربارهء بازیهای تصادفی مجدداً به چاپ رسیده است.قسمت های دیگر به تبدیلات و ترکیبات مربوط میشود و کتاب با قضیهء برنولی دربارهء توزیع های دوجمله ای به اوج خود میرسد.

گفتیم که یکی از افراد مهمی که سهمی در نظریهء احتمالات داشت آبراهام دوموآور بود.دوموآور یک "هوگنو"ی فرانسوی بود.هوگنو نامی ست که به پروتستان های فرانسوی قرون ۱۷و۱۸ داده شده بود.پس از نسخ فرمان نانت(فرمانی که در سال ۱۵۹۸ توسط هانری چهارم صادر شد و به موجب آن به هوگنویها مساوی دیگران داده شد)در سال ۱۶۸۵ به فضای سیاسی مساعدتر لندن مهاجرت کرد.

وی در زندگی خود را در انگلیس از طریق تدریس خصوصی گذاراند و از دوستان نزدیک آیزاک نیوتن شد.

دوموآور بخصوص به خاطر اثرش "قسط السنین عمر" که نقش مهمی در تاریخ ریاضیات آمارگری دارد،اثر "کمترین شانس" که حاوی مطالب جدیدتری دربارهء نظریهء احتمالات است و اثر "جنگ تحلیلی" که دربارهء سریهای متناوب،احتمال و مثلثات تحلیلی است،شهرت دارد.

بررسی انتگرال احتمالاتی زیر:

                                        

برای اولین بار و بررسی منحنی فراوانی نرمال:

                                                            

Cوhثابت:

که در مبحث آمار اهمیت زیادی دارد به دوموآور منسوب است.فرمول "استرلینگ"،که به غلط چنین نامگذاری شده به دوموآور منسوب است.

افسانه ای که اغلب دربارهء مرگ وی گفته میشود بسیار جالب است.مطابق این داستان دوموآور حس میکرد هر روز یک ربع ساعت بیشتر از روز قبل به خواب نیاز دارد.وقتی این تصاعد عددی به ۲۴ ساعت رسید دوموآور درگذشت.

دو کار بزرگ لاپلاس که نه تنها تحقیقات خود او بلکه در موضوعات مربوط همهء کارهای پیشین را وحدت میبخشد،عبارتند از:"نظریهء تحلیلی احتمال"و"مکانیک سماوی".این دو اثر ماندنی به مقدمه های توصیفی مفصل به زبان غیرفنی:جستار فلسفی در احتمالات و شرح نظام عالم آغاز شدند.
جستار فلسفی در احتمالات مقدمه ای خواندنی برای نظریهء احتمالات است؛این مقاله تعریف"
منفی"لاپلاس از احتمالات را که بر "پیشامدهای متساوی الاحتمال" مبتنی ست شامل میشود.
"
نظریهء تصادف"عبارت است از تحویل همهء رویدادهایی که از یک نوع اند به تعداد معینی از موارد متساوی الاحتمال،یعنی مواردی که از نظر پیشامدی که در پی احتمالش هستیم مطلوبند.
به نظر لاپلاس مسائل مربوط به احتمال از آن رو مطرح میشود که چیزهایی را میدانیم و چیزهایی را نمیدانیم.
لاپلاس همچنین نظریه ای را که "
تامس بیز"،کشیش گمنام انگلیسی طرح کرد و پس از مرگش در فاصلهء سالهای۱۷۶۳-۱۷۶۴ منتشر شده بود از فراموشی نجات داد و مجدداً تدوین کرد.این نظریه به نظریهء احتمالات وارون معروف شده است.

در سال ۱۹۰۰ در کنگرهء بین المللی ریاضیدانها در پاریس،"دیوید هیلبرت"(۱۹۴۳-۱۸۶۲)۲۳ مسئله را که به عقیدهء او حل آنها در پیشرفت ریاضیات مؤثر است پیشنهاد کرد.یکی از این مسائل بحث اصل موضوعی احتمال بود.

هیلبرت در سخنرانی خود نقل قولی از"وایر اشتراوس"آورد که گفته بود:"هدف نهایی که همیشه باید به یاد داشت،رسیدن به یک فهم درست مبانی علم است."هیلبرت اضافه کرد که فهم کامل نظریه های خاص یک علم برای بحث موفقیت آمیز مبانی آن ضروری ست.

ا

دانلود با لینک مستقیم


تحقیق در مورد احتمال شرطی

تحقیق در مورد امار و احتمال

اختصاصی از فی ژوو تحقیق در مورد امار و احتمال دانلود با لینک مستقیم و پر سرعت .

تحقیق در مورد امار و احتمال


تحقیق در مورد امار و احتمال

لینک پرداخت و دانلود *پایین مطلب*

فرمت فایل:Word (قابل ویرایش و آماده پرینت)


تعداد صفحه:19

فهرست مطالب

  1-4 : روش احتمال شرطی  

تخمین پارامترهای احتمال:                                                

اثبات

  1. 1.1- نمونه های طبقه بندی درمسائل آماری
  2. تخمین پارامترهای احتمال:                                                

     

    با توجه به بحث انجام شده دردرس 3 ، پایه قانون PFS  شامل تئوری  فازی است که نتایج چندگانه ای دارد . هر نتیجه به یک پارامتراحتمال مربوط می شود . این درس به احتمال تخمین پارامترها درPFS مربوط می شود . در این درس فرض بر این است که هم  مقدمه وهم نتیجه  mfsبه یک اندازه تعیین کننده هستند واحتیاجی    به بهینه سازی بیشتر نمی باشد . طبقه بندی مسئله ها وتخمین  mfs دردرس 5         ملاحظه می شود. دردرس16و18و34 پارامترهای احتمال به وسیله تئوری فازی تخمین زده می شوندو برای تخمین احتمالات شرطی ازفرمولهای اماری استفاده می شود (همانطور که دردرس 35 می بینیم ) این روش برای تخمین پارامترهای تخمین است وهمچنین دریاداوری نظریه ها به روش احنمال شرطی اشاره می کند . دراین درس نشان خواهیم دادکه روش احتمال شرطی کلا نتیجه بهینه ودقت مورد تاییدی دردوره های PFS نمی دهد . متناوبا هدف این است که ازحداکثر احتمال درست نمایی معیار ML برای تخمین پارامترهای احتمالی PFS استفاده شود . درادامه این درس الگوهایی وجود دارد . درقسمت (1-4 ) روش احتمال شرطی برای تخمین پارامترهای احتمال در PFSمورد بحث قرار می گیرد. همچنین نشان خواهیم داد هم مسئله ها ی طبقه بندی وهم مسئله های  برگشتی که به وسیله      پارامترهای احتمال تخمین زده می شوند روش احتمال شرطی غیرواقعی ، غیرواقعی مجانبی ،  و ناهماهنگ می باشند که معیارهای ML را پاسخگو نمی باشند . در قسمت (2-4) برای تخمین پارامترهای احتمال در PFS معرفی یک روش جدید هدف می باشد . این روش بر پایه معیار ML می باشد . همچنین در قسمت 2-4نمونه هایی ازبهینه سازی مسئله که نتیجه معیار  MLمی باشد مورد بررسی قرار می گیرد . توجه کنید که درتوصیف ازمایشها دردرس5 روش احتمال شرطی وروش ML به صورت تجربی به وسیله ارتباط ان روشها با مسئله های عددی طبقه بندی شده  با هم مقایسه می شوند.

     

    1-4 : روش احتمال شرطی

    اجازه دهید(X1,Y1) , ... Xn,Yn) ,)  نشان دهنده نمونه های تصادفی از جامعه n باشند این نمونه ها برای تخمین Рr(C|A) استفاده می شوند . احتمال شرطی رخداد C به شرط رخدادA به وسیله فرمول اماری زیر محاسبه می شود :

     

    • 4)

     

    که وظایف مشخصه های XA ,Xc نشان داده می شوند به وسیله :

     

    (2. 4)                      

     

    (3. 4)                        

     

     

    حالافرض کنید به جای پدیده های معمولی    Aو  C پدیده های فازی جایگزین شوند .

    این به این معناست که به وسیله mfs  پدیده های A,C به µA وμC  تعریف شوندو

    به جای XΑ،Xc  در معادله 4.1 جایگزین شوند . در نتیجه خواهیم داشت :

    (4.4)

    این فرمول پایه تعریف احتمال رخداد در پدیده فازی می باشد ( درس 37 ) .

    مشتق اول فرمول 4.4 درسهای 35و36 را پدید می آورد .

    نتیجه فرمول 4.4 در تخمین پارامترهای شرطی درPFS استفاده می شود . این دیدگاه دردرسهای 16و18و34 دنبال می شود که به روشهای احتمال شرطی در این تز اشاره

     می کند  .

    فرض کنید مجموعه اطلاعاتی شاملn  نمونه به صورت ( (i=1,2, ...,n)     ( Xi,Yi

      برای تخمین پارامترهای احتمال  در دسترس باشد همچنین فرض کنید که هم مقدمه وهم نتیجه mfs درسیستم تعیین شده است ونیاز به بهینه سازی بیشتر نمی باشد یعنی فقط پارامترهای احتمال درتخمین باقی بمانند . به نظر منطقی می آید که پارامترهای Pj,k واقعی رابرای تخمین احتمال شرطی پدیده فازی Ck به شرط رخداد پدیده فازی Aj قرار دهیم . اگرچه ورودی X به تعریف بیشتر احتیاج ندارد اما برای نشان دادن غیر عادی بودن محاسبات  mfµAj وmfµ¯Aj باید ازفرمول زیراستفاده شود :

    (4.5)                 

    بنابراین Pj,k واقعی است و برای تخمین احتمال شرطی پدیده فازی Ck ونشان دادن غیر عادی بودن پدیده فازی Aj باید ازآن استفاده شود .

    توجه داشته باشید که PFSs برای نمونه های برگشتی یک قانون پایه دارد که فقط با همان قانون که در پارامترهای شرطی Pj,k استفاده می شود ودرفرمول 4.5 نشان داده شده هیستوگرامهای فازی مورد بحث دردرس 2 را معادل سازی می کند .

    درPFS برای نمونه های طبقه بندی درهرطبقه Ck به صورت یک خروجی جدید نشان داده می شود پس فرمول 4.5 به صورت زیر هم نوشته می شود :

    (4.6)

     

    عملکرد مشخصه XCk بوسیله فرمول زیر نشان داده می شود :

    (4.7)                

     

    درتعریف این قسمت ،احتمالات آماری پارامترها تخمین زده می شوند . به PFSs درنمونه های طبقه بندی در تجزیه وتحلیل فرمولهای (4.5) و(4.6) در قسمت (4.1.1) توجه می شود . همچنین در قسمت (4.1.2) درنمونه های برگشتی PFSs بررسی می شود .

     

     

     

     

     

     

     

     

     

    1. 1.1- نمونه های طبقه بندی درمسائل آماری :

    دراین قسمت ثابت می شود که مسئله های احتمال که به وسیله فرمول (4.6) تخمین زده شده باشند غیر واقعی وناهماهنگ هستند وبا معیارهای ML سازگار نمی باشند .

    همچنین کافی است  یک عامل نمونه درفرمول( 4.6) قرارداده شود تا غیر واقعی وناهماهنگ بودن تخمین های بدست آمده واینکه بیشینه سازی احتمال درست نمایی مجموعه اطلاعات انجام نمی شود اثبات گردد.

    ملاحظه کنید که درPFS اگرمسئله طبقه بندی درخواست شده 2 نوع باشد باC1 وC2 نمایش داده می شود  . PFS یک ورودی X=[0,1] ویک قانون پایه شامل 2 احتمال تئوری فازی دارد . در مقدمه mfs فازی A1,A2 می نشیند پس خواهیم داشت :

    (4.8)              

    دردنباله با توجه به فرمول (3.4) که µ¯Aj=µAj و j=1,2 مفروض است که احتمال شرطی C1 وC2 برابر است با :

     

    (4.9)    

    با استفاده ازفرمول (3.5) می توانیم احتمال های شرطی نا شناخته ای را که برای تخمین بهPFS  احتیاج ندارند ببینیم . 

    بااستفاده از فرمول (4.9) پارامترهای احتمال بدین صورت خواهند بود که :

    P*1,1=P*2,2=1 و P*1,2=P*2,1=0 ( توجه کنید که در این مثال مقدمه mfs درفرمول

    (4.8) به روشی انتخاب شده است که بدست آوردن تخمین درست احتمال شرطی PFS

    را مشکل می نماید لذا بدست آوردن تخمین های درست احتمال شرطی پارامترهای احتمال

    Pj,k  نیزمشکل خواهد بود ودر نتیجه آنالیز تخمین های پارامترهای احتمالی ، غیرواقعی وناهماهنگ می باشد .

    درادامه 2قضیه که درارتباط باپارامترهای آماری فرمول (4.6) می باشد خواهد آمد . برای اثبات قضیه ها از مثال فوق استفاده میگردد .

    قضیه4.1:

    برای نمونه های طبقه بندی شده در PFS بااستفاده از فرمول (4.6)اثبات کنید که تخمین های Pj,k ازپارامترهای احتمالی P*j,k غیرواقعی وناهماهنگ هستند .

    اثبات : مثالی را که دربالا نشان داده شده ملاحظه نمایید . فرض کنید یک مجموعه اطلاعاتی شامل n نمونه طبقه بندی شده (i=1, ... , n) ( Xi,yi) برای تخمین پارامترهای احتمال درPFS  دردسترس است  . برای سادگی فرض کنید که X1, ... ,Xn  ارزشهای ثابتی دارند یعنی فقط  Y1, ... ,Yn نمونه هایی بارفتارهای متغیر هستند . برای مثال تخمین

    P2,2 ازپارامتراحتمالی P*2,2 را ملاحظه کنید . ازفرمولهای (4.6) ،(4.7) ،(4.8) ،(4.9)

    چنین بدست می آید که :          

    (10،4)                                     

    حالا فرض کنید که XiЄ(0,1) و,n) (i=1,...  سپس از فرمول (4.10) بدست آورید که

    Ep2,2Є(0,1) تازمانیکه P*2,2=1 تخمین غیرواقعی ازP2,2 باشد . این بحث اعداد مستقلی از نمونه های طبقه بندی شده n راشامل میگردد. همچنین ازn تشکیل شده است .از دو مورد فوق نتیجه می شود که تخمین P2,2 غیر واقعی و ناهماهنگ است .

    معادله (4.6) تخمین های پایه رافقط وفقط برای اعدادمثبت  Є .

    (4.11) Є)=1             n→                              lim Pr(|pj,kp*j,k|≤

    دراینجا تخمین Pj,k ازیک مجموعه اطلاعات شامل n نمونه طبقه بندی شده بدست می آید .

    این شرط می تواند همچنین به صورت Plim pj,k=p*j,k نوشته شود . شرط لازم برای

    Plim pj,k=p*j,k این است که n→ Epj,k=p*jk  lim باشد. (ببینید قضیه 2.9.39 دردرس12 ) تخمین pj,k ازp*j,k باید واقعی و هماهنگ باشد .اگر چه فعلا اثبات شده که

    Pj,k تخمین غیرواقعی وناهماهنگی از pj,k است . بنابراین نتیجه می شود که pj,k تخمین غیرواقعی از p*j,k می باشد واین کاملا تئوری ما را اثبات می کند .

    قضیه 4.2 :

    نمونه های طبقه بندی شده درPFS رادرنظر بگیرید یک مجموعه اطلاعاتی نیز داده شده است . پارامترهای احتمالی pj,k بااستفاده ازفرمول (4.6)تخمین زده شده اند واحتیاجی به بیشینه سازی احتمال درست نمایی مجموعه اطلاعات نمی باشد .

     

  3. 0
  4. 5
  5. 5
  6. 0
   

y

C1

C1

C2

C2


جدول 4.1: مجموعه اطلاعاتی که در اثبات قضیه 4.2 استفاده می شود .

اثبات : مثال داده شده در بالا را ملاحظه کنید . فرض کنید که مجموعه اطلاعاتی شامل 4 نمونه طبقه بندی شده) Xi,y)( i=1,2,3,4 ) برای تخمین پارامترهای احتمال در PFS دردسترس می با شد . مجموعه اطلاعات در جدول 4.1 نشان داده شده است .

نمونه های طبقه بندی شده را درفرمول (4.6) جایگزین کنید در نتیجه خواهیم داشت    P1,1=P2,2=0.75 و P1,2=P2,1=0.25 سپس از فرمول (3.5)به دست می آید که

(4.12)            pˆ(C1|x)=0.75-0.5x       و    pˆ(C2|x)=0.25+0.5x       

احتمال درست نمایی مجموعه اطلاعات نشان داده می شود به وسیله

  • ) pˆ(Yi|xi L=πⁿ,і=1 

حالا فرض کنید که نمونه های مجموعه اطلاعات مستقل ازهم می باشند برای پارامترهای 

احتمالی Pj,k  که به وسیله فرمول (4.6) تخمین زده شده اند با استفاده از فرمولهای

(4.12) و (4.13) احتمال درست نمایی مجموعه اطلاعات جدول 1-4 برابرخواهد بود با

9/64≈0.14 . حالا ملاحظه کنید اگر پارامترهای احتمالی به  P΄1,1=P΄2,2=1 و P΄1,2=P΄2,1=0  تبدیل شوند  با استفاده از فرمول (3.5) نتیجه پارامترهای احتمالی برابر خواهد شد با:

(4.14)                                   ΄(C1|x)=1-x       و      ΄(C2|x)=x

برای تبدیل پارامترهای احتمال p΄j,k از فرمولهای (4.13) و (4.14) استفاده می شود که احتمال درست نمایی مجموعه اطلاعات در جدول 1-4 برابر با 0.25 خواهد شد . بنابراین تبدیل پارامترهای احتمال در ارزشهای بالاتر احتمال درست نمایی نتیجه بخش می باشد لذا پارامترهای احتمالی Pj,k با استفاده از فرمول (4.6) تخمین زده می شوند . این مثال نشان می دهد که پارامترهای تخمین زده شده با استفاده از فرمول (4.6) احتیاج به بیشینه سازی احتمال درست نمایی مجموعه اطلاعات ندارند(واقعیت این است که مثال نشان می دهد که تبدیل پارامترهای احتمالی P΄j,k احتمال درست نمایی مجموعه اطلاعات را بیشینه سازی می کند . ودرست است که تخمین ML پارامترهای احتمال دقیقا برابربا پارامترهای احتمالی

p*j,k به محض اتفاق افتادن مجموعه اطلاعات خاص در جدول 1-4 است . ) این اثبات قضیه را کامل می کند .

 

این موضوع توجه را جلب می کند که در یک سیستم که ورودی x به روشهای جدید تقسیم می شود(x)    i.e.µ¯Ajبرابرخواهد بودبرای j=1, ... , a وبرای همه (X ( x Є  با 0 یا 1.

برای پارامترهای احتمال که با استفاده از فرمول (4.6) تخمین زده می شوند میتوانیم واقعی وهماهنگ بودن با معیارهای ML را نشان دهیم . (در این قسمت اثبات نمی شود )

بنابراین در سیستم های جدید تخمین پارامترهابا مطلوبیت آماری ممکن است با تخمین هر پارامتر به تفکیک وبا استفاده از فرمول (4.6) بدست آید . در یک سیستم فازی اگر چه با استفاده از قضایای 4.2 و4.1 تخمین پارامترها با مطلوبیت آماری با تخمین هرپارامتر به تفکیک وبا استفاده از فرمول (4.6) بدست نمی آید در عوض پارامترها در یک سیستم فازی می توانند به طور همزمان تخمین زده شوند واین به پیشنهاد مطرح شده در بخش 4.2 نزدیک است .

4.1.2-احتمال آماری در مسئله های برگشتی :

دراین قسمت اثبات خواهیم کردکه تخمین پارامترهای شرطی بااستفاده ازفرمول

(4.5) غیرواقعی است وبامعیارهای ML هماهنگی و سازگاری ندارد .

برای اثبات کافی است که یک عامل به عنوان مثال درفرمول (4.5 ) قرارداده شود

تا نشان دهد تخمین هایی که غیرواقعی وناهماهنگ می باشند وهمچنین اثبات شود که بیشینه سازی مجموعه اطلاعات دردسترس انجام نمی شود .

باید توجه شود که این قسمت خیلی مشابه قسمت قبل می باشد . تنها فرق موجود این است که این قسمت درارتباط با PFSs برای نمونه های برگشتی در عوض PFSs برای نمونه های طبقه بندی است . درنظر داشته باشید که PFS یک راه کاربردی در مسائل برگشتی است دراینگونه مسائل PFS یک ورودی x=[0,1] ویک خروجی y=[0,1] دارد . اساس این سیستم 2 احتمال قانون فازی را شامل می شود . در مقدمه mfs فازی A1 و A2 بوسیله فرمول (4.15) نشان داده می شود .

(4.15)                                µA2(x)=x      و           µA1(x)=1-x

از فرمول (3.4) نتیجه می شود که : µ¯Aj=µAj  وj=1,2  . خروجی y بااستفاده از مجموعه فازی به C1 و C2 تقسیم می شود . mfs   ازاین مجموعه فلزی بااستفاده از فرمول (4.16) به دست می آید .

(4.16)                µC2(y)=y      و             µC1(y)=1-y

توجه کنید که فرمول (3.11) شرط کافی است یعنی اینکه y باید خوب تعریف شده باشد . اگر فرض کنیم که pdf شرطی y به شرط x برابر باشد با

  • P(y|x)=4xy-2x-2y+2

این pdf شرطی نشان می دهد که به تخمین PFS احتیاج داریم . بااستفاده از فرمولهای

(3.5) ، (3.12) ،(3.13) می توانیم ببینیم که در یک PFS که به طور صحیح تخمین زده شده باشد pdf شرطی از فرمول (4.17) بدست می آید . پارامترهای احتمالی بدست آمده عبارتند از P*1,1=P*2,2=1 و P*1,2=P*2,1=0 (توجه کنید که دراین مثال مقدمه mfs درفرمول (4.15) ونتیجه mfs در فرمول (4.16) به روشی می باشد که شامل PFS که pdf شرطی را به طور صحیح در فرمول (4.17) تخمین زده باشد نیز می شود.

ممکن است آن  PFS را که  pdf شرطی را به طور صحیح تخمین زده باشدشامل نشود لذا پارامترهای شرطی p*jk ممکن است صحیح نباشند ونتیجه آن نیز ممکن است تجزیه وتحلیل واقعی وهماهنگی از تخمین پارامترهای احتمال نداشته باشد .

دردنباله برای احتمال آماری 4.5 دو قضیه مورد توجه می باشد . قضیه ها را با استفاده از مثال فوق اثبات خواهیم کرد .

 

قضیه 4.3:

با استفاده از فرمول (4.5) در یک PFS  برای نمونه های برگشتی اثبات کنید که تخمین های  Pj,k از پارامترهای شرطی p*jk غیر واقعی و ناهماهنگ می باشند .

 

x

  1. 0
  2. 5
  3. 0
  

 

y

  1. 0
  2. 5
  3. 0
  

 


 

جدول 4.2: مجموعه اطلاعاتی که در اثبات قضیه 4-4 استفاده می شوند

اثبات : مثال نشان داده شده در بالا را ملاحظه کنید . فرض کنید مجموعه اطلاعاتی شامل

n نمونه) (xi,yi) (i=1,...,n برای تخمین پارامترهای احتمالی درPFS دردسترس می باشد  برای سادگی فرض کنید که X1, ... ,Xn  ارزشهای ثابتی دارند یعنی فقط Y1,...,Yn نمونه هایی بارفتارهای متغیر هستند . برای مثال تخمین P2,2 ازپارامتراحتمالی P*2,2 را ملاحظه کنید. ازفرمولهای (4.5)،(4.15)،(4.16)،(4.17)  چنین بدست می آید که :

(4.18) :         

 

زیرا( XiЄ(0,1  و ,n) (i=1,...  ودردنباله از فرمول (4.18) نتیجه می شود که:

Ep2, 2 Є همچنین 1 =P*2,2 وتخمین P2,2 غیرواقعی است . این بحث دراعداد ونمونه

های n دارای ظرفیت مستقلی می باشد بنابراین برای n→ هم ظرفیت دارد .

ازاینها نتیجه می شود که تخمین P2,2 همچنین غیر واقعی است . معادله (4.5) اثبات تخمینها را پیگیری می نماید اگروفقط اگر Plimpj,k=p*j,k . شرط لازم برای Plimpj,k=p*j,k این است که     n→ lim   و Epj,k=p*j,k (به قضیه 39-9-2درس 12 توجه کنید . تخمین pj,k ازp*j,k باید مجانب وواقعی باشد . اگرچه بزودی اثبات میگردد که pj,k تخمین غیرواقعی مجانبی از p*j,k می باشد . بنابراین غیرواقعی بودن تخمین pj,k

اثبات می شود که همان اثبات قضیه 4.3 می باشد .

قضیه 4.4:

یک PFS ازنمونه های برگشتی را در نظر بگیرید نشان دهید در یک مجموعه اطلاعاتی پارامترهای احتمالی pj,k به وسیله فرمول (4.5) تخمین زده می شوند وبه بیشینه سازی احتمال درست نمایی مجموعه اطلاعات احتیاج نمی باشد .

اثبات :

مثالی را که در بالا اورده شده ملاحظه کنید . فرض کنید مجموعه اطلاعاتی شامل 3 نمونه (xi,yi) (i=1,2,3) ازتخمین پارامترهای احتمال در

دانلود با لینک مستقیم


تحقیق در مورد امار و احتمال

روشهای آماری برای احتمال پذیری سیستم های تعمیرشدنی

اختصاصی از فی ژوو روشهای آماری برای احتمال پذیری سیستم های تعمیرشدنی دانلود با لینک مستقیم و پر سرعت .

روشهای آماری برای احتمال پذیری سیستم های تعمیرشدنی


روشهای آماری برای احتمال پذیری سیستم های تعمیرشدنی

 

فرمت :Word

تعداد صفحات : 332

 

اصطلاحات و نمادهای سیستم های تعمیر پذیر:

  1. 1.اصطلاحات پایه و مثال ها.

یک سیستم تعمیرپذیر به سیستمی گفته می شود که وقتی شکست یا خرابی روی میدهد می توان آن را با بعضی فرآیندهای تعمیری ونه تعویض قطعات اصلی،دستگاه را به حالت عملکردی و کارایی بازگرداند.به عنوان مثال،اتومبیل یک سیستم تعمیرپذیر است،زیرا بیشتر خرابی ها مانند عدم روشن شدن به خاطر استارت را می توان بدون تعویض قطعه ای ، تعمیر کرد.تعمیر نیازی به هیچگونه تعویضی در هیچ قطعه ای ندارد.به عنوان مثال،اتومبیل می تواند به خاطر اتصال بد ا باطری خوب روشن نشود.در این حالت،با تمیز کردن کابل ها و اتصال آنها با باطری می توان مشکل را رفع کرد.در مقابل چراغ یک سیستم تعمیرپذیر نیست.تنها راهی که می توان یک چراغ سوخته را تعمیر کرد تعویض حباب آن است،که این به معنای تعویض سیستم اصلی است.

یک سیستم تعمیرناپذیر،سیستمی است که بعد از خرابی و شکست دورانداخته می شود.به عنوان نمونه،حباب لامپ یک سیستم تعمیرناپذیر است.المنتگرمایی خشک کننده لباس نیز یک سیستم تعمیرناپذیر می باشد.امروزه با فرآیندهای تولید اتوماتیک،تولید محصولات ارزانتر شده است،بیشتر محصولاتی که در گذشته بعد از شکست ها تعمیر می شده اند در حال حاضر بعد از خرابی وشکست دور انداخته خواهند شد.به طور مثال یک پنکه رومیزی کوچک را در نظر بگیرید که به قیمت کمتر از 10 دلار از حراجی خریداری شده است.وقتی که چنین پنکه ای خراب می شود،احتمالأ آن را دور می اندازیم و پنکه دیگری خریداری می کنیم.زیرا هزینه خریداری آن از هزینه تعمیر آن ارزانتر است.بیشتر سیستم های الکتریکی تعمیرناپذیراند یا تعمیر آنها از تعویض آنها گرانتر است.آیا شما تا به حال یک ماشین حساب جیبی را تعمیر کرده اید؟!

بخشی از یک نرم افزار ممکن است به عنوان سیستم تعمیرپذیر در نظرگرفته شود،همانطور که  نرم افزار توسعه و آزمون می شود،شکست ها مشاهده شدهو اصلاح می شوند.بعد از انجام اصلاحات،نرم افزار تا نقص و خرابی بعدی به کار گرفته می شود.                               

بیشتر سیستم های دنیای حقیقی،همانند اتومبیل ها،هواپیما ها،کامپیوترها و دستگا های تهویه مطبوع سیستم های تعمیرپذیر هستند.به علارغم این مشاهدات،بیشتر کتاب بر اعتمادپذیری سیستم- های تعمیرناپذیر تأکید داردو بعضی از قسمت ها منحصرأ سیستم های تعمیرناپذیر را تحت پوشش قرار می دهند.این به آن علت نیست که مطالعه سیستم های تعمیرناپذیر موثر نیست بلکه به آن علت است که سیستم های تعمیرپذیر از اجزائی تشکیل شده اند که تعمیرناپذیر هستند.مطالعاتی که می توانند اعتمادپذیری اجزاﺀ تعمیرناپذیر را افزایش دهند به طور قطع می توانند باعث افزایش اعتمادپذیری سیستم های تعمیرپذیری شوند که از آن اجزاﺀ ساخته شده اند.

همانگونه که ما مدل هایی را برای اعتمادپذیریسیستم های تعمیرپذیر مطالعه می کنیم باید در مورد اینکه چه مقیاس زمانی را برای اندازه گیری زمان های شکست به کار می بریم ،دقیق باشیم.برای یخچالی که به طور پیوسته کار می کند،مناسب تر خواهد بود که  زمان دقیق سپری شده را اندازه گیری کنیم.برای سایر دستگاهها زمان اندازه گیریهای دیگری مناسب خواهد بود.برای یک اتومبیل مسافت طی شده اندازه مناسب تری از سن است تا آخرین زمانی که سرویس شده است.برای یک دستگاه کپی   تعداد کپی ها مناسب خواهد بود.برای سایر دستگاهها،همانند موتورهای جت یا موتورهای رانشی کشتی دوره را می توان با عبارت تعداد ساعات عملکرد بیان داشت.تفاوت های بین سیستم های تعمیرپذیر و تعمیرناپذیر را دوباره تکرار خواهیم کرد.برای سیستم های تعمیرناپذیر،ماهر شکست را برای هر سیستم به طور منفرد مشاهده می کنیم و برای یک سیستم تعمیرپذیر،تعدادی از  شکستها را در یک سیستم مشاهده می کنیم.نماد 0<T₁<T₂<... را برای زمان شکست های  اندازه

گیری شدهٔ سیستم در زمان فراموضعی قرار می دهیم  که از زمان اولین شروع به کار سیستم است.زمان

بین شکست ها یا وقفه ها را با X₁,X₂,… نشان می دهیم

 


دانلود با لینک مستقیم


روشهای آماری برای احتمال پذیری سیستم های تعمیرشدنی

دانلود پایان نامه روش های آماری برای احتمال پذیری سیستمهای تعمیرشدنی

اختصاصی از فی ژوو دانلود پایان نامه روش های آماری برای احتمال پذیری سیستمهای تعمیرشدنی دانلود با لینک مستقیم و پر سرعت .

دانلود پایان نامه روش های آماری برای احتمال پذیری سیستمهای تعمیرشدنی


دانلود پایان نامه روش های آماری برای احتمال پذیری سیستمهای تعمیرشدنی

پایان نامه روش های آماری برای احتمال پذیری سیستمهای تعمیرشدنی 320 صفحه

   با فرمت ورد (دانلود متن کامل پایان نامه)

 

روش­های آماری برای احتمال­پذیری سیستم­های تعمیرشدنی

 

Statistical Methods For The Reliability Of Repairable Systems

 

فهرست مندرجات

 

پیشگفتار

1 – اصطلاحات و نمادهای سیستم­های تعمیرشدنی                                                  1

1.1 – اصطلاحات پایه و مثال­ها         1

1.2 – سیستم­های تعمیرنشدنی            11

1.2.1 – توزیع نمایی   18

1.2.2 – توزیع پواسن            25

1.2.3 – توزیع گاما     29

1.3 – قضیه اساسی فرایندهای نقطه­ای         35

1.4 – مروری بر مدل­ها         47

1.5 – تمرین­ها            48

2 – مدل­های احتمالاتی : فرایندهای پواسن           51

2.1 – فرایند پواسن    51

2.2 – فرایند پواسن همگن    67

2.2.1 – طول وقفه­ها برای HPP       79

2.3 – فرایند پواسن ناهمگن  81

2.3.1 – توابع درستنمایی        83

2.3.2 – نمونه شکست­های بریده شده           90

2.4 – تمرین­ها            92

3 – مدل­های احتمالاتی : فرایندهای تجدیدپذیر و سایر فرایندها            99

3.1 – فرایند تجدیدپذیر        99

3.2 – مدل نمایی تکه­ای        114

3.3 – فرایندهای تعدیل یافته            115

3.4 – فرایند شاخه­ای پواسن             119

3.5 – مدل­های تعمیر ناقص  126

3.6 – تمرین­ها            128

4 – تحلیل داده­های یک سیستم تعمیرپذیر ساده      131

4.1 – روش­های گرافیکی      131

4.1.1- نمودارهای دو آن      134

4.1.2- نمودارهای مجموع زمان بر آزمون 142

4.2 – روشهای ناپارامتری برای براورد     146

4.2.1- برآورد های طبیعی تابع شناسه          146

4.2.2- برآوردهای کرنل       148

4.2.3- برآورد فرضیه تابع شناسه مقعر           149

4.2.4- مثال ها            150

4.3 – آزمون برای فرایند پواسن همگن      155

4.4 – استنباط برای فرایند پواسن همگن     163

4.5 – استنباط برای فرایند قانون توان : حالت خرابی قطع شده    169

4.5.1- برآورد نقطه ای برای β.θ     170

 

4.5.2-برآوردهای فاصله ای و آزمون های فرض   174

4.5.3- برآورد تابع شناسه       184

4.5.4- آزمونهای نیکویی برازش       187

4.6 – استنباط آماری برای حالت زمان قطع شده    200

4.6.1 – برآورد فاصله ای برای β.θ   201

4.6.2- برآورد فاصله ای آزمونهای فرض     204

4.6.3- برآوردتابع شناسه        207

4.6.4- آزمونهای نیکویی برازش       210

4.7 – اثرفرضیه HPP ، وقتی فرایند درست یک فرایند قانون توان است  214

4.8 – براورد بیزی      218

4.8.1 – استنباط بیزی برای پارامترهای HPP          221

4.8.3 – استنباط بیزی برای پارامترهای فرایند کم­توان     231

4.8.4 – استنباط بیزی برای پیش­بینی تعداد خرابی­ها          240

4.9 – استنباط یک فرایند مدل­بندی شده به صورت کم­توان        242

4.9.1 – براورد درستنمایی ماکسیمم برای          242

4.9.2 – آزمون فرض برای فرایند مدل کم­توان    246

4.9.3 – فاصله اطمینان برای پارامترها         249

4.9.4 – مثال   250

4.10 – استنباط برای مدل نمایی تکه­ای     251

4.11 – استانداردها    256

4.11.1- MIL-HDBK-189            259

4.11.2 – MIL-HDBK-781 , MIL-STD-781 262

4.11.3 – ANSI / IEC / ASQ / 61164   262

4.12 –   فرایندهای استنباطی دیگر برای سیستم­های تعمیرپذیر      264

4.13 – تمرین­ها         266

5 – تجزیه و تحلیل مشاهدات سیستم های تعمیرپذیر چندگانه        271

5.1 – فرایندهای پواسن همگن همسان       271

5.1.1 – براورد نقطه­ای برای       271

5.1.2- براورد بازه­ای برای          274

5.1.3 – آزمون فرض برای            279

5.2 – فرایندهای پواسن همگن ناهمسان      282

5.2.1- دو سیستم خرابی قطع شده   282

5.2.2 – k سیستم         285

5.3 – مدل­های پارامتریک تجربی و سلسله مراتبی بیزی برای فرایند پواسن همگن       287

5.3.1- مدل­های پارامتری تجربی بیزی     291

5.3.2 – مدل­های سلسله مراتبی بیزی          303

5.4- فرایند کم­توان برای سیستم­های همسان         306

5.5 – آزمون تساوی پارامترهای افزایش در فرایند کم­توان          314

5.5.1 – آزمون تساوی ها برای دو سیستم           315

5.5.2- آزمون تساوی های k سیستم       319

5.6 – فرایند کم­توان برای سیستم­های ناهمسان      320

1- اصطلاحات و نمادهای سیستم های تعمیر پذیر:

1.1.اصطلاحات پایه و مثال ها.

یک سیستم تعمیرپذیر به سیستمی گفته می شود که وقتی شکست یا خرابی روی میدهد می توان آن را با بعضی فرآیندهای تعمیری ونه تعویض قطعات اصلی،دستگاه را به حالت عملکردی و کارایی بازگرداند.به عنوان مثال،اتومبیل یک سیستم تعمیرپذیر است،زیرا بیشتر خرابی ها مانند عدم روشن شدن به خاطر استارت را می توان بدون تعویض قطعه ای ، تعمیر کرد.تعمیر نیازی به هیچگونه تعویضی در هیچ قطعه ای ندارد.به عنوان مثال،اتومبیل می تواند به خاطر اتصال بد ا باطری خوب روشن نشود.در این حالت،با تمیز کردن کابل ها و اتصال آنها با باطری می توان مشکل را رفع کرد.در مقابل چراغ یک سیستم تعمیرپذیر نیست.تنها راهی که می توان یک چراغ سوخته را تعمیر کرد تعویض حباب آن است،که این به معنای تعویض سیستم اصلی است.

یک سیستم تعمیرناپذیر،سیستمی است که بعد از خرابی و شکست دورانداخته می شود.به عنوان نمونه،حباب لامپ یک سیستم تعمیرناپذیر است.المنتگرمایی خشک کننده لباس نیز یک سیستم تعمیرناپذیر می باشد.امروزه با فرآیندهای تولید اتوماتیک،تولید محصولات ارزانتر شده است،بیشتر محصولاتی که در گذشته بعد از شکست ها تعمیر می شده اند در حال حاضر بعد از خرابی وشکست دور انداخته خواهند شد.به طور مثال یک پنکه رومیزی کوچک را در نظر بگیرید که به قیمت کمتر از 10 دلار از حراجی خریداری شده است.وقتی که چنین پنکه ای خراب می شود،احتمالأ آن را دور می اندازیم و پنکه دیگری خریداری می کنیم.زیرا هزینه خریداری آن از هزینه تعمیر آن ارزانتر است.بیشتر سیستم های الکتریکی تعمیرناپذیراند یا تعمیر آنها از تعویض آنها گرانتر است.آیا شما تا به حال یک ماشین حساب جیبی را تعمیر کرده اید؟!

بخشی از یک نرم افزار ممکن است به عنوان سیستم تعمیرپذیر در نظرگرفته شود،همانطور که نرم افزار توسعه و آزمون می شود،شکست ها مشاهده شدهو اصلاح می شوند.بعد از انجام اصلاحات،نرم افزار تا نقص و خرابی بعدی به کار گرفته می شود.                              

بیشتر سیستم های دنیای حقیقی،همانند اتومبیل ها،هواپیما ها،کامپیوترها و دستگا های تهویه مطبوع سیستم های تعمیرپذیر هستند.به علارغم این مشاهدات،بیشتر کتاب بر اعتمادپذیری سیستم- های تعمیرناپذیر تأکید داردو بعضی از قسمت ها منحصرأ سیستم های تعمیرناپذیر را تحت پوشش قرار می دهند.این به آن علت نیست که مطالعه سیستم های تعمیرناپذیر موثر نیست بلکه به آن علت است که سیستم های تعمیرپذیر از اجزائی تشکیل شده اند که تعمیرناپذیر هستند.مطالعاتی که می توانند اعتمادپذیری اجزاﺀ تعمیرناپذیر را افزایش دهند به طور قطع می توانند باعث افزایش اعتمادپذیری سیستم های تعمیرپذیری شوند که از آن اجزاﺀ ساخته شده اند.

 

متن کامل را می توانید دانلود کنید چون فقط تکه هایی از متن این پایان نامه در این صفحه درج شده است(به طور نمونه)

ولی در فایل دانلودی متن کامل پایان نامه

همراه با تمام ضمائم با فرمت ورد که قابل ویرایش و کپی کردن می باشند

موجود است


دانلود با لینک مستقیم


دانلود پایان نامه روش های آماری برای احتمال پذیری سیستمهای تعمیرشدنی

روش های آماری برای احتمال پذیری سیستم های تعمیرشدنی

اختصاصی از فی ژوو روش های آماری برای احتمال پذیری سیستم های تعمیرشدنی دانلود با لینک مستقیم و پر سرعت .

روش های آماری برای احتمال پذیری سیستم های تعمیرشدنی


روش های آماری برای احتمال پذیری سیستم های تعمیرشدنی

پیشگفتار :

اعتمادپذیری نقش مهمی در بهبود کیفیت محصولات و افزایش رقابت ایفا می کند.برای بیشتر محصولات، مصرف کننده ها ، اعتمادپذیری را به عنوان یکی از مهمترین مشخصه های کیفیت در نظر می گیرند. در دهه های اخیر،تحقیقات بیشتری درباره نظریه ها و کاربرد های اعتماد پذیری انجام شده است.با این وجود بیشتر این مقالات متوجه سیستم های تعمیر ناپذیر-سیستم هایی که بعد از اولین شکست از کار انداخته می‌شوند-می باشد. این کتاب تنهااعتمادپذیری سیستم های تعمیر پذیر را تحت پوشش قرار می دهد و و سعی دارد که تعریف گذرایی از مطالب زیر ارائه دهد:

مدلهای احتمالاتی برای اعتماد پذیری سیستم های تعمیر پذیرو

روشهای آماری، شامل روش های نموداری برای تجزیه داده های سیستم های تعمیر پذیر .

بخش اول کتاب بیشتر مشابه کتاب های فرآیند های تصادفی است.اما با این وجود عنوان های گزیده شدهای از موضوع ،ارائه شده اند. این بخش از کتاب معرفی نسبتأ گذرایی از فرآیند های نقطه ای تصادفی است.بخش دوم کتاب در مورد تجزیه و تحلیل داده های سیستم های تعمیر پذیر است که شامل روشهای نموداری،برآوردهای نقطه ای،فاصله ای ،آزمون فرض ها،آزمون های نیکویی برازش و پیش بینی های اعتماد پذیری می باشد.


دانلود با لینک مستقیم


روش های آماری برای احتمال پذیری سیستم های تعمیرشدنی