دانلود کتاب New Foundations for Information Theory: Logical Entropy and Shannon Entropy

36,000 تومان

مبانی جدید برای نظریه اطلاعات: آنتروپی منطقی و آنتروپی شانون


موضوع اصلی کامپیوتر – علوم کامپیوتر
نوع کالا کتاب الکترونیکی
ناشر Springer
تعداد صفحه 125
حجم فایل 2.14 مگابایت
کد کتاب 3030865517 , 9783030865511
نوبت چاپ 1
نویسنده

زبان

انگلیسی

فرمت

PDF

سال انتشار

2021

مطلب پیشنهادی: با پول کتاب در ایران چی میشه خرید؟
در صورت نیاز به تبدیل فایل به فرمت‌های PDF، EPUB، AZW3، MOBI و یا DJVU می‌توانید به پشتیبان اطلاع دهید تا در صورت امکان، فایل مورد نظر را تبدیل نمایند. سایت بَلیان دارای تخفیف پلکانی است، یعنی با افزودن کتاب بیشتر به سبدخرید، قیمت آن برای شما کاهش می‌یابد. جهت مشاهده درصد تخفیف‌ها بر روی «جدول تخفیف پلکانی» در پایین کلیک نمایید. جهت یافتن سایر کتاب‌های مشابه، از منو جستجو در بالای سایت استفاده نمایید.
شما می‌توانید با هر 1000 تومان خرید، ۱ شانس شرکت در قرعه‌کشی کتابخانه دیجیتال بلیان دریافت کنید و شانس خود را برای برنده شدن جوایز هیجان انگیز امتحان کنید. «شرایط شرکت در قرعه‌کشی»

جدول کد تخفیف

با افزودن چه تعداد کتاب به سبد‌خرید، چند‌ درصد تخفیف شامل آن خواهد شد؟ در این جدول پاسخ این سوال را خواهید یافت. برای مثال: اگر بین ۳ الی ۵ کتاب را در سبد خرید خود قرار دهید، ۲۵ درصد تخفیف شامل سبد‌خرید شما خواهد شد.
تعداد کتاب درصد تخفیف قیمت کتاب
1 بدون تخفیف 25,000 تومان
2 20 درصد 20,000 تومان
3 الی 5 25 درصد 18,750 تومان
6 الی 10 30 درصد 17,500 تومان
11 الی 20 35 درصد 16,250 تومان
21 الی 30 40 درصد 15,000 تومان
31 الی 40 45 درصد 13,750 تومان
41 الی 50 50 درصد 12,500 تومان
51 الی 70 55 درصد 11,250 تومان
71 الی 100 60 درصد 10,000 تومان
101 الی 150 65 درصد 8,750 تومان
151 الی 200 70 درصد 7,500 تومان
201 الی 300 75 درصد 6,250 تومان
301 الی 500 80 درصد 5,000 تومان
501 الی 1000 85 درصد 3,750 تومان
1001 الی 10000 90 درصد 2,500 تومان
توضیحات
This monograph offers a new foundation for information theory that is based on the notion of information-as-distinctions, being directly measured by logical entropy, and on the re-quantification as Shannon entropy, which is the fundamental concept for the theory of coding and communications.
Information is based on distinctions, differences, distinguishability, and diversity. Information sets are defined that express the distinctions made by a partition, e.g., the inverse-image of a random variable so they represent the pre-probability notion of information. Then logical entropy is a probability measure on the information sets, the probability that on two independent trials, a distinction or “dit” of the partition will be obtained. 
The formula for logical entropy is a new derivation of an old formula that goes back to the early twentieth century and has been re-derived many times in different contexts. As a probability measure, all the compound notions of joint, conditional, and mutual logical entropy are immediate. The Shannon entropy (which is not defined as a measure in the sense of measure theory)  and its compound notions are then derived from a non-linear dit-to-bit transform that re-quantifies the distinctions of a random variable in terms of bits―so the Shannon entropy is the average number of binary distinctions or bits necessary to make all the distinctions of the random variable. And, using a linearization method, all the set concepts in this logical information theory naturally extend to vector spaces in general―and to Hilbert spaces in particular―for quantum logical information theory which provides the natural measure of the distinctions made in quantum measurement.
Relatively short but dense in content, this work can be a reference to researchers and graduate students doing investigations in information theory,  maximum entropy methods in physics, engineering, and statistics, and to all those with a special interest in a new approach to  quantum information theory.

ترجمه فارسی (ترجمه ماشینی)

این تک نگاری پایه جدیدی برای نظریه اطلاعات ارائه می دهد که مبتنی بر مفهوم اطلاعات به عنوان تمایز است که مستقیماً با آنتروپی منطقی اندازه گیری می شود و بر کمی سازی مجدد به عنوان آنتروپی شانون که مفهوم اساسی نظریه کدگذاری و کدگذاری است. ارتباطات.
اطلاعات بر اساس تمایزات، تفاوت ها، قابلیت تمایز و تنوع است. مجموعه‌های اطلاعاتی تعریف می‌شوند که تمایزات ایجاد شده توسط یک پارتیشن را بیان می‌کنند، به عنوان مثال، تصویر معکوس یک متغیر تصادفی، بنابراین مفهوم پیش‌احتمال اطلاعات را نشان می‌دهند. سپس آنتروپی منطقی یک اندازه گیری احتمال بر روی مجموعه های اطلاعاتی است، احتمال اینکه در دو آزمایش مستقل، تمایز یا “دیت” پارتیشن به دست آید.
فرمول آنتروپی منطقی مشتق جدیدی از فرمول قدیمی است که به اوایل قرن بیستم باز می گردد و بارها در زمینه های مختلف دوباره استخراج شده است. به عنوان یک اندازه گیری احتمال، تمام مفاهیم ترکیبی آنتروپی منطقی مشترک، شرطی و متقابل فوری هستند. سپس آنتروپی شانون (که به‌عنوان اندازه‌گیری به معنای تئوری اندازه‌گیری تعریف نمی‌شود)  و مفاهیم ترکیبی آن از یک تبدیل غیرخطی بیت به بیت استخراج می‌شوند که تمایز یک متغیر تصادفی را بر حسب بیت‌ها کمیت می‌کند. -بنابراین آنتروپی شانون میانگین تعداد تمایزات دودویی یا بیت های لازم برای ایجاد تمام تمایزات متغیر تصادفی است. و با استفاده از روش خطی سازی، تمام مفاهیم مجموعه در این نظریه اطلاعات منطقی به طور طبیعی به فضاهای برداری به طور کلی – و به فضاهای هیلبرت به طور خاص – برای نظریه اطلاعات منطقی کوانتومی که معیار طبیعی تمایزات ایجاد شده در اندازه گیری کوانتومی را ارائه می دهد، گسترش می یابد. br>این اثر نسبتاً کوتاه اما پر محتوا، می‌تواند مرجعی برای محققان و دانشجویان فارغ‌التحصیل باشد که در زمینه نظریه اطلاعات، روش‌های حداکثر آنتروپی در فیزیک، مهندسی، و آمار تحقیق می‌کنند، و به همه کسانی که علاقه خاصی به رویکردی جدید دارند. نظریه اطلاعات کوانتومی

نظرات (0)

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “دانلود کتاب New Foundations for Information Theory: Logical Entropy and Shannon Entropy”