The Relational Governance of Artificial Intelligence Forms and Interactions - Original PDF

دانلود کتاب The Relational Governance of Artificial Intelligence Forms and Interactions - Original PDF

Author: Sabine Wiesmüller

0 (0)

توضیحات کتاب :

he book “The Relational Governance of Artificial Intelligence—Forms and Inter- actions” by Sabine Wiesmüller deals both with the theoretical prerequisites and prac- tical possibilities of the governance of “Artificial Intelligence” (AI) in the interplay of social, entrepreneurial, and ethical decision-making logics. In particular, Sabine Wiesmüller’s book aims to contribute to the discussion of a theme that all societies are confronted with today and for which solutions are being sought, namely the complex interactions and network effects of the technological, economic and social aspects of AI. The book focuses on a genuinely interdisciplinary analysis: The overlap and rela- tionalisation between economic, system-theoretical, and ethical language games. Only through such a relationalisation—and this is one of the basic assumptions of the author—can the challenges of the rapidly developing technical and economic possi- bilities, risks, and challenges of artificial intelligence in the economy and society be understood and productively dealt with. The aim of the analysis is therefore twofold: On the one hand, it provides a theo- retical literature reconstruction of the polyvalent forms of governance of AI. On the other hand, it also addresses the practical possibilities for an intersectoral imple- mentation of relational governance of AI. The latter means that the governance of AI must enable and promote the cooperation of the multiple stakeholders involved, especially their interests, resources and decision-making logics. It is therefore about the relational governance of economic and social transactions that relationalise tech- nical logic, economic value creation and ethical demands such as self-interest, trust, integrity and stakeholder legitimacy. In this way, the adaptive approach to uncertainty and process dynamics becomes possibl

سرچ در وردکت | سرچ در گودریدز | سرچ در اب بوکز | سرچ در آمازون | سرچ در گوگل بوک

742 بازدید 0 خرید

ضمانت بازگشت

ضمانت بازگشت

فایل های تست شده

فایل های تست شده

پرداخت آنلاین

پرداخت آنلاین

تضمین کیفیت

تضمین کیفیت

دانلود فوری

دانلود فوری

Chapter 1 Introduction and Theoretical Foundations Liberalism always cherished political equality, and it gradually came to realise that economic equality is almost as important. For without a social safety net and a modicum of economic equality, liberty is meaningless. But just as Big Data algorithms might extinguish liberty, they might simultaneously create the most unequal societies that ever existed. All wealth and power might be concentrated in the hands of a tiny elite, while most people will suffer not from exploitation, but from something far worse – irrelevance (Harari, 2018, 3, p. 74). More than ever, we find ourselves in an era of great change, happening at unknown pace (Harrington, 2018), and confronted with so-called exponential digital tech- nologies (Moore, 2006). With these becoming accessible to the economy, their true disruptive potential (Leonhard & von Kospoth, 2017) unfolds and this is having a ripple effect on different sectors, industries, and entire business models (Parviainen et al., 2017; Schwab, 20161 ; Stolterman & Fors, 2004). In particular, Artificial Intel- ligence (AI) is estimated to be the single most influential and disruptive factor for global economies and societies in the twenty-first century and the probable trigger for the next (industrial) revolution (Goli ́c, 2019; Makridakis, 2017; Paschek et al., 2019; Pathak et al., 2019). 1.1 Introductory Remarks In this book, I will define AI as an umbrella term for all technologies developed to analyse and interpret big sets of data or certain events, to assist human decision- making and thereby automating decision-making and actions performed by machines (Nilsson, 2009), particularly machine learning, as well as further advancements such as artificial neural networks (ANN) and deep learning.2 1 Computational power is understood to be the main force for the third industrial revolution. 2 The concepts mentioned will be further discussed in Chapter 2. © The Author(s), under exclusive license to Springer Nature Switzerland AG 2023 S. Wiesmüller, The Relational Governance of Artificial Intelligence, Relational Economics and Organization Governance, https://doi.org/10.1007/978-3-031-25023-1_1 1 2 1 Introduction and Theoretical Foundations Given the adaptable nature of AI, not being one specific technology or product but rather a tool, applicable to countless existing business models, processes, and products, it cannot be regulated based on one specific outcome or scenario, as there is a myriad of possible scenarios its application can lead to. Many authors voice the growing concerns in society accompanying these characteristics (Cath, 2018; Floridi, 2018; Floridi et al., 2018; Perc et al., 2019), particularly regarding the pace of AI development, leading to its global dynamics often being compared to an arms race (Cave & ÓhÉigeartaigh, 2019). While, until the present, market power was defined by market share and pricing, it is now dependent on factors such as access to data and data ownership—which are necessary elements for implementing AI (Drexl, 2016, 2017) and pose a barrier for new companies wanting to enter the market (Drexl, 2016; Porter, 1980). Thereby, the bar for followers to enter the market constantly rises, while digital monopolies are on the rise—giving more power and data access to ever fewer people (Ciuriak, 2018; Watney, 2018). Therefore, the most powerful actors in AI research also happen to be some of the most prominent companies around the globe, such as IBM, Amazon, Google, and Facebook (Lee, 2018). Thus, competition in AI research is fierce, as significant margins and business opportunities are attracting companies (PwC, 2019) and the effective implementation of AI has become crucial for companies to stay on top of their competitors and even stay in business (MIT, 2019; Rose, 2019). A recent study by PriceWaterhouseCoopers (PwC) predicted that by 2030, AI will contribute an expected 15.7 trillion dollars to the global economy, with an expected 45% of total economic gains originating in AI- enhanced products (PwC, 2019). Among other factors, the lack of regulation in the market puts companies in the position of either having to adapt to the race to secure their position in the market and continue to stay in business, or to let competitors get the better of them (Cave & ÓhÉigeartaigh, 2019). In consequence, the market is prone to ethical dilemmas, especially since there are no official red flags in AI research and development (Pichai, 2020). While in many cases, such as the medical field, data usage and its implications are rather transparent (Llewellynn et al., 2017), this is not always the case (Faddoul et al., 2019). One well- known example of this dilemma happened with Cambridge Analytica, a company using Facebook profile data to analyse the political preferences of its users, and, as commissioned by a client, to actively influence the users’ voting behaviour (Faddoul et al., 2019). This violation realised by corporate actors touched the core of the modern world’s achievement of free will: democracy (Lomas, 2018). While some companies have voluntarily agreed not to engage in critical research,3 such as developing autonomous weapons, there is no legally binding document preventing their development (Future of Life, 2015; Pichai, 2020), and a growing number of initiatives call for not only robust AI but also a stronger common orientation to good (Future of Life, 2015). 3 In this context, the term ‘critical’ refers to advancements which potentially pose a direct threat to society, such as the development of autonomous weapons (Cihon, 2019; Future of Life, 2015). 1.2 Theoretical Foundations: Governing Artificial Intelligence 3 Still, so far, no regulatory institution exists to enforce global, continental, or regional governance standards of AI-based business models, processes, and products that are in accordance with societal concerns and moral expectations (Dafoe, 2018). Besides the per se reactive nature of regulatory bodies, this is because regulation and standard-setting have become increasingly difficult to implement, due to the complexity associated with these new dilemma structures (Dafoe, 2018). Further, corporations possess restricted access to the knowledge about the state of the art in technology (Ferraro et al., 2015), and current legislation and regulation lack the integration of data as a new market mechanism in law-making (Drexl, 2016; Wieland, 2018). Given the pace at which new technologies are entering the market and the fact that, by nature, regulation is developed reactively to the element it is designed to regulate. Current regulation is dealing poorly with the dilemmas coming with AI implementation (Askell et al., 2019; Dafoe, 2018), and does not consider data or a system based on data flow and is unable to integrate the logic of another system into legislation (Andriole, 2019; Wieland, 2018). Thus, companies being the main driver of the change coming with new tech- nologies are called on to take responsibility for their actions, mainly because of the rising visibility of the changes coming with AI adoption, but also due to the high information asymmetry between the public and private sector (Anderson et al., 2018; Askell et al., 2019). This also holds true for civil society, where research indicates the drastic barriers its representatives are facing in multi-stakeholder dialogues, due to particularly significant information asymmetry (Fassbender, 2020). Over the course of this book, I will show how companies can engage in a collab- orative approach, such as through self-regulatory approaches and multi-stakeholder dialogues, to minimise negative outcomes for society (Gruetzemacher, 2018; Rittel & Webber, 1973; Roberts, 2000). AI ethics play an essential role in the development of such governance measures, as they will help define ‘red flags’ and guiding principles for all actors involved (Dafoe, 2018). With this, I aim to contribute to the responsible adoption of AI, minimising the negative consequences associated with it, while still applying it to its best potential (Aliman & Kester, 2019; Gasser & Almeida, 2017). In doing so, it aims to provide, particularly for economic actors, the necessary tools to shape the future of AI adoption. 1.2 Theoretical Foundations: Governing Artificial Intelligence The rise of powerful AI will be either the best or the worst thing ever to happen to humanity. We do not yet know which. (Hawking, 2016)4 As stated, the expression ‘Artificial Intelligence’ is an umbrella term for technolo- gies and models that aim for machines to mimic human intelligence, which, when 4 BBC News, 2016. 4 1 Introduction and Theoretical Foundations applied, can transform whole industries, economies, and society (Makridakis, 2017; Schwab & Davis, 2018). The development and rise of AI can be traced back to a few decisive factors that arose over recent decades. For one, computational power increased, which had an especially drastic influence on AI research. Moreover, the availability of big data grew dramatically over the last decades (Caulfield, 2009; Stolkel-Walker, 2018). 1.2.1 Artificial Intelligence The progress made in research on Artificial Intelligence was enabled by and is part of a bigger phenomenon; namely, the digital transformation. According to Parviainen et al. (2017), the term ‘digital transformation’ is defined as “changes in ways of working, roles, and business offering caused by adoption of digital technologies in an organization, or in the operation environment of the organization ” (2017, p. 16). Among others, Stolterman and Fors (2004) are convinced that “digital transformation can be understood as the changes that the digital technology causes or influences in all aspects of human life ” (2004, p. 689). A digital technology is defined as a machine or electronic device based on digital signals (Dyer & Harms, 1993), such as a computer, which is, again, defined as a machine that can be controlled and used efficiently by instructing it to follow a specific function. This instruction can come in the form of an algorithm, developed to solve the problem statement, and translated to a computer language to make it applicable to a machine (Bishop, 2006; Samuel, 1959). AI in its operationalised form, i.e., machine learning, is the software that can be applied to a digital machine, with the algorithm being its smallest entity (Awad & Khanna, 2015). However, AI is more than the mere application of a finite set of instructions to a machine (Brundage et al., 2018). 1.2.1.1 Scope of Artificial Intelligence To gain a deeper understanding of AI and its governance, the main technology types— machine learning, artificial neural networks (ANNs), and deep learning5 —and their interconnections, as depicted in Fig. 1.1, will be analysed in this book. The modern phase of AI development started around 2010, with the ongoing commercialisation of the technologies and their application outside laboratories. The main technologies stemming from this era are advanced machine learning, natural language processing, and ANNs (Nilsson, 2009). Machine learning is an umbrella term for a certain type of algorithm, namely learning algorithms, able to learn from experience or repetition. After going through 5 Abbreviations will only be used within the main body of the book, not when first introducing the concepts.

چکیده فارسی

 

فصل 1 مقدمه و مبانی نظری لیبرالیسم همیشه برابری سیاسی را گرامی می داشت و به تدریج متوجه شد که برابری اقتصادی تقریباً به همان اندازه مهم است. زیرا بدون شبکه امنیت اجتماعی و مقداری برابری اقتصادی، آزادی بی معنی است. اما همانطور که الگوریتم های کلان داده ممکن است آزادی را خاموش کنند، ممکن است همزمان نابرابرترین جوامعی را که تا به حال وجود داشته اند ایجاد کنند. همه ثروت و قدرت ممکن است در دستان نخبگان کوچک متمرکز شود، در حالی که بیشتر مردم نه از استثمار، بلکه از چیزی به مراتب بدتر - بی ربط بودن رنج خواهند برد (Harari, 2018, 3, p. 74). بیش از هر زمان دیگری، ما خود را در دوره ای از تغییرات بزرگ می یابیم که با سرعتی ناشناخته اتفاق می افتد (هارینگتون، 2018)، و با به اصطلاح فناوری های دیجیتال نمایی مواجه هستیم (مور، 2006). با در دسترس قرار گرفتن اینها برای اقتصاد، پتانسیل مخرب واقعی آنها آشکار می شود (لئونارد و فون کوسپوت، 2017) و این تأثیر موجی بر بخش های مختلف، صنایع و کل مدل های کسب و کار دارد (Parviainen et al., 2017; Schwab, 20161; استولترمن و فورس، 2004). به طور خاص، هوش مصنوعی (AI) تنها تأثیرگذارترین و مخرب ترین عامل برای اقتصادها و جوامع جهانی در قرن بیست و یکم و محرک احتمالی انقلاب (صنعتی) بعدی تخمین زده می شود (Goli'c, 2019؛ Makridakis). ، 2017؛ Paschek و همکاران، 2019؛ Pathak و همکاران، 2019). 1.1 ملاحظات مقدماتی در این کتاب، من هوش مصنوعی را به عنوان یک اصطلاح جامع برای تمام فناوری‌های توسعه یافته برای تجزیه و تحلیل و تفسیر مجموعه‌های بزرگ داده یا رویدادهای خاص، برای کمک به تصمیم‌گیری انسان و در نتیجه خودکارسازی تصمیم‌گیری و اقدامات انجام شده توسط ماشین‌ها تعریف خواهم کرد (نیلسون) ، 2009)، به ویژه یادگیری ماشین، و همچنین پیشرفت های بیشتر مانند شبکه های عصبی مصنوعی (ANN) و یادگیری عمیق. 2 1 قدرت محاسباتی به عنوان نیروی اصلی برای انقلاب صنعتی سوم شناخته می شود. 2 مفاهیم ذکر شده بیشتر در فصل 2 مورد بحث قرار خواهند گرفت. .org/10.1007/978-3-031-25023-1_1 1 2 1 مقدمه و مبانی نظری با توجه به ماهیت قابل انطباق هوش مصنوعی، یک فناوری یا محصول خاص نیست، بلکه ابزاری است که برای مدل‌ها، فرآیندها و بی‌شمار کسب‌وکار موجود قابل استفاده است. نمی توان آن را بر اساس یک نتیجه یا سناریو خاص تنظیم کرد، زیرا سناریوهای احتمالی بی شماری وجود دارد که کاربرد آن می تواند منجر به آن شود. بسیاری از نویسندگان نگرانی های فزاینده ای را در جامعه به همراه این ویژگی ها بیان می کنند (کت، 2018؛ فلوریدی، 2018؛ فلوریدی و همکاران، 2018؛ پرک و همکاران، 2019)، به ویژه در مورد سرعت توسعه هوش مصنوعی، که منجر به پویایی جهانی آن می شود. در مقایسه با یک مسابقه تسلیحاتی (Cave & ÓhÉigeartaigh، 2019). در حالی که تا کنون، قدرت بازار با سهم بازار و قیمت گذاری تعریف می شد، اکنون به عواملی مانند دسترسی به داده ها و مالکیت داده ها وابسته است - که عناصر ضروری برای پیاده سازی هوش مصنوعی هستند (Drexl, 2016, 2017) و مانعی برای آن ایجاد می کنند. شرکت های جدیدی که می خواهند وارد بازار شوند (درکسل، 2016؛ پورتر، 1980). به این ترتیب، محدودیت‌ها برای ورود دنبال‌کنندگان به بازار دائماً بالا می‌رود، در حالی که انحصارات دیجیتال در حال افزایش هستند - قدرت و دسترسی بیشتری به داده‌ها به افراد کمتری می‌دهد (سیوریاک، 2018؛ واتنی، 2018). بنابراین، قدرتمندترین بازیگران در تحقیقات هوش مصنوعی نیز برخی از برجسته‌ترین شرکت‌ها در سراسر جهان هستند، مانند IBM، آمازون، گوگل و فیس‌بوک (لی، 2018). بنابراین، رقابت در تحقیقات هوش مصنوعی شدید است، زیرا حاشیه‌های قابل توجه و فرصت‌های تجاری در حال جذب شرکت‌ها هستند (PwC، 2019) و اجرای موثر هوش مصنوعی برای شرکت‌ها برای ماندن در صدر رقبای خود و حتی ماندن در تجارت بسیار مهم شده است (MIT، 2019). رز، 2019). مطالعه اخیر توسط PriceWaterhouseCoopers (PwC) پیش‌بینی کرد که تا سال 2030، هوش مصنوعی 15.7 تریلیون دلار به اقتصاد جهانی کمک خواهد کرد که انتظار می‌رود 45 درصد از کل سود اقتصادی ناشی از محصولات تقویت‌شده با هوش مصنوعی باشد (PwC، 2019). از جمله عوامل دیگر، فقدان مقررات در بازار، شرکت‌ها را در موقعیتی قرار می‌دهد که یا مجبور باشند خود را با مسابقه تطبیق دهند تا موقعیت خود را در بازار حفظ کنند و در تجارت ادامه دهند، یا به رقبا اجازه دهند که از آنها بهتر استفاده کنند (Cave & ÓhÉigeartaigh، 2019). در نتیجه، بازار مستعد معضلات اخلاقی است، به ویژه از آنجایی که هیچ پرچم قرمز رسمی در تحقیق و توسعه هوش مصنوعی وجود ندارد (پیچای، 2020). در حالی که در بسیاری از موارد، مانند حوزه پزشکی، استفاده از داده ها و پیامدهای آن نسبتاً شفاف هستند (Llewellynn et al., 2017)، همیشه اینطور نیست (Faddoul et al., 2019). یکی از نمونه های شناخته شده این معضل با کمبریج آنالیتیکا اتفاق افتاد، شرکتی که از داده های نمایه فیس بوک برای تجزیه و تحلیل ترجیحات سیاسی کاربرانش استفاده می کند و به سفارش مشتری، فعالانه بر رفتار رأی گیری کاربران تأثیر می گذارد (فادول و همکاران، 2019). این نقض که توسط بازیگران شرکتی متوجه شد، هسته اصلی دستاوردهای آزادی اراده جهان مدرن را لمس کرد: دموکراسی (لوماس، 2018). در حالی که برخی از شرکت‌ها داوطلبانه موافقت کرده‌اند که در تحقیقات حیاتی، مانند توسعه سلاح‌های خودمختار، شرکت نکنند، هیچ سند الزام‌آور قانونی وجود ندارد که مانع از توسعه آنها شود (آینده زندگی، 2015؛ پیچای، 2020)، و تعداد فزاینده‌ای از ابتکارات خواستار عدم توسعه آنها هستند. فقط هوش مصنوعی قوی، بلکه یک جهت گیری مشترک قوی تر به سمت خوب (آینده زندگی، 2015). 3 در این زمینه، اصطلاح «بحرانی» به پیشرفت هایی اشاره دارد که به طور بالقوه تهدیدی مستقیم برای جامعه هستند، مانند توسعه سلاح های خودمختار (Cihon, 2019؛ Future of Life, 2015). 1.2 مبانی نظری: حاکم بر هوش مصنوعی 3 هنوز، تاکنون، هیچ نهاد نظارتی برای اجرای استانداردهای حاکمیت جهانی، قاره‌ای یا منطقه‌ای مدل‌های کسب‌وکار، فرآیندها و محصولات مبتنی بر هوش مصنوعی وجود ندارد که مطابق با نگرانی‌های اجتماعی و انتظارات اخلاقی باشد (دافو). ، 2018). علاوه بر ماهیت واکنشی نهادهای نظارتی، این به این دلیل است که اجرای مقررات و استانداردها به دلیل پیچیدگی مرتبط با این ساختارهای معضل جدید، به طور فزاینده ای دشوار شده است (دافو، 2018). علاوه بر این، شرکت‌ها دسترسی محدودی به دانش در مورد وضعیت هنر در فناوری دارند (فرارو و همکاران، 2015)، و قوانین و مقررات فعلی فاقد ادغام داده‌ها به عنوان مکانیزم بازار جدید در قانون‌گذاری هستند (Drexl, 2016; ویلند، 2018). با توجه به سرعت ورود فن‌آوری‌های جدید به بازار و این واقعیت که طبیعتاً مقررات به صورت واکنشی نسبت به عنصری که برای تنظیم آن طراحی شده است توسعه می‌یابد. مقررات فعلی با معضلات ناشی از اجرای هوش مصنوعی برخورد ضعیفی دارد (Askell et al., 2019; Dafoe, 2018) و داده ها یا یک سیستم مبتنی بر جریان داده را در نظر نمی گیرد و قادر به ادغام منطق یک سیستم دیگر در قانون نیست. آندریول، 2019؛ ویلند، 2018). بنابراین، شرکت‌هایی که محرک اصلی تغییراتی هستند که با فناوری‌های جدید به‌وجود می‌آیند، عمدتاً به دلیل افزایش دید تغییرات ناشی از پذیرش هوش مصنوعی، و همچنین به دلیل عدم تقارن اطلاعاتی بالا بین بخش عمومی و خصوصی (اندرسون و همکاران، 2018؛ آسکل و همکاران، 2019). این موضوع برای جامعه مدنی نیز صادق است، جایی که تحقیقات نشان می‌دهد که نمایندگان آن با موانع شدیدی در گفت‌وگوهای چندجانبه، به دلیل عدم تقارن اطلاعاتی قابل توجه با آن مواجه هستند (فاسبندر، 2020). در طول این کتاب، من نشان خواهم داد که چگونه شرکت‌ها می‌توانند در یک رویکرد مشارکتی، از جمله از طریق رویکردهای خودتنظیمی و گفتگوهای چند ذی‌نفع، برای به حداقل رساندن پیامدهای منفی برای جامعه مشارکت کنند (گروتزماچر، 2018؛ رایتل و وبر، 1973). رابرتز، 2000). اخلاق هوش مصنوعی نقش اساسی در توسعه چنین اقدامات حاکمیتی ایفا می کند، زیرا به تعریف «پرچم های قرمز» و اصول راهنما برای همه بازیگران درگیر کمک می کند (Dafoe, 2018). با این کار، من قصد دارم در پذیرش مسئولانه هوش مصنوعی، به حداقل رساندن پیامدهای منفی مرتبط با آن، و در عین حال استفاده از آن در بهترین پتانسیل خود، مشارکت کنم (Aliman & Kester, 2019؛ Gasser & Almeida, 2017). در انجام این کار، هدف آن فراهم کردن ابزارهای لازم برای شکل دادن به آینده پذیرش هوش مصنوعی، به ویژه برای فعالان اقتصادی است. 1.2 مبانی نظری: حاکم بر هوش مصنوعی ظهور هوش مصنوعی قدرتمند بهترین یا بدترین اتفاقی است که تا به حال برای بشریت رخ داده است. ما هنوز نمی دانیم کدام است. (هاوکینگ، 2016)4 همانطور که گفته شد، عبارت «هوش مصنوعی» یک اصطلاح چتر برای فناوری‌ها و مدل‌هایی است که هدف آن ماشین‌ها تقلید از هوش انسانی است، که وقتی 4 بی‌بی‌سی نیوز، 2016. 4 1 مقدمه و مبانی نظری اعمال شد. می تواند کل صنایع، اقتصادها و جامعه را متحول کند (Makridakis, 2017؛ Schwab & Davis, 2018). توسعه و ظهور هوش مصنوعی را می توان در چند عامل تعیین کننده که در دهه های اخیر به وجود آمدند، ردیابی کرد. برای نمونه، قدرت محاسباتی افزایش یافت، که تأثیر شدیدی بر تحقیقات هوش مصنوعی داشت. علاوه بر این، در دسترس بودن کلان داده ها در دهه های گذشته به طرز چشمگیری افزایش یافته است (کالفیلد، 2009؛ استولکل-واکر، 2018). 1.2.1 هوش مصنوعی پیشرفت در تحقیق در مورد هوش مصنوعی توسط یک پدیده بزرگتر امکان پذیر شد و بخشی از آن است. یعنی تحول دیجیتال. به گفته پروینن و همکاران. (2017)، اصطلاح "تحول دیجیتال" به عنوان "تغییر در شیوه های کار، نقش ها، و ارائه کسب و کار ناشی از پذیرش فناوری های دیجیتال در یک سازمان، یا در محیط عملیاتی سازمان" (2017، ص 16) تعریف می شود. ). در میان دیگران، استولترمن و فورس (2004) متقاعد شده اند که "تحول دیجیتال را می توان به عنوان تغییراتی که فناوری دیجیتال در تمام جنبه های زندگی انسان ایجاد یا تحت تاثیر قرار می دهد" درک کرد (2004، ص 689). فن آوری دیجیتال به عنوان یک ماشین یا دستگاه الکترونیکی مبتنی بر سیگنال های دیجیتالی تعریف می شود (Dyer & Harms, 1993) مانند کامپیوتر که مجدداً به عنوان ماشینی تعریف می شود که می تواند با دستور دادن به آن به طور موثر کنترل و استفاده شود. عملکرد خاص این دستورالعمل می تواند به شکل یک الگوریتم باشد که برای حل بیان مسئله توسعه یافته و به یک زبان کامپیوتر ترجمه شده تا آن را برای یک ماشین قابل اجرا کند (بیشاپ، 2006؛ ساموئل، 1959). هوش مصنوعی در شکل عملیاتی‌شده‌اش، یعنی یادگیری ماشین، نرم‌افزاری است که می‌تواند روی یک ماشین دیجیتال اعمال شود و الگوریتم کوچک‌ترین موجودیت آن است (Awad & Khanna, 2015). با این حال، هوش مصنوعی چیزی فراتر از کاربرد صرف مجموعه‌ای محدود از دستورالعمل‌ها برای یک ماشین است (Brundage et al., 2018). 1.2.1.1 دامنه هوش مصنوعی برای به دست آوردن درک عمیق تر از هوش مصنوعی و حاکمیت آن، انواع فناوری اصلی - یادگیری ماشین، شبکه های عصبی مصنوعی (ANN ها) و یادگیری عمیق 5 - و ارتباطات متقابل آنها، همانطور که در شکل 1.1 نشان داده شده است، ارائه خواهد شد. در این کتاب تحلیل شده است. مرحله مدرن توسعه هوش مصنوعی در حدود سال 2010 با تجاری سازی مداوم فناوری ها و کاربرد آنها در خارج از آزمایشگاه ها آغاز شد. فناوری‌های اصلی ناشی از این دوره یادگیری ماشینی پیشرفته، پردازش زبان طبیعی و شبکه‌های عصبی مصنوعی (Nilsson, 2009) است. یادگیری ماشینی اصطلاحی است برای نوع خاصی از الگوریتم ها، یعنی الگوریتم های یادگیری که می توانند از تجربه یا تکرار یاد بگیرند. پس از گذراندن 5 اختصار، فقط در قسمت اصلی کتاب استفاده می شود، نه در اولین معرفی مفاهیم.

 

ادامه ...

Sabine Wiesmüller
Zeppelin University
Friedrichshafen, Baden-Württemberg,
Germany
ISSN 2662-9852 ISSN 2662-9860 (electronic)
Relational Economics and Organization Governance
ISBN 978-3-031-25022-4 ISBN 978-3-031-25023-1 (eBook)
https://doi.org/10.1007/978-3-031-25023-1
© The Editor(s) (if applicable) and The Author(s), under exclusive license to Springer Nature
Switzerland AG 2023
This work is subject to copyright. All rights are solely and exclusively licensed by the Publisher, whether
the whole or part of the material is concerned, specifically the rights of translation, reprinting, reuse
of illustrations, recitation, broadcasting, reproduction on microfilms or in any other physical way, and
transmission or information storage and retrieval, electronic adaptation, computer software, or by similar
or dissimilar methodology now known or hereafter developed.
The use of general descriptive names, registered names, trademarks, service marks, etc. in this publication
does not imply, even in the absence of a specific statement, that such names are exempt from the relevant
protective laws and regulations and therefore free for general use.
The publisher, the authors, and the editors are safe to assume that the advice and information in this book
are believed to be true and accurate at the date of publication. Neither the publisher nor the authors or
the editors give a warranty, expressed or implied, with respect to the material contained herein or for any
errors or omissions that may have been made. The publisher remains neutral with regard to jurisdictional
claims in published maps and institutional affiliations.
This Springer imprint is published by the registered company Springer Nature Switzerland AG
The registered company address is: Gewerbestrasse 11, 6330 Cham, Switzerland

ادامه ...

Contents 1 Introduction and Theoretical Foundations . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1 Introductory Remarks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Theoretical Foundations: Governing Artificial Intelligence . . . . . . . 3 1.2.1 Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.2 Requirements for the Governance of Artificial Intelligence . 7 1.2.3 The Theoretical Foundation of Artificial Intelligence Governance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2 A Theoretical Approximation to Artificial Intelligence as an Autopoietic System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1 Delimitation of Related Governance Disciplines . . . . . . . . . . . . . . . . 26 2.1.1 Related Governance Streams . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.1.2 Interim Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2 Conceptualisation of AI in the Relational Economics . . . . . . . . . . . . 33 2.2.1 Transaction Cost Economics Perspective on AI . . . . . . . . . . . 33 2.2.2 Systems-Theoretical Perspective on AI . . . . . . . . . . . . . . . . . . 37 2.2.3 Interim Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 2.3 Classification and Conceptualisation of Artificial Intelligence as an Autopoietic System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.3.1 Title of the System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.3.2 Categorisation of the System . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.3.3 Medium of the System ‘Artificial Intelligence’ . . . . . . . . . . . 64 2.3.4 Binary Coding of the System ‘Artificial Intelligence’ . . . . . . 69 2.3.5 Guiding Difference of the ‘Artificial Intelligence System’ . . 73 2.3.6 Outlook on Structural Couplings with ‘Artificial Intelligence System’ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 2.3.7 Contributions and Critical Reflection . . . . . . . . . . . . . . . . . . . . 80 References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 ix x Contents 3 Conceptualisation of the Relational Governance of Artificial Intelligence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 3.1 Theoretical Foundation for Relational AI Governance . . . . . . . . . . . 92 3.1.1 Delimitation of Wieland’s Relational Governance . . . . . . . . . 92 3.1.2 Essential Concepts of Wieland’s Relational Governance . . . 94 3.2 Governance Parameters of the Relational AI Governance . . . . . . . . . 102 3.2.1 The Relational Transaction of Corporate AI Development & Adoption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.2.2 Societal Informal Institutions of the Relational AI Governance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 3.3 AI-Specific Adaptivity of the Governance Parameters . . . . . . . . . . . . 127 3.3.1 Governance Adaptivity in an Unregulated AI Market . . . . . . 127 3.3.2 Governance Adaptivity in a Partially Regulated AI Market . 142 References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 4 Contextualisation of Relational AI Governance in Existing Research 165 4.1 Research Design: Systematic Literature Review . . . . . . . . . . . . . . . . . 165 4.1.1 Description of Selected Methodology . . . . . . . . . . . . . . . . . . . 166 4.1.2 Execution of Systematic Literature Review for AI Governance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 4.2 Results and Interpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 4.2.1 Descriptive Data Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 4.2.2 Thematic Data Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 4.2.3 Discussion and Conclusion of Review Findings . . . . . . . . . . 199 References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 5 Discussion and Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 5.1 General Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.2 Theoretical Contribution and Practical Implications . . . . . . . . . . . . . 217 5.2.1 Theoretical Contribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 5.2.2 Practical Implications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 5.3 Limitations and Future Research . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

ادامه ...
برای ارسال نظر لطفا وارد شوید یا ثبت نام کنید
ادامه ...
پشتیبانی محصول

۱- در صورت داشتن هرگونه مشکلی در پرداخت، لطفا با پشتیبانی تلگرام در ارتباط باشید.

۲- برای خرید محصولات لطفا به شماره محصول و عنوان دقت کنید.

۳- شما می توانید فایلها را روی نرم افزارهای مختلف اجرا کنید(هیچگونه کد یا قفلی روی فایلها وجود ندارد).

۴- بعد از خرید، محصول مورد نظر از صفحه محصول قابل دانلود خواهد بود همچنین به ایمیل شما ارسال می شود.

۵- در صورت وجود هر مشکلی در فرایند خرید با تماس بگیرید.