آزمون مهندسی کامپیوتر، علوم کامپیوتر و IT

مهندسی کامپیوتر

فارسی به انگلیسی

سوال 1:
در اغلب کاربردها، گره های حسگر از نظر منبع انرژی با محدوديت مواجه هستند. بنابراين نیاز به روش های ابتکاری برای برطرف نمودن اتلاف انرژی که موجب کوتاه شدن طول عمر شبکه های حسگر میگردد، کاملاً احساس میگردد. اين محدوديتها به همراه زياد بودن تعداد گره های حسگر باعث چالش های بسیاری در طراحی و مديريت شبکه های حسگر بیسیم و لزوم آگاهی از انرژی در همه لایه¬های پشته پروتکل شبکه ای شده است. برای مثال، در لایه شبکه، به شدت به يافتن روش هايی نیاز داريم که با بهره وری در مصرف انرژی، کشف مسیر انجام داده و دادهها را از گرههای حسگر به ايستگاه مبنا انتقال دهند.
هدف از پایگاه داده تحلیلی نیمه آنی این است که در زمان کمتری تغییرات رخ داده در سمت پایگاه داده منابع با داده های موجود بر روی دیسک الحاق شوند. هدف از این الحاق ایجاد تغییرات لازم بر روی جریان داده ورودی و تبدیل آن به قالب مورد نظر برای پایگاه تحلیلی می باشد. یکی از الگوریتم های مطرح در این زمینه، الگوریتم X-HYBRIDJOIN نام دارد. در این الگوریتم از خصوصیت داده های دنیای واقعی برای تسریع عمل الحاق استفاده شده است. الگوریتم X-HYBRIDJOIN بخشی از داده های موجود در روی دیسک را که مراجعه بیشتری به آنها می شود بعنوان یک بخش جدا، بطور دائمی در حافظه اصلی نگهداری می نماید تا از مراجعات مکرر به دیسک که عملی زمان بر می باشد جلوگیری نماید.

انگلیسی به فارسی

Cloud-based infrastructures have contributed to the discovery of various vaccines by clinical scientists and health professionals worldwide, supporting specialists to provide the necessary information to produce a potent antigen. Cloud-based services provide colossal support and strengthen the health infrastructure by enhancing the accessibility and interoperability of information. The cloud brings value to the organisation with various methods to save costs, simple data access, enhanced security, and efficiency. Efficiency and productivity improvements are typically far more than cloud and safety. Healthcare companies can improve productivity and deliver better services to their clients, which are essential because they can consider their business
In Simulation methods, like the Monte Carlo simulation, random samples are generated based on the sampling probability density function for random variables. Then the limit state function is calculated for each sample. The probability of failure is obtained by dividing the number of times that the limit state function has become negative by the total number of simulations. Since the Monte Carlo simulation method requires a large number of simulations and results in a high volume evaluations of limit state function, researchers are moving towards new efficient simulation methods such as: Asymptotic Sampling (AS), Weighted Simulation (WS) , Asymptotic Weighted Simulation (AWS).
In this regard, banks use interactive web applications tailored to customer requirements. In order to determine the requirements of users, it is necessary to apply some of the models of human-computer interaction during the design or re-application of applications. Human-computer interaction involves the joint execution of user-computer tasks; the structure of communication between computer users, the human ability to use a computer (including learning to use the interface); development of algorithms and programming of the interfaces themselves; the process of interface specification, design and implementation

علوم کامپیوتر

فارسی به انگلیسی

پیشرفت سریع فنّاوری اطلا عات و تأثیر گذاری شگرف آن در حوزه ای یادگیری و ترکیب آن با نظر یه های تعلیم و تربیت، حوزه ای جدید و میان¬ رشته ای به نام « یادگیری الکترونیکی» را پدید آورده ا ست، حوزهای که ضمن تقر یب د یدگاه های دانشمندان علوم تربیتی با اندیشمندان فنّاوری اطلا عات و رایانه های، زمینه های منا سبی را برای بهبودکیفیت محیطهای آموز شی از طر یق بهره برداری از مزا یای فنّاوری و نیــز تطبیــق آن بــا ویژگیهـا و توانمنــدیھــای یادگیرنــده پدیــدآورده اســت. رونــد اســتفاده از یادگیری الکترونیکی که به عنوان ا بزار یادگیری و یا آموزشی به سرعت در حال گسترش است.
گـام اول در طراحـي واكـسن بـه روش . معكـوس بررسـي تـوالي كامـل نوكلئوتيـدي ژنـوم ميكروارگانيـسم بيماريزا به منظور شناسايي تمام تواليهاي كد كننـده ي پروتيينـي يـا همان قالبهاي خواندن باز با استفاده از برنامه هاي كامپيوتري و الگوريتمهـاي قـادر بـه شناسـايي ORFهـا می باشد. گام دوم پـس از شناسـايي تمـام ORFهـا، بررسـي همـه¬ي. ORFهاي پيشبيني شده با اسـتفاده از برنامـه هـايي چـون ,BLASTX Basic Local Alignment Search Tool (BLASTN) ، TBLASTX به منظور يافتن تواليهاي مشابه در پايگاههاي داده و شناسـايي قطعـات DNA با نواحي كد كننده ي بالقوه ميباشد. در اين مرحله ORFهاي كد كننده ي پروتيين هاي سيتوپلاسمي و آنتي ژن هاي شناخته شـده حـذف شده و ديگر نواحي كد كننده براي آناليزهاي بيشتر انتخاب ميشوند.
در شبکه هاي حسگر نرم افزارمحور برخلاف شبکه هاي حسگر بي سيم سنتي که تنها براي يک کاربرد خاص برنامه ريزي شدند، مي توان روي هر گره شبکه چندين حسگر تعبيه نمود و براي آن چندين وظيفه به طور هم زمان تعريف کرد. هر کدام از اين گره هاي حسگر داراي يک برنامه مجازي سازي هستند که به آنها امکان مي دهد به صورت يک زيرساخت ارتباطي مشترک به چندين کاربرد مختلف، سرويس ارائه کنند. کاربردهاي مختلف حسگري در شبکه مي توانند توابع هدف و پارامترهاي تصميم گيري متفاوتي داشته باشند. با توجه به محدوديت منابع گره هاي شبکه حسگر، تعدد و تنوع وظايف در هر کاربرد، نيازهاي کيفيت سرويس متفاوت هر کاربرد و تفاوت توابع هدف براي کاربردهاي مختلف، مسئله تخصيص منابع به وظايف مي تواند بسيار پيچيده باشد.

انگلیسی به فارسی

Very broadly, ML can be described as an algorithm that learns from experience concerning some class of tasks and performance measures because its performance at the tasks at hand improves with experience.The ability of ML to look for patterns in data and enable better decision-making has attracted researchers and practitioners alike, such that it has been widely applied in a variety of business functions, including marketing. Within marketing, ML is a powerful tool for data analysis; it automates analytical model building and can be used for mining large sets of data, providing marketers with opportunities to gain new insights into consumer behavior and improve the performance of marketing operations.
Cloud services can be used likewise we use utilities in our daily life i.e. pay what you use. IaaS model is a fundamental layer for the cloud environment. At this layer computing resources are designed for virtualization purposes, in order to achieve widespread distribution and deployment. Due to high deployment, there is a high risk of security attacks and it is very difficult for a cloud buyer to rely on such a multitenant site. Caring these issues it is very difficult for the consumer to rely on the infrastructure provided to the consumer. User stores data in bought machines (VM) swung on the provider facet for processing and other purposes. It is important to examine the cloud equipment for privateness and integrity before, after and at some stage in VM implementation.
Silicon-based information technology, in contrast, is far from having become part of the environment. More than 50 million personal computers have been sold, and the computer nonetheless remains largely in a world of its own. It is approachable only through complex jargon that has nothing to do with the tasks for which people use computers. The state of the art is perhaps analogous to the period when scribes had to know as much about making ink or baking clay as they did about writing. The arcane aura that surrounds personal computers is not just a "user interface" problem.

IT

فارسی به انگلیسی

خودروهاي ساخته شده در سال هاي گذ شته به تدر یج پیچیده تر شده اند و فناور ي شبکه درون خودرو، ستون ا صل ي این تغییرات الکترونیکي است که با سرعت ز یادي در حال پیشرفت هستند. وسایل نقلیه امروزي شامل بسیاري از واحدهاي کنترل کننده الکترونیکي (ECU) هستند که با یکدیگر در یک شبکه درون- خودرویي ارتباط برقرار ميکند. شبکه ناحیه کنترل کننده (CAN ) ایجاد شده ا ست تا یک کانال ارتباطي قابل اعتماد بین این واحدهاي کنترلي براي پخش پیامها فراهم کند. پروتکل هاي سر یال مختلف در شبکه هاي درون-خودرویي مانندCAN ،شاابکه اتصال محلي (LIN) و FlexRay در تبادل بلادرنگ پیام کارآمد هستند اما در برابر حمالت از راه دور کاملا آسیب پذیر خواهند بود
افزایش گرداوري و ثبت روزافزون دادههاي پیچیده در دنیاي پزشکي، دلیل استفاده از فرایند دادهکاوي از پایگاه داده است. به علت وجود دادههاي ازدسترفته و تکراري و همچنین متغیرهایي با اسامي نامفهوم و نیاز به مدیریت دقیق این چالش ها، مراحل شناخت و آماد هسازي داده، مهمترین مراحل در داده کاوي بوده و بیشترین زمان صرف شده در استخراج دانش از پایگاه داده ها به این مراحل اولیه معطوف ميشوند. درواقع مرحله دوم و سوم از متدلوژي CRISP در این گام بررسي و اجرا ميگردد. براي بررسي دقیقتر و جزئيتر و همچنین اجراي عملیات پیشپ ردازش دادهها از قبیل مدیریت مقادیر ازدسترفته و پرت، مجموعه داده با محیط نرم افزارSPSS وارد می شود.
ا
یادگیري عمیق: در سال 2014 میلادي با ارائه الگوریتم DeepFace توسط تیم تحقیقاتي شرکت Facebook سري دیگري از روشهاي بازشناسي چهره بر پایه ي یادگیري عمیق کلید خورد. در این روش ها برخلاف روش هاي یادگیري کم عمق، تعداد لایه های زیادي به صورت متوالي به منظور استخراج ویژگي و تبدیل آنها در نظر گرفته شده و بدین ترتیب در سطوح ویژگي هاي مختلفي با سطوح پیچیدگي مختلف شناسایی مي شوند و این ویژگيها نسبت به حالت چهره و شرایط محیطي نیز مقاوم هستند.. پس از ارائه ي DeepFace الگوریتم هاي دیگري نیز بر پایه ي یادگیري عمیق باز شناسي چهره کردند از جمله ي این روشها مي توان به FaceID ، VGGFace ،VGGFace2 و FaceNet اشاره کرد. DeepFace از یک شبکه عصبي عمیق نه لایه ای با بیش از 120 میلیون پارامتر براي بازشناسي چهره استفاده ميکند و از خطاي Softmax براي آموزش شبکه ا ستفاده شده ا ست و مجموعه داده هاي آموزش، یک مجموعه داده خصوصوي با چهار میلیون تصویر چهره با بیش از 4000 هویت است

انگلیسی به فارسی

Wireless sensor networks (WSNs) integrate sensor technology, embedded computing technology, distributed information processing technology, and communication technology. WSNs have been employed widely in various fields, including military, national defence, environmental monitoring, traffic management, health care, manufacturing, and disaster prevention applications. In a WSN, the sensor nodes collaboratively collect and process environmental and physical information from the area covered by the network and send the information to observers. A monitoring area often requires the deployment of a large number of sensor nodes, but the sensor nodes are limited in terms of their computational, storage, and communication capacities in order to reduce costs. For instance, Micaz developed by CrossBow is a representative type of sensor node, which is equipped with an Atmegal28L microprocessor, CC2420 chip, 128 KB Flash, and 4 KB RAM. The sensor node is supplied with limited battery power and it is difficult to provide secondary energy to the nodes. Thus, network failure occurs after more than a certain percentage of the nodes die. Therefore, reducing the energy consumption of sensor nodes and prolonging the network life-cycle is the key challenge for WSNs.
In case of backbone-based approach, a routing backbone is developed in the network to acquire the fresh sink position and to transmit data toward it. In Ring routing, a closed loop of nodes is constructed that encapsulates a globally predetermined network center. As soon as the mobile sink changes its position, it advertises updated location to the ring by forwarding packets towards the network center and thus the source nodes can acquire sink’s fresh position from the ring. Later, the source nodes send data directly to the sink in multihop fashion. Though this routing backbone offers quicker localization of the sink, its scalability is questionable for large networks. Moreover, it has not explored appropriate ring-radius with respect to network size or communication range of sensors. Experimental results show that, if the ring radius is too small, the sink localization time is greatly increased for network border nodes. The same problem occurs for central nodes when a large ring-radius is chosen. The backbone is effective not only for faster localization of the sink but also to provide energy-efficient data delivery to the sink. The Fishbone routing backbone is constructed using different levels of aggregators (e.g. master and local aggregators). The source nodes transmit data over the backbone in multihop forwarding. Though the above backbones provide better communication infrastructures, the offered end-to-end data delivery latency is higher due to lack of choosing optimal ring-radius and multi-level aggregation.
On the data life cycle the challenges can be divided into three categories: data, process and management challenges. Data challenges refer to characteristics of big data including volume, velocity, variety and veracity. Process challenges are related with the techniques needed for big data acquisition, integration, transformation and analysis in order to gain insights from the big data. The data management challenges include challenges regarding data security, privacy, governance and cost/operational expenditures. Big data can be characterized by the seven Vs: volume, variety, veracity, velocity, variability, visualization and value. Volume refers to the large size of the datasets. It is fact that Internet of Things (IoT) through the development and increase of connected smartphones, sensors and other devices, in combination with the rapidly developing Information and Communication Technologies (ICTs) including Artificial Intelligence (AI) have contributed to the tremendous generation of data (counting records, transactions, tables, files etc.). The speed of data is surpassing Moore’s law and the volume of data generation introduced new measures for data storage i.e. exabytes, zettabytes and yottabytes