Tuesday, December 2, 2025
Domů Blog

Dark Patterns in Information Seeking

0
web design
Author: Sarah Lawrence, https://www.sarahclawrence.com/portfolio/center-for-civic-innovation

Introductions

The digital environment has been rapidly changing over the past years. People’s interaction with services, products, and information has dramatically transformed. With the growth of social media, e-commerce, and online services, companies have learned to improve user experiences, making them more intuitive and engaging to maximize customer satisfaction and optimize profit. Although many of these designs aim to be ethical and user-friendly, concerns are rising about more manipulative designs known as dark patterns.

Deceptive patterns refer to manipulative techniques in user interface designs that deliberately deceive users into making decisions that benefit the company, often at the client’s expense. Unlike more traditional designs, which prioritize clarity and ease of use, dark patterns rely on psychological manipulation to navigate users toward choices that may be hidden, misleading, or in conflict with their best interests.

These manipulative tactics are common in various online interactions, including signing up for services, navigating e-commerce sites, and canceling subscriptions. As digital experiences become more omnipresent and personalized, the topic of dark patterns has raised major legal and ethical concerns. How can we create a future where technology enhances lives without undermining trust?

Psychological Foundations Behind Dark Patterns

In most cases, the behavior of a person can be seen as an outcome of made decisions. By understanding these decision-making processes, it’s possible to predict people’s behavior. Moreover, digital experiences can be designed to support or influence such behavior.

One of the factors that can influence decision-making is people’s mood, which can be affected by numerous things. It also determines if a decision is based on emotions or logical reasons. A good example of this is the influence of mood through color, which can affect behavior in various ways. For instance, red buttons usually evoke danger or urgency which leads to impulsive actions. On the contrary, green checkmarks can signal safety and reassurance, subtly pushing users toward one specific option.

Dark patterns also play on incidental emotions – emotions that cannot be controlled, such as frustration or relief, to prompt specific actions. One way through which designs take advantage of people’s emotions is through nudging. The concept of nudges is based on choice architectures that predictably influence user’s decisions without restricting their freedom of choice. This effective tool has been successfully applied in numerous areas, such as education, health, and finance. Examples include putting healthy food at eye level or near the checkout counters in schools or supermarkets or setting default options for organ donations.

Furthermore, companies optimize these deceptive designs using A/B testing (also known as split testing), a user experience research method. A/B testing compares two variants of digital content to determine which version performs better based on the user’s behavior. In this method, users are randomly divided into two groups. Every group interacts with different versions. Key performance indicators, like time spent on the page, click-through rates, or average revenue per user, are measured and analyzed to identify which variant is more effective.

Another advanced testing method that businesses use is multivariate testing which evaluates multiple variables simultaneously in a single experiment. This testing provides a deeper understanding of each variable’s impact and can uncover insights that might not emerge from single-variable tests, while also saving time (Maier & Harr, 2020).

Cognitive biases

Two important factors that are influential in the decision-making process are heuristics and biases. Heuretics are simple and efficient rules that people use to make decisions and solve problems. These cognitive functions simplify complex processes by focusing on key pieces of information rather than processing every detail. The rules have been shown to work well in most situations, but in certain cases, they can result in cognitive biases – systematic patterns of deviation from rationality in judgment. In design, heuristics can be used to guide users towards better decisions or it can be used to exploit biases through deceptive tactics (Azzopardi, 2021).

Among the commonly studied cognitive biases in the context of dark patterns are:

Anchoring bias

Users tend to rely too heavily on the first piece of information presented (the “anchor”) when evaluating their choices. For example, displaying a high price first, followed by a discounted price, can make the latter seem like a better deal than it is.

Confirmation bias

Tendency to interpret information in a way that confirms one’s preexisting opinion and beliefs, while disregarding information that contradicts the initial opinion. Individuals selectively search for evidence that aligns with their current beliefs, making it hard for them to change their mindset. For instance, companies may use highly positive reviews of customers to manipulate potential buyers.

Status quo bias

Tendency to favor the current situation over an alternative, to avoid risk and potential loss. Decision-makers have a higher probability of choosing a default option (status quo). This bias has been shown to affect multiple important economic decisions. For example, in subscription services, users often stick with automatic renewals due to a default option.

Social proof

Psychological phenomenon where individuals tend to follow the actions of others. It is more applied in situations where people are uncertain how to behave. This mental shortcut is often used in design and marketing, where testimonials, ratings, or “most popular” labels are used to influence buyers’ actions. For instance, the number of people who have purchased the product can make users follow the crowd and make an impulsive decision.

The reciprocity principle

This concept describes the human tendency to feel obligated to return favors and gestures. It’s deeply rooted in human social behavior. A typical example of this principle is offering a free sample or gift. Companies are expecting that customers might sign up for a service, agree to additional terms, or make a purchase out of indebtedness.

Loss aversion

People are more motivated to avoid losses than to gain something of the same value. Meaning that the emotional impact of losing something is usually much stronger than the satisfaction of gaining the equivalent. In decision-making, people often make choices that avoid risks and losses, even if they are irrational and unbeneficial. For instance, offers like “Don’t miss out on this deal!” increase urgency and pressure buyers to take quick action.

Scarcity

This principle is based on the idea that people tend to place a bigger value on things that seem to be in limited supply. When something is scarce it usually motivates individuals to act quickly and acquire it before it’s gone. It is frequently used in sales, where products are labeled as limited.

Dark patterns manipulate decision-making processes in ways that undermine users’ autonomy by leveraging cognitive biases and strategic designs. These deceptive techniques take advantage of psychological tendencies, usually without users’ awareness, and financially benefit companies or platform owners. Understanding these úsychological foundations is crucial for recognizing how dark patterns work and how they impact people’s behavior.

Types of dark patterns

Dark patterns can manifest in various forms, ranging from subtle psychological manipulations to outright deceptions that leave users with feelings of manipulation or even betrayal. The term was first mentioned by user experience designer Harry Brignull in 2010 to describe manipulative design strategies that exploit cognitive biases for financial gain.

Below are some of the most common types of dark patterns and their examples found in digital interfaces:

  1. Bait and Switch
    A tactic that occurs when users intend to perform a specific action but are redirected or forced into another one. This can often be seen on websites. By clicking on a button or a link the user is expecting to be led to a predictable outcome, but instead, they are led to an entirely different page. For example, advertising of a free or greatly discounted product that is currently unavailable. After announcing that, the page offers similar products of much higher and lesser quality.
  2. Roach Motel
    This dark pattern is typical for its straightforward way to get in but a very difficult path to get out. Roach Motel is named for its similarity to a roach trap. It’s common among platforms that use subscription-based models. Examples include websites where users may quickly sign up for a free trial. But when attempting to cancel, they face an intentionally hard and confusing process that discourages them. They might need to print and mail their cancellation request or phone with absurd waiting times. Many clients therefore end up paying additional charges.
  3. Confirmshaming
    This technique works by triggering uncomfortable emotions, such as shame or guilt, to pressure users into taking a certain action. Apps or websites that use this dark pattern usually label opt-out buttons with derogatory language, aiming to make users feel bad or uncomfortable about declining the offered feature or service. By purposely taking this approach, confirm-shaming is trying to increase the likelihood that users will give up their desired action, ultimately benefiting the companies.
    In 2018 an e-commerce website selling medical supplies used this specific deceptive pattern. When requesting permission to send notifications, the website presented an opt-out choice as “No, I prefer to bleed to death”. This option was targeted to customers who probably were already exposed to the trauma of accidents, leaving them with uncomfortable feelings.
  4. Hidden Costs
    Hidden Costs involves adding additional fees or charges long after the user has made their initial decision. This tactic is used in e-commerce, where the price of a product only is usually very low. After investing time and effort into the transaction, hidden costs such as shipping, service charges, or taxes are shown. By that point, users are more likely to proceed with the purchase.
  5. Pre-selected Options
    Preselection works with the default effect of cognitive bias – people tend to go with the option that is already pre-chosen for them, even if there are other available choices. Most providers are aware of this phenomenon and often exploit it to take advantage of consumers. The most common tactic is to display a pre-ticked checkbox. Other approaches include pre-selecting options during a multi-step process or automatically putting items in the customer’s cart. These selections are usually hidden and very difficult to spot, making it easy for users to overlook them.
  6. Forced Continuity
    This deceptive pattern occurs when users are enticed with a limited-time promotional offer or a free trial, only to have their subscription automatically renewed once the trial period ends. Often, the renewal process is not clearly explained, leaving users unaware that they will be charged after the end of the trial. This lack of transparency may lead to unexpected expenses, as clients unknowingly authorize the continuation of the service. The difficulty of the cancellation process is often used to increase the chances that users will either forget to cancel or become discouraged from doing so.
  7. Trick Wording
    The trick wording pattern involves using misleading and ambiguous language to deceive and take advantage of prompt users. Most people don’t read and dwell on every word. They rather scan-read through the volume of information they are faced with. This dark pattern exploits the scan reading strategy, presenting content that appears to be saying one thing when it actually tells something entirely different that is not in the user’s best interest.
  8. Privacy Zuckering
    Privacy Zuckering is a dark pattern named after Facebook co-founder and Meta Platforms CEO Mark Zuckerberg. This practice tricks users into sharing more personal information than they intended to. It employs deceptive interfaces and misleading language to make users agree to intrusive privacy settings, often without realizing the extent of the shared data. For example, users could connect their social media accounts or sync their contacts and unknowingly offer their data for marketing purposes or share them with third parties. Privacy Zuckering has been observed in many platforms that prioritize data collection for profit.
  9. Disguised Ads
    This deceptive pattern works by intentionally blurring the line between advertisements and genuine content, creating confusion for users. The ads are usually designed to resemble interface elements, related articles, posts, or other relevant content that users will more likely interact with. Disguised ads boost ad impressions for website owners and help advertisers achieve higher clickthrough rates, potentially resulting in more sales. This deceptive approach takes strategic advantage of users’ expectations and trust in the platform’s designs.
  10. Price Comparison Prevention
    When making a purchase decision, users will often try to weigh up the price with the features and their personal needs. This process usually involves comparing multiple products before making a final decision. If this evaluation becomes too challenging, users may feel overwhelmed, leading them to make impulsive decisions. The price comparison prevention pattern exploits this by complicating the evaluation process, such as hiding the key details or presenting inconsistent information. This enables the provider to steer users toward a decision that generates more profit, but may not be in the user’s best interest.

Ethical and Legal Implications of Dark Pattern Design

Digital technology is increasingly becoming part of our lives. With that it brings more opportunities but also challenges in how design can influence users. While most businesses employ ethical design, the use of dark patterns is becoming more common. These deceptive patterns are raising significant concerns, as they undermine users’ autonomy. Their information is often collected and sold by organizations without user’s permission. As awareness of manipulative practices grows, so does the call for more ethical designs in the digital landscape.

Ethical implications

A key ethical dilemma emerges when designers face the choice of using persuasive techniques to lead users toward decisions that rather benefit the business or prioritizing user needs and preferences. The ethical concerns surrounding dark patterns primarily revolve around the respect for user autonomy. Employment of deceptive patterns violate the user’s ability to make free and informed decisions.

On the other hand, ethical designs prioritizes user well-being and transparency. These designs provide clear and easy to understand options which allows them to make free choices. Several frameworks have come up to guide designers how to conduct and determine features of products and how to assess their moral worth. These designs can help reinforce positive behavior and prevent negative consequences.

Ethical design principles revolve around human experience, effort and rights. This illustrates a framework called “Ethical Hierarchy of Needs” created by Aral Balkan and Laura Kalbag. It shows how each layer of the pyramid is dependent on the layer beneath to ensure that design is ethical.

Ethical design principles provide a concrete framework through which to create products that take into consideration social responsibility and user well-being. These principles help guide developers toward building ethical, user-friendly, and sustainable products:

  1. Usability: Design products that are easy to use, ensuring that they are intuitive, efficient, and satisfying for users. Focusing on improving the learning process, minimizing errors, and ensuring that users can navigate and remember how to use the product with ease.
  2. Accessibility: Availability of products for everyone, that includes accommodating visual, auditory, motor impairments, and supporting assistive technologies that help users interact with digital content.
  3. Privacy: Privacy is the core of ethical design. It is about taking proactive measures to protect the user’s data through encryption, for example, and placing full control over personal data in the hands of the users themselves.
  4. Persuasion: Integrate transparency into design to enable users to make informed decisions. Users must be able to understand what they are agreeing to and how their actions or choices will affect them.
  5. Focus: Distractions are everywhere in today’s digital world. Designers should reduce unnecessary interruptions, minimize addictive features, and create calm, focused user experiences that enhance productivity rather than distract users.
  6. User Involvement: Engage users early and consistently throughout the design process to truly understand their needs. Continuous feedback and collaboration with users ensure that the final product is helpful to them and meets their needs.
  7. Sustainability & Society: Ethical design is more than just individual products; it covers broader social responsibility. Designers should consider the footprint their work leaves on the environment, climate change, and social inequality, and their products should contribute to sustainable and equitable practices (Overkamp, 2019).

Despite the effort of applying ethical design, there is still a gap in the application of these rules in real-world design. This is often due to organizational pressures, a profit-driven environment, and the lack of effective tools in design practice.

As the occurrence of dark patterns continues to rise, so does the regulation from lawmakers and regulators. Various legal frameworks have been developed to address deceptive techniques in the digital environment. These efforts intend to protect consumers from exploitation and ensure that businesses are accountable for manipulative design tactics.

GDPR (General Data Protection Regulation)

One of the most significant regulatory frameworks in recent years is the General Data Protection Regulation. This regulation was implemented in 2018 by the European Union . While the GDPR primarily focuses on data protection, it also addresses issues related to user’s rights and their ability to control their given consents to the digital services.

The GDPR forces organizations to ask for user consent before any data is collected, to provide clear information about how the data will be processed and to give users opportunity to allow or refuse the collection. Moreover, pre-ticked boxes or inactivity can not be interpreted as implied consent and the request must be clearly distinguishable from other interface elements. However, regulations only apply to the use of consents, not to dark patterns, which includes many more aspects.

FTC (The Federal Trade Commision) and the Regulation in the USA

In the United States, the regulation of advertising practices and protection of consumer rights is the responsibility of the Federal Trade Commission. While the FTC is not yet able to effectively address problems of dark patterns, it has issued some guidelines and has investigated companies that use manipulative practices. However, the majority argue that current regulations in the USA are insufficient.

Challenges in Regulation

One of the main issues in regulating deceptive patterns is the constant evolution of digital design. New practices emerge regularly, and companies are able to quickly adapt to them and, therefore, avoid detection. Furthermore, regulations that may apply to one country or continent might not have a significant impact on companies that operate internationally in many countries.

Moreover, defining what exactly dark patterns mean is a very complex process. While some designs are obviously manipulative and deceptive, some others may not be that apparent. Government institutions and regulations need to find a balance between allowing businesses to compete with each other and also protecting consumers. Possibly in the future, we may see clearer definitions of dark patterns, more enforcement actions, and higher fines for companies engaging in these manipulative techniques.

Impact of Dark Patterns on Users

The impact of dark patterns is significant, and as a result, there are immediate and long-term negative consequences for users, which affect them financially, emotionally, and psychologically. By exploiting psychological manipulation, these practices often leave users feeling misled, annoyed, and even regretful of the choices they have made, thus losing trust in the digital platforms they use. Most common consequences include:

Financial Consequence

Dark patterns often result in direct financial losses for users. These manipulative methods are very often hidden in additional costs, subscriptions to services that are not wanted, and long-term financial commitments that users were not fully aware of.

Examples include “free trials,” which are easy to sign up for but then hard to cancel; users who think they are canceling find themselves charged for many months or years after the trial has technically expired. These surprise charges cause financial hardship and much frustration. Similarly, the practice of hidden fees at checkout on e-commerce sites is a ploy to make something seem more affordable than it really is. People may think that they got a good deal until later they realize that their total costs are much higher than what was initially anticipated.

Emotional and Psychological Effects

The emotional impact of dark patterns is significant. Victims of these manipulative designs frequently experience frustration, embarrassment, and anger. The realization that one has been tricked can undermine confidence in their ability to navigate online services. Over time, this sense of manipulation can result in a broad, negative impact on the user’s relationship with digital platforms, often making them more wary of online interactions.

Loss of Trust

Perhaps the most significant long-term impact of dark patterns is the loss of trust. Once users realize they’ve been manipulated by deceptive practices, they are less likely to return to the platform or service in the future. This loss of trust can have a negative effect, damaging the company’s reputation and decreasing customer loyalty.

In the age of online reviews and social media, bad experiences with dark patterns can spread quickly, leading to public backlash and negative press. Unhappy customers will more than likely share their experiences and tell others to avoid platforms that try to manipulate them with such designs. Not only does this affect their reputation, but it might also lead to a drastic fall in customer loyalty and, as a result, profits. In an environment where trust is paramount, the damage caused by dark patterns can be difficult to repair, even with improved customer service.

Privacy Concerns

Dark patterns are also closely tied to privacy violations. Many dark patterns involve pushing users into making choices that compromise their data or privacy, such as opting into unnecessary data collection or agreeing to share personal information without fully understanding the consequences.

For instance, a social media platform might use a pre-selected checkbox to automatically enroll users in data-sharing practices that benefit the company, without fully informing them of how their data will be used or stored. This lack of transparency may result in serious breaches of privacy, especially when it involves sensitive data like medical, financial, or personal information. Over time, this will erode users’ confidence in the security of their information, contributing to a growing mistrust of online platforms and their practices (Naceur, 2023)

The Future of Dark Patterns

As the digital environment continues to rapidly evolve, the dark patterns will likely adapt in response to new technologies and consumer behaviors. The development of artificial intelligence and machine learning may open new opportunities to manipulate users at an even deeper level, possibly through more personalized manipulative techniques that will be harder to detect.

AI- driven dark patterns

The integration of generative artificial intelligence into digital design increases the complexity of dark patterns. AI enables businesses to analyze each user’s behavior at a deep level, crafting personal-targeted manipulative practices and advertisements that will exploit individuals’ vulnerabilities.

For instance, AI could generate believable deep fakes that will simulate trusted individuals to deceive users into sharing their personal information. By mimicking the voice, appearance and gestures of someone trusted, these interactions could become highly convincing. Another example could be assessing a user’s emotional state and serving fabricated content to take advantage of these emotions. This could push users towards more impulsive decisions that would favor companies profits.

Challenges in Detection

As dark patterns evolve through AI, detection becomes significantly more difficult. Ability to generate complex and manipulative designs creates a challenge for users, regulators and even developers to recognize unethical techniques. The lack of transparency in AI-generated outputs complicates their accountability (Moloney, 2024).

Ideas how to fight against Dark Patterns

The solution to dark patterns requires a complex approach: user empowerment, industry accountability, and innovative regulatory frameworks. First and foremost is user education in the fight against manipulative tactics in design. Public awareness campaigns can help people to recognize existing dark patterns, enabling them to make better choices online.

While organizations have begun to develop a catalogue of these tactics, broader and more accessible campaigns are needed to reach a wider audience. In collaboration with schools, technology companies, and nonprofit organizations, the information could be passed on to the younger population. Besides that, browser extensions and other tools which could detect and flag dark patterns in real-time can immediately help users. These tools could detect and warn users about manipulative designs, and allow users to make more active choices.

Equally important will be promoting accountability within the industry itself. Companies need to adopt ethical design principles that put user well-being first. This can be achieved by introducing frameworks for ethical design, which guides organizations in prioritizing user autonomy, privacy, and transparency. Businesses should also embrace an approach, where they provide clear and upfront disclosures about their data practices, subscription terms, and fees. Every business can systematically audit interfaces for dark patterns with internal and independent reviewers. Ongoing user feedback is crucial to ensure continued fairness, usability, and lack of manipulation in the products.

On the regulatory front, governments have to evolve existing laws to catch up with the dark patterns. Laws such as the GDPR and the EU’s AI Act have gone some way toward safeguarding users’ data, but they could go further by embedding more specific provisions that deal with these design tactics. For instance, regulations can require companies to provide accessible and straightforward mechanisms for cancellation of subscriptions. Further, there should be global collaboration among regulatory organizations to define what exactly is a dark pattern. This would prevent firms from exploiting jurisdictional gaps, making it harder for them to dodge accountability.

Looking ahead, technology could be used as a key part in the fight against dark patterns. AI systems could be designed to advocate for users by detecting and blocking manipulative practices before they can have an impact. Blockchain technology could also provide a role in the form of verifiable logs of user interactions, making it easier to hold companies accountable for failing to be transparent with their users. Integration of digital literacy programs into education systems could prepare the next generation to critically engage with online platforms and recognize dark patterns as they emerge. By fostering a culture of informed digital citizens, society could reduce the effectiveness of these manipulative practices and ultimately create a more ethical digital landscape.

Conclusions

Dark patterns represent a serious ethical challenge in the digital landscape. While they may provide financial gains for companies, they ultimately damage consumer trust and autonomy in the digital environment. By embracing ethical design practices, businesses can create experiences that prioritize user needs, respect their independence and build long-term relationships based on transparency.

As consumers are becoming more and more aware of these manipulative practices, the pressure on companies to adopt ethical design standards will only be increasing. The future of digital designs is in securing that both businesses and their consumers can thrive in the digital age

List of references
Maier, M., & Harr, R. (2020). Dark design patterns: An end-user perspective. Human Technology, 16(2), 170–199. https://www.proquest.com/scholarly-journals/dark-design-patterns-end-user-perspective/docview/2681456628/se-2

Luguri, J., & Strahilevitz, L. (2021). Shining a Light on Dark Patterns. Journal of Legal Analysis, 13(1), 43–109. https://doi.org/10.1093/jla/laaa006

Waldman, AE. (2020). Cognitive biases, dark patterns, and the ‘privacy paradox’. Current Opinion in Psychology, 31, 105–109. https://doi.org/10.1016/j.copsyc.2019.08.025

Kollmer, T., & Eckhardt, A. (2023). Dark Patterns. Business & Information Systems Engineering, 65(2), 201-208. https://doi.org/10.1007/s12599-022-00783-7

European Union. (2016). Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation). https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32016R0679

Moloney, M. (2024, June 28). AI driven dark patterns: What does the future hold? Irish Computer Society. https://ics.ie/2024/06/28/ai-driven-dark-patterns-what-does-the-future-hold/

Beta-i. (2023, March 8). Ethical design: What is it and why is it important for you?. https://beta-i.com/blog/ethical-design-what-is-and-why-is-important-for-you

Overkamp, L. (2019, May 30). Daily ethical design. A List Apart. https://alistapart.com/article/daily-ethical-design/

Mathur, A., Mayer, J., & Kshirsagar, M. (2021). What Makes a Dark Pattern… Dark?. arXiv. https://arxiv.org/pdf/2101.04843

Deceptive Design. (2023). Types of dark patterns. https://www.deceptive.design/types

Data Privacy: Key Components, Problems and Challenges

0

Data privacy is the ability of a person to determine who can access their data and is the protection from those who should not have access to those personal data. Generally, it means the right of a person to determine when, how, and what their personal information shares about them publicly.  That information might be their name, address, email, location, and others. 

Over the years, the importance of data privacy has significantly risen due to the enormous increase in internet usage. All those applications, websites, and other online platforms use the personal data of their users to provide adjusted services. However, not all personal data are stored properly and safely, which might result in data breaches and sequential misuse. Therefore, several protection laws exist to guard people’s right to privacy. Organizations must operate with personal data safely as well as demonstrate to their customers and users that they can be trusted. (Cloudflare, n.d.)

Understanding Data Privacy

Definition of personal data

As the definition states: “Personal data is any information that relates to an identified or identifiable living individual.” Personal data that has been de-identified, encrypted, or pseudonymized but can still be used to identify a person is still considered personal data and is covered by the regulations. However, personal data that has been anonymized in a way that the person cannot be identified is no longer considered personal data. For data to be truly anonymized, it must be impossible to reverse the process and identify the individual. (European Commission, n.d.)

Key Components of data privacy

As a key components are considered specific building blocks of a strong data privacy strategy. They not only help complying with legal requirements but also demonstrate commitment to protecting individuals and their personal information. Below are listed examples of key components and their meanings  (WebsitePolicies, n.d.):

  • Compliance and auditing – regular updating practices and legal compliance
  • Data breach response – having a contingency plan for data breaches
  • Data collection and consent – securing explicit user consent before collecting data
  • Data use and purpose limitation – using data solely for its intended purpose
  • Data minimization – collecting only what is essential
  • Data transparency – being upfront about data usage through clear policies 
  • Data transfer safeguards – complying with international data transfer regulations
  • Data subject rights – facilitating user rights to access, correct or delete their data
  • Data retention and deletion – defining timeliness for data storage and secure deletion

Importance of data privacy

Challenges users face

All internet users are facing many challenges when protecting their own privacy. There are some of the challenges listed below:

  1. Losing control of data – because user’s behavior is tracked online on a regular basis, the first challenge that users face is online tracking. Cookies often track a user’s activities, and while most countries require websites to inform users about cookie use, many users may not realize how much of their activity is being recorded. 
  2. Losing control of data – with so many online services, again, people may not realize how their data is shared with others beyond the websites they use, and they often have no control over what happens to their information.
  3. Lack of transparency – to use web apps, users usually need to give personal details like their name, email, phone number, or location. However, the privacy policies of these apps can be hard to understand.
  4. Social media – it’s easier than ever to find someone online through social media, and posts can share more personal details than users may know. Overall, social media platforms often collect more data than people realize.
  5. Cybercrime – many hackers try to steal personal data to commit fraud, break into secure systems, or sell it on the black market. Some attackers use phishing scams to trick people into giving personal information, while others try to hack into companies’ systems that store personal data. (Cloudflare, n.d.). Only the cybercrime cases have risen enormously in past years and cost people huge amount of money. (Figure 1)
Figure 1 – Annual amount of monetary damage caused by reported cybercrime in the US from 2001–2023 (Statista, n.d)

These challenges highlight how difficult it has become for users to truly protect their data. Many people don’t know enough about how their data is collected or used, and companies make it worse by hiding it behind confusing privacy policies. Therefore, companies should make their policies easier to read and give people clear choices about their data. For example, users should be able to decide exactly what data to share and with whom. With that is also connected the fact that people need to be more careful about what they share online, especially on social media. Many people don’t realize that posts, pictures, or even likes can give away personal information. 

Challenges businesses face

Not only are users facing many challenges when it comes to data protection but also businesses are dealing with them. Only companies that can successfully meet these challenges can get a competitive advantage in the marketplace. Not meeting them might result in failure and an overall negative impact. 

The first challenge is communication. Not all organizations are communicating clearly to their users what personal data they are storing and why. This lack of transparency might result in mistrust and potentially legal consequences. Privacy policies are often written in technical or legal terms, which makes them hard for an average user to understand. This fact discourages customers from reading them. Also, not all companies are notifying users properly when new data collection practices are implemented or updated. Users are often unaware of what specific data is shared with third parties, such as advertisers or analytics firms. (Cloudflare, n.d.)

Another challenge is related to cybercrime. Not only individuals are targeted by attackers, but also organizations that collect and store data about those users.  Cybercriminals target companies to exploit personal information for financial gain, identity theft, or harmful intent. Cybercrime can lead to severe monetary losses. Companies may lose funds through untrustful transactions, also failing to secure customer data can result in fines under laws. As it is reported by Cybersecurity Ventures, in 2023, global cybercrime costs were projected to exceed $8 trillion. (Cloudflare, n.d.)

Similarly important are data breaches, which can lead to a massive breach of user privacy. Data breaches are often swapped with the mentioned cyberattacks. However, not all cyberattacks are data breaches because data breaches include only those security breaches, where someone gains unauthorized access to data, resulting in financial, operational, and reputational harm. The number of reported data breaches continues to rise, with millions of records exposed yearly. For instance, the 2021 T-Mobile breach exposed the personal data of over 40 million individuals. Commonly targeted data includes customer names, social security numbers, credit card details, health records, and login credentials. (Cloudflare, n.d.)

Last but not least, challenges arise from insider threats when internal employees might inappropriately access data in case of insufficient protection. These threads may be accidental when employees unintentionally compromise data security by mishandling sensitive information, such as falling victim to phishing attacks or using weak passwords, or intentional when they misuse access to steal, leak, or manipulate sensitive data for personal or financial gain. (Cloudflare, n.d.)

 When it comes to cybersecurity, companies should invest more in protecting data. It is not enough to rely on basic security measures with the rising trend in cybercrime. Businesses need advanced systems and regular audits to stay ahead of hackers. They also need to train their employees better so they can avoid accidental mistakes, like clicking on phishing emails. After all it is companies’ responsibility to prioritize user trust above everything else. If users feel their data isn’t safe, they’ll stop using those services. Strong data protection practices aren’t just about avoiding fines or legal issues, they’re also about building long-term relationships with customers.

Protection against misuse

Data misuse means the use of information in a way that it should not be used. Rules for proper data use are usually found in laws, industry guidelines, company policies, and user agreements. Data misuse is often associated with employee data theft, which happens when employees misuse or mishandle information. Unlike data theft, misuse doesn’t always involve sharing information with third parties. However, data misuse can sometimes lead to data breaches.

For example, an employee might copy data onto a flash drive for personal use and then lose it, causing a data leak. Or they might send data to their personal laptop, which could get hacked. There are three most common types of data misuse: for personal gain, carelessness, and commingling. (Syteca, n.d.)   

Data misuse for personal gain happens when someone uses sensitive information for their own gain, often harming others in the process. For example, an employee might use one’s company’s trade secrets or customer information to start their own business or sell the data to competitors. This can cause the company to lose money and damage its reputation. (Syteca, n.d.)

Data misuse can also happen due to carelessness, mistakes, or lack of proper training. This might include sharing data with people who shouldn’t have access, accidentally revealing sensitive information, or saving data on unsecured personal devices. Poor data security practices, like not using encryption or improperly setting up cloud storage, can also lead to data breaches. (Syteca, n.d.)

Data commingling happens, for instance, when a company uses personal data collected for one purpose and reuses it for another, often without the person’s consent. For example, a company might collect data for academic research but then share it with a partner for marketing. This misuse of personal data can result in fines and lawsuits. Sometimes, data misuse isn’t noticed for a long time, but it can still cause serious harm to the company and the people involved. (Syteca, n.d.)

Real-world example of data misuse

In April 2023, a young man was arrested by the FBI, who leaked highly classified military documents online, which he was a member of. He had been stealing and sharing these sensitive files for over a year. The files included data about the state of the war in Ukraine, Israel’s Mossad intelligence agency, and China’s interests in Nicaragua. This leak is considered one of the most significant breaches of US national security recently (Statista, n.d.). The young man was sentenced to 25 years in prison for unauthorized removal and retention of classified documents. (Syteca, n.d.)

Figure 2 – Largest data privacy violation fines, penalties, settlements worldwide (Statista, n.d.)

Regulatory frameworks

A regulatory framework is a system of rules and guidelines designed to make sure organizations follow the law and assess how these rules affect people and industries. Regulatory frameworks are important for keeping industries and sectors organized by setting clear standards that businesses must follow. They also protect consumers and the environment by ensuring that products and services meet quality and safety requirements. (DataGuard, n.d.)

General Data Protection Regulation (GDPR)

The GDPR is a European Union regulation on information privacy in the EU. It is the toughest privacy and security law in the world. The regulation was put into effect on May 25, 2018. The GDPR imposes heavy fines on companies that break its privacy and security rules, with penalties reaching tens of millions of euros. This regulation shows Europe’s strong commitment to protecting data privacy and security, especially as more people use cloud services and data breaches happen regularly. However, the GDPR is broad and not very detailed, which makes it challenging for businesses—especially small and medium-sized ones (SMEs)—to comply with its requirements. (GDPR.eu, n.d.)

Brief history of the GDPR

The right to privacy is part of the 1950 European Convention on Human Rights, which states, “Everyone has the right to respect for his private and family life, his home and his correspondence.” With the progress of technology and the invention of the internet, the EU wanted to implement more modern protection. Therefore, in 1995, it passed the European Data Protection Directive, establishing minimum data privacy and security standards. Then, each member state based its own implementing law.

Two months after an incident when a Google user sued the company for scanning her emails in 2011, Europe’s data protection authority declared the EU needed a comprehensive approach to personal data protection, and that was the beginning of updating the 1995 directive. The GDPR entered into force in 2016 after passing the European Parliament, and on May 25, 2018, all organizations were required to be compliant. (GDPR.eu, n.d.)

Data protection principles

There are seven protection and accountability principles covered by GDPR if processing data (GDPR.eu, n.d.):

  1. Lawfulness, fairness, and transparency – personal data shall be processed lawfully, fairly, and in a transparent way
  2. Purpose limitation – data should be collected for clear, specific, and lawful purposes and should not be used in ways that go against those purposes
  3. Data minimization – means collecting only the data that is necessary, relevant, and adequate for the specific purpose it is being used for
  4. Accuracy – every step must be taken to ensure that personal data that are inaccurate are erased or rectified without delay
  5. Storage limitation – personal data should be kept in a way that allows identification of individuals only as long as necessary for the purposes for which it was collected.
  6. Integrity and confidentiality – mean processing personal data in a way that ensures it is securely protected, including guarding against unauthorized access, unlawful use or accidental loss, destruction, or damage
  7. Accountability – the controller is responsible for being able to demonstrate GDPR compliance with all these principles

California Consumer Privacy Act (CCPA)

From the North American environment is known the California Consumer Privacy Act of 2018. This act gives people more control over the personal information businesses collect about them. The CCPA rules explain how to follow this law. It gives California residents new privacy rights, including the right to know what personal information a business collects about them and how it is used or shared, the right to delete their personal information, the right to opt out of having their personal information sold or shared or the right to be treated equally. (Office of the Attorney General, n.d.)

Indonesia’s Personal Data Protection Act (PDPA)

Data protection laws in Asia are changing quickly. Countries like China, Thailand, Indonesia, and Sri Lanka have recently introduced detailed privacy laws. For example, Indonesia’s Personal Data Protection Act includes rules about how data is processed, reporting data breaches, and appointing data protection officers. Sri Lanka’s Personal Data Protection Act applies both within the country and internationally, showing a trend in Asia toward broader privacy laws. However, these laws differ a lot in their details and how they are enforced, highlighting the variety of approaches to data privacy in the region. (GDPR Local, n.d.)

Challenges in global regulations

In today’s connected world, data privacy rules are becoming more complicated. As more countries create or update their privacy laws, global businesses face new challenges to follow them. In recent years, the approach to data privacy has changed a lot. The European Union’s General Data Protection Regulation (GDPR) set a high standard, encouraging many countries to create new laws or improve their old ones to match this level of protection. These changes show a global shift toward making consumer privacy and data security a priority. (360 Business Law, n.d.)

Around the world, 120 countries have passed laws to protect personal data and privacy. These laws are designed to keep individuals’ information safe. They usually include rights for people to control their data and rules for organizations to handle it securely and responsibly. Many of these laws are based on principles from major regulations like the EU’s General Data Protection Regulation (GDPR) and the United States’ data protection laws. Key ideas include getting consent, using security measures, and ensuring accountability. (GDPR Local, n.d.)

Differences among the regions

Data protection laws around the world share some similarities, but they also differ a lot, especially in how they are enforced, where they apply, and the rights they give to individuals. For example, the GDPR applies to any business that handles the data of people living in the EU, no matter where the business is located. In contrast, U.S. laws like the California Consumer Privacy Act (CCPA) mainly focus on protecting the data of California residents. 

In Asia, countries like China and Indonesia have created strict data protection laws that include special rules, such as requiring companies to report data breaches and appoint data protection officers. India’s Data Protection Law is very focused on consent, with strict rules about how consent must be given and used, making it different from both the GDPR and U.S. standards. (GDPR Local, n.d.)

Strategies for protecting sensitive information

Anonymization and pseudonymization

Pseudonymization and anonymization are highly recommended data masking techniques by the GDPR. Techniques like these reduce risk and assist data processors in fulfilling their data compliance regulations. There is a difference between these two techniques, and their use will depend on the degree of risk and how the data will be processed.

Data anonymization

Data anonymization is the process of removing or changing personal identifiers from data to protect an individual’s privacy. This means details like names, social security numbers, and addresses can be altered or encrypted, so the data can still be used but is no longer linked to a specific person. Even though anonymization removes these identifiers, attackers may still use methods to “de-anonymize” the data. They can compare it with other public sources of information to try and figure out the original identities behind the anonymized data. There are various data anonymization techniques, such as data masking, pseudonymization, or data swapping. 

However, data anonymization also has some disadvantages. Under the GDPR, websites are required to obtain user consent before collecting personal information like IP addresses, device IDs, and cookies. While collecting anonymous data and removing identifiers from databases helps protect privacy, it can limit the usefulness of the data for businesses. Anonymized data, for example, cannot be utilized for marketing purposes or to tailor the user experience, as the lack of identifiable information prevents businesses from tracking user behavior or personalizing content. Therefore, organizations must balance privacy concerns with the need for actionable insights from their data. (Imperva, n.d.)

Data pseudonymization

Pseudonymization is a privacy-enhancing technique that replaces identifying fields in a data record with artificial identifiers or pseudonyms. This can involve using a single pseudonym for a group of replaced fields or assigning a unique pseudonym to each field individually. Under the General Data Protection Regulation (GDPR), pseudonymization is defined in Article 3 as “the processing of personal data in such a way that the data can no longer be attributed to a specific data subject without the use of additional information.”

To implement pseudonymization effectively, the additional information that links pseudonyms to original data must be stored separately and safeguarded with technical and organizational measures. This ensures that the data cannot be linked back to an identifiable individual without explicit access to the supplementary information.This approach reduces the risk of exposing sensitive information while maintaining data utility for analysis, making it an essential tool for organizations striving to comply with privacy regulations and protect personal data. (GRC World Forums, 2021)

The critical difference between anonymized and pseudonymized data is whether the data can still be considered personal data. Pseudonymized data can still potentially be linked back to a person, either directly or indirectly, whereas anonymized data cannot be traced back to any individual once it has been processed. Pseudonymization and anonymization work in different ways. Anonymization completely removes any information that could identify someone, making it impossible to re-identify the data later. Pseudonymization, on the other hand, doesn’t completely erase identifiers. It simply makes it harder to connect the data to a specific person, often through methods like encryption. (Imperva, n.d.)

Data masking

Data masking is a method of protecting sensitive information by replacing it with altered values. This can involve creating a duplicate version of a database and applying changes like shuffling characters, substituting words or characters, or using encryption. For example, instead of showing an actual value, you might replace it with symbols like “*” or “x.” Data masking makes it nearly impossible for someone to reverse-engineer or uncover the original data, ensuring the data remains secure even if it is exposed to unauthorized users. The advantage of masking is the ability to identify data without manipulating actual identities. (Imperva, n.d.)

If we compare data masking versus data encryption, data encryption translates data into another form or code so that only people with access to a secret key or password can read it. Whereas data masking is a more widely applicable solution as it enables organizations to maintain the usability of their customer data. By applying masking techniques, personal information is anonymized, which makes it safe for use in areas like support, analytics, testing, or outsourcing, where sensitive details should not be exposed. This method ensures that while the data can still be used for various purposes, the privacy of individuals is maintained by hiding their identifiable information. (GRC World Forums, 2021)

Data swapping

Data swapping, also known as shuffling or permutation, is a technique used to rearrange values in a dataset so that they no longer match the original records. This method involves swapping the values in columns containing identifying information, such as dates of birth, making it harder to link the data to specific individuals. For example, swapping membership type values might have less of an impact on anonymization than swapping more sensitive information like date of birth, which is a direct identifier. This technique helps protect privacy by disrupting the association between data attributes and the original individuals. (Imperva, n.d.)

Data encryption

Data encryption is a security that translates data into a code or cipher-text that is only readable for people with access to a secret key or password. Data encryption works as a protection against stealing, changing, or compromising data. In case of the protection of data, it is necessary that the decryption key is kept secret and protected against unauthorized access. All data can be encrypted, even data at rest or data in transit are not an exception. There are two types of encryptions used today. (Cloudian, n.d.)

Symmetric encryption

Symmetric encryption is the first type. Uses the same key for encryption and decryption. Compared to asymmetric encryption, it is a faster method and is best used by individuals or within closed systems since it is considered less secure. Using symmetric encryption in open systems, such as over a network with multiple users, necessitates the transmission of the encryption key, which increases the risk of unauthorized interception and theft. 

The most commonly used type of symmetric encryption is AES – Advanced Encryption Standard, explicitly used for the encryption of electronic data established by the U.S. National Institute of Standards and Technology in 2001. It was developed by two cryptographers, Joan Daemen and Vincent Rijmen. AES is available in many different encryption packages and is the first publicly accessible cipher approved by the U.S. NSA. (Cloudian, n.d.)

AES is based on a design principle known as a substitution-permutation network and is efficient in software as well as in hardware. It is a variant of Rijndael with a fixed block size of 128 bits and a key size of 128, 192, or 256 bits. Block size refers to the length of a fixed-length string of bits, and key size represents the number of bits in a key used by a cryptographic algorithm.(Cloudian, n.d.)

Another type is FPE, Format Preserving Encryption, which is an encryption algorithm that secures data while maintaining its original format, making it especially useful for anonymizing content. For instance, if a customer ID consists of two letters followed by ten digits, the encrypted output will preserve the same structure, replacing the original characters with other valid ones. This ensures that the encrypted data fits seamlessly into the existing system without requiring additional modifications. (Cloudian, n.d.)

Asymmetric encryption

The second type of data encryption is asymmetric encryption. This type uses two different keys for encryption and decryption. It has public and private keys that are mathematically linked and can only be used together. Either key in an asymmetric encryption system can encrypt data, but only the corresponding paired key can decrypt it. This method is ideal for open networks, such as the Internet, and scenarios involving multiple users because the public key can be openly shared without compromising security. Commonly used types of asymmetric encryption include RSA, DSA, and ECC, each offering unique strengths for secure communication and data protection. 

DSA, or Digital Signature Algorithm, is a method primarily designed for verifying digital signatures rather than encrypting data. With DSA, the private key owner generates a signature of a given message. This signature can be validated by anyone with access to the corresponding public key, confirming the message’s authenticity and integrity while ensuring it has not been altered during transmission.

RSA is one of the first public-key algorithms that uses one-way asymmetric encryption. Known for its long key length and robust security, RSA is extensively used across the internet. It forms the backbone of various security protocols and enables web browsers to establish secure connections over otherwise insecure networks. ECC, or Elliptic Curve Cryptography, was developed as an improvement upon RSA. Provides better security with a significantly shorter key length. (Cloudian, n.d.)

Weaknesses of encrypted data

However, even encrypted data can be hacked. There are multiple ways attackers can compromise data-encrypted systems:

Accidental exposure is if users inadvertently reveal the key or fail to implement proper security measures. In this case, attackers can exploit the exposed key to access and decrypt sensitive data. Therefore, the decryption key is confidential and must be safeguarded against unauthorized access. 

Another way is through malware in endpoint devices. Malware targeting endpoint devices poses a significant threat to encryption mechanisms, such as full disk encryption. Attackers can infiltrate a device using malicious software, gaining access to encryption keys stored on the device. Once compromised, these keys can be exploited to decrypt sensitive data, bypassing the intended security measures and exposing the system to further attacks. 

Another one to mention is brute force attack, which occurs when attackers commonly try to break encryption by randomly tying different keys. The effectiveness of encryption is strongly tied to the size of the encryption key, with larger keys providing greater resistance to attacks. This is why many modern encryption standards, such as AES, recommend the use of 256-bit keys to ensure robust security. However, some systems still employ weak ciphers or shorter keys, making them susceptible to brute-force attacks, where attackers systematically try all possible key combinations until the correct one is found.

Despite all these risks, encryption is a strong and effective security measure. It provides a robust line of defense against unauthorized access, ensuring data confidentiality and integrity. However, encryption alone cannot guarantee absolute security, as vulnerabilities such as weak key management, software flaws, or user errors can lead to its compromise. Given these risks, encryption should be viewed as a critical layer within a comprehensive security strategy rather than the sole protective measure. Organizations must complement encryption with additional safeguards. This layered approach minimizes the impact of potential breaches and ensures that sensitive information remains protected even if one defense mechanism fails. 

Those organizations who neglect to put into practice data minimization strategies expose themselves to several potential risks. Generally said, the more data a company holds, the more attractive it becomes to hackers and cybercriminals.

Data minimization

Data minimization refers to collecting and storing only the personal information that is absolutely necessary for a specific purpose. Instead of gathering large amounts of data just in case it might be useful later, this approach encourages organizations to be careful and deliberate about the data they handle. Once the data has served its purpose, it should be securely deleted. The goal of data minimization is to reduce risks tied to storing and managing personal information. By keeping only the essential data, organizations can protect both themselves and the people whose information they handle.

Data minimization helps protect people’s personal and health information from being used in ways they didn’t agree to, like targeted ads or sales profiling. These practices can feel invasive, making customers uncomfortable. When companies avoid using data without permission, it shows they act responsibly, which can build trust. This trust often leads to happier customers who are more likely to stay loyal to the brand. (Kiteworks, n.d.)

Key features of data minimization

As mentioned above, a key part of data minimization is collecting only the data that is necessary. This means gathering just the information needed for a specific purpose and nothing extra. For example, if a company is doing market research, it should only collect data related to that research, not unrelated details. Along with this focus on limited data collection, there is also the idea of data retention—keeping data only for as long as it’s needed. For example, a company might store information about its employees only while they are working there. Once an employee leaves, there’s no reason to keep their data. Deleting unnecessary data reduces the risks of storage issues or data breaches.

Data minimization also supports using methods like anonymization or pseudonymization when possible. These techniques change personal data so it can’t be linked to a specific person unless extra information is added separately. For example, a healthcare provider might anonymize patient data for research, making sure it can’t be traced back to any individual, which helps protect their privacy.

Lastly, transparency is an important part of data minimization. It means organizations should be clear and honest about how they collect, use, and handle personal data. For example, they can provide simple, easy-to-read privacy notices or explain people’s rights regarding their data. This helps individuals understand and make informed choices about how their data is used, giving them more control. Being transparent builds trust between organizations and people and ensures companies are responsible for their data practices. (Kiteworks, n.d.)

Ethical considerations

Balancing privacy and innovation

New technologies bring great opportunities but also create concerns about data protection and privacy. To balance innovation and privacy, strong data protection, clear data handling rules, and following regulations are essential. Companies should focus on privacy from the start, use tools like encryption and anonymization, control who can access data, and promote privacy awareness. This helps ensure that innovation respects people’s rights and builds trust in digital systems.

In today’s digital world, there’s this constant struggle between innovation and privacy. Innovation is awesome as it drives progress and makes our lives easier, bringing great advancements in technology, healthcare, and more. But on the other side, it unfortunately often comes with a slight loss of personal privacy. As businesses and governments collect large amounts of data, people worry about data breaches, surveillance, and the misuse of their personal information. Therefore, it is crucial to find a balance between encouraging new ideas and keeping our privacy intact. That means putting data protection measures in place, being open about what is happening, and reassuring people that their data is safe. (TrustCloud, n.d.)

Finding the balance between innovation and privacy is one of the biggest ethical challenges of our time. On one hand, innovation is crucial for progress, better healthcare, smarter technology, and solutions to global problems. On the other hand, losing control of personal data can feel like losing a part of our freedom. Therefore, it is crucial for companies and governments to put as much emphasis on privacy as they do on growth. Finally, privacy and innovation can go hand in hand.

For example, technologies like artificial intelligence or blockchain can improve systems while still protecting personal information. If companies and governments focus on creating ethical frameworks, we can have progress that respects people’s rights. Balancing privacy and innovation is not easy and might be challenging, but it is necessary to create a fair and trustworthy digital future.

Strategies for balancing innovation and privacy

To balance innovation and privacy, organizations can use strategies like building systems that keep privacy in mind, doing detailed privacy impact assessments, being clear about how they handle data, collecting only the necessary information, anonymizing data, raising privacy awareness, and following privacy laws. This all helps to build trust and encourages responsible innovation. Below are listed five strategies to achieve a balance between innovation and privacy:

  1. Privacy by design – this approach promotes ethical and responsible technology, which ensures that data protection is an important part of the development process. 
  2. Transparency and consent – it is very important to be clear about how data is gathered and to keep users informed. If organizations communicate clearly, people can make smart choices about how their personal information is used, which helps build trust in new technologies.
  3. Ethical AI practices – Artificial intelligence (AI) systems should follow ethical rules and avoid biased algorithms or unfair practices. Keeping AI fair and accountable makes sure that new technologies meet those ethical standards.
  4. Data minimization – the principle of collecting only the necessary data for a specific purpose, which might reduce the risk of privacy breaches.
  5. Robust cybersecurity measures – investing in measures like encryption and regular security audits are crucial for the protection against unauthorized access and data breaches. (TrustCloud, n.d.)

Challenges and future of data privacy

Every day, businesses face more advanced cyber threats as technologies improve. Tools like artificial intelligence are becoming more common, but they also bring new risks. Because of this, companies are focusing on security methods that can adapt to new threats and ensure their data stays safe in the future. The future of data security will likely involve new technologies, updated regulations, and changes in how people use and protect their data. The list below shows some developments that might be expected in the next years:

  1. Increased use of AI and Machine Learning – these technologies will play a bigger role in improving data security. They help spot patterns, unusual activity, and possible threats in real-time, allowing faster action against security breaches.
  2. Blockchain technology – is best known for cryptocurrencies, but it also has great potential for data security. Due to its decentralized and unchangeable design, it can offer stronger protection against data manipulating and unauthorized access.
  3. Biometric authentication – biometric methods like fingerprint scanning, facial recognition, and iris scanning are expected to become more common because they are safer than traditional password systems.
  4. Supply chain security – keeping supply chains secure will be important to stop attacks on third-party vendors and partners. This involves doing detailed security checks, using merchant risk management plans, and setting clear security rules in contracts.
  5. Continuous monitoring and incident response – constantly monitoring networks and systems for suspicious activities will remain important for spotting and addressing security threats early. As a result, automated response systems will become more advanced to reduce the impact of breaches. (Alumio, n.d.)

In the future, data protection rules are likely to become even stricter. Privacy laws will focus more on sensitive data, such as information about children and health. In the United States, changes to the Children’s Online Privacy Protection Act are being discussed, aiming to increase penalties and responsibilities for mishandling children’s data. New technologies bring both challenges and opportunities for data protection. They make it harder to track how consumer data is used, so strong rules and systems will be needed to make sure everything is done correctly. The growing use of artificial intelligence will also lead to more AI-related laws around the world as governments try to protect consumer rights while still supporting technological progress. (GDPR Local, n.d.)

The role of AI

As technology evolves quickly, AI tools are expected to become a key part of improving data security in the future. Some examples of AI tools:

  1. Threat detection and prevention – AI-powered threat detection systems can process large amounts of data in real-time to spot patterns and unusual activities that may signal security threats. These tools can recognize known threats using set rules and also detect new or unknown attacks by analyzing behavior, helping organizations stop security breaches before they happen.
  2. Automated incident response – AI tools can automate how incidents are handled by sending real-time alerts, prioritizing security issues based on their seriousness, and coordinating response actions. These automated systems help organizations respond to security breaches faster, reducing downtime and minimizing the impact.
  3. User authentication and fraud detection – AI-powered authentication systems improve the process of verifying user identities by analyzing factors like biometric data, behavior patterns, device information, and context. These tools can accurately confirm who the user is and also detect and prevent fraud, such as account takeovers and identity theft. (Alumio, n.d.)

AI has an incredible potential to improve data security, but it also comes with new responsibilities. On the positive side, AI can handle tasks that are impossible for humans, like quickly analyzing huge amounts of data or detecting small threats that traditional systems might miss. However, even AI is not perfect, it can make errors or simply overlook some threads. Companies using AI for security need to regularly check these systems for errors or biases. At the same time, is important for people to stay cautious. AI can make security better, but it’s not a replacement for good practices like using strong passwords or being aware of online risks.

Conclusion

Data privacy is now an important part of human life in the digital age, where there is more personal information stored and shared than in previous times. Technology has advanced rapidly, creating opportunities and threats in the management and protection of personal data. Laws such as the General Data Protection Regulation (GDPR) contest in Europe and the California Consumer Privacy Act (CCPA) in the U.S. are therefore important for setting rules to protect people’s data and require organizations to use it honestly and judiciously. 

Therefore, protecting personal data is also a necessity for preventing misuse and gaining trust between users and businesses. The consequences of organizations failing to protect data may range from identity theft and monetary loss to reputational damage. Strategies such as data encryption, anonymization, pseudonymization and minimization are some of the most crucial factors that moderate the risks associated with data breaches and cyberattacks. These serve to ensure fair handling of data by the organization according to legal and ethical standards. 

However, there are still challenges to be overcome. Cybercrime will not stop to evolve, and hackers will continue to devise more creative and omnipresent schemes for attacking people and businesses. And unease remains the ever-present ethical balance between innovation and privacy. While speaking about obtaining great benefits from technological advancements, like artificial intelligence, big data analytics, and blockchain, it is also talking about increased monitoring of activities, misuse of data, and loss of personal control. To handle these situations, privacy should be included from the very beginning, security checked regularly, and privacy principles followed right from the start.

Data privacy is more than a technological or legal issue, it refers to human rights in the digital age. Organizations can and should be expected to keep higher standards when it comes to protecting data in the online context.

Literature

Cloudflare. (n.d.). What is data privacy? 2024, https://www.cloudflare.com/learning/privacy/what-is-data-privacy/

European Commission. (n.d.). What is personal data? 2024, https://commission.europa.eu/law/law-topic/data-protection/reform/what-personal-data_en

WebsitePolicies. (n.d.). What is data privacy? Definition, importance, and best practices. 2024, https://www.websitepolicies.com/blog/data-privacy#key-components-of-data-privacy

Syteca. (n.d.). 4 ways to detect and prevent the misuse of data. 2024, https://www.syteca.com/en/blog/4-ways-detect-and-prevent-misuse-data

DataGuard. (n.d.). What is a regulatory framework? 2024, https://www.dataguard.co.uk/blog/what-is-a-regulatory-framework

GDPR.eu. (n.d.). What is GDPR? 2024, https://gdpr.eu/what-is-gdpr

Office of the Attorney General. (n.d.). California Consumer Privacy Act (CCPA). 2024, https://oag.ca.gov/privacy/ccpa

360 Business Law. (n.d.). Global data privacy regulations: Navigating the complex web of compliance. 2024, https://www.360businesslaw.com/blog/global-data-privacy-regulations-navigating-the-complex-web-of-compliance/

GRC World Forums. (2021, July 12). Data masking, anonymisation or pseudonymisation? 2024, https://www.grcworldforums.com/data-management/data-masking-anonymisation-or-pseudonymisation/12.article

Cloudian. (n.d.). Data encryption: The ultimate guide. 2024, https://cloudian.com/guides/data-protection/data-encryption-the-ultimate-guide/

Kiteworks. (n.d.). Data minimization. 2024, https://www.kiteworks.com/risk-compliance-glossary/data-minimization/

Alumio. (n.d.). The future of data security: Predictions and new trends. 2024, https://www.alumio.com/blog/the-future-of-data-security-predictions-and-new-trends

TrustCloud. (n.d.). Data protection in technological advancements: Balancing between innovation and privacy.2024, https://community.trustcloud.ai/docs/grc-launchpad/grc-101/governance/data-protection-in-technological-advancements-balancing-between-innovation-and-privacy/

Statista. (n.d.). Total value of worldwide data breach fines and settlements from 2015 to 2022https://www.statista.com/statistics/1170520/worldwide-data-breach-fines-settlements/

Statista. (n.d.). Total damage caused by cybercrime in the United States from 2001 to 2022.  https://www.statista.com/statistics/267132/total-damage-caused-by-by-cybercrime-in-the-us/

Arxiv.org: The role of grey literature in competitive intelligence

0
grey literature

The term grey literature is used to describe a wide range of different information that is produced outside of traditional publishing and distribution channels, and which is often not well represented in indexing databases. (Snook, 2023)

There are more definitions for grey literature such as the Institute of Scientific and Technical Information of China (ISTIC) Definition, National Library of Medicine (NLM) Definition, and the Prague Definition

A widely accepted definition in the scholarly community for grey literature is:

“Information produced on all levels of government, academia, business and industry in electronic and print formats not controlled by commercial publishing” ie. where publishing is not the primary activity of the producing body.”

(Third International Conference on Grey Literature in 1997 (ICGL Luxembourg definition, 1997  – Expanded in New York, 2004))

Introduction

Value of grey literature

Here is how grey literature can be an important asset for your research (Snook, 2023):

  • It can capture research findings that yield zero or contradictory outcomes as well as discoveries in specialized or developing fields of study. Commercial publishers, who might have a more commonplace, profit-driven publication strategy, might not address these.
  • It might be more up-to-date than research material that has been formally published, which can take time to go through a sometimes drawn-out peer review and publishing procedure.
  • You can get content from a wider variety of writers and organizations thanks to it. Not everyone has the opportunity to publish through commercial channels.

Grey literature encompasses a broad and expanding spectrum of content. Not all researchers will find relevance in all of these examples. For instance, data on clinical trials is largely relevant to health and medical research. Information from corporate and market research will be very helpful to business researchers.

Grey literature typology

Types of content that we can describe as grey literature is (Snook, 2023):

  • Blogs
  • Clinical trials
  • Company Information
  • Conference papers/proceedings
  • Datasets
  • Discussion Forums
  • Dissertations and theses
  • Email discussion lists
  • Government documents and reports
  • Interviews
  • Market reports
  • Newsletters
  • Pamphlets
  • Patents
  • Policy statements
  • Pre-print articles
  • Press releases
  • Research reports
  • Statistical Reports
  • Survey results
  • Tweets
  • Wikis
  • Working papers

arXiv.org

The easiest way of accessing a bigger volume of grey literature is through many dedicated databases such as arXiv.org, worldcat.org, opengrey.eu, nusl.cz, and more.

To take a closer look at accessing grey literature, we will examine arXiv.org.

ArXiv is a free distribution service and an open-access archive for 2,250,224 scholarly articles in the fields of physics, mathematics, computer science, quantitative biology, quantitative finance, statistics, electrical engineering and systems science, and economics. Materials on this site are not peer-reviewed by arXiv. (arXiv.org, 2023)

ArXiv offers researchers a broad range of services: article submission, compilation, production, retrieval, search and discovery, web distribution for human readers, and API access for machines, together with content curation and preservation. Our emphasis on openness, collaboration, and scholarship provides the strong foundation on which arXiv thrives. (arXiv.org, 2023)

ArXiv currently serves the fields of physics, mathematics, computer science, quantitative biology, quantitative finance, statistics, electrical engineering and systems science, and economics. arXiv was founded by Paul Ginsparg in 1991 and is now maintained and operated by Cornell Tech. (arXiv.org, 2023)

Operations are maintained by the arXiv Leadership team and arXiv staff at Cornell. Governance of arXiv is led by the Leadership Team with guidance from the arXiv Scientific Advisory Board and the arXiv Member Advisory Board. arXiv is a community-supported resource funded by Cornell University, the Simons foundation, member institutions, and donors. (arXiv.org, 2023)

Registered users may submit articles to be announced by arXiv. There are no fees or costs for article submission. Submissions to arXiv are subject to a moderation process that classifies a material as topical to the subject area and checks for scholarly value. Material is not peer-reviewed by arXiv – the contents of arXiv submissions are wholly the responsibility of the submitter and are presented “as is” without any warranty or guarantee. By hosting works and other materials on this site, arXiv, Cornell University, and their agents do not in any way convey implied approval of the assumptions, methods, results, or conclusions of the work. (info.arxiv.org, 2023)

Search options

Simple Search: The Simple Search box on the ArXiv homepage allows users to enter keywords or phrases related to their research interests. It performs a basic search across the entire ArXiv dataset and displays results based on relevance. Users can choose between “Show abstracts” and “Hide abstracts” before querying in the search.

grey literature
Figure 2 – Source: https://arxiv.org/

Advanced Search: The Advanced Search option provides more specific search capabilities. It allows users to refine their search by specifying fields such as author, title, abstract, categories, comments, journal reference, ACM classification, MSC classification, DOI, and more. Users are provided with a date option to choose a timeframe in which the papers have been released. Advanced Search supports Boolean operators, wildcard characters, and proximity searches to further customize search queries.

Figure 3 – Source: https://arxiv.org/

Subject Categories: ArXiv organizes its papers into subject categories to facilitate browsing and searching within specific research areas. Users can explore papers in various categories such as physics, computer science, mathematics, and more. Each category has subcategories, allowing users to narrow down their focus.

Figure 4 – Source: https://arxiv.org/

ArXiv API: ArXiv offers an Application Programming Interface (API) that allows developers to access ArXiv data programmatically. The API provides more advanced search capabilities, enabling users to retrieve and analyze specific subsets of the dataset based on their requirements.

Syntax rules and operators

Arxiv uses the following syntax rules and operators (arXiv.org, 2023) :

  • Wildcards:
    • Use ? to replace a single character or * to replace any number of characters. Can be used in any field, but not in the first character position.
  • Boolean operators:
    • There are three possible Boolean operators: “AND”, “OR” and “AND NOT” (“ANDNOT” when using the API) (arXiv.org, 2023)
  • Expressions:
    • TeX expressions can be searched, enclosed in single $ characters.
  • Phrases:
    • Enclose phrases in double quotes for exact matches in the title, abstract, and comments.
  • Dates:
    • Sorting by announcement date will use the year and month the original version (v1) of the paper was announced. Sorting by submission date will use the year, month, and day the latest version of the paper was submitted.
  • Multiple author names
    • Separate individuals with a ; (semicolon). Example: Jin, D S; Ye, J
  • Journal References:
    • If a journal reference search contains a wildcard, matches will be made using wildcard matching as expected. For example, math* will match mathmathsmathematics.
    • If a journal reference search does not contain a wildcard, only the exact phrases entered will be matched. For example, math would match math or math and science but not maths or mathematics.
    • All journal reference searches that do not contain a wildcard are literal searches: a search for Physica A will match all papers with journal references containing Physica A, but a search for Physica A, 245 (1997) 181 will only return the paper with journal reference Physica A, 245 (1997) 181.

Structure of the system

The extensive library of preprints on ArXiv.org can be grouped into categories and navigated using a hierarchical structure. Here is an in-depth breakdown of ArXiv.org’s structure:

Main Categories: There are several major subject categories in ArXiv.org, each of which represents a broad academic discipline. Physics, mathematics, computer science, quantitative biology, quantitative finance, and statistics make up the major categories. These categories act as broad divisions to classify papers according to their main areas of study.

Subcategories: There are additional subcategories that further categorize papers within each primary category. For instance, there are numerous subcategories under the physics category, including astrophysics, high-energy physics, condensed matter, quantum physics, and others. Each subcategory corresponds to a certain region or subfield within the overall topic.

Sections: Subcategories are further organized into sections. Sections offer a more detailed categorization of articles based on particular subjects or fields of study. You might find parts like astrophysics of galaxies, cosmology and N-body simulations, solar and stellar astrophysics, etc. within the astrophysics subcategory, for instance. Within a subcategory, sections aid users in navigating to more specialized study areas.

Papers: The main component of ArXiv.org is the papers themselves. Each paper is a preprint that a particular author or group of writers has uploaded. The title, authors, abstract, and primary body of the research is often included in PDF-format papers. They might also contain addenda, figures, and references.

Versioning: Authors can upload several copies of a paper to ArXiv in order to update or revise their work. Each version is given a special identification number in the format “arXiv:YYMM.XXXX” (where YYMM stands for the submission year and month). Versioning makes it easier for the scientific community to discuss and provide input on papers as they change over time.

Search and discovery: The search feature on ArXiv.org enables users to look for articles using a variety of parameters, including keywords, authors, titles, and other search terms. Users can also look through articles in particular sections, subsections, or categories to find research on topics that interest them.

Data and information typology

  1. Preprint Data: Preprints are copies of scientific articles that authors have submitted to ArXiv.org before they have undergone formal peer review. They are early-stage research discoveries.
  2. Metadata: Every preprint in the repository of ArXiv.org has its own set of metadata. Title, author(s), abstract, publication date, subject categories, version history, and unique identifiers are just a few of the details that make up metadata. This metadata offers descriptive details about the papers and makes it easier to search for, find, and organize the content.
  3. Full-Text Content: The preprints that are hosted on ArXiv.org are fully searchable. Each preprint’s whole material, which normally includes the primary study section, figures, tables, and references, is accessible to users. Users may read and thoroughly analyze the research findings thanks to the full-text material.
  4. Author Information: ArXiv.org also includes information about the authors of the preprints. Their names, affiliations, contact details, and links to their profiles or other websites may all be included in this. Author information validates the work’s reputation and skill while also helping to provide context.
  5. Categorization and Classification: As already mentioned above, preprints on ArXiv.org are divided into subject categories, subcategories, and sections using a hierarchical categorization scheme. Users can browse and search for publications within particular fields or study areas using this categorization. The category helps with organizing the content and offers a methodical way to browse the repository.
  6. Versioning Data: ArXiv.org maintains versioning data for each preprint that has undergone updates or revisions. Versioning data includes information about the different versions of a paper, such as submission dates, changes made between versions, and unique identifiers for each version. This allows users to track the evolution of a research paper over time.
  7. Usage Statistics: ArXiv.org collects and maintains usage statistics that provide insights into the usage patterns, popularity, and impact of the preprints hosted on the platform. Usage statistics include the number of downloads, views, citations, and other metrics that reflect the engagement and dissemination of the research.

Data availability and licensing

As an academic content repository, arXiv maintains a permanent record of each article and version published. Anyone can see and download any article on arXiv.org for free.

ArXiv requires submission authors’ consent before posting and disseminating their work in order to preserve this scientific record. The submitter must attest that they have the authority to grant the license they have chosen as the means of granting permission.

Below is a list of the various licensing types that are offered. With the exception of CC Zero, the original copyright owner continues to keep ownership of all of the licenses listed here after posting on arXiv.

Available Licences (info.arxiv.org, 2023):

  • CC BY: Creative Commons Attribution
    • This license allows reusers to distribute, remix, adapt, and build upon the material in any medium or format, so long as attribution is given to the creator. The license allows for commercial use.
  • CC BY-SA: Creative Commons Attribution-ShareAlike
    • This license allows reusers to distribute, remix, adapt, and build upon the material in any medium or format, so long as attribution is given to the creator. The license allows for commercial use. If you remix, adapt, or build upon the material, you must license the modified material under identical terms.
  • CC BY-NC-SA: Creative Commons Attribution-Noncommercial-ShareAlike
    • This license allows reusers to distribute, remix, adapt, and build upon the material in any medium or format for noncommercial purposes only, and only so long as attribution is given to the creator. If you remix, adapt, or build upon the material, you must license the modified material under identical terms.
  • CC BY-NC-ND: Creative Commons Attribution-Noncommercial-NoDerivatives
    • This license allows reusers to copy and distribute the material in any medium or format in unadapted form only, for noncommercial purposes only, and only so long as attribution is given to the creator.
  • arXiv.org perpetual, non-exclusive license
    • This license gives limited rights to arXiv to distribute the article, and also limits re-use of any type from other entities or individuals.
  • CC Zero
    • CC Zero is a public dedication tool, which allows creators to give up their copyright and put their works into the worldwide public domain. CC0 allows reusers to distribute, remix, adapt, and build upon the material in any medium or format, with no conditions.

All metadata falls under the Creative Commons CC0 1.0 Universal Public Domain Dedication

Indexing

  1. Paper Submission: Research articles are uploaded using the submission procedure at ArXiv.org by their authors. The title, authors, abstract, and primary body of the research are all included in the papers, which are frequently in PDF format.
  2. Initial Screening: When papers are submitted, they first go through a screening procedure where they are checked for compliance with the submission rules and regulations of ArXiv. The screening makes sure that the papers adhere to the fundamental standards for repository inclusion.
  3. Categorization: The papers are divided into subject areas based on the main area of study after the initial screening. ArXiv’s core categories, subcategories, and sections all have hierarchical structures that group papers into relevant academic disciplines and themes.
  4. Metadata Extraction: On the articles that have been submitted, metadata extraction is done to extract pertinent data such the title, author(s), abstract, publication date, and subject category. The metadata assists with repository organization and search by providing descriptive information about the publications.
  5. Version Control: Authors can post updated versions of their publications to ArXiv to update or improve their research. Users can obtain the most recent version of a paper or follow its development over time thanks to the indexing process, which makes sure that every version is correctly linked and identified.
  6. Search Indexing: The papers that have been indexed are added to ArXiv.org’s search index. In order to accomplish this, an index must be created that enables effective search and retrieval based on a variety of factors, including keywords, authors, titles, categories, and more. New submissions and version upgrades are continuously added to the search index.
  7. Access and Retrieval: Once indexed, the papers are accessible to users through the ArXiv website. Users can search for papers, explore categories and subcategories, and navigate the hierarchical structure to discover and retrieve relevant preprints within their areas of interest.

Usage in the context of competitive intelligence

Businesses can utilize competitive intelligence by leveraging ArXiv.org in the following ways:

  1. Stay Updated on Emerging Technologies: ArXiv.org provides access to cutting-edge research in various scientific disciplines. Businesses can monitor ArXiv to stay informed about emerging technologies, methodologies, and breakthroughs relevant to their industry. By tracking the latest research trends, businesses can identify potential opportunities for innovation, anticipate market changes, and stay ahead of competitors.
  2. Monitor Competitor Activity: ArXiv.org allows businesses to track the research output of their competitors. By monitoring the preprints uploaded by competitor organizations or researchers, businesses can gain insights into their ongoing research projects, areas of focus, and potential technological advancements. This information can help businesses assess the competitiveness of their offerings, identify gaps, and inform their own research and development strategies.
  3. Identify Collaborative Opportunities: ArXiv.org serves as a platform for researchers from different institutions and organizations to collaborate and share their work. By exploring the preprints and identifying researchers working on relevant topics, businesses can identify potential collaborative opportunities. Collaborating with researchers can provide access to expertise, facilitate technology transfer, and drive innovation through joint projects.
  4. Track Intellectual Property Landscape: ArXiv.org can be used to monitor the intellectual property landscape in a particular field. By analyzing the preprints, businesses can identify potential inventions, novel methodologies, or emerging technologies that could impact their industry. This information can inform intellectual property strategies, including patent filing or licensing opportunities.
  5. Inform Strategic Decision-Making: The insights gained from ArXiv.org can help inform strategic decision-making within businesses. By understanding the latest research and technological advancements, businesses can assess the potential impact on their products, services, or business models. This information can influence investment decisions, R&D priorities, market positioning, and overall competitive strategies.

It’s important to note that ArXiv.org primarily focuses on research preprints, which may not always reflect the final published research or commercial applications. Therefore, businesses should exercise caution and verify the status of research before making critical decisions based on preprint content from ArXiv.org.

Summary

Grey literature is a strong tool that can give a company the competitive edge to overtake the market or mislead it into making deadly mistakes. Using it as a basis for your competitive intelligence is a decision worth considering as long as you can stay responsible and put time and effort into understanding.

References

Snook, L. (2023). LibGuides: Grey Literature: What is Grey Literature? Available on: https://libguides.exeter.ac.uk/c.php?g=670055&p=4756572

info.arxiv.org. (2023). License and copyright—ArXiv info. Available on: https://info.arxiv.org/help/license/index.html

info.arxiv.org. (2023). About arXiv—ArXiv info. Available on: https://info.arxiv.org/about/index.html

arXiv.org. (2023). ArXiv.org e-Print archive. Available on: https://arxiv.org/

arXiv.org. (2023). ArXiv API User’s Manual. Available on: https://info.arxiv.org/help/api/user-manual.html

Britannica: 3 století, 15 vydání, 32 svazků a 32 640 stránek erudovanosti

0

Internet, volně dostupný zdroj informací

Internet, jednotné místo pro shromažďování a hledání informací, které jedinec poptává. Nejprve fungoval v relativně jednoduché podobě, což bylo podmíněno i úrovní technologické vyspělosti doby, ale i strukturou denního fungování, do které se jakákoli forma digitalizace velmi špatně implementovala. Postupem času se leccos změnilo, rozmanitá prostředí průmyslu, státního aparátu a individuální potřeby se v oblasti práce a využívání dat rychle zlepšily a dnes si internet defacto monopolizoval roli rádce a pomocníka v jakékoli aktivitě, ve které se jedinec necítí silně a potřebuje asistenci.

Například v přítomnosti na sebe veškerou pozornost strhnula umělá inteligence, která je velkým fenoménem hned z několika důvodů. ChatGPT 4 dokáže odpovídat na velmi komplexní dotazy internetových tazatelů a následně se z nich učit. To samo o sobě by bylo fantastické, oříškem ovšem je, že tvůrci a odborníci na umělou inteligenci nedokáží plně vysvětlit, jak přesně to umělá inteligence provádí. A tato neznalost plodí určitou nejistotu, která následně vytváří otázky spojené s kybernetickou bezpečností, etikou, obecně možností zneužití k negativním a ilegálním aktivitám. Ať už je dost možná neexistující odpověď, která leží v pomyslném průniku všech možných debatovatelných oblastí této problematiky jakákoli, ChatGPT 4 a obecně umělá inteligence je jednou z technologicko-informačních odpovědí, které internet a jeho mravenci dělníci poskytli na otázku informačních potřeb účastníka tohoto datového víru.

Další odpovědí na jinak ferální turbulenci dat byly snahy o ucelená, organizovaná střediska jednoduše přístupných, a dle specifického filtru, tříditelných dat. Výsledkem jsou databáze, různé formáty textových a datových souborů a editorů, algoritmy, které řadí výsledky vyhledávání dle relevance, webové stránky a mnoho dalších… Jednou z těch spíše konvenčnějších odpovědí na lidskou touhu a potřebu za poznáním je encyklopedie Britannica.

Tento článek popisuje, kdy a kde encyklopedie vznikla, jak se formovala a co ji vedlo k digitalizaci, co se v této online encyklopedii nachází, jak se v ní orientovat, jaké jsou její kladné stránky a nedostatky a jak informace, které poskytuje využít ať už pro svoje osobní potřeby, anebo pro účely zlepšení konkurenceschopnosti subjektu na trhu práce a zakázek.

Britannico, čtenář – čtenáři, Britannica

Britannica, celým názvem Encyclopædia Britannica, je anglicky psaná encyklopedie, kterou vydává od 18. století společnost Encyclopædia Britannica Inc. Edice z roku 2010 byla poslední tištěnou verzí, která obsahovala na 32 svazků, 32 640 stránek a měla více než 4 000 přispěvatelů z akademické obce. Největším konkurentem této encyklopedie, nebo spíše největším konkurentem každé přirozeně tištěné encyklopedie se stala internetová encyklopedie Wikipedia, která má daleko více článků a pokrytých témat než Britannica. Jorge Cauz, prezident Encyclopædia Britannica Inc. věří, že konkurenceschopnost Britannicy oproti Wikipedii leží v prestižnosti a legitimnosti zdrojů, které encyklopedie používá pro své příspěvky a důvěrou a kvalitou, kterou k sobě britannica spjala za celou svoji historii. “Máme velmi odlišné hodnoty. Britannica musí být menší. Nemůžeme se zabývat každou kreslenou postavičkou, nemůžeme se zabývat každým milostným životem každé celebrity. Ale musíme být alternativou, kde na faktech skutečně záleží. Britannica nebude moci být tak rozsáhlá, ale bude vždy věcně správná.” – Jorge Cauz[1]. Je to zároveň nejdéle tištěná anglicky vydávaná encyklopedie, jejíž papírová éra trvala na celých 244 let.[2]

Historie

Svým historickým původem spadá do období skotského osvícenství, kdy ve stejné době v Edinburghu Adam Smith psal Bohatství Národů nebo Sir Walter Scott své novely. V letech 1815-1824 mezi hlavní akademické přispěvatele patřili Thomas Young, Thomas Malthus, David Ricardo, James Mill a Sir Walter Scott.

Po přestěhování sídla společnosti do Chicaga ve 30. letech 20. století začala encyklopedie procházet neustálými revizemi a v roce 1938 vyšlo první vydání Britannica Book of the Year. William Benton, pozdější americký senátor, vedl společnost od roku 1943 až do své smrti v roce 1973. Během této doby společnost vydala inovované patnácté vydání Britannicy. Do 90. let 20. století Encyclopædia Britannica, Inc. vydávala nebo pracovala na encyklopediích a dalších vzdělávacích materiálech v Japonsku, Koreji, Číně, na Tchaj-wanu, v Itálii, Francii, Španělsku, Latinské Americe, Turecku, Maďarsku, Polsku a jinde. Britannica byla v počátcích vedoucí společností v oblasti elektronického publikování a nových médií. V roce 1981 byla na základě dohody se společností Mead Data Central vytvořena první digitální verze Encyclopædia Britannica pro službu Lexis-Nexis. Britannica také v roce 1989 vytvořila první multimediální encyklopedii na CD-ROM, Compton’s MultiMedia Encyclopedia. V roce 1994 společnost vyvinula Britannica Online, první encyklopedii pro internet, která zpřístupnila celý text Encyclopædia Britannica po celém světě.[2]

Domovská stránka

Stránka je volně dostupná z https://www.britannica.com/. Při vstupu na domovskou stránku se zobrazí úvod, ve kterém se prezentují nejrůznější témata a aktuální informace, které by mohly návštěvníka zajímat. Header stránky obsahuje slovník, kvízy, peníze a video a pod možností prohlížet ještě další. Následuje vyhledávací pole, do kterého lze zadávat klíčová slova autory či přímo názvy článků. O něco níže následují vybrané kategorie: zábava a popkultura, geografie a cestování, zdraví a medicína, sociální témata a život, literatura, filosofie a náboženství, politika, právo a vláda, věda, sport a volný čas, technologie, umění a jako poslední světová historie. Po headeru začíná obsah stránky, kterým je aktualita, v tomto případě korunovace krále Karla III.

Obrázek 1, domovská stránka Britannicy, zdroj: autor

Po aktualitách následuje seznam populárních témat na Britannice.

Obrázek 2, domovská stránka Britannicy, zdroj: autor

Po populárních tématech se na Britannice prezentují novinky.

Obrázek 3, domovská stránka Britannicy, zdroj: autor

Chce-li uživatel navštívit jednu konkrétní kategorii, může si v headeru zvolit jakou chce, popřípadě kliknout v headeru na prohlížet a vybrat si kategorii. Pro názornost vybírám téma věda.

Kategorie

Obrázek 4, Science stránka Britannicy, zdroj: autor

Zde si uživatel podobně jako v headeru domovské stránky vybírá podkategorie jako astronomie, biologie, ptáci, plazi a jiní obratlovci, brouci, měkkýši a jiní bezobratlí, chemie, nauka o planetě, geologická doba a fosílie, prostředí, savci matematika, rostliny a fyzika. Vyberu-li si podkategorii matematika, zobrazí se mi hned několik různých oblastí matematiky.

Obrázek 5, Mathematics stránka Britannicy, zdroj: autor

Od teorie čísel až po matematika Blaise Pascala podkategorie nabízí širokou škálu článků. Vyberu si pro názornost teorii čísel.

Článek

Obrázek 6, Mathematics stránka Britannicy, zdroj: autor

Obsah článku je členěn na obsah, užitečná fakta a shrnutí, kvízy a další. V části další je možné najít více článků spojených s tímto tématem, další četbu, přispěvatele a historii článku. Zajímá mě, kdo přispěl informacemi.

Obrázek 7, Contributors stránka Britannicy, zdroj: autor

Patrně není hlavním přispěvatelem editorský tým Britannicy, ale pan William Dunham, nicméně je zde i seznam sekundárních přispěvatelů. Chci se o panu Dunhamovi dozvědět více, a tak si rozkliknu jeho jméno.

Profil přispěvatele

Obrázek 8, Author profile stránka Britannicy, zdroj: autor

Kliknutí mi zobrazilo jeho profil, kde vidím jeho umístění, zaměstnání a kariéru a posledně oblasti, ve kterých je hlavním či sekundárním přispěvatelem.

Obrázek 9, footer Britannicy, zdroj: autor

Ve footeru stránky si uživatel může do textového pole zadat svůj email, na který mu budou chodit novinky, nabídky a informace, které Encyclopædia Britannica zasílá svým odběratelům. Je zde i umístěn seznam sociálních sítích, na kterých encyklopedie působí a to na: Facebooku, Twitteru, Youtube, Instagramu a Pinterestu.

Features

Britannica nabízí třídění nejen podle nastavených kategorií, ale i podle takzvaných Features. V podstatě se jedná o rubriky, ale je mezi nimi i část Podcasts.

Obrázek 10, Features stránka Britannicy, zdroj: autor

Rubrika

Mou pozornost zaujala rubrika Demystified, a tak ji pro názornost zvolím.

Obrázek 11, Rubriky Britannicy, zdroj: autor

Rubriku jde očividně členit podle již zmíněných nastavených kategorií jako jsou věda apod. Rubrika sama o sobě nabízí několik článků, které zaujmou návštěvníka encyklopedie relativně jednoduše, neboť se domnívám, že alespoň o jednom nabízeném tématu již člověk slyšel. V mém případě diskuse o tom, zda poslech klasické hudby pro prenatální dítě zvyšuje jeho inteligenci. Na tento článek se podívám.

Obrázek 12, Rubriky Britannicy, zdroj: autor

Článek je atraktivní jednak konkrétností a zároveň simplicitou tématu, je krátký a poskytuje dobře strukturovanou informaci, kterou sečtělý čtenář hledá, respektive nejedná se o jakoukoli formu clickbaitu. Článek má svou audio verzi, kterou si může uživatel dle potřeby pustit.

New features

Britannica, krom Features, o kterých jsme se o odstavec výše bavili, prezentuje i New Features, ve kterých má například Student Portal nebo Covid-19 portal, které poskytují stálé relevantní a informace na tato témata. Zejména Student Portal, který funguje jako zdroj legitiminích citovatelných informací pro účely různých akademických prací.

Obrázek 13, New Features Britannicy, zdroj: autor

Student Portal

Jakožto studenta mě zaujal Student Portal. Podívejme se tedy na něj detailněji.

Obrázek 14, Student Portal Britannicy, zdroj: autor

Tento segment široce pokrývá klíčová témata jako historie, vláda, literatura, klimatologie a mnoho dalších.

Positiva a negativa encyklopedie

Osobně jsem primárně uživatel Wikipedie, která vždy uspokojila moji informační potřebu. Nicméně při psaní této práce jsem se rozhodl, že začnu hledat primárně na Britannice a nepochodím-li zde, zkusím ostatní zdroje. Encyklopedie je velmi přehledně členěna, na své kategorie, features a další. Nabídka kvízů, podcastů a audioverzí různých článků je něco, čím se může pyšnit jen málo stránek, které se zabývají informační činností. Dále standard erudovaného autora článků, čtivost, věcnost a fact-checking je něco, v čem má za mě Britannica monopol na kvalitu a důvěru, který si vydobyla svou stabilní několikasetletou kvalitou a tradicí. Dále sledování aktuálního dění ve světě, které autoři velmi dobře popisují, popřípadě glosují, umožňuje čtenáři substituovat encyklopedii za kvalitní noviny.

Co se negativ týče, jak již zmínil sám prezident společnosti, Britannica má v porovnání s internetovou konkurencí nevýhodu mále kvantity článků. Nemyslím si, že toto negativum se může nějak výrazně projevit, poptává-li uživatel pouze akademická témata. Ovšem pokud v Britannice uživatel hledá témata, která úplně nespadají do akademické oblasti, riziko nenalezení informace je značné. V poslední řadě potenciální problém jazykové bariéry encyklopedie. Britannica je exkluzivně anglicky psaná encyklopedie a i přesto, že angličtina je hlavní světový jazyk, uživatel, jehož mateřským jazykem není angličtina čelí riziku špatného překladu od internetových překladačů. Tento problém však vnímám jako naprosto marginální.

Encyclopædia Britannica v Competitive Intelligence

V rámci tématu Competitive Intelligence bych chtěl sdělit pár mých myšlenek ohledně toho, jak tuto encyklopedii využít pro zlepšení konkurenceschopnosti pomyslné firmy na trhu.

Co si myslím, že je velmi dobrý směr rozvoje konkurenceschopnosti je možnost zobrazení profilu autora a ostatních přispěvatelů a v případě potřeby se pokusit je soukromě kontaktovat s nabídkou spolupráce v oblasti, ve které přispěvatel působí a zvýšit tak kvalitu práce firmy.

Dalším způsobem, jak využít encyklopedii pro rozvoj na trhu zakázek je vytvořit článek o činnosti, působení, historii a filosofii firmy. Takový článek jednak zvyšuje legitimnost firmy, neboť se pomyslně veze na vlně prestiže, kterou Britannica má. Zároveň by článek fungoval i jako jistá forma reklamy společnosti, která zvyšuje šance na kontaktování firmy se žádostí o její služby.

Určitě bych sledoval populární témata na Britannice a ostatních mainstream internetových médiích a našel-li by se nějaký společný průnik, uzpůsobil bych mu, alespoň krátkodobě náplň práce firmy. Například: Firma podniká se 3D tiskárnami a obvykle tiskne součástky do různých strojů. Pokud by firma věděla, že trendem internetových médií jsou například horoskopy, mohla by se svými volnými výrobními kapacitami zaměřit na výrobu merche tematicky spojeného s každým horoskopem. Ovšem je zde velké množství dalších proměnných typu: Má firma volné kapacity? Je opravdu poptávka po tomto trendu taková, aby se vyplatila přes výrobní náklady? Každopádně si myslím, že toto uvažování je legitimní způsob uvažování pro práci s dostupnými daty.

Závěr

Mým cílem bylo vybrat si internetový informační zdroj, vytvořit k němu menší analýzu, možnosti uplatnění v Competitive Intelligence a následně report. Vybral jsem si Britannicu a domnívám se, že jsem mě šťastnou ruku. O encyklopedii se díky její pestrosti, strukturovanosti a velmi bohaté historii psalo v podstatě samo. Zároveň práce rozšířila i moje vědomosti a ukázala mi nové možnosti práce s informacemi. Popsal jsem, jak se v encyklopedii orientovat, jak je možné třídit články dle kategorií a jaké další užitečné možnosti nabízí. Shrnul jsem její kladné a záporné stránky a zamyslel se nad jejími možnosti uplatnění pro zlepšení konkurence schopnosti subjektu na trhu práce. Osobně chci Britannicu vřele doporučit jako kvalitní zdroj informací a apelovat na její primarizování jakožto encyklopedické internetové literatury, neboť tak sám učiním.

Zdroje

[1]BOSMAN, Julie, [b.r.]. After 244 Years, Encyclopaedia Britannica Stops the Presses – The New York Times [online] [vid. 2023-05-07]. Dostupné z: https://archive.nytimes.com/mediadecoder.blogs.nytimes.com/2012/03/13/after-244-years-encyclopaedia-britannica-stops-the-presses/

[2]THE EDITORS OF ENCYCLOPAEDIA BRITANNICA, 2006. Encyclopædia Britannica, Inc. Corporate Site [online] [vid. 2023-05-07]. Dostupné z: https://web.archive.org/web/20061020084752/https://corporate.britannica.com/company_info.html#top

Seznam obrázků

Obrázek 1, domovská stránka Britannicy, zdroj: autor

Obrázek 2, domovská stránka Britannicy, zdroj: autor

Obrázek 3, domovská stránka Britannicy, zdroj: autor

Obrázek 4, Science stránka Britannicy, zdroj: autor

Obrázek 5, Mathematics stránka Britannicy, zdroj: autor

Obrázek 6, Mathematics stránka Britannicy, zdroj: autor

Obrázek 7, Contributors stránka Britannicy, zdroj: autor

Obrázek 8, Author profile stránka Britannicy, zdroj: autor

Obrázek 9, footer Britannicy, zdroj: autor

Obrázek 10, Features stránka Britannicy, zdroj: autor

Obrázek 11, Rubriky Britannicy, zdroj: autor

Obrázek 12, Rubriky Britannicy, zdroj: autor

Obrázek 13, New Features Britannicy, zdroj: autor

Obrázek 14, Student Portal Britannicy, zdroj: autor

Tourdata: Aneb jak si vede cestovní ruch České republiky

0

Úvod

Cestovní ruch přispívá významně do ekonomiky našeho státu, jen v roce 2017 se vygenerovalo v odvětví téměř 292 miliard Kč. Každoročně se podílí v průměru 2,9 % na HDP ČR. V oboru cestovního ruchu České republiky pracovalo před Covidem-19 přes 239 tisíc osob, tedy skoro každý 23. Čech byl zaměstnán v odvětví cestovního ruchu. (1)

Nejen je pro stát důležitý monitorovat vývoj cestovního ruchu v zemi, ale i samotní podnikatelé mají zájem o sledování trendů v branži. Každý region v naší zemi má své půvaby a láká tak do regionu různorodé návštěvníky s odlišnými motivy návštěvy. Je tedy nezbytné pro podnikatele, aby věděli, kdo je jejich cílová skupina a jaké služby jim mohou poskytnout. Čím lépe znají svého zákazníka, tím personalizovanější produkt a službu jim mohou nabídnout.

Tourdata

Czechtourism je Česká centrála cestovního ruchu, která byla zřízena Ministerstvem pro místní rozvoj ČR. Navrhuje různé marketingové kampaně pro domácí a příjezdový cestovní ruch ČR. (2)

Tourdata je projekt Czechtourismu a slouží jako nástroj pro prezentování dat v odvětví. Tento informační systém shromažďuje data a následně je analyzuje, díky poskytnutí dat na jednom místě ulehčuje práci subjektům působícím v cestovním ruchu například při tvorby marketingové kampaně. (3)

Zdroje dat

Tourdata sbírá různé informace např. počet přenocování v jednotlivých hromadných ubytovacích zařízení, národnost zahraničních návštěvníků, motiv cesty či průměrné výdaje návštěvníků. Mezi základní zdroje dat slouží veřejně dostupné zdroje jako Český statistický úřad, Mezinárodní měnový fond, World Bank nebo ČNB. Dále využívají data z vlastních výzkumů, z nakoupených analýz či z dat, jež jsou poskytnuty jednotlivými ubytovacími zařízeními.  (4)

Jak na vyhledávání?

Na hlavní stránce Tourdata lze na první pohled spatřit aktuální údaje o cestovním ruchu země, jak lze vidět na Obr. 1. Pokud návštěvník stránky ví, jaké informace chce najít, stačí napsat do okénka „hledat“ klíčová slova. Bohužel neumožňuje pokročilé vyhledávání a filtry pro snadnější orientaci.

Obr. 1: Hlavní nabídka (Zdroj: https://tourdata.cz/)

Tourdata však nabízí uživateli pro lepší přehled výčet kategorií, podle kterých si může vyhledat potřebné informace, dole pod vyhledávacím panelem.

Mezi 7 daných kategorií patří:

  • Rok – od 2012 po aktuální rok 2023
  • Téma – Covid, MICE
  • Zdroj dat – ČNB, ČSÚ
  • Kraje – všech 14 krajů v ČR
  • DMO (destinační management oblastí) – Krkonoše, Toulava, Český ráj
  • Země – země, které mají souvislost s příjezdovým cestovním ruchem ČR
  • Ukazatel – nejdůležitější informace ohledně cestovního ruchu např. kapacita, obsazenost
Obr. 2: Kategorie vyhledávání (Zdroj: https://tourdata.cz/)

Pro uživatele, již potřebují shromážděná data např. za všechny kraje a regiony a případně analýzu daných dat je připravena v hlavní nabídce karta Data, v niž jsou dodány další subkategorie: Analýzy, HUZ, Návštěvnost turistických cílů, Tracking DCR a PCR, Satelitní účet cestovního ruchu.

Uživatel si může vybírat z hlavních karet: Data, Regionální report, Country Reporty, Zahraniční zastoupení, Zdroje dat, English reports a O projektu.

Obr. 3: Hlavní stránka (Zdroj: https://tourdata.cz/)

Příklad vyhledávání informací

Představme si, že jako pražský majitel restaurace nabízející českou kuchyni bychom chtěli udělat analýzu, kde by se potenciální návštěvníci nejvíce koncentrovali. Jaké památky navštěvují, kolik denně utratí a jak dlouho se ve městě zdrží. K vyhledávání potřebných informací využijeme webovou stránku Tourdata.cz.

Pro následnou ukázku si zvolíme v sekci kraje Hlavní město Praha. Informační systém nám vygeneruje výsledky ohledně zvolené kategorie.

Obr. 4: Vyhledávání podle sekce Kraje: Hlavní město Praha (Zdroj: https://tourdata.cz/filtr/?_sft_kraj=praha)

Ve článku Interaktivní krajský report 2022 Q vidíme, že na začátku článku jsou vyjmenovány sledovaná data a je také zde pospáno, jak můžeme docílit lepší informovanosti.

Obr. 5: Interaktivní krajský report 2022 Q (Zdroj: https://tourdata.cz/data/interaktivni-krajsky-report-2022-q/)

Jedná se o interaktivní report, to znamená, že v následující sekci si můžeme zvolit jednotlivé údaje, které chceme zobrazit. V našem případě si můžeme zvolit kraj, zda se jedná o domácí či příjezdový cestovní ruch, z jaké země přijeli turisté, a nakonec čtvrtletí a měsíc

Report obsahuje všechny významné údaje týkající se cestovního ruchu Prahy. Například jsme se dozvěděli, že průměrná doba pobytu v hlavním městě je 3,24 dnů. V sekci Průměrná doba pobytu (dny) však vidíme trend krácení času stráveným v Praze od roku 2014, přestože se počet příjezdů do roku 2019 před pandemií covidu zvyšoval. Nebo lze také zkoumat skladbu návštěvníků. Tyto informace jsou důležité pro plánování služeb a produktů pro nadcházející sezóny.

Obr. 6: Interaktivní report pro hlavní město Praha (Zdroj: https://tourdata.cz/data/interaktivni-krajsky-report-2022-q/)

Na konci jakéhokoliv příspěvku nalezneme tlačítko Přidat do oblíbených. V případě, že vyhledáváme spoustu informací na portále a chceme si daný příspěvek uložit pro příští analýzu, zmáčkneme na tlačítko. Na každé stránce lze pak na pravé straně nalézt uložené příspěvky v sekci Oblíbené.

Obr. 7: Přidat do oblíbených (Zdroj: https://tourdata.cz/]

Většina reportů je interaktivních, ve spolupráci s Microsoftem Power BI tak Tourdata dokáží vizualizovat data co nejpřehledněji.

V dalším kroku, kdy bychom chtěli zjistit, jaké památky a objekty jsou nejvíce navštěvovány, si zvolíme v kartě Data => návštěvnost turistických cílů => Krajské reporty => Praha.

Obr. 8: Karta data (Zdroj: https://tourdata.cz/)

Po proklikání se do příspěvku můžeme zase jednoduše volit, jaká data, chceme zobrazit. Z výsledků vidíme, že turisté nejvíce navštěvují Lanovou dráhu na Petříně a poté Zoologickou zahradu hl. m. Prahy.

Obr. 9: Návštěvnost turistických cílů 2021: Praha (Zdroj: https://tourdata.cz/data/navstevnost-turistickych-cilu-2021-praha/)

Závěr

Tourdata jsou skvělým pomocníkem pro ty, které zajímá cestovní ruch České republiky. Cenné poznatky o odvětví nalezneme na jednom místě a můžeme si volit různá kritéria a porovnávat dostupné výsledky například s minulými roky. Podnikatelé v cestovním ruchu si mohou přehledně zjistit potřebné údaje o svém kraji a přizpůsobit tak svoji službu potenciálním zákazníkům.

Je třeba však vzít v potaz, že Tourdata jsou závislá především na veřejných databázích, proto tedy nelze očekávat analýzu dat za všechny roky. Přesto představená data jsou spolehlivá, neboť projekt Tourdata vznikl pod záštitou Czechtourismu.

Zdroje

1.  Ministerstvo pro místní rozvoj ČR – Výsledky Satelitního účtu cestovního ruchu České republiky a Modulu zaměstnanosti za rok 2017 [online]. [vid. 2023-05-07]. Dostupné z: https://www.mmr.cz/cs/ministerstvo/cestovni-ruch/informace-udalosti/vysledky-satelitniho-uctu-cestovniho-ruchu-ceske-r

2.  CZECHTOURISM. Základní informace o agentuře CzechTourism · #CzechTourism [online]. [vid. 2023-05-07]. Dostupné z: https://www.czechtourism.cz/cs-CZ/a86530fe-3818-4cb0-b684-bf768e3dde9d/page/zakladni-informace-o-agenture-czechtourism

3. O projektu – Tourdata. Tourdata [online]. [vid. 2023-05-06]. Dostupné z: https://tourdata.cz/o-projektu/

4.  Jak pracovat s portálem Tourdata.cz – Tourdata [online]. [vid. 2023-05-07]. Dostupné z: https://tourdata.cz/jak-pracovat-s-portalem-tourdata-cz/

Seznam obrázků

Náhledový obrázek – Pixabay.com, dostupné z: https://pixabay.com/cs/illustrations/ulice-m%c4%9bsto-modern%c3%ad-struktura-5121253/

Obr. 1: Hlavní nabídka (Zdroj: https://tourdata.cz/)

Obr. 2: Kategorie vyhledávání (Zdroj: https://tourdata.cz/)

Obr. 3: Hlavní stránka (Zdroj: https://tourdata.cz/)

Obr. 4: Vyhledávání podle sekce Kraje: Hlavní město Praha (Zdroj: https://tourdata.cz/filtr/?_sft_kraj=praha )     

Obr. 5: Interaktivní krajský report 2022 Q (Zdroj: https://tourdata.cz/data/interaktivni-krajsky-report-2022-q/)

Obr. 6: Interaktivní report pro hlavní město Praha (Zdroj: https://tourdata.cz/data/interaktivni-krajsky-report-2022-q/)

Obr. 7: Přidat do oblíbených (Zdroj: https://tourdata.cz/)

Obr. 8: Karta data (Zdroj: https://tourdata.cz/)

Obr. 9: Návštěvnost turistických cílů 2021: Praha (Zdroj: https://tourdata.cz/data/navstevnost-turistickych-cilu-2021-praha/)

Vliv digitálních technologií na mozek a kognitivní funkce

0

Digitální technologie, digitální média, umělá inteligence… Pojmy, které v dnešní době zaslechlo snad již každé ucho obyvatele vyspělého světa, pojmy, které jsou již běžnou součástí  každodenních životů většiny lidí.

Digitální média jako sociální média (Facebook, Instagram, Tik Tok) dnes umožňují miliardám lidí po celém světě okamžité sdílení informací a zážitků s přáteli a usnadňují globální konektivitu. Online noviny, časopisy a články poskytují neomezený přístup k informacím. Podcasty (digitální audio nebo video nahrávky)  na rozličná témata jsou pak významnými pomocníky v oblasti motivace a seberozvoje jedinců.

Aplikace umělé inteligence mezi něž patří např. ChatGPT generující na vyžádání jakoukoli formu psaného textu od příspěvků a zpráv na sociálních sítích až po odpovědi na pracovní e-maily, personalizované návrhy odpovědí v textové komunikaci, tzv. „chytré odpovědi“, chatboti (virtuální společníci) schopní vyjadřovat empatii a poskytovat emociální podporu, dále algoritmy dohazování analyzující profily uživatelů seznamovacích aplikací a navrhující potenciální schody s vyšším skóre kompatibility, či algoritmy nasazené na všechny námi využívané digitální kanály za účelem analýzy našich preferencí a návrhu personalizovaných doporučení.

Digitální technologie (míněno mobilní telefony a počítače), jejich chytré funkce a digitální média v nich obsažená, nesporně přinesly do našeho života více pohodlí, možností a informovanosti, zvýšily jeho efektivitu a rychlost, automatizovaly řadu procesů, zefektivnily pracovní postupy a zvýšily produktivitu. Jaký dopad však může mít jejich stále častější využívání na lidský mozek? Jaký vliv má jejich využití na klíčové kognitivní funkce mezi něž patří pozornost, paměť, schopnost učení, rozhodování a kritického myšlení? Jaké jsou společenské přínosy a „daně“ jejich využívání?  Odpovědi na tyto otázky jsou v současné době předmětem nesčetně mnoha výzkumů a vědeckých studií, jejichž shrnutí a následná formulace doporučení je hlavním účelem tohoto článku.

Ruku v ruce s dramatickým nárůstem využívání internetu během posledního desetiletí, se nepochybně zvyšuje také využívání digitálních technologií, přičemž vliv těchto technologií na náš mozek a kognitivní funkce se stává stále důležitějším tématem.

Zatímco v roce 2011 odhady Mezinárodní telekomunikační unie indikovaly přibližně 2,52 mld. uživatelů internetu celosvětově, o pouhých deset let později, v roce 2021, se tento počet téměř zdvojnásobil. Exponenciální nárůst byl pozorován také v České republice, kde bylo k roku 2022 zaznamenáno Českým statistickým úřadem celkem 7,3 mil. uživatelů internetu starších 16ti let, což představovalo 84,5%  veškeré populace ČR. (ČSÚ 2022) Alespoň jednu sociální síť  (dle průzkumu v roce 2022) vlastnilo téměř 5 mil. dospělých osob, tj. přibližně 58 % populace. Ve srovnání s ostatními zeměmi Evropské unie se v tomto ohledu Česká republika nacházela vysoko nad průměrem. Dle výzkumu agentury AMI Digital z roku 2023 přitom průměrný Čech strávil pouze na sociálních sítích přibližně 2,5 hodiny denně, což za celý rok představuje 147 hodin. Ještě více alarmující jsou však čísla hovořící speciálně za Generaci Z, tj. mladistvé s datem narození po roce 1999, kteří na sociálních sítí strávili v průměru až 3,4 hodiny denně. Za nejvyužívanější platformu byl přitom již tradičně označen Facebook,  pravidelně (skoro každý den) využívaný téměř 87% uživateli sociálních sítí. Nelze však opomenout ani sílící oblíbenost Instagramu, který v roce 2023 aktivně využívalo již 61% uživatelů sociálních sítí. (AMI Digital 2023) Zatímco tato čísla hovoří za běžné uživatele vyhledávající sociální sítě převážně za účelem komunikace a zábavy, je třeba zmínit také 83% firem z celkového počtu firem s více než 250 zaměstnanci, jimž profily na sociálních sítí slouží jako prostředky pro marketing a komunikaci se stávajícími i potenciálními zákazníky. Sociální sítě však nejsou jediným využívaným digitálním médiem. To dokazuje mj. 89% uživatelů internetů využívajících různé druhy jiných digitálních médií pro vyhledávání informací o zboží a službách, 59% uživatelů zaměřujících se na téma zdraví a konečně 53% uživatelů hledající informace vztahující se k cestování. Dalším možným užitím digitálních médií je pak online studium, které se stává běžnou praxí pro 15 % dospělých osob starších 16 let. (ČSÚ 2022)

Tyto statistiky ilustrují obrovský rozsah a intenzitu používání digitálních technologií napříč českou společností. Jaký však může mít rostoucí využívání těchto technologií vliv na náš mozek a naše kognitivní funkce?

Pozornost

Četné výzkumy v oblasti kognitivní psychologie ukazují, že schopnost člověka plně se soustředit na konkrétní úkol nebo podnět, jinými slovy schopnost udržet pozornost, je časově i kapacitně omezená. (Oberauer 2019) Neustálá upozornění, personalizovaná oznámení, upomínky a textové zprávy produkované digitálním světem jsou přitom právě těmi podněty, jenž s důležitými úkoly několikrát denně soutěží o naši pozornost. K jejich častému úspěchu, doloženému výzkumy Iqbala a Horovitze (2007), přitom výrazně napomáhá design a řada funkcí implementovaných uvnitř digitálních technologiích. Použití jasných barev, animací a interaktivních prvků v designu aplikací spolu s nasazením funkcí automatického přehrávání videí, či neustále se načítající obsah, stimulují uživatele a podněcují ho k nekonečné digitální aktivitě. Už pouhá přítomnost digitálních technologií tak často vede k tzv. přetížení pozornosti, které nastává, když požadavky prostředí překročí kapacitní možnosti koncentrace daného jedince. Ruku v ruce s přetížením pozornosti se pak objevuje také tzv. trvalá částečná pozornost, charakterizovaná neustálým přepínáním koncentrace daného jedince z jednoho úkolu na druhý, a multitasking, neboli snaha o současnou realizaci dvou nebo více úkolů najednou, či věnování se jednomu nebo více podnětům současně. (Shanmugasundaram a Tamilarasu 2023) Korelace mezi výskytem těchto jevů a vzestupem využívání digitálních nástrojů je přitom potvrzena již několika výzkumy. (Oulasvirta a spol. 2012, Rosen a spol. 2013a)

Schopnost koncentrace je tedy v dnešním moderním světě, kromě tradičních faktorů, mezi něž patří např. charakter úkolu, individuální motivace, či zájem jedince, silně ovlivňována také (ne)přítomností, či (ne)využíváním digitálních nástrojů. To dokládá např. studie, kdy se studenti, kteří měli ve svém dosahu digitální zařízení produkující rušivé podněty, dokázali na daný úkol soustředit pouze po dobu 6 minut, zatímco ti, kteří přístup k digitálním zařízením neměli, mnohem déle. (Rosen a spol. 2013a)

Výzkumy navíc naznačují, že pravidelné používání digitálních médií a s tím související výskyt výše zmíněných jevů, mohou mít negativní vliv na strukturu a funkci mozku, a s tím související nejen kognitivní, nýbrž také emocionální dovednosti. Jeden z výzkumů např. ukazuje, že lidé, kteří často multitaskují, mají sníženou hustotu šedé hmoty v oblastech mozku spojené s centrem pozornosti a emocionální regulace. (Loh a Kanai 2014)

Paměť

Kdo z nás ještě nikdy nepoužil telefon s Google kalendářem k zaznamenání a následnému připomenutí důležitého termínu, pracovní schůzky nebo úkolu, či GPS ke zdárnému dosažení cíle své cesty? Nejen, že odpověď zní pravděpodobně „nikdo“, studie navíc ukazují, že lidé se na těchto druzích digitálních médií stávají závislí, přičemž tato závislost nepochybně přímo úměrně narůstá s jejich vzestupem.

Využívání digitálních médií v oblasti uchování informací však dle výzkumů vede k poklesu schopnosti uložení informace do paměti a přesnosti následné reprodukce informací, a tím v konečném důsledku i ztrátě paměti. (Sparrow a spol. 2011) Během jednoduchého úkolu zapamatování si primitivních slov, si skupina respondentů, kteří k úkolu mohli využívat své mobilní telefony, vedla o poznání hůře, než-li skupina, která své mobilní telefony využívat nemohla (Ward a spol. 2017). Nadměrné využívání GPS ve snaze nalézt svůj cíl pak vedlo k prudkému poklesu prostorové paměti účastníků jiného výzkumu. (Dahmani a Bahbot 2020)

Avšak i samotné využívání digitálních médií, ne nutně k uchování informací, může náš mozek přetížit a ztížit tak zpracování informací a jejich uchování. V jedné studii byli účastníci přednášky rozděleni do 3 skupin. První skupina byla požádána, aby své telefony zanechala mimo přednáškovou místnost, druhá, aby své telefony během přednášky položila obrazovkou dolů, poslední pak mohla své telefony během přednášky využívat plně. Studenti, kteří během přednášky měli povoleno používat své mobilní telefony, nakonec vykázali zdaleka nejnižší schopnost reprodukce přednášených informací, v porovnání s těmi, kteří telefony využívat nemohli. (Thornton a spol. 2014)

Nadměrné používání digitálních technologií navíc dle výzkumů v oblasti neurovědy opět, stejně jako tomu bylo v případě pozornosti, vede ke snížení hustoty šedé kůry mozkové, tentokrát v oblasti zodpovědné za schopnost vštěpování, uchování a následné reprodukce informací, jinými slovy schopnosti paměti. (Kanai a spol. 2012)

Rozhodování

Výrazný vzestup využívání digitálních technologií ovlivnil také způsoby, jakými sbíráme, zpracováváme a vyhodnocujeme informace k učinění našich výsledných rozhodnutí. Díky všudypřítomnému internetu máme k dispozici obrovské množství informací, na jejichž podkladě můžeme okamžitě učinit informovaná rozhodnutí. Personalizovaná doporučení, která jsou již běžnou součástí digitálních médií, mohou naše rozhodování výrazně usnadnit, neboť jsou navržena na základě analýzy našich preferencí. Sociální média pak na naše rozhodnutí a názory umožňují získat téměř okamžitou zpětnou vazbu od našich vrstevníků a nejbližších. (Shanmugasundaram a Tamilarasu 2023)

Na stranu druhou však může množství všudypřítomných informací vést k tzv. informačnímu přetížení, kdy mozek není, díky přemíře informací, schopen všechny je zpracovat (Sweller 1994), což v konečném důsledku může rozhodovací proces výrazně zkomplikovat a někdy dokonce způsobit rozhodovací paralýzu. (Eppler a Mengis 2004) Pouhá přítomnost algoritmy vygenerovaných doporučení pak potlačuje snahu jedinců nahlížet na věci z různých úhlů pohledu, navíc tato doporučení mohou být často zkreslená. (Pariser 2011) Rozhodnutí učiněná na jejich podkladě tak nemusí být ani zdaleka ta optimální. Budoucí rozhodnutí a názory méně odolných jedinců pak mohou být dosavadními reakcemi okolí výrazně ovlivněna, což může mít u daných jedinců za následek výskyt skupinového myšlení. (Janis 1972)

Další výzkumy navíc ukazují, že nadměrné používání digitálních technologií, a s tím úzce související pravidelné rozptylování pozornosti nejrůznějšími druhy oznámení a upozornění, snižuje schopnost pečlivého zvážení nastalé situace a vede k vyšší impulzivitě rozhodnutí. (Duke a Montag 2017) To dokládá také studie vedená Mark a spol. (2017), během níž byla část účastníků při procesu rozhodování úmyslně přerušena textovou zprávou. Tito účastníci pak byly se svými následně učiněnými rozhodnutími mnohem méně spokojení než ti, kteří přerušeni nebyli. 

Mnoha neurovědeckými výzkumy byl zaznamenán, i v případě oblasti mozku zodpovědné za rozhodování, pokles hustoty šedé hmoty mozkové, a to ve spojitosti s výskytem závislosti na internetu, či chytrém telefonu. (Chen a spol. 2023, Lin a spol. 2015)

Kromě tohoto bylo shledáno, že používání digitálních médií může snížit naši schopnost kriticky myslet, tedy schopnost relevantně zpracovat a vyhodnotit přijímané informace k učinění výsledného rozhodnutí. V jednom z výzkumů, který tento fakt dokládá, byly jeho účastníci záměrně vystaveni příspěvkům na sociálních médiích s dezinformacemi. U těchto respondentů byl přitom následně zaznamenán pokles schopnosti kriticky zhodnotit předložené informace, což mělo následně vliv na jimi učiněná rozhodnutí. (Aïmeur a spol. 2023)

Schopnost učení

Ruku v ruce se všemi zmíněnými kognitivními funkcemi, tj. schopností pozornosti, paměti a rozhodování, přímo souvisí také naše schopnost učit se. Ani zde tak nelze zkoumání vlivu využívání, či i pouhé přítomnosti digitálních technologií, opomenout.

Vzhledem k popsanému negativnímu vlivu digitálních technologií, potažmo digitálních medií, na výše zmíněné kognitivní funkce, není překvapením, že výzkumníci zaznamenali korelaci mezi využíváním digitálních technologií a nižšími akademickými výsledky, potažmo tedy i schopností učit se.

Příkladem výzkumu, který tento závěr potvrzuje je např. výzkum Junco a Cottena (2012), v němž byl u studentů trávících více času na sociální síti Facebook zaznamenán horší studijní prospěch v porovnání s těmi studenty, kteří na Facebooku trávili času méně. Spojitost mezi zvýšeným používáním digitálních médií a nižšími akademickými výsledky dále ukázal také nezávislý výzkum Caina a spol. (2016). Výzkum Rosena a spol. (2013a) dále ukázal, že studenti využívající více digitálních zařízení současně, mají sklon k nižší schopnosti chápání skutečností ve srovnání s těmi, kteří používají zařízení vždy jen jedno.

Digitální nástroje jsou navíc významnými producenty modrého světla, které, dle výzkumů (Cajochen a spol. 2011), potlačuje produkci melatoninu. Produkce tohoto hormonu přitom úzce souvisí s regulací spánkového cyklu – čím nižší je hladina melatoninu v krvi, tím nižší je potřeba spánku. Používání digitálních nástrojů tedy může spánkový cyklus výrazně narušit, což mj. dokládá také výzkum, ve kterém byly porovnáváni adolescenti používající a nepoužívající digitální nástroje před spaním. Adolescenti, kteří používali digitální nástroje před spaním, měli zvýšené problémy se spánkem a během dne byly nadprůměrně ospalí. Denní ospalost přitom pak byla jednou z příčin nižších akademických výsledků u těchto adolescentů.  (Hysing a spol. 2015)

Studium mozku dětí trávících dlouhý čas u obrazovek digitálních nástrojů, navíc prokázalo nižší tloušťku mozkové kůry v oblastech spojených s jazykovými a gramotnostními dovednostmi. (Paulus a spol. 2019)

Na základě výše zmíněného je zřejmé, že negativní vliv rostoucího využívání digitálních technologií na náš mozek a naše kognitivní funkce není zanedbatelný. V dnešním světě zaměřeném na rychlost a produktivitu je však zároveň téměř nemožné a neefektivní digitální technologie zcela ignorovat, a tím jejich negativním vlivům zcela zamezit. Existuje však řada způsobů, jak negativní dopady využívání digitálních technologií na náš mozek a naše kognitivní funkce zmírnit. Mezi takové patří např. uvědomělé používání digitálních technologií, podpora činností stimulujících mozek, či školení v mediální gramotnosti a digitálních dovednostech. (Shanmugasundaram a Tamilarasu 2023)

Uvědomělé používání digitálních technologií představuje jasné nastavení hranic jejich využívání, tj. vědomé rozhodnutí jak často, jak dlouho a jakým způsobem digitální technologie a média budeme používat.

Již každé chytré mobilní zařízení v dnešní době umožňuje vypnutí funkce automatického zasílání upozornění produkovaných digitálními médii (sociálními sítěmi apod.). Tuto možnost lze přitom nastavit ihned po nainstalování aplikace pro dané médium, či zpětně v sekci Nastavení – Oznámení (pro iOS i Android).

V rámci každého chytrého mobilního zařízení je dále možné také hlídat čas strávený na něm samotném, či digitálních médiích v něm obsažených. Využívání daného mobilního zařízení je možné sledovat v sekci Nastavení – Čas u obrazovky (pro iOS) nebo Nastavení – Digitální rovnováha a rodičovská kontrola (pro Android). Limit pro čas strávený u každé, na daném mobilním digitálním zařízení nainstalované aplikaci, je pak možné nastavit taktéž v rámci výše zmíněných sekcí. Další z možností, jak hlídat a omezovat čas u digitálních technologií a médií je pak nainstalování jedné z tomu určených aplikací, mezi něž patří např. Screen Time – Restrain yoursel, StayOff: Čas obrazovky či aplikace Digitální rovnováha.

Dále je pak v rámci mobilních digitálních nástrojů dokonce možné omezit vizuální stimulaci, která nás k nim přitahuje a to tak, že zobrazení jejich obrazovek nastavíme ve stupních šedi. Digitální technologie, média a informace a videa v nich obsažená pak nebudou vypadat tak atraktivně a budou méně náchylné k využití. Černobílý mód chytrého mobilního zařízení je přitom možné nastavit v sekci Nastavení – Zpřístupnění – Displej – Velikost textu – Filtry barev (pro iOS) nebo Nastavení – Usnadnění – Zobrazení – Text a displej – Korekce barev (pro Android).

Další užitečnou funkcí chytrých mobilních zařízení je v neposlední řadě tzv. „noční režim“. Jeho aktivací dojde v nastaveném časovém horizontu ke snížení množství produkce modrého světla a automatickému vypnutí funkce zasílání upozornění produkovaných mobilními digitálními nástroji. Nastavení „nočního režimu“ po setmění tak vede ke snížení negativního dopadu využívání mobilních digitálních technologií na regulaci spánkového cyklu. „Noční režim“ je přitom možné aktivovat v sekci Nastavení – Noční režim (pro iOS), či sekci Nastavení – Digitální rovnováha a rodičovská kontrola – Režim nočního klidu (pro Android).

Nežádoucí změny na mozku (úbytek šedé kůry mozkové) a v našich kognitivních funkcích, způsobené vlivem využívání digitálních technologií, lze pak dokonce, dle výzkumu Duke a Montaga, 2017, zvrátit a sice tzv. „digitálním detoxem“. Digitální detox představuje vědomé odstranění digitálních technologií, chytrých telefonů a počítačů, na určitou dobu z našeho života. Výzkum Duke a Montaga (2017), ukazuje, že tato digitální abstinence může vést k obnově kognitivních funkcí.

S negativními vlivy digitálních technologií na náš mozek a naše kognitivní funkce je také možné  vypořádat se prostřednictvím činností, které náš mozek stimulují. Mezi takové činnosti patří např. pravidelná fyzická aktivita, mindfulness, sociální interakce a offline zábava.

Výzkumy ukazují, že pravidelná fyzická aktivita např. v podobě chůze, běhu, míčových, vodních, či zimních sportů, tance, či jógy, zlepšuje naše kognitivní schopnosti, snižuje úzkost a depresi a zlepšuje kvalitu spánku. (Sibley a Etnier 2003)

Ke zlepšení našich schopností koncentrace, paměti, či rozhodování může dle řady vědeckých studií pomoci také pravidelné cvičení mindfulness. (Chiesa a Serretti 2011) Mindfulness (neboli všímavost/ bdělá pozornost) označuje dovednost plně prožívat přítomný okamžik a s nadhledem i se zájem objevovat, co se v něm odehrává. (Mindfulness Club 2023) Cvičení mindfulness lze přitom realizovat např. meditací, dechovými cvičeními, vizualizací dne, který na nás čeká, či zvědomování si procesu běžných aktivit jako je vstávání, jezení, či večerní hygiena. K rozvoji našich kognitivních schopností lze v neposlední řadě přispět prostřednictvím pravidelných setkávání se známými, přáteli a rodinou a offline zábavou. Offline zábava přitom může zahrnovat např. čtení papírových (namísto elektronických) knih, každodenní řešení hádanek, hraní paměťových her, či prostá návštěva hudebního koncertu, či divadelního představení. (Shanmugasundaram a Tamilarasu 2023)

Školení v mediální gramotnosti a digitálních dovednostech

Naše dosavadní znalosti, zkušenosti a návyky v oblasti digitálních technologií je dobré dále analyzovat a rozšiřovat, což umožňuje nesčetně mnoho nabízených školení v mediální gramotnosti a digitálních dovednostech. Volně a navíc v českém jazyce dostupná školení je přitom možné nalézt např. na webových stránkách JSNS.cz (online školení), či akademiemedialnigramotnosti.cz (offline školení).

Digitální technologie proměnily způsob, jakým žijeme, pracujeme a komunikujeme. Používání těchto nástrojů pro nás nepochybně znamená řadu výhod, jejich negativní vliv na náš mozek a naše kognitivní funkce, podložený výzkumy, bychom však ve svém vlastním zájmu neměli ignorovat. V rámci digitální evoluce je vhodné neustále hledat rovnováhu mezi naším online a offline životem. Formulovaná doporučení k tomu mohou být jistým vodítkem. Tato doporučení mohou snížit přetížení a zmírnit, či někdy dokonce zcela zamezit nesprávné funkčnosti kognitivních funkcí v důsledku častého využívání digitálních technologií. Je však důležité mít stále na paměti, že každý lidský organismus je unikátní, a tím pádem je unikátní také skutečný dopad digitálních technologií na něj.

  1. Aïmeur, E., Amri, S. a Brassard, G., 2023. Fake news, disinformation and misinformation in social media: a review. Social Network Analysis and Mining, roč. 13, s. 30. Dostupné z: 10.1007/s13278-023-01028-5.  [cit. 2024-05-18].  
  2. ami:digital. 2023. Online. amidigital.cz. Dostupné z: https://amidigital.cz/. [cit. 2024-05-11].
  3. Cain, M. S., Leonard, J. A., Gabrieli, J. D. a Finn, A. S., 2016. Media multitasking in adolescence. Psychonomic Bulletion & Review, roč. 23, s. 1932–1941. Dostupné z: 10.3758/s13423-016-1036-3. [cit. 2024-05-18].  
  4. Cajochen, C., Frey, S., Anders, D., Späti, J., Bues, M., Pross, A a spol., 2011. Evening exposure to a light-emitting diodes (LED)-backlit computer screen affects circadian physiology and cognitive performance. Journal of Applied Physiology, roč. 110, s. 1432–1438. Dostupné z: 10.1152/japplphysiol.00165.2011. [cit. 2024-05-18].   
  5. ČESKÝ STATISTICKÝ ÚŘAD (ČSÚ). 2022. Online. czso.cz. Dostupné z: https://www.czso.cz/csu/czso/vyuzivani-informacnich-a-komunikacnich-technologii-v-domacnostech-a-mezi-osobami-2022. [cit. 2024-05-11].
  6. Dahmani, L. a  Bohbot, V. D. 2020. Habitual use of GPS negatively impacts spatial memory during self-guided navigation. Scientific Reports, roč. 10, s. 6310. Dostupné z: 10.1038/s41598-020-62877-0. [cit. 2024-05-13].
  7. Duke, É. a Montag, C., 2017. Smartphone addiction, daily interruptions and self-reported productivity. Addictive Behaviors Reports, roč.  6, s. 90–95. Dostupné z: 10.1016/j.abrep.2017.07.002. [cit. 2024-05-17].
  8. Eppler, M. J. a Mengis, J., 2004. The concept of information overload: a review of literature from organization science, accounting, marketing, MIS, and related disciplines. The Information Soiety, roč. 20, s. 325–344. Dostupné z: 10.1080/01972240490507974.  [cit. 2024-05-13].
  9. Hysing, M., Pallesen, S., Stormark, K. M., Jakobsen, R., Lundervold, A. J. a Sivertsen, B., 2015. Sleep and use of electronic devices in adolescence: results from a large population-based study. BMJ Open 5, e006748. Dostupné z: 10.1136/bmjopen-2014-006748. [cit. 2024-05-18].   
  10. Chen, H., Dong, G. A  Li, K., 2023. Overview on brain function enhancement of Internet addicts through exercise intervention: based on reward-executiondecision cycle. Frontiers. Psychiatry,  14, 1094583. Dostupné z: 10.3389/fpsyt.2023.109 4583.  [cit. 2024-05-17].  
  11. Chiesa, A., Calati, R. a Serretti, A., 2011. Does mindfulness training improve cognitive abilities? A systematic review of neuropsychological findings. Clinical Psychology Review, roč. 31, s. 449–464. [cit. 2024-05-18].
  12. Iqbal, S. T. a Horvitz, E., 2007. “Disruption and recovery of computing tasks: field study, analysis, and directions,” in Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (New YorK, NY: acm), Dostupné z: 10.1145/1240624.1240730. [cit. 2024-05-11].
  13. Janis, I. L., 1972. Victims of Groupthink: A Psychological Study of Foreign-Policy Decisions and Fiascoes. Boston, MA: Houghton Mifflin. [cit. 2024-05-17].
  14. Junco, R. a Cotten, S. R., 2012. No A 4 U: the relationship between multitasking and academic performance. Computers & Education, roč. 59, s. 505–514. Dostupné z: 10.1016/j.compedu.2011.12.023. [cit. 2024-05-18].  
  15. Kanai, R., Bahrami, B., Roylance, R. a Rees, G., 2012. Online social network size is reflected in human brain structure. PROCEEDINGS OF THE ROYAL SOCIETY B BIOLOGICAL SCIENTCES, roč.  279, s. 1327–1334. Dostupné z: 10.1098/rspb.2011.1959. [cit. 2024-05-13].
  16. Loh, K. K. a  Kanai, R. 2014. Higher media multi-tasking activity is associated with smaller gray-matter density in the anterior cingulate cortex. PLOS ONE 9, e106698. Dostupné z: 10.1371/journal.pone.0106698.  [cit. 2024-05-12].
  17. Lin, Y. H., Lin, Y. C., Lee, Y. H., Lin, P. H., Lin, S. H., Chang, L. R. a spol., 2015. Time distortion associated with smartphone addiction: identifying smartphone addiction via a mobile application (App). Journal od Psychiatric Research, roč. 65, s. 139–145. Dostupné z: 10.1016/j.jpsychires.2015.04.003.  [cit. 2024-05-17].  
  18. Mark, G., Iqbal, S. a Czerwinski, M., 2017. How blocking distractions affects workplace focus and productivity in Proceedings of the 2017 ACM International Joint Conference on Pervasive and Ubiquitous Computing and Proceedings of the 2017 ACM International Symposium on Wearable Computers (New York, NY: ACM), s. 928–934. Dostupné z: 10.1145/3123024.3124558. [cit. 2024-05-17].  
  19. Mindfulness Club. 2023. Online. mindulnessclub.cz.  Dostupné z: https://mindfulnessclub.cz/mindfulness/. [cit. 2024-05-11].
  20. Oberauer, K., 2019. Working memory and attention – a conceptual analysis and review. Journal of cognition, roč. 2, s. 36. Dostupné z: 10.5334/joc.58. [cit. 2024-05-11].
  21. Oulasvirta, A., Rattenbury, T., Ma, L. a Raita, E., 2012. Habits make smartphone use more pervasive. Personal and Ubiquitous Computing, roč. 16, s. 105–114. Dostupné z: 10.1007/s00779-011-0412-2. [cit. 2024-05-11].
  22. Pariser, E., 2011. The Filter Bubble: What the Internet is Hiding from You. London: Penguin. Dostupné z: 10.3139/9783446431164. [cit. 2024-05-17].
  23. Paulus, M. P., Squeglia, L. M., Bagot, K., Jacobus, J., Kuplicki, R., Breslin, F. J., a spol., 2019. Screen media activity and brain structure in youth: evidence for diverse structural correlation networks from the ABCD study. NeuroImage, roč. 185, s. 140–153. Dostupné z: 10.1016/j.neuroimage.2018.10.040. [cit. 2024-05-18].   
  24. Rosen, L. D., Carrier, L. M. a Cheever, N. A., 2013a. Facebook and texting made me do it: media-induced task-switching while studying. Computers in Human Behavior, roč. 29, s. 948–958. Dostupné z: S0747563212003305?via%3Dihub. [cit. 2024-05-18].
  25. Shanmugasundaram, M. a Tamilarasu A., 2023. The impact of digital technology, social media, and artificial intelligence on cognitive functions. Frontiers in Cognition.
  26. Sibley, B. A. a Etnier, J. L., 2003. The relationship between physical activity and cognition in children: a meta-analysis. Pediatric Exercise Science, roč. 15, s. 243–256. Dostupné z: 10.1123/pes.15.3.243. [cit. 2024-05-18].   
  27. Sparrow, B., Liu, J. a Wegner, D. M., 2011. Google effects on memory: cognitive consequences of having information at our fingertips. Science, roč.  333, s. 776–778. Dostupné z: 10.1126/science.1207745. [cit. 2024-05-13].
  28. Sweller, J. 1994. Cognitive load theory, learning difficulty, and instructional design. Learninig and Instruction, roč. 4, s. 295–312. Dostupné z: 10.1016/0959-4752(94)90003-5.  [cit. 2024-05-13].
  29. Thornton, B., Faires, A., Robbins, M. a Rollins, E. 2014. The mere presence of a cell phone may be distracting implications for attention and task performance. Social Psychology, roč. 45, s. 479–488. Dostupné z: 10.1027/1864-9335/a000216.  [cit. 2024-05-13].
  30. Ward, A. F., Duke, K., Gneezy, A. a Bos, M. W., 2017. Brain drain: the mere presence of one’s own smartphone reduces available cognitive capacity. Journal od Association for Consumer Research, roč.  2, s. 140–154. Dostupné z: 10.1086/691462. [cit. 2024-05-13].

Revoluce ve vývoji geneticky modifikovaných plodin: AI zkracuje šlechtitelské cykly o roky

0
Futuristická laboratoř zaměřená na genetickou modifikaci plodin pozn. Vygenerováno pomocí umělé inteligence (OpenAI DALL·E, 2024).

Úvod

V posledních desetiletích čelí světová společnost zásadním výzvám spojeným s rostoucí populací, změnou klimatu a snižující se dostupností přírodních zdrojů. Tyto faktory mají přímý dopad na globální zemědělství, které musí zajistit dostatečné množství kvalitních potravin při současném minimalizování negativního vlivu na životní prostředí. Jedním z možných řešení těchto problémů je využití geneticky modifikovaných plodin (GMP), jež mohou nabídnout vyšší výnosy, odolnost vůči škůdcům, chorobám či extrémním klimatickým podmínkám.

Souběžně s pokrokem v genetickém inženýrství dochází k výraznému rozvoji umělé inteligence (AI), která se stává klíčovým nástrojem v mnoha vědních a technologických oblastech. V kontextu vývoje GMP poskytuje AI nové možnosti při analýze genomů, predikci vlastností rostlin a optimalizaci genetických úprav. Technologie jako strojové učení, hluboké neuronové sítě a zpracování velkých dat umožňují vědcům efektivněji navrhovat plodiny, které lépe odpovídají současným potřebám lidstva.

Tato esej se věnuje roli umělé inteligence ve vývoji geneticky modifikovaných plodin. Přináší přehled aktuálních technologií a jejich přínosů, zmapuje procesy, v nichž AI hraje zásadní roli, a zároveň analyzuje výzvy a omezení spojené s touto oblastí. Na závěr nastiňuje možné budoucí směry výzkumu, které by mohly podpořit efektivnější a udržitelnější zemědělství.

Geneticky modifikované plodiny

Geneticky modifikované organismy (GMO) lze definovat jako organismy (např. rostliny, zvířata nebo mikroorganismy), u nichž byl genetický materiál (DNA) upraven způsobem, který přirozeně nenastává při křížení nebo přirozené rekombinaci. Tato technologie se často označuje jako „moderní biotechnologie“ nebo „genová technologie“, někdy také „technologie rekombinantní DNA“ či „genetické inženýrství“. Umožňuje přenos vybraných genů z jednoho organismu do druhého, a to i mezi nepříbuznými druhy. Plodiny upravené touto technologií jsou odborně označovány jako geneticky modifikované (GM) plodiny. (Word Health Organization, 2024).

Význam

GM plodiny jsou vyvíjeny a uváděny na trh zejména díky potenciálním přínosům, které nabízejí producentům i spotřebitelům. Mezi tyto přínosy patří například snížení nákladů, zvýšení užitné hodnoty (jako je delší skladovatelnost nebo lepší nutriční profil), či kombinace obou faktorů. Zpočátku se vývoj geneticky modifikovaných semen soustředil na inovace přinášející přímé výhody zemědělcům a potravinářskému průmyslu, což mělo usnadnit jejich přijetí v praxi. Klíčovým cílem genetických úprav plodin je zlepšení ochrany zemědělských kultur před biotickými i abiotickými stresory. Současné geneticky modifikované plodiny jsou primárně navrženy ke zvýšení odolnosti vůči chorobám způsobeným hmyzem a viry, a také ke zvýšení tolerance vůči herbicidům (U.S. Food & Drug Administration, 2024). Odolnost vůči škůdcům, zejména hmyzu, se dosahuje zavedením genu z bakterie Bacillus thuringiensis (Bt) do genomu rostlin. Tento gen kóduje toxin účinný proti specifickým druhům škůdců, přičemž zůstává bezpečný pro lidskou konzumaci. Plodiny produkující tento toxin vykazují nižší potřebu insekticidů, což je obzvláště přínosné v oblastech s vysokým tlakem škůdců. Odolnost vůči virům se zajišťuje integrací genu pocházejícího z virů, které způsobují choroby rostlin. Tato modifikace zvyšuje schopnost rostlin odolávat virovým infekcím, což vede ke zvýšení výnosů. Tolerance vůči herbicidům je výsledkem přenosu genu z bakterií, který rostlinám umožňuje odolávat působení specifických druhů herbicidů. V prostředí s vysokou zátěží plevelem umožňují tyto plodiny snížit celkové množství aplikovaných herbicidů, což přináší jak ekonomické, tak environmentální výhody (Word Health Organization, 2024).

Etika

Etický pohled na geneticky modifikované plodiny je složitý a vyžaduje vyvážený přístup, který zohledňuje jak potenciální přínosy, tak i rizika spojená s jejich používáním. Etické otázky se týkají nejen vědeckých a environmentálních aspektů, ale i sociálních a morálních principů, které mohou ovlivnit rozhodování o jejich vývoji a využívání.

Jedním z hlavních etických argumentů pro využívání GM plodin je jejich schopnost přispět k řešení globálních problémů, jako je zajištění stabilního a udržitelného přísunu kvalitních potravin a dostatečných výnosů. Geneticky modifikované plodiny s odolností vůči škůdcům, chorobám či stresovým faktorům mohou výrazně zvýšit zemědělskou produktivitu, zejména v oblastech s nepříznivými klimatickými podmínkami (Qaim, 2010). GM plodiny mohou také snížit potřebu pesticidů, což pozitivně ovlivňuje životní prostředí a zdraví lidí, čímž se naplňuje etický cíl snížení ekologického zatížení. Dále mohou být GM potraviny obohaceny o cenné živiny, což může mít pozitivní dopad na lidské zdraví, zejména v oblastech postižených podvýživou (Dizon et al., 2016).

Na druhé straně však existují závažné etické obavy spojené s GM plodinami a potravinami. Jedním z hlavních rizik je možný negativní dopad na biodiverzitu, například v důsledku křížení GM plodin s nemodifikovanými odrůdami nebo šíření transgenů do volné přírody. Dále není doposud plně objasněno, jaké mohou být dlouhodobé účinky konzumace geneticky modifikovaných potravin na lidské zdraví, což si žádá další vědecký výzkum a monitorování. Etické otázky rovněž vyvstávají ohledně vlastnictví genetických zdrojů, protože patentování genů a biotechnologií může vést k monopolizaci a kontrole nad těmito cennými zdroji, což může mít negativní dopady na dostupnost technologií pro malé zemědělce, zejména v rozvojových zemích (Weale, 2010).

Obrázek 1 Možné využití umělé inteligence při hodnocení rizik geneticky modifikovaných plodin (Mmbando, 2024)
Obrázek 1 Možné využití umělé inteligence při hodnocení rizik geneticky modifikovaných plodin (Mmbando, 2024)

Produkce geneticky modifikovaných plodin se často setkává s výzvami a odporem, zejména ze strany veřejnosti a ekologických zemědělců. Tradiční metody hodnocení rizik, které zahrnují empirické postupy a kontrolované experimenty, jsou nákladné a časově náročné, což vedlo k nízké veřejné přijatelnosti kvůli obavám z dlouhodobých účinků GM plodin. Nicméně kombinace umělé inteligence a algoritmů strojového učení[1] (Machine Learning, ML) v zemědělských systémech může nabídnout rychlé a efektivní metody pro hodnocení rizik GM plodin pro životní prostředí a zdraví spotřebitelů. Použitím současných dat pro konkrétní plodinu tento nástroj dokáže předpovědět budoucí rizika, zvýšit transparentnost a důvěru mezi spotřebiteli, což může vést k vyšší přijatelnosti GM produktů (Mmbando, 2024).

Role AI ve vývoji geneticky modifikovaných potravin

Umělá inteligence označuje oblast zaměřenou na vývoj a využívání počítačových systémů nebo jiných zařízení, která jsou schopna vykonávat činnosti vyžadující lidskou inteligenci. AI zahrnuje širokou škálu nástrojů a metod, které umožňují počítačům napodobovat inteligentní chování, učit se na základě chyb a provádět nezávislá rozhodnutí. Pro analýzu dat, identifikaci vzorců a generování poznatků se systémy AI často spoléhají na algoritmy, statistické modely a rozsáhlé datové soubory. Studium umělé inteligence zahrnuje několik specializovaných oblastí, jako je strojové učení, hluboké učení, robotika, počítačové vidění a zpracování přirozeného jazyka. Je však zásadní si uvědomit, že ačkoliv jsou systémy AI vysoce efektivní při plnění konkrétních úkolů, často postrádají širší, obecnou inteligenci srovnatelnou s lidskou. Současné technologie AI jsou považovány za “slabou” nebo omezenou AI, neboť jsou navrženy pro specifické oblasti, a ne vždy vykazují širší kognitivní schopnosti. Oblast umělé inteligence se rychle vyvíjí, přičemž probíhající výzkum a vývoj neustále rozšiřují možnosti strojů (Sampath & Tushar, 2023).

Big Data v oblasti genetiky

Vývoj geneticky modifikovaných plodin čelí obrovskému objemu dat, který vzniká díky pokročilým technologiím, jako je sekvenování[2] DNA nebo detailní zobrazování rostlin. Tato data jsou zásadní pro šlechtění plodin, ale jejich zpracování a analýza jsou často složité a časově náročné. Umělá inteligence pomáhá tento problém řešit, protože umožňuje efektivně pracovat s těmito velkými daty, označovanými jako Big Data, a získávat z nich cenné informace (Farooq et al., 2024).

Během šlechtění rostlin vzniká obrovské množství informací, například o genetickém materiálu rostlin nebo jejich vlastnostech, jako je odolnost vůči suchu či výnosnost. Tradiční metody pro ukládání a analýzu dat nejsou dostatečně výkonné, aby si s takovým objemem dat poradily. AI, zejména technologie strojového učení a hlubokého učení[3] (Deep Learning, DL), umožňuje z těchto dat automaticky extrahovat užitečné informace. Díky tomu lze rychleji identifikovat důležité vlastnosti rostlin a optimalizovat proces šlechtění (Bronson & Knezevic, 2016). Genetické banky (tzv. genebanks) po celém světě uchovávají miliony vzorků genetického materiálu různých rostlin. Tyto genetické zdroje mají obrovský potenciál, ale bez důkladné analýzy zůstávají většinou nevyužité. AI umožňuje analyzovat genetická data a pomáhá šlechtitelům najít rostliny s ideálními vlastnostmi pro konkrétní podmínky, například odolnost vůči suchu nebo vysoké výnosy. Díky tomu je možné urychlit proces výběru a testování nových odrůd (Farooq et al., 2024).

Fenotypizace a analýza dat

Moderní technologie využívající umělou inteligenci zásadně mění způsob, jakým probíhá fenotypizace rostlin, tedy analýza jejich vnějších znaků, jako je výška, tvar či zdravotní stav. Tradiční manuální metody, které byly časově náročné, pracné a náchylné k chybám, jsou nyní nahrazovány automatizovanými systémy. AI umožňuje rychlejší a přesnější sběr fenotypových dat prostřednictvím senzorů, kamer a dronů, což výrazně urychluje celý proces.

Jednou z nejpokročilejších technologií v této oblasti je platforma Crop3D, která využívá více zobrazovacích senzorů na pohyblivé konstrukci. Tento systém dokáže vytvářet trojrozměrné modely rostlin, analyzovat tvar a velikost jejich listů a měřit jejich teplotu, což je klíčové pro hodnocení růstu a zdravotního stavu plodin (Farooq et al., 2024). Další inovativní technologie, BreedVision, řeší problém světelných podmínek při měření rostlin. Vytváří pohyblivou tmavou komoru, kde jsou rostliny zobrazovány bez vlivu okolního světla. To umožňuje nedestruktivní a přesné měření vlastností rostlin i v obtížných světelných podmínkách.

Umělá inteligence se uplatňuje také při analýze obrazů rostlin, které jsou pořizovány moderními kamerami. Algoritmy, jako jsou konvoluční neuronové sítě[4] (convolutional neural network, CNN), dokážou z těchto snímků extrahovat důležitá fenotypová data, například výšku rostliny, počet a plochu listů nebo známky onemocnění. Kromě toho AI přináší významné pokroky v predikci výnosů plodin, například pšenice, pomocí kombinace genetických a fenotypových dat. Pokročilé metody, jako multimodální hluboké učení, podpora vektorové regrese umožňují přesné odhady výnosů i za různých podmínek prostředí (Farooq et al., 2024).

Obrázek 2 Schéma Crop3D a využití strojového a hlubokého učení (Farooq et al., 2024)
Obrázek 2 Schéma Crop3D a využití strojového a hlubokého učení (Farooq et al., 2024)

Obrázek 2 zobrazuje platformu Crop3D, která využívá více zobrazovacích senzorů umístěných na pohyblivé konstrukci k tvorbě trojrozměrných modelů rostlin.  Na obrázku je patrné, jak senzorová technologie spolupracuje s pokročilými algoritmy umělé inteligence, konkrétně CNN, mezi které patří model ResNet-50, který se úspěšně využívá pro identifikaci klasů u plodin, jako je pšenice a ječmen. Vědci použili RGB obrázky[5]získané z pozemní kamery k automatickému počítání klasů, přičemž ResNet-50 dosáhl vysoké přesnosti a schopnosti zobecnění modelu. Tato technologie, založená na hlubokém učení a modelu ResNet-50, výrazně zefektivňuje fenotypizaci rostlin a umožňuje automatizovanou a přesnou identifikaci klasů, což urychluje proces predikce výnosu a usnadňuje genetické studie zaměřené na zlepšení výnosu plodin.

Tyto technologie zásadně zefektivňují šlechtění rostlin a poskytují cenné informace pro optimalizaci zemědělské produkce, což přispívá ke zvýšení udržitelnosti a výkonnosti moderního zemědělství.

Genomická predikce a výběr rodičovských linií

Umělá inteligence hraje klíčovou roli v genetickém výběru a predikci pro výběr rodičovských linií rostlin v rámci šlechtitelských programů. Moderní technologie sekvenování DNA, známé jako Next-Generation Sequencing (NGS), umožňují vědcům rychle identifikovat genetické markery spojené s důležitými vlastnostmi rostlin, jako je odolnost proti stresu (např. sucho). AI usnadňuje analýzu těchto genetických informací, což umožňuje přesné určení míst v genetické mapě rostliny a následně výběr nejlepších rodičovských linií pro šlechtění (Rai, 2022). Jak již bylo zmíněno AI pomáhá i při fenotypování rostlin, tedy sledování a analýze jejich fyzických vlastností. Systémy vybavené drony a senzory sbírají vysokorozlišovací snímky rostlin v terénu, což šlechtitelům umožňuje porovnávat různé rostliny a rychle identifikovat ty, které vykazují nejlepší vlastnosti, jako je odolnost vůči chorobám nebo lepší růst. Tyto údaje jsou následně analyzovány pomocí strojového učení, což výrazně urychluje proces výběru nejlepších genotypů.

Spojení genomiky (genetických údajů) a fenomiky (údajů o vzhledu rostlin) pomocí AI vede k vytvoření modelů, které předpovídají, jaké vlastnosti budou u rostlin nejúspěšnější. Tyto modely pomáhají šlechtitelům lépe pochopit genetickou strukturu rostlin a vybírat rodiče s největším potenciálem pro šlechtění plodin s požadovanými vlastnostmi, například s vyšší odolností vůči změnám klimatu. Tímto způsobem AI urychluje a zpřesňuje celý proces šlechtění a výběru nejlepší rodičovské linie pro budoucí plodiny (Rai, 2022).

Predikce rizik a bezpečnost

Tradiční metody hodnocení rizik spojených s geneticky modifikovanými plodinami často zahrnují kontrolované experimenty, empirické studie a regulační posuzování. Tyto přístupy bývají časově a finančně náročné a často vykazují určitá omezení. Zavedení technologií umělé inteligence v posledních letech zásadně změnilo metody predikce rizik u GM plodin. Algoritmy AI a techniky prediktivního modelování umožňují efektivní analýzu rozsáhlých datových souborů, čímž poskytují rychlé a přesné informace o potenciálních rizicích a hrozbách na základě genetických, environmentálních a agronomických faktorů. Bezpečnost geneticky modifikovaných plodin je jedním z klíčových aspektů jejich hodnocení a schvalování. Vzhledem k obavám o možný vliv GM plodin na lidské zdraví, zejména v souvislosti s alergeny, je důležité zajistit, aby tyto plodiny byly nejen ekologicky bezpečné, ale i zdravotně nezávadné. Umělá inteligence se v tomto kontextu ukazuje jako silný nástroj pro zlepšení procesu hodnocení alergenity GM plodin a pro zajištění jejich bezpečnosti na trhu (Mmbando, 2024).

Alergenita GM plodin je jedním z hlavních důvodů, proč jsou tyto plodiny podrobovány důkladným testům před jejich uvedením na trh. Genetické modifikace mohou nechtěně způsobit vznik nových proteinů, které mohou být alergenní, nebo mohou změnit strukturu existujících proteinů tak, že se stanou více alergenními. Tradiční metody testování alergenity plodin mohou být časově náročné a nákladné, což činí AI ideálním nástrojem pro zrychlení tohoto procesu. Jedním z nejmodernějších nástrojů pro predikci alergenicity proteinů u geneticky modifikovaných plodin je ALLERDET, který využívá pokročilé techniky umělé inteligence, konkrétně hluboké učení a rozhodovací stromy. Tento nástroj umožňuje efektivnější a přesnější analýzu, čímž výrazně přispívá k hodnocení bezpečnosti GM plodin (Garcia-Moreno & Gutiérrez-Naranjo, 2022).

ALLERDET kombinuje dvě pokročilé metody umělé inteligence: omezené Boltzmannovy stroje (Restricted Boltzmann Machines, RBM) a rozhodovací stromy (Decision Trees). Tyto technologie spolupracují na identifikaci a klasifikaci proteinů podle jejich potenciální alergenicity. Proces začíná párovým porovnáváním sekvencí proteinů pomocí programu FASTA, který umožňuje extrahovat klíčové vlastnosti proteinových sekvencí. Tyto vlastnosti mohou indikovat, zda protein vykazuje potenciální alergenní vlastnosti. RBM je využit k analýze složitých vztahů mezi extrahovanými vlastnostmi. Tato metoda hlubokého učení dokáže identifikovat komplexní vzory, které by tradiční přístupy mohly přehlédnout. Výsledky z RBM jsou následně zpracovány algoritmem rozhodovacích stromů, který provádí finální klasifikaci a rozhoduje, zda je protein alergenní. ALLERDET dosahuje špičkové výkonnosti s přesností 97,26 %, citlivostí 98,46 % a specifitou 94,37 %. Díky těmto parametrům je nástroj schopen spolehlivě odlišit alergenní proteiny od nealergenních, což představuje zásadní přínos pro zajištění bezpečnosti GM plodin (Garcia-Moreno & Gutiérrez-Naranjo, 2022).

Umělá inteligence má obrovský potenciál pro zajištění bezpečnosti GM plodin, zejména pokud jde o hodnocení alergenity. Díky schopnosti rychle a efektivně analyzovat genetické a proteinové struktury GM plodin a předvídat jejich potenciál k vyvolání alergických reakcí, může AI významně zrychlit a zefektivnit procesy hodnocení a schvalování. S rostoucím využíváním AI v této oblasti bude možné lépe chránit zdraví spotřebitelů a zároveň umožnit rychlejší přístup k novým a bezpečným GM plodinám, které mohou přispět k řešení globálních výzev, jako je potravinová bezpečnost.

Proces vývoje GM plodin s podporou AI

Identifikace cílového genu

Prvním krokem v procesu vývoje geneticky modifikovaných plodin je identifikace genů nebo kvantitativních lokusů vlastností (Quantitative Trait Loci, QTL), které ovlivňují důležité agronomické charakteristiky, jako je odolnost vůči stresovým podmínkám (sucho, slanost, choroby) nebo zvýšení produkce plodů. Tradičně tento proces spočíval v křížení a selekci rostlin s požadovanými vlastnostmi, což bylo časově náročné a vyžadovalo opakované pokusy. Umělá inteligence spolu s analýzou Big Data, tento postup výrazně zrychlují a zefektivňují (Rai, 2022).

Nejprve AI algoritmy procházejí rozsáhlé genomické databáze a identifikují geny spojené s požadovanými vlastnostmi, například odolností vůči konkrétním chorobám nebo škůdcům. Následně jsou tyto informace doplněny analýzou dat z polních experimentů, kde AI modely sledují, jak se různé geny projevují v reálných podmínkách. Tímto způsobem lze nejen potvrdit roli konkrétních genů, ale také identifikovat kvantitativní lokusy, které ovlivňují komplexní vlastnosti, jako je vysoký výnos v různých prostředích.

Tato kombinace genomických a fenotypových dat umožňuje vědcům přesně určit klíčové genetické faktory, které jsou následně využity v dalších fázích vývoje GM plodin, jako je editace genomu nebo šlechtění. Díky AI je tento proces nejen rychlejší, ale také výrazně přesnější, což přispívá k efektivnějšímu vývoji odolnějších a produktivnějších plodin

Modifikace genomu

Proces editace genomu pomocí umělé inteligence, zejména ve spojení s technologií CRISPR/Cas9, zahrnuje několik klíčových kroků, které vedou k přesnějším a cílenějším genetickým modifikacím rostlin. Tento proces je podporován využitím pokročilých algoritmů strojového učení a analýzy velkých dat, které optimalizují a zlepšují efektivitu editace genomu.

Jedním z nejdůležitějších kroků je optimalizace metod editace genomu. CRISPR/Cas9 využívá mechanismus imunitního systému bakterií k cílenému zásahu do specifických sekvencí DNA v genomu rostliny. AI pomáhá v tomto procesu tím, že pomocí strojového učení předpovídá, jak se různé varianty CRISPR/Cas9 budou chovat v různých genomových kontextech. Díky těmto předpovědím mohou vědci vybrat nejvhodnější variantu nástroje pro konkrétní genetickou modifikaci, což zvyšuje přesnost a účinnost tohoto zásahu (Farooq et al., 2024).

Dalším klíčovým přínosem AI je minimalizace off-target efektů, tedy nežádoucích modifikací v jiných částech genomu, které mohou nastat při editaci. Strojové učení analyzuje výsledky experimentů s editací genomu a identifikuje faktory, které mohou ovlivnit přesnost a efektivitu modifikací. Tato schopnost předpovědět a minimalizovat off-target efekty je zásadní pro zajištění, že genetické úpravy budou co nejpřesnější a bezpečné, čímž se snižuje riziko nežádoucích změn v genomu, které by mohly mít negativní dopad na bezpečnost rostlin (Mmbando, 2024).

Transformace

Proces transformace rostlin pomocí umělé inteligence začíná po editaci genu, kdy je nutné vnést modifikovaný gen do rostlinných buněk. Existují dvě hlavní metody transformace, které se používají k introdukci cizího DNA do rostlinných buněk: metoda genové pušky (gene gun method) a Agrobacterium-mediated transformation (Dizon et al., 2016).

V metodě genové pušky je cizí DNA doslova vystřelena na rostlinné buňky pomocí mikroskopických zlatých nebo wolframových částic, na kterých je DNA navázaná. Tento proces způsobí, že částice proniknou do buněk a DNA se integruje do genomu rostliny. V případě Agrobacterium-mediated transformation je použit přirozený mechanismus bakterie Agrobacterium tumefaciens, která dokáže přenášet část genetického materiálu do rostlinných buněk. Tento proces je velmi efektivní, protože bakterie cíleně infikuje rostlinné buňky a vnáší do nich požadované geny (Singh et al., 2021).

Šlechtění a selekce

Proces selekce rostlin po genetické modifikaci je klíčovým krokem šlechtění, který zahrnuje identifikaci a výběr rostlin vykazujících požadované vlastnosti. Tradiční metody šlechtění jsou časově náročné, protože vyžadují opakované křížení a selekci po mnoho generací.

Jedním z nástrojů, které zkracují dobu potřebnou k dosažení požadovaných genetických vlastností, je technika Speed breeding. Tento protokol, podporovaný využitím AI, zahrnuje několik kroků, které společně optimalizují růst a šlechtění rostlin. AI modely analyzují rozsáhlé množství dat o růstu rostlin a vyhodnocují, jak různé podmínky prostředí ovlivňují jejich vývoj. Na základě těchto dat AI upravuje podmínky (např. intenzitu světla nebo teplotu) v reálném čase, čímž zajišťuje optimální podmínky pro rychlý růst rostlin (Rai, 2022).

Obrázek 3 Speed breeding protokol pro optimalizaci podmínek prostředí (Rai, 2022)
Obrázek 3 Speed breeding protokol pro optimalizaci podmínek prostředí (Rai, 2022)

V praxi to znamená, že místo tradičního procesu, kdy šlechtitelé čekali na růst a vývoj rostlin několik generací, AI umožňuje sledovat a předvídat chování rostlin ve velmi krátkém čase. Tento rychlý cyklus generací umožňuje výběr rostlin s požadovanými vlastnostmi za mnohem kratší dobu než u tradičních metod, což urychluje šlechtění nových odrůd. Díky tomu se může šlechtitelský cyklus zkrátit z tradičních 6-8 let na pouhé 3 roky (Rai, 2022).

Výzvy a omezení při využití AI a vývoji GM plodin

I když AI představuje obrovský potenciál pro urychlení a zefektivnění vývoje GM plodin, její využívání v této oblasti čelí řadě výzev a omezení, které je nutné překonat pro dosažení plného potenciálu této technologie.

Dostupnost a kvalita dat

Úspěch algoritmů umělé inteligence v zemědělství je úzce spjat s kvalitou a množstvím dostupných dat. Pro efektivní trénování AI modelů a spolehlivou predikci výsledků jsou klíčové rozsáhlé a standardizované datové sady zahrnující informace o fenotypu rostlin, genové expresi, vlivu prostředí a dalších relevantních faktorech. Nedostatek těchto dat, zejména fenotypových, však představuje zásadní překážku v plném využití potenciálu AI v této oblasti (Bronson & Knezevic, 2016).

Tradiční metody sběru dat jsou často časově náročné a přinášejí jen omezené množství informací. Již zmíněné technologie, jako jsou drony, senzory a platformy pro vysokokapacitní fenotypizaci, slibují výrazné zlepšení v této oblasti. Tyto nástroje umožňují rychlejší a přesnější sběr dat ve velkém měřítku, což může přispět k rozšíření a zkvalitnění dostupných datových sad. Avšak navzdory těmto pokrokům zůstává výzvou integrace a standardizace dat z různých zdrojů a platforem. Bez jednotného přístupu k jejich zpracování a analýze je obtížné zajistit kompatibilitu dat, což může omezit jejich využitelnost v trénování AI modelů. Řešení těchto problémů je klíčové pro zajištění efektivního využití AI v zemědělství a pro urychlení pokroku v oblasti geneticky modifikovaných plodin.

Etické aspekty

Jedním z klíčových rizik spojených s geneticky modifikovanými plodinami je potenciální genový tok z GM plodin do divokých populací rostlin. Tento proces by mohl vést k nechtěným ekologickým změnám a ovlivnit přirozené ekosystémy (Weale, 2010). Vývoj a zavádění GM plodin by se mohly díky technologiím umělé inteligence výrazně zrychlit, což by mohlo riziko genového toku dále zvýšit. Nicméně zůstává otázkou, zda modely AI dokážou dostatečně přesně predikovat a modelovat složité ekologické dopady, které by genový tok mohl způsobit.

Další obavou spojenou s GM plodinami je jejich možný vliv na necílové organismy, jako jsou hmyz, ptáci či další zvířata, která mohou být ovlivněna změnami v potravních řetězcích nebo interakcemi s GM rostlinami. Tyto dopady jsou složité a často obtížně předvídatelné, což zvyšuje důležitost důkladného monitorování a regulace (Mmbando, 2024).

Transparentnost a regulace v oblasti vývoje a zavádění GM plodin představují významnou výzvu (Dizon et al., 2016). AI by mohla komplikovat dohled nad těmito procesy, například tím, že automatizuje části výzkumu a vývoje, čímž by mohly být ztíženy snahy regulačních orgánů o efektivní kontrolu. Aby bylo možné zaručit odpovědné využití AI, je nutné zajistit, aby modely AI a data, na kterých jsou založeny, byly dostupné a pochopitelné jak pro regulační orgány, tak pro širokou veřejnost.

Sociální a ekonomické aspekty GM plodin představují další důležitou oblast zkoumání. Zdroje často upozorňují na negativní dopady na drobné zemědělce, například v souvislosti s využíváním Bt bavlny v Indii, kde GM plodiny přinesly nejen vyšší výnosy, ale také finanční a sociální problémy pro některé zemědělské komunity (Qaim, 2010). Umělá inteligence by mohla tyto nerovnosti prohloubit, a to zejména v oblasti přístupu k technologiím a ziskům z pěstování GM plodin. Existuje riziko, že velké zemědělské korporace budou díky AI získávat ještě větší moc, zatímco malí zemědělci budou marginalizováni. To by mohlo vést k prohloubení ekonomických nerovností mezi regiony i mezi jednotlivými zemědělci.

Technologické výzvy

Implementace a vývoj AI modelů v zemědělství přinášejí řadu technologických výzev, které je nutné překonat, aby bylo možné efektivně využít jejich potenciál. Jedním z klíčových aspektů je výpočetní výkon, protože trénování komplexních AI modelů vyžaduje značné výpočetní kapacity a robustní infrastrukturu pro ukládání a zpracování velkých datových sad. Bez dostatečného výkonu a odpovídající technologie je obtížné dosáhnout vysoké přesnosti a spolehlivosti výsledků. Dalším zásadním faktorem je robustnost modelů. AI modely musí být navrženy tak, aby fungovaly nejen v kontrolovaných laboratorních podmínkách, ale i v reálném prostředí. V zemědělství se data mohou výrazně lišit od tréninkových podmínek kvůli variabilitě prostředí, genetickým rozdílům mezi rostlinami a dalším nepředvídatelným faktorům. Je proto nezbytné zajistit, aby modely dokázaly tyto proměnné zohlednit a poskytovaly přesné a spolehlivé predikce v různých situacích (Grünbichler, 2023).

Neméně důležitá je také integrace s existujícími systémy. Pro efektivní využití AI je potřeba, aby byly modely propojeny se stávajícími systémy pro sběr dat, management plodin a podporu rozhodování. To zahrnuje například integraci senzorů, dronů a dalších technologií, které poskytují data nezbytná pro optimalizaci modelů. Bez takového propojení by mohla být implementace AI zbytečně komplikovaná a méně efektivní.

Závěr

Využití umělé inteligence ve vývoji geneticky modifikovaných plodin představuje významný pokrok v oblasti moderního zemědělství. Díky schopnosti rychle a přesně analyzovat rozsáhlé genetické a environmentální datové sady umožňuje AI efektivně identifikovat geny spojené s odolností vůči stresovým faktorům, vyššími výnosy a lepšími nutričními hodnotami. Tato technologie umožňuje urychlit proces výzkumu a vývoje, což vede k vytvoření plodin lépe přizpůsobených měnícím se klimatickým podmínkám a současným potřebám potravinové produkce. Kromě zvyšování produktivity však otevírá také nové možnosti, jak řešit ekologické a socioekonomické otázky spojené s GM plodinami.

Dle mého názoru, budoucí výzkum by mohl být zaměřen především na vývoj AI nástrojů, které dokážou předpovídat ekologické a socioekonomické dopady GM plodin. Například schopnost modelovat genový tok mezi GM plodinami a divokými populacemi nebo analyzovat dlouhodobé dopady na biodiverzitu by mohla významně přispět k minimalizaci rizik spojených s nasazením těchto plodin. Tyto prediktivní modely by mohly být cenným podkladem nejen pro vědeckou komunitu, ale i pro regulační orgány, které by mohly lépe rozhodovat o bezpečnosti nových plodin.

Dále věřím, že AI může hrát klíčovou roli při vývoji plodin šitých na míru regionálním potřebám. Například AI by mohla analyzovat místní klimatické podmínky, půdní vlastnosti a další faktory, aby pomohla navrhnout plodiny optimalizované pro konkrétní prostředí. To by mohlo mít zásadní význam zejména v oblastech, které jsou nejvíce ohrožené klimatickými změnami a kde je zemědělství hlavním zdrojem obživy.


[1] podmnožina komponenty AI, která dokáže vyvinout algoritmy a statistické modely, jež umožňují počítačům vykonávat úkoly bez explicitních pokynů

[2] souhrnný termín pro metody, které umožňují popsat pořadí nukleotidů v určitém úseku DNA

[3] proces trénování umělých neuronových sítí (aritificial neuron networks, ANN) s více vrstvami za účelem naučení se reprezentace dat

[4] typ algoritmu hlubokého učení, který je navržen speciálně pro zpracování a analýzu vizuálních dat, jako jsou obrázky a videa

[5] digitální obrazy reprezentované třemi barevnými kanály – červeným (R), zeleným (G) a modrým (B)

Použitá literatura

Bronson, K., & Knezevic, I. (2016). Big Data in food and agriculture. Big Data & Society, 3(1), 2053951716648174. https://doi.org/10.1177/2053951716648174

Dizon, F., Costa, S., Rock, C., Harris, A., Husk, C., & Mei, J. (2016). Genetically Modified (GM) Foods and Ethical Eating. Journal of Food Science, 81(2), R287–R291. https://doi.org/10.1111/1750-3841.13191

Farooq, M. A., Gao, S., Hassan, M. A., Huang, Z., Rasheed, A., Hearne, S., Prasanna, B., Li, X., & Li, H. (2024). Artificial intelligence in plant breeding. Trends in Genetics, 40(10), 891–908. https://doi.org/10.1016/j.tig.2024.07.001

Garcia-Moreno, F. M., & Gutiérrez-Naranjo, M. A. (2022). ALLERDET: A novel web app for prediction of protein allergenicity. Journal of Biomedical Informatics, 135, 104217. https://doi.org/10.1016/j.jbi.2022.104217

Grünbichler, R. (2023). IMPLEMENTATION BARRIERS OF ARTIFICIAL INTELLIGENCE IN COMPANIES. Proceedings of FEB Zagreb International Odyssey Conference on Economics and Business, 5(1).

OpenAI. (2024). [Obrázek vygenerovaný pomocí DALL·E: Futuristická laboratoř zaměřená na genetickou modifikaci plodin]. DALL·E. https://openai.com/dall-e/

Mmbando, G. S. (2024). The use of artificial intelligence in the production of genetically modified (GM) crops: A recent promising strategy for enhancing the acceptability of GM products ? Discover Applied Sciences, 6(11), 581. https://doi.org/10.1007/s42452-024-06212-6

Qaim, M. (2010). Benefits of genetically modified crops for the poor: Household income, nutrition, and health. New Biotechnology, 27(5), 552–557. https://doi.org/10.1016/j.nbt.2010.07.009

Rai, K. K. (2022). Integrating speed breeding with artificial intelligence for developing climate-smart crops. Molecular Biology Reports, 49(12), 11385–11402. https://doi.org/10.1007/s11033-022-07769-4

Sampath, L., & Tushar, A. M. (2023). What is Artificial Intelligence in Plant Breeding. ResearchGate. https://www.researchgate.net/publication/372561619_62_What_is_Artificial_Intelligence_in_Plant_Breeding

Singh, P., Borthakur, A., Singh, A. A., Kumar, A., Singh, K. K., & EBSCOhost (Ed.). (2021). Policy issues in genetically modified crops: A global perspective. Academic Press.

U.S. Food & Drug Administration. (2024). How GMO Crops Impact Our World. FDA. https://www.fda.gov/food/agricultural-biotechnology/how-gmo-crops-impact-our-world

Weale, A. (2010). Ethical arguments relevant to the use of GM crops. New Biotechnology, 27(5), 582–587. https://doi.org/10.1016/j.nbt.2010.08.013

Metody a nástroje Threat intelligence

0
graphical user interface

Úvod

Útočníci v kyberprostoru jsou každým dnem sofistikovanější a vytrvalejší, což znamená, že tradiční způsoby ochrany už nejsou dostatečné pro efektivní obranu před stále novými a komplexnějšími hrozbami. V důsledku toho se musí i způsoby obrany proti těmto útokům neustále vyvíjet, aby organizace byly schopné reagovat na kybernetické hrozby v reálném čase a minimalizovat jejich negativní dopady. Kybernetická bezpečnost dnes neznamená pouze ochranu systémů a dat, ale i efektivní analýzu a využívání informací o hrozbách, což je oblast, která se rychle rozvíjí.

Cílem této práce je poskytnout přehled o nejvýznamnějších metodách a nástrojích, které jsou v oblasti Threat Intelligence využívány. Budeme se zaměřovat na klíčové frameworky, standardy a metody sběru dat, které umožňují organizacím efektivně shromažďovat, analyzovat a sdílet informace o hrozbách. V rámci této práce budou prozkoumány teoretické základy TI, různé kategorie a fáze TI, a význam metod a nástrojů v celkovém cyklu Threat Intelligence.

V první části práce se budeme věnovat základům Threat Intelligence a jeho kategorii, včetně strategické, taktické a operační analýzy hrozeb. Následně se zaměříme na cyklus Threat Intelligence a roli metod, frameworků a nástrojů v každé jeho fázi. V další části práce budou diskutovány klíčové frameworky, jako NIST Cybersecurity Framework, MITRE ATT&CK, a The Diamond Model, které pomáhají organizacím lépe pochopit a reagovat na kybernetické hrozby. Dále se budeme věnovat standardům a metodám pro práci s informacemi, jako jsou STIX a TAXII, a důležitosti jejich implementace v praxi. Tato práce slouží jako komplexní přehled o výzvách a omezeních, které organizace čelí při využívání metod a nástrojů Threat Intelligence, a poskytuje doporučení pro efektivní integraci těchto nástrojů do bezpečnostní infrastruktury organizací.

Metodologie

Cílem této práce je prozkoumat metodologie a nástroje využívané v oblasti Threat Intelligence (CTI), se zaměřením na jejich roli v kybernetické bezpečnosti, výzvy spojené s jejich implementací a efektivitu v detekci a mitigaci hrozeb. V této sekci jsou popsány hlavní metodologické přístupy a nástroje, které byly použity při výzkumu a analýze.

Literární přehled a analýza sekundárních zdrojů

Pro sestavení teoretického rámce a porozumění současnému stavu výzkumu v oblasti CTI byla provedena analýza dostupné literatury. Tato část zahrnovala studium vědeckých článků, knih, odborných časopisů a zpráv organizací zabývajících se kybernetickou bezpečností, a to prostřednictvím databází WoS a Google Scholar.

Analýza nástrojů a standardů

Metodologický přístup k analýze nástrojů a standardů spočíval v prozkoumání jejich funkcionality a praktické aplikovatelnosti v oblasti Threat Intelligence.

Výzvy a omezení metod a nástrojů

V závěrečné části práce byly identifikovány a podrobně prozkoumány výzvy a omezení, kterým organizace čelí při implementaci metod a nástrojů CTI.

Využití AI

Pro zpracování a sumarizaci poznatků ze zkoumaných zdrojů byl využit notebookML, který umožnil efektivní analýzu dat, a nástroj ChatGPT, který přispěl k formulaci přehledných a srozumitelných textů.

Základy Threat Intelligence

Threat Intelligence (TI), známá také jako Cyber Threat Intelligence (CTI), představuje znalosti o hrozbách, které jsou založené na důkazech a slouží k informovanému rozhodování. Jejím hlavním cílem je buď zabránit útokům, nebo zkrátit čas potřebný k jejich odhalení po kompromitaci. Kromě přímé podpory rozhodování může TI pomoci organizacím lépe pochopit rizika, kterým čelí. Aby byla TI efektivní, musí být relevantní pro organizaci, dostatečně konkrétní k vyvolání reakce a přinášet hodnotu pro dosažení cílů. Informace se získávají z technických zdrojů nebo lidských zdrojů. TI poskytuje nejen technické indikátory a mechanismy hrozeb, ale také jejich kontext, důsledky a doporučení, jak na ně reagovat (Tounsi & Rais, 2018).

Cyber Threat Intelligence může tedy být komplexně definována jako znalost založená na důkazech, která zahrnuje kontext, mechanismy, indikátory, důsledky a praktická doporučení o existující nebo vznikající hrozbě, jež může být použita k informování rozhodnutí týkajících se reakce subjektu na tuto hrozbu nebo nebezpečí (Sahrom Abu et al., 2018)[1].


[1] Autorský překlad

Kategorizace CTI

Threat Intelligence je široký a komplexní pojem, který se zaměřuje na sběr, analýzu a využívání informací o hrozbách. Aby bylo možné efektivně využívat jeho potenciál, je důležité rozlišovat několik kategorií, které se liší zaměřením a úrovní detailu. Tyto kategorie pomáhají organizacím lépe porozumět hrozbám a vyvinout adekvátní reakce na základě různých perspektiv kybernetické bezpečnosti.

Mezi hlavní kategorie patří strategické CTI, operační CTI a taktické CTI. Každá z těchto kategorií nabízí jiný pohled na hrozby a má specifický účel v rámci kybernetického zabezpečení organizace.

Strategická CTI

Strategická CTI poskytuje důležité informace, které pomáhají vedoucím pracovníkům v organizaci pochopit aktuální rizika a odhalit hrozby, o kterých ještě nemusí vědět. Tyto informace mohou zahrnovat například dopady kybernetických útoků na finance, trendy v útocích, historické údaje a predikce budoucí hrozeb. Na základě těchto informací vedení organizace vyhodnocuje možné útoky, což usnadňuje hodnocení rizik a efektivní rozdělení rozpočtu na jejich zmírnění (Tounsi & Rais, 2018).Tento typ zpravodajství hraje klíčovou roli v řízení kybernetických rizik, poskytuje komplexní přehledy o trendech a nových hrozbách, které informují kybernetickou strategii a plány na zmírnění rizik. Strategická CTI také umožňuje organizacím přejít z reaktivního na proaktivní přístup k bezpečnosti, což zvyšuje jejich schopnost přizpůsobit se a prosperovat v měnícím se prostředí kybernetických hrozeb (kmetcalfe@cwsi.co.uk, 2024).

Taktická CTI

Taktická CTI slouží k identifikaci a mitigaci hrozeb na základě shromážděných informací, přičemž má kratší životnost než strategická, která se zaměřuje na dlouhodobé trendy, ale není tak reakční jako operační, která se využívá při aktivních útocích (Flashpoint, 2022). Často se označuje jako Taktiky, Techniky a Postupy (TTP) a zahrnuje informace o způsobech, jakými útočníci provádějí své útoky (Tounsi & Rais, 2018).

Taktické CTI často podporuje specifické vyšetřování incidentů a aktivní vyhledávání hrozeb. Poskytuje cenné informace o metodologiích a chování útočníků, což umožňuje bezpečnostním týmům lépe se připravit na konkrétní typy útoků (Flashpoint, 2022).

Taktické zpravodajství je často získáváno prostřednictvím čtení technických publikací, komunikace s odborníky v jiných organizacích a nákupem od specializovaných poskytovatelů. Tato data jsou klíčová pro úpravu politiky a opatření organizace, čímž pomáhají zajistit její bezpečnostní připravenost na rychle se měnící kybernetické hrozby (Tounsi & Rais, 2018).

Operační CTI

Operační CTI poskytuje okamžitě použitelné informace o konkrétních hrozbách, které pomáhají organizacím rychle detekovat a reagovat na útoky v reálném čase. Tento typ zpravodajství se zaměřuje na technické detaily, jako jsou motivy, schopnosti a kroky útočníků, vycházející z jejich předchozího chování. Poskytuje klíčové informace pro ochranu před aktivními hrozbami, zlepšuje bezpečnostní pozici organizace a pomáhá efektivně vyšetřovat incidenty a napravovat škody (Flashpoint, 2022).

Operační CTI je často poskytováno prostřednictvím indikátorů kompromitace (IOCs) a strojově čitelných dat, jako jsou IP adresy a doménová jména, a je používáno prostřednictvím nástrojů jako firewally a SIEM systémy. Tento typ zpravodajství je určen pro bezpečnostní profesionály, kteří ho využívají k rychlé reakci na vzniklé hrozby (Flashpoint, 2022).

Operační CTI poskytuje pohled přizpůsobený specifickému kontextu organizace, a pomáhá při prioritizaci reakce na incidenty a přizpůsobení bezpečnostních opatření (kmetcalfe@cwsi.co.uk, 2024).

Cyklus Threat intelligence

Threat Intelligence Cycle je klíčovým procesem, který umožňuje organizacím efektivně shromažďovat, analyzovat a reagovat na kybernetické hrozby. Tento cyklus je obdobou tradičního intelligence cycle viz. Obrázek 1. V případě threat intelligence však specificky zaměřujeme pozornost na hrozby v kyberprostoru.

Obrázek 1: Threat Intelligence Cycle, zdroj: autor

Role nástrojů, standardů a metod v cyklu Threat Intelligence

Metody, standardy a frameworky hrají zásadní roli v každé fázi cyklu Threat Intelligence, protože umožňují organizacím efektivně shromažďovat, analyzovat a reagovat na kybernetické hrozby. Bez jejich využití by bylo obtížné zvládnout složitost a objem dat, které jsou spojené s kybernetickými útoky. V procesu shromažďování dat jsou klíčové metody sběru informací, jako je OSINT a MASINT, které poskytují strukturovaný přístup k získávání informací. K efektivnímu sdílení těchto dat mezi organizacemi slouží standardy, jako jsou STIX a TAXII, které umožňují rychlé a efektivní předávání informací o hrozbách v jednotném a strojově čitelném formátu.

V analytické fázi zase hraje důležitou roli MITRE ATT&CK Framework, který pomáhá analyzovat taktiky, techniky a procesy (TTP) útočníků. The Diamond Model zase poskytuje strukturu pro analýzu hrozeb z hlediska čtyř základních komponent. Dále, Cynefin Framework napomáhá klasifikovat problémy podle jejich složitosti, což je užitečné při rozhodování o tom, jaké analytické přístupy a nástroje použít v konkrétních typech hrozeb. Všechny výše zmíněně nástroje jsou základní nástroje v oblast TI a blíže si je přiblížíme v následující kapitole.

Metody a nástroje CTI

V následujících podkapitolách se zaměříme na klíčové důvody, proč jsou nástroje a metody nezbytné pro efektivní řízení a analýzu kybernetických hrozeb. Také se podrobněji seznámíme s hlavními nástroji a metodami, které jsou v oblasti Threat Intelligence využívány.

Důvody pro využívání metod a nástrojů v oblasti Threat Intelligence

Obrovský objem dat

S rostoucí složitostí kybernetických útoků se výrazně zvyšuje i množství dostupných informací o hrozbách. Bezpečnostní týmy každý den mohou čelit záplavě až 250 milionů indikátorů kompromitace (IOC) (Tounsi & Rais, 2018). Takové množství dat je pro člověka prakticky neanalyzovatelné. Bez automatizovaných nástrojů pro sběr, zpracování a analýzu hrozeb by bylo pro organizace téměř nemožné efektivně zpracovávat tento objem informací.

Potřeba kontextu a analýzy

Data o hrozbách sama o sobě nemají žádnou hodnotu, pokud nejsou umístěna do správného kontextu a analyzována. Threat Intelligence víc než jen sběr dat; klíčové je pochopit, jak se tato data vztahují k organizaci a jak s nimi efektivně pracovat (Bromiley, 2016).

Bez pokročilých analytických nástrojů by organizace nedokázaly z dat o hrozbách vyvodit správné závěry a podniknout adekvátní opatření.

Důležitost rychlé reakce

Manuální zpracování hrozeb by bylo příliš pomalé, což by organizacím znemožnilo včasnou reakci na hrozící útoky. Kybernetické hrozby se vyvíjejí rychle, a bez automatizace by nebylo možné efektivně reagovat.

Díky nástrojům pro sdílení informací o hrozbách, mohou organizace rychle sdílet důležité informace a koordinovat obranu, což zajišťuje rychlejší detekci a reakci na útoky.

Standardizace a interoperabilita

Standardizace formátů dat je zásadní pro efektivní sdílení TI mezi různými organizacemi. Pokud nejsou data o hrozbách v jednotném formátu, stává se jejich výměna složitější a časově náročná, což zpomaluje reakce na hrozby.

Organizace MITRE aktivně podílí na vývoji standardů pro sdílení hrozbové inteligence, jako jsou STIX, TAXII (Conti et al., 2018). Tyto standardy poskytují jednotný rámec pro strukturování a výměnu informací o hrozbách. Díky nim mohou organizace snadno sdílet a používat data o hrozbách, což zrychluje detekci a reakci na kybernetické útoky a zlepšuje koordinaci mezi jednotlivými subjekty. Blíže si je přiblížíme v dalších kapitolách.

Klíčové frameworky

Frameworky v oblasti Threat Intelligence jsou klíčové nástroje pro strukturovanou analýzu a reakci na kybernetické hrozby. Poskytují organizacím nástroje k lepšímu pochopení, kategorizaci a reakci na kybernetické hrozby tím, že definují standardizované přístupy k analýze hrozeb a vymezení taktik, technik a procesů útočníků. V této části se podíváme na některé z nejvýznamnějších frameworků, které pomáhají organizacím při efektivním sběru, analýze a využívání informací o hrozbách.

NIST Cybersecurity Framework

Jedná se o nástroj přizpůsobitelný organizacím všech velikostí a odvětví. Neslouží jako předepsaná metodika, ale jako rámec, který podporuje kontinuální zlepšování bezpečnosti a adaptaci na nové hrozby (National Institute of Standards and Technology, 2024).

Hlavní komponenty NIST CSF (National Institute of Standards and Technology, 2024):

  • CSF Core:
    • Hierarchická struktura funkcí, kategorií a subkategorií definující výsledky kybernetické bezpečnosti.
  • Organizační profily:
    • Porovnávají aktuální a cílový stav bezpečnosti organizace na základě výsledků z CSF Core.
    • Reflektují specifické potřeby organizace, její mise a hrozby.
  • Úrovně (Tiers): Definují vyspělost přístupu k řízení kybernetických rizik:
    • Tier 1: Ad hoc přístup, minimální řízení rizik.
    • Tier 2: Informovaný přístup, řízení rizik podpořené managementem.
    • Tier 3: Formalizované a opakovatelné procesy.
    • Tier 4: Proaktivní a adaptivní strategie s pokročilými technologiemi.

NIST CSF je univerzální rámec použitelný v jakémkoli odvětví, který vyniká svou flexibilitou a schopností přizpůsobit se konkrétním potřebám organizace. Zaměřuje se na cíle, nikoli na konkrétní nástroje, což zajišťuje jeho nezávislost na technologii. Důraz na kontinuální proces umožňuje reagovat na technologický vývoj i měnící se hrozby. Díky těmto vlastnostem je NIST CSF ideální jak pro strategické plánování, tak i pro každodenní operace v oblasti kybernetické bezpečnosti (National Institute of Standards and Technology, 2024).

Cynefin Framework

Cynefin Framework je užitečný nástroj pro pochopení a řešení problémů v různých typech systémů, které mohou být jednoduché, složité, nebo zcela nepředvídatelné. Namísto pouhé simulace reality nabízí rámec nový způsob, jak nahlížet na problémy a efektivně na ně reagovat. Framework rozděluje situace do pěti hlavních domén, z nichž každá vyžaduje specifický přístup k rozhodování a řešení (The Cynefin Framework – A Leader’s Framework for Decision Making and Action. – YouTube, 2024):

  • Neuspořádanost:
    Centrální doména frameworku, představuje stav, kdy není jasné, v jakém typu systému se nacházíme. Organizace v tomto stavu často posuzují situace podle vlastních preferencí.
  • Zřejmé:
    Situace s jasným a předvídatelným vztahem mezi příčinou a následkem spadají do domény zřejmého. V těchto případech je vhodné aplikovat pravidla. Klíčové však je vyhnout se zbytečně rigidním pravidlům, která by mohla narušit funkčnost systému.
  • Komplikované:
    Doména, kde neexistuje lineární vztah mezi příčinou a následkem, a správné řešení není předem jasné. Rozhodování probíhá prostřednictvím experimentů, kdy testujeme různé hypotézy a sledujeme reakce systému. Cílem není najít jedno správné řešení, ale usnadnit řízení situace, přičemž každá akce ovlivňuje situaci.
  • Komplexní:
    V této doméně není možné předem určit jasné řešení. Klíčem je experimentování, sledování reakcí systému a přizpůsobování dalšího postupu. Cílem není najít jediné správné řešení, ale adaptovat se na měnící se podmínky.
  • Chaotické:
    V této doméně neexistují žádné vzorce nebo omezení, přičemž prioritou je rychlá akce k vytvoření stability. Rozhodovací model „akce – vnímání – reakce“ zdůrazňuje nutnost okamžité intervence před analýzou situace. Tato doména může přinášet inovace, ale zároveň je velmi nestabilní a riziková.

Cynefin Framework poskytuje strukturu pro lepší pochopení složitosti prostředí a umožňuje zvolit správný přístup pro různé situace (The Cynefin Framework – A Leader’s Framework for Decision Making and Action. – YouTube, 2024).

The Diamond Model

Je rámec pro analýzu kybernetických útoků, který mapuje vztahy mezi útočníkem, jeho nástroji a infrastrukturou využitou při provádění útoku. Použit správně, pomáhá identifikovat klíčové otázky týkající se útoku, umožňuje kategorizovat infiltrace a sledovat útoky a aktéry hrozeb (The Diamond Model, 2024). Daná kategorizace je následovná:

  • Útočník: Kdo provedl útok?
  • Schopnosti: Jak to provedli?
  • Oběť: Kdo byl cílem?
  • Infrastruktura: Co bylo použito?

The MITRE ATT&CK Framework

MITRE ATT&CK (Adversarial Tactics, Techniques, and Common Knowledge) je rámec pro popis taktik, technik a postupů (TTP) používaných kybernetickými útočníky. Byl vytvořen v roce 2013 v rámci experimentu MITRE Fort Meade s cílem zlepšit forenzní analýzu a porozumění útočníkům(Al-Sada et al., 2024).

ATT&CK je uspořádán do matice, kde sloupce představují taktiky a řádky techniky viz Obrázek 2. Matice zahrnuje také podtechniky a procedury, které detailněji popisují implementaci technik (Al-Sada et al., 2024) .

Obrázek 2: Maticové uspořádání ATT&CK (MITRE ATT&CK®, 2024)

Cyber kill chain

Cyber Kill Chain je model pro identifikaci a zamezení kybernetickým útokům ještě před tím, než ovlivní organizaci. Tento rámec, vyvinutý společností Lockheed Martin v roce 2011, rozděluje útoky do sedmi fází, což bezpečnostním týmům umožňuje lépe je rozpoznat a reagovat. Koncept vychází z vojenské strategie, kde jsou útoky analyzovány a preventivně zastaveny v jednotlivých fázích (Cyber Kill Chains, 2024).

Cílem Cyber Kill Chainu je posílit obranu proti sofistikovaným kybernetickým hrozbám, jako jsou malware, ransomware, phishing a další formy sociálního inženýrství. Tento rámec pomáhá organizacím být o krok napřed před útočníky (Cyber Kill Chains, 2024).

6 fází Cyber Kill Chainu:

  • Průzkum (Reconnaissance): Shromažďování informací o cíli a hledání zranitelností.
  • Příprava zbraně (Weaponization): Vytvoření malwaru využívajícího zjištěné slabiny.
  • Doručení (Delivery): Pokus o doručení malwaru do cílové sítě.
  • Zneužití (Exploitation): Využití zranitelnosti k infiltraci.
  • Instalace (Installation): Instalace malwaru pro větší kontrolu nad sítí.
  • Vedení a řízení (Command and Control): Vytvoření komunikačního kanálu pro kontrolu útoku.

Standardy a metody pro práci s informacemi

V oblasti Threat Intelligence (TI) je klíčové správně pracovat s informacemi o kybernetických hrozbách. Použití standardizovaných formátů a metod umožňuje efektivní sběr, analýzu a výměnu těchto informací mezi organizacemi. V této kapitole se zaměříme na některé z nejdůležitějších standardů a metod, které jsou v současnosti běžně využívány pro práci s informacemi o hrozbách.

STIX

Structured Threat Information eXpression je jazyk a formát používaný ke sdílení informací o kybernetických hrozbách (CTI). Umožňuje strukturovanou výměnu informací o kybernetických hrozbách, útocích a nežádoucích osobách. STIX je open-source a flexibilní, což organizacím umožňuje snadno přispívat, sdílet a analyzovat data o hrozbách (Introduction to STIX, 2024) . Zobrazuje data v jazyce JSON. Pro ukázku přikládám kód níže.

{

    "type": "indicator",

    "id": "indicator--5c9d1234-745f-4e2f-8c43-0e4f786be5a3",

    "spec_version": "2.1",

    "created": "2024-12-06T17:00:00.000Z",

    "modified": "2024-12-06T17:30:00.000Z",

    "name": "Suspicious IP Address",

    "description": "An IP address associated with a known phishing campaign.",

    "pattern": "[ipv4-addr:value = '192.168.1.1']",

    "valid_from": "2024-12-06T00:00:00.000Z"

}

TAXII Standard

TAXII je aplikační protokol pro výměnu informací o kybernetických hrozbách (CTI) prostřednictvím HTTPS, navržený především pro práci s daty ve formátu STIX, ale podporující i jiné formáty. Je postaven na RESTful API a zahrnuje dvě hlavní služby (Introduction to TAXII, 2024):

  • Collection:
    • Rozhraní k logickému úložišti CTI objektů spravovanému TAXII serverem.
    • Používá model request-response, kdy klient žádá o konkrétní data od serveru.
  • Channel:
    • Kanál umožňující publish-subscribe model, kdy producenti mohou data zasílat více konzumentům a naopak.
    • Specifikace TAXII 2.1 obsahuje klíčové prvky pro kanály, ale jejich služby budou detailně definovány až v budoucí verzi.

Metody sběru informací

OSINT (Open Source Intelligence) zahrnuje shromažďování informací z veřejně dostupných zdrojů, jako jsou webové stránky nebo sociální sítě. Příklad: zisk dat z veřejných fór, Darkwebu či stránek s uniklými daty pro identifikaci hrozeb.

SIGINT (Signals Intelligence) je sběr a analýza informací získaných z elektronických signálů, jako jsou komunikace a radarové systémy. Může sloužit zachycení šifrovaných komunikací mezi útočníky.

MASINT (Measurement and Signature Intelligence) se zaměřuje na shromažďování a analýzu fyzických a technických signálů, jako jsou elektromagnetické nebo radiologické stopy.

Výzvy a omezení metod a nástrojů

Při využívání metod a nástrojů Threat Intelligence (TI) organizace narážejí na specifické výzvy a omezení, které mohou ovlivnit jejich účinnost a přínos. Tyto výzvy zahrnují technologické, procesní i organizační aspekty.

Klíčové výzvy spojené s metodami a nástroji:

  • Přetížení daty: Nástroje pro Threat Intelligence často poskytují obrovské množství informací o hrozbách, jejichž efektivní filtrování a analýza vyžadují značné zdroje. Automatizované nástroje mohou generovat redundantní nebo nerelevantní data, což zpomaluje rozhodovací proces (Tounsi & Rais, 2018).
  • Nedostatečná kontextualizace: Mnoho nástrojů se zaměřuje na technické detaily (např. IP adresy, domény), ale neposkytuje širší kontext, jako jsou vazby na konkrétní skupiny útočníků nebo fáze útoku. Tento nedostatek omezuje schopnost organizací jednat efektivně (Tounsi & Rais, 2018).
  • Složitost implementace: Zavádění standardizovaných nástrojů, jako jsou STIX a TAXII, může být náročné z hlediska technických požadavků a potřeby integrace do existující infrastruktury. Malé nebo méně zkušené organizace mohou mít problém tyto technologie plně využít.
  • Závislost na kvalifikovaných odbornících: Nástroje pro TI často vyžadují odbornou znalost pro konfiguraci, interpretaci a aplikaci výstupů. Nedostatek vyškolených analytiků je jedním z hlavních omezení jejich účinnosti (Tounsi & Rais, 2018).
  • Kvalita a spolehlivost dat: Nástroje často pracují s daty z různých zdrojů, která mohou být neúplná, zastaralá nebo nepřesná. Tyto problémy vedou k chybným analýzám a následně i k nevhodným opatřením (Tounsi & Rais, 2018).

Pro organizace je klíčové zaměřit se na zmírnění těchto omezení pomocí strategického přístupu, který zahrnuje automatizaci, standardizaci a zdůraznění kvality dat. Zároveň je nutné investovat do vzdělávání analytiků a zlepšování uživatelské přívětivosti nástrojů, aby jejich nasazení mohlo přinášet maximální hodnotu. Přestože překonání zmíněných problémů vyžaduje čas a zdroje, budoucí vývoj, včetně využití umělé inteligence a pokročilých analytických technologií, slibuje významné zlepšení efektivity a dostupnosti těchto řešení. Tato kapitola proto slouží jako přehled klíčových výzev a naznačuje možné cesty, jak zvýšit efektivitu metod a nástrojů TI v praxi.

Závěr

Threat Intelligence je klíčovým nástrojem pro organizace, které chtějí efektivně čelit stále sofistikovanějším kybernetickým hrozbám. V této práci jsme se zaměřili na rozbor základů, metod a nástrojů CTI, přičemž jsme zohlednili různé úrovně této disciplíny – strategickou, taktickou a operační. Cyklus Threat Intelligence ukazuje, že sběr a analýza dat jsou kontinuální procesy, které vyžadují strukturovaný přístup a efektivní nástroje.

Práce poskytuje přehled o nejvýznamnějších metodách a nástrojích používaných v oblasti Threat intelligence. Byly představeny klíčové frameworky jako NIST Cybersecurity Framework, Cynefin, The Diamond Model a MITRE ATT&CK Framework, které slouží jako opěrné body pro implementaci CTI. Zároveň jsme diskutovali standardy TAXII a STIX, jež umožňují sdílení informací o hrozbách mezi organizacemi. V práci jsme také rozebrali konkrétní metody sběru informací, včetně OSINT, MASINT a dalších, které hrají zásadní roli při získávání relevantních dat.

Závěrečná část se zaměřila na výzvy a omezení spojené s metodami a nástroji CTI. Kromě toho jsme zdůraznili význam lidského faktoru, protože kvalitní analýza a interpretace dat závisí na zkušenostech a dovednostech odborníků.

Tato práce slouží jako ucelený přehled nejvýznamnějších metod a nástrojů v oblasti Threat intelligence a jejich praktické aplikace. Zároveň zdůrazňuje důležitost správného nastavení procesů a využití dostupných standardů pro efektivní obranu před kybernetickými hrozbami. Budoucí výzkum a implementace by se měly zaměřit na vývoj nových technologií a zlepšení interoperability mezi standardy. Význam CTI bude s narůstající složitostí kybernetických hrozeb nadále růst, a proto je nezbytné zůstat inovativní a připraveni na nové výzvy.

Použitá literatura

Al-Sada, B., Sadighian, A., & Oligeri, G. (2024). MITRE ATT&CK: State of the Art and Way Forward. ACM Computing Surveys, 57(1), 1–37. https://doi.org/10.1145/3687300

Bromiley, M. (2016). Threat intelligence: What it is, and how to use it effectively. SANS Institute InfoSec Reading Room, 15, 172.

Conti, M., Dehghantanha, A., & Dargahi, T. (2018). Cyber threat intelligence: Challenges and opportunities. Springer.

Cyber Kill Chains: Strategies & Tactics. (2024). Splunk. https://www.splunk.com/en_us/blog/learn/cyber-kill-chains.html

Flashpoint. (2022, září 6). Three Types of Threat Intelligence: Defined and Explained. Flashpoint. https://flashpoint.io/blog/three-types-of-threat-intelligence/

Introduction to STIX. (2024). https://oasis-open.github.io/cti-documentation/stix/intro

Introduction to TAXII. (2024). https://oasis-open.github.io/cti-documentation/taxii/intro.html

kmetcalfe@cwsi.co.uk. (2024, květen 31). A Guide to Three Types of Threat Intelligence. CWSI. https://cwsisecurity.com/types-of-threat-intelligence/

MITRE ATT&CK®. (2024). https://attack.mitre.org/

National Institute of Standards and Technology. (2024). The NIST Cybersecurity Framework (CSF) 2.0 (NIST CSWP 29; s. NIST CSWP 29). National Institute of Standards and Technology. https://doi.org/10.6028/NIST.CSWP.29

Sahrom Abu, M., Rahayu Selamat, S., Ariffin, A., & Yusof, R. (2018). Cyber Threat Intelligence – Issue and Challenges. Indonesian Journal of Electrical Engineering and Computer Science, 10(1), 371. https://doi.org/10.11591/ijeecs.v10.i1.pp371-379

The Cynefin Framework—A Leader’s Framework for Decision Making and Action. – YouTube. (b.r.). Získáno 7. prosinec 2024, z https://www.youtube.com/watch?v=ogtpxA6brGo

The Diamond Model: Simple Intelligence-Driven Intrusion Analysis – Kraven Security. (2024, duben 15). https://kravensecurity.com/diamond-model-analysis/

Tounsi, W., & Rais, H. (2018). A survey on technical threat intelligence in the age of sophisticated cyber attacks. Computers & Security, 72, 212–233. https://doi.org/10.1016/j.cose.2017.09.001

Behind the Firewall: The Ethical Dilemmas of Cybersecurity

0

The world has never been as connected as it is right now. We can view it as an achievement, but it can also be seen as a threat. People now have access to almost all the information they need, much of which goes far beyond their needs. The sheer amount of data is extremely large and it grows exponentially. With the expansion of the internet and the infrastructure it protects, the importance of cybersecurity has reached an all-time high. Cybersecurity ensures, or at least tries to ensure, the safety of sensitive information, networks, and systems against, for example, some third-party attacks using various measures and strategies. With the growing reliance on the internet and technology in general comes important ethical dilemmas. This paper explores the connection between cybersecurity and ethics, beginning with understanding cybersecurity and its role in everyday life. It also introduces ethics in general. It explores the ethical side of cybersecurity problems using real-life examples. It also discusses newly emerging issues in cybersecurity, such as artificial intelligence.

1 Introduction: Impact of digital connectivity

Firstly, I would like to expand on the ideas in the abstract part of this paper. As I already stated, the world is more interconnected now than ever before. From mobile phones to large communication networks, the internet and technology generally connects everyone. It connects not only people but businesses and governments as well. With this comes great benefits and risks.

1.1 Benefits of digital connectivity

Some benefits are, for example the access to information wherever you are and whenever you want, help for businesses, such as e-shops and online shopping, access to education, like the access to courses, research papers, e-books, and many more. Other benefits are also convenient, such as online banking systems, online shopping or online chatting. Entertainment benefits are also significantt, for instance, music or films are available online, and gaming is available through digital connectivity. Digital connectivity also increases the creation and collaboration of online communities that have same interests, it connects people globally in general.

Other benefits can also be Economical. Digital connectivity reduces poverty, increases income, and lowers consumer consumption. For example, in India, in the region of Kerala, by tracking weather conditions via internet access increased fishermen profits by about 8 %. Another example is from Peru, where due to an increase in mobile phone usage, families, who could now compare prices and inputs via their mobile phones, were able to eliminate costly journeys to the capital city, reduce uncertainty about prices, and minimize the risk of being taken advantage of in the markets (Nelson, 2022).  

1.2 Risks of digital connectivity

On the other hand, digital connectivity brings some great danger or risks. A digital risk signifies a likelihood of a negative event caused by vulnerabilities that threaten businesses and people (Luo, 2022). Cyberattacks have increased in frequency and are more sophisticated with each year that passes. Cyberattacks mainly target financial institutions, energy grids, and many more. For example, the WannaCry ransomware attack in 2017 took down the United Kingdom’s NHS, which stands for National Health Service, even though it was not a specific target of the cyberattack. It affected more than 200,000 computers in many countries. It served as a wake-up call to healthcare organizations around the world (National Audit Office, 2017). However, not only these large-scale attacks are dangerous. Internet users can face risks like identity theft, phishing, and data breaches. For example, a 2020 HIMSS Cybersecurity revealed that 70% of hospitals had encountered a significant security threat within the past year, including phishing (Healthcare Information and Management Systems Society, 2020).

Connectivity is seen as both an outstanding achievement and help but also as a threat to national security, and people shows just how important it is to have strong cybersecurity.

2 A beginner-friendly overview of what exactly cybersecurity is

We touched on what cybersecurity is great and used for, but we have yet to really introduce a definition of what it exactly is. Since I am no expert in this field, I would like to present some definitions. „Cybersecurity is a set of standards and practices organizations use to protect their applications, data, programs, networks, and systems from cyberattacks and unauthorized access“ (Fortinet, n.d.). „Cybersecurity is the practice of protecting systems, networks, and programs from digital attacks“ (Cisco).  According to Fasulo (2024), one of the many ways to describe cybersecurity is by using the CIA Triad. CIA stands for Confidentiality, Integrity and Availability. The CIA Triad is a security model meant to guide organizations on security procedures. Confidentiality has to do with keeping the organization’s data private, Integrity ensures that the data can be trusted, and Availability guarantees that the data is available to authorized users whenever they require.

2.1 Types of cybersecurity

In this part of the paper, I would like to show some classifications of cybersecurity into several types. The classification is not unified and differs from source to source. That is why I will only show the types I find the most intriguing and important.

2.1.1 Application security

Application security protects software and applications from potential threats. It needs to be updated regularly and it must be checked for any vulnerabilities. It tries to prevent unwanted access to applications (INSTITUTE OF DATA, 2024). It safeguards mobile, web and other applications from cyberattack threats. The four primary security efforts are secure coding, vulnerability assessments, patch management and penetration testing (Demirel, 2023).

2.1.2 Network security

Network security protects network infrastructures from cyberattacks. The security might involve VPNs, firewalls or antivirus software (CompTIA, n.d.). It includes not only software solutions but also hardware solutions against threats. The majority of cyberattacks begin with an attack on the network.

2.1.3 Operational security

Operational security is the implementation of policies and procedures to make the systems and networks safer. It requires conduction of risk checks often, training of employees and introduction of some responses to incidents so that the impacts of security threats are minimal (INSTITUTE OF DATA, 2024). It involves establishing protocols for monitoring unusual behaviours.

2.1.4 Critical infrastructure security

Critical infrastructure security is the general protection of all systems that need to stay operational for a company to function at all. That includes all technology, processes and other protections that keep the most critical systems running (CompTIA, n.d.).

2.1.5 Zero trust

Zero trust is an IT security framework from 2010. Its importance grew when there was no longer a network edge since networks can be local, cloud or even hybrid. The basic idea of the zero trust model is that no user nor human nor non-human from inside or outside of the network should be trusted until they meet some access requirements. It denies all access to digital resources by default (SailPoint, 2023).

2.2 Cybersecurity measures

2.2.1 Firewalls

Firewalls are used to decide whether to accept or reject a packet that travels through network traffic according to a sequence of rules. There is quite a large number of rules that a firewall can follow, some of which contradict each other. Because of that, analyzing and understanding firewalls can be exceedingly difficult (Liu et. al., 2005). In general, firewalls protect your network or computer from external networks, such as the internet. They check network traffic going out of your computer or network and traffic going into your computer or network and try to defend it against malicious data or attempts at access to your network or computer. Firewall can be compared to having a fence around your house to keep individuals with bad intentions away from it (Deshpande, 2024)

2.2.2 Encryption

Encryption was, prior to the modern age, effectively synonymous with cryptography. Cryptography is about studying how to keep a message secret between two users. On the other hand, encryption is the application of the techniques that cryptography studies. But they are still based on similar ideas. Encryption is a way to cypher and decypher some data using a specific decryption key. It keeps the information or data private while also ensuring the authenticity of the information or data by ensuring that it has not been changed from its original state (Fortinet, n.d.). The benefit of cybersecurity using encryption is that even when a third party intercepts your data, it will be encrypted and not readable without the correct decryption key.

There are many types of encryption, so for a simple understanding I will breifly explain two of those types.

Symmetric encryption: Symmetric encryption only has one decryption key, which is used both for the encryption and the decryption. It is the best-known encryption technique and also the simplest. It works with the presumption that both of the parties need an encryption key to decipher the information.

Asymmetric: Asymmetric encryption is quite a new method of encryption. It uses one public decryption key and one private decryption key, which are different but related. The public key is used for encrypting data, and the private key for its decryption. It is a stronger option relative to symmetric encryption (Fortinet, n.d.).

2.2.3 Multi-factor authentication

Multi-factor authentication (MFA) is another great way to protect your data. To access your data or some services, you usually use just one password or some other way to log into the account or get your data. MFA means that you have to use two or more forms of authentication to access the service (Higins, 2022). It requires the user to use some combination of a password or PIN (something you know), security key (something you have) and fingerprint or face ID (something you are) (NIST, 2024).

Today, multi-factor authentication is used quite commonly. Usually, it consists of a password and a code sent to your phone, or a code that is generated in an authentication app. It simply adds an extra layer of user protection and it discourages hackers.

2.2.4 Antivirus software

There are many antiviruses available on the market, such as Bitdefender, AVG antivirus, or the Czech company Avast. Nearly everyone has an antivirus downloaded on their computer or laptop. It commonly comes already installed when buying a notebook. People tend to feel quite safe, even when they possess just the free trial of an antivirus software. However, users tend to trust the antivirus software a little too much. They tend to think that having the antivirus program downloaded makes the device fully safe. Such an approach is wrong (Kobylinski et. al., 2012). It is important to say that no antivirus is 100 percent foolproof. Each day more than 350,000 new malware programs are created, and it is very likely that at least one of the newly created programs penetrates the antivirus software defence (Vigderman et. al., 2024).

2.3 Real-world examples of cybersecurity breaches

To fully understand the importance of cybersecurity, I will show examples of large cybersecurity breaches and their outcome for the development of cybersecurity and new preventions in general. I already listed the WannaCry ransomware attack in 2017. Because of that, I will only talk about a few other examples.

2.3.1 Optus data breach

Optus is a subsidiary of Singapore Telecommunications Ltd, which operates in Australia. The attack happened in November of 2022. It was and still is one of the most notable attacks in Australia history. Personal data, including names, birthdays, phone numbers, email contacts and passport and driving licence numbers. Luckily, Opta revealed that payment details and account passwords were not stolen by the hackers who were behind the attack. According to the government, roughly 2.8 million people were at a significant risk of identity theft. After a few hours, the thieves published a sample of stolen user data and issued a ransom threat, demanding A$1.5 million ($1 million) in cryptocurrency from Optus. The ransom threat was later deleted, and the hacker apologised to Optus (Turnbull, 2022). The government argued that the attack was unnecessarily easy for the hackers and that Optus „Left the window open“ for the criminals to hack their system. The government also criticised Optus for its role in the attack, stating that the company was uncooperative with the public and the government (Evans, 2022). Following this data breach, a new collaboration between the Australian Federal Police and Australian Signals Directorate was announced. It would result in the creation of a new task force dedicated to hacking the hackers (Whelan et. al., 2023).

2.3.2 WhatsApp user data leak

In November 2022, a user posted what they claimed to be up-to-date personal data of around 500 million WhatsApp users from more than 80 countries worldwide. The hacker was selling the data on a forum on the dark web. The hacker’s valuation was about a few thousand dollars for each country’s dataset, based on the amount of stolen personal data. The leak was first reported by news site CyberNews, which investigated the data and came to the conclusion that the hacker’s claims were „likely to be true“. The hacker never clarified how they collected such a large amount of data. Meta, however, denied such data leak (Powell, 2022).

2.3.3 Target data breach

The breach happened before in 2013. A malicious software was installed on Target’s security and payment systems. The software stole information on every credit card used for payment at any of Target’s locations. At that time, Target had a state-of-the-art security system. However, when the company was warned that the hackers attacked, Target just ignored it. The resulting data breach put millions of people at risk of identity theft (Manworren et. al., 2016).

2.3.4 Colonial Pipeline Ransomware Attack

The attack happened in 2021. A cybersecurity attack on the Colonial Pipeline Company has led to temporary interference in the delivery of petroleum products to most of the U.S. states in the southeast. The attackers used ransomware against the company’s business systems. The FBI confirmed that a well-known hacker group from Russia named DarkSide was behind the attacks. The company quickly deactivated certain systems that monitor the pipelines to ensure safety. Disconnecting the systems stopped the function of the pipeline operations (GAO, 2021). The response was immediate. The U.S. government paid a ransom consisting of 75 bitcoin, which was worth about $4.4 million, to DarkSide within a few hours of finding out about the attack. Later, it was reported that the U.S. investigators managed to recover millions in cryptocurrency from the money that was paid ransom to DarkSide. The Justice department said it recovered about 75 % of the bitcoin, which however, was now worth only about $2.3 million since the bitcoin was worth less at the time of the recovery (Perez et. al., 2021).

3 Understanding ethics

In this part of the paper, I would like to very quickly introduce what the term ethics means and what it is all about. I would also like to explain its relevance to decision-making.

3.1 What is ethics?

Ethics is a moral philosophy. It is the study of what is right and what is wrong. It is made to guide people, companies, and societies to make decisions. It is a set of predetermined moral rules that can change based on the subject of the ruling. Simply, it creates standards of behaviour that tell people what is right and what is wrong. It tells people and societies how to act in many situations they find themselves in, such as parents and friends, or professionals and citizens and so on (Velasquez et. al., 2009). Ethical principles are used for navigating moral dilemmas, like if it is acceptable to lie to protect someone. In cybersecurity, ethics try to balance business interests with privacy or security and many more customer rights. We will talk more about cybersecurity ethics in the next part of the paper.

There are many sources of ethical standards and many views on the matter. Some sources, like the Utilitarianian approach, emphasize that ethical action is the one that provides the most happiness and the least harm. In business, as well as in cybersecurity, the ethical action is viewed as the one where the least harm is done to the affected (customers and the company). It tries to increase the good outcome of an action and decrease the harmful outcome (Velasquez et. al., 2009).

In the rights approach, ethicists suggest that every person has a dignity based on their nature. Because of that, they should have the ability to choose freely what they think is right or wrong for their lives. On account of that, they should be treated as ends and not as means to other ends. The moral rights are, for instance, that a person has the right to make their own choices, to be told the truth even when it is hurtful and many more. Also, it states that with rights come duties, such as the duty to respect others’ rights (Velasquez et. al., 2009).

The justice approach comes from Greek philosophy. According to this approach all equals should be treated equally or fairly based on the way they contribute and a standard that is defensible. The Common good approach, which also comes from Greek philosophy, states that community is a good in itself, and relationships in society, like respect for all others, are required for ethical reasoning (Velasquez et. al., 2009).

I would also like to swiftly identify what ethics is not. Ethics is definitely not the same as feelings. Feelings are meant to provide us information to base ethical choices on. Some people have more developed feelings than others, meaning that they feel bad when they do something that is morally wrong. Ethics is also not religion, it applies to anyone, and is not based on faith. Following the law is also not always ethical. The better the system of law, the more ethical standards it sets (Velasquez et. al., 2009). I do not think law can be totally ehical, it is not possible, since there is not one ethical structure, so that makes it impossible. Also many ethical questions do not have any right answer, it depends on the subject you are questioning. Law should consider ethical questions and try to answer the ones, that are answerable.

3.2 Digital ethics

Internationally there is a growing feeling, that ethics should be of increased importance to education and usage in technological fields. The digital age has crated new and unique ethical challenges that require new ways of ethical thinking. The IEEE (the Institute for Electrical and Electronics Engineers) has an entire division devoted to ethics in technology. It is more important than ever to make sure the internet is a safe place for everyone. Poorly designed technologies and sites make it harder for users to live well. For instance, toxicity and unhealthy antisocial habits are a great danger to users (Vallor., n.d.). Digital ethics ask wherher certain policies are the right thing to do. The main actions are the collection of data and the use of it, the different treatment of individuals or groups that have some sociodemographic characteristics, which can be used in favour of the company or leading people to engage in addictive activities (Gorbatai, 2022).

There are many challenges in digital ethics, namely the problem of anonymity. It allows individuals to express themselves however they want, which in its roots is a great freedom for users, but it also undebatable leads to abuse and toxicity. Another challenge is that our devices, like phones and computers, save data about us for the security of users. But there is also a lingering question, is that what the user wants? We will tackle the dilemma between security and privacy later in the paper.

The principles used in digital ethics differ based on the type of organisation, but the framework nearly always matches. The main principles are responsibility, transparency, beneficence and justice. There are many views on the matter, but I will choose some I found interesting and agree with. For example. based on Formosa et. al. (2021), there are five principles. Beneficence (technologies should be used to benefit humans and increase their well-being), Non-maleficence (technologies should not be used to intentionally harm humans or to decrease their well-being), Autonomy (technologies should be used in ways that respect the human autonomy people should be able to make decisions about how the technology is used in their cases), Justice (technologies should used to promote fairness and equality) and Explicability (technologies should be used intelligibly, transparently and comprehensibly, it should also be clear who is responsible for the use). Another view on the matter is based on Macnish et. al. (2020), the principles are Respect for persons (treating individuals as autonomous and respecting their interests), Beneficence (maximize benefits, minimize harms), Justice (equal consideration of each person, benefits should be fairly distributed to individual needs), Respect for law and public interest (be transparent in methods and results, be accountable). Both are quite similar, so I will just swiftly introduce the principles from the first example, while also using some of the information from the second example.

Beneficence: Once we know that our systems and data are secure, we can promote positive benefits like well-being (having your data protected), protection of privacy, financial benefits, reputational benefits (improved reputation for the company) and trust (users trust companies with great cybersecurity more than companies with worse cybersecurity) (Formosa et. al., 2021). Harm is not intended on subjects, but the absence of intention does not amount to the absence of it. The company should keep subjects protected from harm, ensure their privacy and test the security of the system regularly (Macnish et. al., 2020).

Justice: It requires ensuring fairness, accessibility and preventing bias. The broad range justice covers can create tensions between different considerations. For instance, a focus on accessibility of data for vulnerable groups, such as not requiring multi-factor authentication, can lead to lower levels of protection (Formosa et. al., 2021). Most of cybersecurity research is conducted by and carried out by researchers from Western countries or the Western world who have little to no experience of less advanced countries elsewhere in the world. People from those countries care about different topics, and the ethics might be rather different (Macnish et. al., 2020).

Autonomy: Requires the users to have control over who can access their data. Consent is a key factor in autonomy. Through consent, we get access to the data and systems. It is pretty challenging to exactly pinpoint what a consent is (Formosa et. al., 2021).

Non-maleficence: When systems and data are unavailable, either due to a DDoS attack or some other problem, harm follows. Preventing these harms is a principle of non-maleficence. Understanding how severe the harm is and what the harm constitutes is critical for the application of non-maleficence (Formosa et. al., 2021).

Explicability: The cybersecurity systems need to be explainable, and transparent and organisations need to be held accountable for their operation, updates and effectiveness (Formosa et. al., 2021). Privacy: Nobody really has any very clear idea of what privacy really is. It is a moral concept, that is defined many different ways. That the private facts should not be available to anyone else. Freedom of thought, control over personal information and many others (Formosa et. al., 2021). Privacy is usually part of beneficence.

4 Common ethical problems in cybersecurity

In this part of the paper, I would like to explore some common ethical problems in cybersecurity. I will also include my view on each matter at the end of every part. There are many ethical problems, some more complicated than others, so I chose the easier ones to comprehend.

4.1 Privacy vs. security

The debate between privacy and security is said to be the central piece of cybersecurity ethical problems. Privacy refers to the users’ right to control who can use and see their personal information and data. Security aims to make sure their users are not at risk. On the one hand, security measures aim to protect users from threats. On the other hand, to ensure privacy, they often need to use the data and information of the users, so they violate individual user’s privacy. With the growing amounts of generated and gathered personal data, cyber threats present a danger to individual privacy. These potential attacks can have far-reaching consequences. As I stated, these breaches can lead to identity theft, where hackers use personal data to commit other crimes. They can also steal the data for financial gain, for instance, when an online banking system is attacked. About 93 % of data breaches are motivated by financial gain (Gomez, 2024). The harm can also be other than financial, like phishing attacks or blackmail.

There have been many incidents where the ethics of the action was questioned. For example, it was reported that some countries have access to private data of customers of some companies. The PRISM program was run in the US by the US National Security Agency (NSA). The program collected data from some globally well-known companies such as Microsoft, Yahoo!, Google, Facebook and others (Johnson et. al., n.d.). The gathered data consisted of electronic communications, emails, voice mails, and messages from the companies surveyed. It was made legal in 2008 because a new law was created that allowed government bodies to access Tech company’s servers. The data was presumably used to target terrorist threats and international criminals, in union, just foreign intelligence targets. The aftermath of the reveal of the PRISM program was that many of the companies denied any accusation of sharing user data, for example, Mark Zuckerberg, the CEO of Facebook, said the program is outrageous, and Facebook did not participate in any program gathering data by federal agencies (Glory, 2024). People were understandably outraged by the reveal and the ethical side of things needed to be studied. If we stick with what the US government and NSA declared, that the data was used only to target foreign international targets, we can argue that the NSA was looking after the US citizens and the user’s security. On the other hand, the privacy of a large number of users was reduced, and their personal data was used without their knowledge, which is a somewhat illegal invasion of their privacy.

A similar program was started by the UK’s Government Communications Headquarters (GCHQ) in 2008 called Tempora, which is conducting a similar surveillance of data (Kuner et. al., 2013). It collected data by tapping into fibre-optic cables and collecting IP addresses of users (Dencik et. al., 2016).

The problem with these programs was that they were not communicated to the users, whose data the programs ultimately used, even though they presumably did not use them unless they viewed them as threats. If we believe the government’s argument that it was done for the security of users and people, then we have to look at the ethical side of things. I believe that if the existence of the program was communicated to the users, that it would spark a debate about the actual use of the program. That would make the program useless because the actual targets would just avoid sites which are used for the investigation. I think that national security is more important than the privacy of users to some extent. The way it was done was ethically wrong, but I believe there was no other way about it. Although I understand the bigger threat, which is that people do not know how much information is actually private. These programs were never meant to be public, so if not for the people who leaked them. We can just guess how private our private data is.

I believe that privacy and security cannot be done in cybersecurity without negating each other. With more security comes less privacy for users and the other way around. Companies should try to balance the two.

4.2 Whistleblowing

A whistleblower is a person who reports unethical, harmful or illegal practices done by an organisation or company. Whistleblowing is done by organisations or companies’ employees. Whistleblowers disclose issues like corruption, safety violations and misuse of power. There are some protections for whistleblowers. An example is the US Whistleblower policy, which aims to encourage potential whistleblowers to report potential illegal practices (UC Berkeley, n.d.). There is also the Whistleblower Protection Act, which is similar to the Whistleblower policy. It is a federal or state law that protects employees from retaliation, such as termination or discrimination (Legal Information Institute, n.d.).

One of the most famous whistleblowers is Edward Snowden. He was the one behind the PRISM leak. He leaked classified documents revealing the extent of the surveillance. The exposure was viewed by some as a heroic act by some, making the world a safer and better place to live, thanks to the revelations of mass surveillance. Snowden also faced backlash for the revelation, with some saying he is un-American and that he compromised national security (Younger, 2020). Snowden was charged with two counts of espionage and shortly after fled to Russia, where he was gradually granted citizenship.

The law or directive that was in place when Snowden leaked the information was not adequate protection for whistleblowers. It did not initially include security contractors, like Snowden, despite their high numbers in the intelligence (Younger, 2020).

There are two potential ethical questions. One being whether it is better for someone who knows such information to leak it or to not expose it. In my opinion, the person or people should always reveal the information if they are sure it breaks the law or is ethically wrong. It is a question of when it is justifiable to breach confidentiality. The other question is whether the whistleblowers should be protected or not. I believe they should be protected. However, it depends on the actual case.

4.3 Hacktivism

Hacktivism is used to describe computer hacking. It is a combination of the words hacking and activism, which quite greatly explains what the premise is. It refers to online activists who use hacking as a medium to carry out direct action and resistance. Hacktivists are not motivated by financial gain (Gawel, 2024).

Anonymous is a famous hacktivist group.

Undoubtedly, the most famous hacktivist group is Anonymous. It is a grassroots initiative. They choose a specific target and demand a specific demand. They use many methods of attack. For instance, they deface the web by replacing some graphics with their texts or messages, or they initiate DDoS attacks, which overload systems, making the networks unusable (Chandler, n.d.). One of many examples of their work is from 2011. Sony sued one of its customers for creating a method that allowed Playstation 3 users to run Linux on it. Before the launch of the Playstation 3, Sony advertised the Linux capability as a feature, but later withdrew the idea. These actions made by Sony were so outrageous to Anonymous that they sabotaged Sony’s Playstation Network. For a month, it was not accessible, and the stock price of Sony dropped massively. Anonymous got exactly what they wanted, which is headlines (Chandler, n.d.). The question is whether Anonymous was in the wrong for punishing Sony. Some people hate them, some love them. It really depends on the person you ask. The question is whether the “revenge“ is ethical. Again, it really depends on the exact case, but in general, some hacktivism attacks are more ethical than others. In my opinion, the hacktivism groups are sometimes a little bit too aggressive. Although I usually agree with them that the crime is punishable, I just feel it would be better to go the judicial direction. The attacks also commonly affect other users, so it is not only attacking the company or the idea but also innocent users, which affects their lives.

5 Emerging topics in cybersecurity ethics

As the world of technology evolves, new threats to cybersecurity. Cybersecurity faces new ethical problems and challenges. There are new emerging cybersecurity topics, for example, artificial intelligence (AI) or cyberwarfare. They both bring new dilemmas and questions and are shaping the future of digital security.

5.1 AI in cybersecurity

First and foremost, I would like to talk about the positive side of AI usage in cybersecurity. It is increasingly being adopted to strengthen cybersecurity. It helps with the detection of threats, which it can do far better than a human being. AI is also used for the response to cyber attacks and it is an important phishing defence mechanism.

Threat Detection: Through the AI’s ability to process large amounts of data at high speeds, it can learn patterns to potentially discover threats. They can also adapt to new, previously unknown attacks, making them irreplaceable for real-time detection. The AI monitors network traffic and analyzes it. It is always looking for signs of malicious activity within the networks. Traditional security tools struggle to keep up with the growth of sophisticated cyber threats. It is also highly accurate in detecting threats (Kelley, 2024).

Incident Response: As I presented, AI can detect threats very effectively. After it detects a threat, it can automate a response to the attack and, for example, isolate the affected parts of the network (Microsoft, n.d.). It can also prevent attacks by constantly learning new forms and types of attacks through machine learning. AI also helps with the identification and creation of strategies that can help with the defence against the attack and prevent future ones (NITRD, 2019).

AI unfortunately also raises several concerns in cybersecurity. AI is highly dependent on the quality of data it gets to learn. So if it receives large amounts of low-quality data, it will perform way worse. AI systems can also be the target of attacks, potentially being manipulated or compromised. People should also not be too dependent on AI (Kelley, 2024). One of the ethical topics is the dual-use risk of AI, which I have summarized above. It bolsters the defence of cybersecurity, but it can also become a cybersecurity threat. The question is whether it brings more good than bad. In my opinion, it is really important in cybersecurity. It helps safeguard networks almost perfectly. On the other hand, the threats are also bigger and better done than ever before. It is really a duality of AI. But I would say it brings more positive uses, and those uses are truly important for the security and well-being of people.

5.2 Cyberwarfare

Cyberwarfare is the action of a nation or organization to attack and try to damage another nation’s networks or computers through viruses and cyber attacks. It is widely used in todays warfare, being one of the best morale crushers. Cyberwarfare is politically motivated hacking (RAND, n.d.). It uses tactics such as deploying malware, disinformation, deepfake campaigns or hacking. The cyberwarfare targets are usually critical infrastructure (power grids, government networks, military bases networks and bank systems). Cyberwarfare offers attackers anonymity. They also do not have to directly contribute.

Nowadays, for example, Russia uses cyberwarfare in the war with Ukraine. Attacking not only Ukraine, but there have been some attacks on the countries of the European Union. For example, Russian secret service GRU is reportedly behind the attacks on the Czech republic and the SPD German political party (Valášek et. al., 2024).

Cyberwarfare is ethically wrong, in my opinion, and I would say everybody agrees. The disinformation campaigns, that take place are really dangerous for society. The damage cyber attacks leave on infrastructure, such as the power grid and hospitals is enormous. It affects people directly, even though it begins as a cybersecurity threat.  Cyberwarfare challanges existing international law and ethics frameworks. The boundaries are not as clear as in traditional warfare. Also, identifying the attackers is rather difficult, so the lack of clarity undermines accountability and can escalate conflicts.

List of references

Nelson. (2022, August 17). Digital connectivity: The benefits of inclusive internet access. USGLC. https://www.usglc.org/blog/digital-connectivity-the-benefits-of-inclusive-internet-access/

Luo. (2022). A general framework of digitization risks in international businesshttps://www-webofscience-com.zdroje.vse.cz/wos/woscc/full-record/WOS:000655541900001

National Audit Office. (2017). Investigation: WannaCry cyber attack and the NHS. National Audit Office. https://www.nao.org.uk/wp-content/uploads/2017/10/Investigation-WannaCry-cyber-attack-and-the-NHS.pdf

Healthcare Information and Management Systems Society. (2020). 2020 HIMSS cybersecurity survey. https://www.himss.org/sites/hde/files/media/file/2020/11/16/2020_himss_cybersecurity_survey_final.pdf

Fortinet. (n.d.). What is cybersecurity? Different types of cybersecurity. Fortinet. https://www.fortinet.com/resources/cyberglossary/what-is-cybersecurity

Cisco. (n.d.). What is cybersecurity? Cisco. https://www.cisco.com/site/us/en/learn/topics/security/what-is-cybersecurity.html

Fasulo. (2024).  What is the CIA triad? Definition, importance, & examples. SecurityScorecard. https://securityscorecard.com/blog/what-is-the-cia-triad/

Liu, AX (Liu, AX); Gouda, MG (Gouda, MG) ; Ma, HBH (Ma, HBH) ; Ngu, AHH (Ngu, AHH). (2005).  Firewall queries. Web of science. https://www-webofscience-com.zdroje.vse.cz/wos/woscc/full-record/WOS:000231114900015

Deshpande, C. (2024). What is firewall: Types, how does it work & advantages | Simplilearn. Simplilearn.com. https://www.simplilearn.com/tutorials/cyber-security-tutorial/what-is-firewall

Fortinet. (n.d.). What is encryption? Definition, types & benefits. (n.d.). Fortinet. https://www.fortinet.com/resources/cyberglossary/encryption

Higgins. (2022).  The importance of multifactor authentication. CIO.GOV. https://www.cio.gov/2022-10-26-importance-multifactor-authentication/

NIST, (2024). Multi-factor authentication. (2024). NIST. https://www.nist.gov/itl/smallbusinesscyber/guidance-topic/multi-factor-authentication

Kobylinski, A; Lipski, S. (2012).  STUDY ON THE ANTIVIRUS SOFTWARE EFFECTIVENESS. Web of science. https://www-webofscience-com.zdroje.vse.cz/wos/woscc/full-record/WOS:000313136800076

Aliza Vigderman, Gabe Turner. (2024).  Does antivirus stop hackers? Security.org. https://www.security.org/antivirus/hackers/

INSTITUTE OF DATA. (2024, April 2). What are the 7 types of cybersecurity? Institute of Data. https://www.institutedata.com/us/blog/what-are-the-7-types-of-cybersecurity/

Demirel. (2023, December 28).  Types of cybersecurity: A comprehensive overview. Clarusway. https://clarusway.com/types-of-cybersecurity/

CompTIA. (n.d.).  What is cybersecurity. CompTIA.org. https://www.comptia.org/content/articles/what-is-cybersecurity

SailPoint. (2023, July 29).  Zero trust security: The zero trust model. sailpoint.com. https://www.sailpoint.com/identity-library/zero-trust-model

Turnbull. (2022, September 29).  Optus: How a massive data breach has exposed Australia. BBC News. https://www.bbc.com/news/world-australia-63056838

Evans. (2022, September 26).  Home affairs minister says Optus ‘left window open’ for cyber criminals to conduct simple hack. ABC (Australian Broadcasting Corporation). https://www.abc.net.au/news/2022-09-26/home-affairs-minister-blames-optus-for-cyber-attack-hack/101474636

Whelan, C; Martin, J. (2023, November).  ‘Hacking the hackers’: reflections on state-implemented disruption as a ‘new model’ for cyber policing. Web of Science. https://www-webofscience-com.zdroje.vse.cz/wos/woscc/full-record/WOS:001104119400001

Powell. (2022, November 28).  Hacker attempts to sell data of 500 million WhatsApp users on dark web. Cyber security hub. https://www.cshub.com/attacks/news/hacker-attempts-to-sell-data-of-500m-whatsapp-users-on-dark-web

Manworren, N; Letwat, J; Daily, O. (2016). Why you should care about the Target data breach. Science direct. https://www-sciencedirect-com.zdroje.vse.cz/science/article/abs/pii/S0007681316000033

GAO. (2021). Colonial pipeline cyberattack highlights need for better federal and private-sector preparedness (infographic). U.S. Government Accountability Office (U.S. GAO). https://www.gao.gov/blog/colonial-pipeline-cyberattack-highlights-need-better-federal-and-private-sector-preparedness-infographic

Evan Perez, Zachary Cohen, Alex Marquardt. (2021, June 8). First on CNN: US recovers millions in cryptocurrency paid to colonial pipeline ransomware hackers | CNN politics. CNN. https://edition.cnn.com/2021/06/07/politics/colonial-pipeline-ransomware-recovered/index.html

Manuel Velasquez, Dennis Moberg, Michael J. Meyer, Thomas Shanks, Margaret R. McLean, David DeCosse, Claire André, and Kirk O. Hanson. (2009, May).  A Framework for Ethical Decision Making. Santa Clara University. https://www.cse.sc.edu/~mgv/csce390f23/MarkkulaFramework.pdf

Vallor, Ph.D. (n.d.). An Introduction to Cybersecurity Ethics. Santa Clara University. https://www.scu.edu/media/ethics-center/technology-ethics/IntroToCybersecurityEthics.pdf

Gorbatai. (2022, October 18). What is digital ethics? Vlerick Business School | Vlerick Business School. https://www.vlerick.com/en/insights/what-is-digital-ethics/

Paul Formosaa, Michael Wilsonb, Deborah Richards. (2021).  A principlist framework for cybersecurity ethics. Web of Science. https://www-webofscience-com.zdroje.vse.cz/wos/woscc/full-record/WOS:000685459300019

Macnish, K; van der Ham, J. (2020, November).  Ethics in cybersecurity research and practice. Web of Science. https://www-webofscience-com.zdroje.vse.cz/wos/woscc/full-record/WOS:000600846300012

Gomez. (2024, April 25). Cybersecurity ethics: Everything you need to know. Our Lady of the Lake University. https://www.ollusa.edu/blog/cybersecurity-ethics.html

Kevin Johnson, Scott Martin, Jayne O’Donnell and Michael Winte. (n.d.). NSA taps data from 9 major Net firms. usatoday.com. https://eu.usatoday.com/story/news/2013/06/06/nsa-surveillance-internet-companies/2398345/

Glory. (2024, November 14). What is PRISM program? Here is all you need to know about it. PrivacySavvy. https://privacysavvy.com/security/spying/prism-program/

Christopher Kuner, Fred H. Cate, Christopher Millard, Dan Jerker B. Svantesson. (2013). PRISM and privacy: will this change everything? watermark.silverchair.com. https://watermark.silverchair.com/ipt020.pdf?token=AQECAHi208BE49Ooan9kkhW_Ercy7Dm3ZL_9Cf3qfKAc485ysgAAA0swggNHBgkqhkiG9w0BBwagggM4MIIDNAIBADCCAy0GCSqGSIb3DQEHATAeBglghkgBZQMEAS4wEQQMl2tdmPwtwD3OaajlAgEQgIIC_nKCStWMzGCU_HskY0neZveprCYX6S41hBYWFFYxdAvVsOhAG2JNvhduKoWydfpqfaLuWUSGMx1a957M5Oz97pRUaX3bOfp4rJcmxnmENGFOtprqA15VCoRinGuZN87OyL0beToaSV_PqIEeFPCJFiVIiE3rdio4ZP4qKDFrgeRSOC0jHWV6H6G0Rv_TveEj8tQNLpcx2Ho6QjD1ROZQspZXHM1vE7pJAiBEyR2QUU5R3WcbNDdeMP_CntK8LPZyHNWNaJNIZua0bJ8WI9U2JFwUxfMKvmSb1V5Wi6NpurFGwFg2iSox5RX4ZFftaSFQtNPTow_DoiiMYoVyfxeKkCYbIgvVxcVysGXhvdGD8sROXT7uQUUbSuNA9nv1jKC-4DXgJCkSerBefCbKFfFOo-V3zIX7XwtO71b0Uq1RzOCAoPOa-E5tioFAT-5vgp070fQBR3hb1d0QcETC0tPe2vUapw3BwW9TWB4Jz-u4ifEHQPP88j0ZAg8Aa6msbhK5nMllhljoyN0Fm-caudgnls8mJ4AaI70kei1sHKAVFNzq-LqpTaHqmPzDPU2SrqyNSGtM6H-VI3MiNhDYVOU6LNQqhC94cZKPsWDGxhmnLpK6JSLPbrjM8sc7mYUtAoJ-mpsdiDtxenIEZeGC57bRCoWLLt4lOxq90tNQsFSv1vNVz-764A0qgcTYUJGInfcbV1YGKuTqSh96rDC8n6V_C85-z3aWJEUVT4bppEzyguKX2ayU9AgGheLHUEb3mK4u8TLr1Loc8oAuTD_OXVaAeoQCU4Z7AmgJY-sWfh5WBnKsnYdUV51WOandEkk3Fw983eI50Zd8bAzLsbS5TKVobPM909t4NeWlUsPwB97FCPdGlDWkawb60GelntvDMXc6DrfJ8O-t2090u5EZ7K-vZU-JsrcNG2sa-Gh-8-VsvjxvEetQcVkCvpBSSbaNGmTEzBtd7Mod4SVB-ZoADt45vA9swcf0_Y086cJUQzSTJmy_2EBHn_dVtJaYAziH3L8

Lina Dencik, Arne Hintz, Jonathan Cable. (2016, November 24). Towards data justice? The ambiguity of anti-surveillance resistance in political activism. Sage Journals. https://journals.sagepub.com/doi/full/10.1177/2053951716679678#bibr9-2053951716679678

UC Berkeley. (n.d.). What is the purpose of the whistleblower policy? https://chancellor.berkeley.edu/what-purpose-whistleblower-policy

Legal Information Institute. (n.d.). Whistleblower Protection Act. LII / Legal Information Institute. https://www.law.cornell.edu/wex/whistleblower_protection_act

Nick Younger. (2020, November 19). The case of Edward Snowden. National Whistleblower Center. https://www.whistleblowers.org/news/the-case-of-edward-snowden/

Gawel, H. (2024, April 24). The Hacktivism. Internet Policy Review. https://policyreview.info/glossary/hacktivism

Chandler. (n.d.). How Anonymous works. HowStuffWorks. https://computer.howstuffworks.com/anonymous.htm

Kelley. (2024, March 21). AI in cybersecurity: A comprehensive guide. Caltech. https://pg-p.ctme.caltech.edu/blog/cybersecurity/ai-in-cybersecurity

Microsoft. (n.d.). What is AI for cybersecurity? | Microsoft security. Microsoft security. https://www.microsoft.com/en-us/security/business/security-101/what-is-ai-for-cybersecurity

NITRD. (2019). Artificial Intelligence and Cybersecurity: A Detailed Technical Workshop Report. The Networking and Information Technology Research and Development (NITRD) Program. https://www.nitrd.gov/pubs/AI-CS-Detailed-Technical-Workshop-Report-2020.pdf

RAND. (n.d.). Cyber Warfarehttps://www.rand.org/topics/cyber-warfare.html Lukáš Valášek, Adéla Jelínková. (2024, April 3). Útok hackerů. Česko poprvé ukázalo na ruskou tajnou služb. Seznam Zprávy. https://www.seznamzpravy.cz/clanek/domaci-kauzy-kyberneticke-vrbetice-na-cesko-utocili-hackeri-ruske-tajne-sluzby-gru-251109

Deepfake as a Cybersecurity threat

0

Introduction

Deepfake technology employs advanced machine learning capabilities to generate verisimilar videos, images, or audio of people. This artificial intelligence (AI) innovation raises questions about truth and lies in ways that make it contentious (Albahar and Almalk, 2019). Generative Adversarial Networks (GANs) is a complicated machine learning framework that powers Deepfake. It has two components: The generator and the discriminator. The generator creates false content, while the discriminator verifies its validity against genuine data (Mirsky and Lee, 2021). A big collection of real-life photos, videos, or audio recordings of the subject is used to train the model. This helps the computer recognize facial emotions, vocal intonations, and subtle mannerisms. Finally, it creates a lifelike but pretentious image that can trick even the most skilled viewer.

Principally, deepfake technology is popular because it has the capability to generate photo- or video-realistic results from a given dataset. GANs have facilitated the creation of deepfakes because its source code is open access and is easily available in platforms such as GitHub (Broklyn et al., 2024). As a result, the entry threshold is lower, enabling more people to exploit it for malicious interests. These forms of media are harmful to political systems and journalism as they erode people’s trust (Twomey et al., 2023). The major concern about the proliferation of deepfakes relates to its ability to deceive because it constitutes misinformation and disinformation. Once these deceitful media are generated, users usually share them on social media platforms, where people consume them as unedited content. Most of the audience on these social media platforms inadvertently share deepfakes (Ahmed, 2020).

The implications of deepfakes for cybersecurity are diverse, considering their many applications. For example, deepfake technology can be used to steal identity, whereby malicious persons create convincing content that impersonates others or commits fraud (Broklyn et al., 2024). Cybercriminals exploit this technology to steal other people’s identities, commit financial fraud, and spread misinformation that undermines trust in digital communications and media. These capabilities underline the effect of deepfakes on businesses and individuals, as well as necessitate the creation of new creative channels that can disenfranchise individuals and corporations by compromising the truth (Mustak et al., 2023). The use of deepfake technology raises concerns about the most appropriate strategies that can be used to detect and mitigate its negative consequences. Therefore, this paper examines how deepfake technology has evolved to become a major setback to cybersecurity across the globe and is sustained by misinformation and social engineering.

This paper has six chapters. The first chapter examines how GANs are used to develop deepfakes, and the second chapter discusses the various consequences of deepfakes in cybersecurity, highlighting identity theft, business fraud, and the spread of disinformation. To strengthen the approach in the paper, a review of real-world case studies involving the deepfake, focusing on political manipulation and CEO fraud, is presented in the third chapter. The fourth chapter examines the different methods for detecting deepfakes. Strategies for mitigating the consequences of deepfakes, as well as ethical issues and global perspectives of deepfakes, are presented in chapters five and six, respectively. The paper concludes with an overview of the main insights from the paper and actionable recommendations to suppress the effects of deepfakes in society.

GANS and deepfake technology

Understanding deepfakes

Deepfake technology uses GANs to develop video, audio, and images through an elaborate process involving a generator and the discriminator (Albahar and Almalk, 2019; Mirsky and Lee, 2021). GANs is an approach to generative modeling that uses deep learning methods such as convolutional neural networks. They are unsupervised machine learning models that automatically discover and learn regularities or patterns in input data. This capability makes GANs useful in generating output from the original dataset. Deepfakes use GANs that operate on a continuous feedback loop with the discriminator and generator. Usually, the discriminator and generator neural networks execute opposite functions: the generator accurately mimics real data to make fake images, videos, and sounds while the discriminator determines if the results are real or contrived (Albahar and Almalk, 2019). As the two networks become antagonistic, the generator becomes better at creating convincing false media as the discriminator finds errors and fixes them, making the generator even better at refining its output. Over time, the model learns to replicate the characteristics of the target, including their voice inflections, facial expressions, and behavioral traits (Broklyn et al., 2024). This process creates a synthetic media that is difficult to identify as fake as shown in Figure 1 below. The generator creates images that are realistic beyond the capability of the discriminator to determine if they are fake. Continued training usually culminates in the creation of high-quality fakes.

Figure 1: Generation of Deepfake using GANs.  The flow chart is adapted from Yu et al. (2024)

How GANs create deepfakes

Creating a deepfake starts with collecting large datasets because it involves complex machine learning models. The dataset may contain high-quality pictures, videos, or audio recordings of the target subject based on the user’s desired outcome (Albahar and Almalk, 2019). To create a deepfake video, the user creates a model with thousands of frames of the target’s facial expressions, gestures, and audio samples of their vocal patterns, intonations, and speech (Mustak et al., 2023). The generator of the GAN recreates these aspects as it studies this massive dataset, creating a synthetic person that looks real. Face mapping and replacement are some of the aspects of deepfakes that have been researched (Yu et al., 2021). They are usually the target for producing deepfakes because they allow the generator to smoothly replace the target’s face with another person’s face to suit the needs of the criminal (Almutairi and Elgibreen, 2022). Complex algorithms are used to track the eyes, nose, mouth, and another face that is used to link the target’s traits with the actor’s motions for a realistic media impression. Also, voice synthesis technology has enabled the development of audio deepfakes, which mimic the target’s pitch, pace, and timbre to improve realism (Almutairi and Elgibreen, 2022). Figure 2 shows a sample deepfakes datasets.

Figure 2: Deepfakes dataset. This sample dataset was used by Ciftci et al. (2020) in the research on biological signals.

One of the most intriguing aspects of deepfake technology is the generator’s ability to learn from the discriminator and gradually produce realistic videos. This machine-learning model can examine enormous datasets, uncover underlying patterns, and build convincing fakes (Mustak et al., 2023). The high processing power of modern technologies enables this iterative approach to take place. It is important to note that deepfake technology uses advanced neural systems (GANs) that require lots of computational power, databases, computer vision, and machine learning knowledge to successfully generate more convincing videos, audio, or photos (Mustak et al., 2023).

Today, many people can access deepfake technology because it is free to anyone who wants it. This is an important asset in altering communications, supporting education, and entertainment in informative and creative ways. Deepfake technology has become popular because it is used to spread misinformation through generated fake news and explicit content (Chesney and Citron, 2019; Mustak et al., 2023).  The liar’s dividend, which describes the situation where people evade liability for authentic audio and video suggestions due to public cynicism, is the underlying motivation for deepfakes (Chesney and Citron, 2019). This means that people cultivate misinformation through deepfakes. For example, a criminal may dismiss video evidence incriminating them in an offense as deepfake. The liar’s dividend increases as more people become aware of the deepfakes, implying that as the public becomes more skeptical toward visual media shared on social media platforms, the onus of denouncing video evidence increases. The next chapter explores the implications of deepfakes in cybersecurity.

Deepfakes in cybersecurity contexts

The development of GANs influences risks and threats arising from the misuse of deepfakes. GANs threaten cybersecurity and individual privacy because they can be used to create fake news, commit fraud, blackmail, and sway public belief (Yu et al., 2021). The fact that deepfake technology makes it easy to create fake media introduces major setbacks for authentication and verification of information technology infrastructure (Yu et al., 2021). This means that deepfakes exacerbate cybersecurity threats because attackers can access and use them to generate fake video or audio recordings of a senior leader in an entity and trick them into disclosing confidential information.

Identity theft

Cybercriminals are the major users of deepfake technology. Their interest is to imitate their targets, influence media, and mislead systems, thus explaining why cybercriminals are employing them increasingly. Among deepfakes’ main cybersecurity violations are identity theft. Deepfakes enable identity theft by allowing cybercriminals to impersonate others (Albahar and Almalk, 2019). Attackers use advanced AI to make films, photos, and audio that resemble a person’s voice or likeness with little data. Financial fraud is notoriously committed by impersonating top company executives. For example, a cybercriminal used deepfake audio of a CEO to falsely obtain at least $243,000 from a company, demonstrating how it is difficult to distinguish between fraud and authentic audio and videos (Raza et al., 2022). Deepfakes are used in phishing and other social engineering attacks, where attackers employ convincing videos or audio calls to get victims to reveal sensitive information or access secured systems (Yu, 2024). Such approaches are particularly effective when their goal is to circumvent voice-based authentication. As a result, deepfakes have evolved to threaten privacy and reputation due to increased impersonation attacks on online meetings, social media, and customer service. The increasing accessibility of deepfake technology remains a major cybersecurity threat, as identity theft and impersonation require robust detection tools.

Business fraud

Deepfake technology can also be used to perpetrate fraudulent transactions. Scammers are increasingly using deepfakes to steal money from people who fall into their trap unknowingly. Attackers impersonate CEOs or finance executives using deepfake voice, video, or images to access critical financial systems or authorize payments (Mustak et al., 2023). A famous example occurred when hackers mimicked a CEO’s voice and initiated a transaction that caused the company financial loss. Deepfake technology lets scammers realistically replicate human voices and appearances to bypass authentication (Yu, 2024). Phishers employ deepfakes to elicit financial or philanthropic donations by creating fake videos or messages. These frauds work well by using deepfakes to make victims less suspicious. Because deepfake content is easy to make and powerful for fraud, new detection methods are needed now.

In some cases, deepfake technology has been used to create sexual graphics for blackmailing and extorting money from their targets. Also, these images or videos can humiliate or expose victims whom they know fear the potential effects of their explicit content on the stability of their social, professional, and marriage relationships (Raza et al., 2022). Because deepfake technologies are easy to use, even non-technical people may create convincing content, worsening the situation.

Disinformation and political manipulation

Additionally, deepfake technology is a powerful force that perpetuates disinformation and political manipulation. Deepfakes can sway public opinion and spread misinformation, endangering democracy, and civilization (Broklyn et al., 2024). Bad actors can use realistic audio or video to make political figures appear in public places, making contentious comments, confessing to crimes, or fuelling division and anarchy contrary to their ideals. Such misinformation can cause public anger, divide communities, and influence elections. For example, some extremist groups employ deepfakes to distort history, spread lies, and damage their opponents. Deepfakes cause confusion and mistrust, which can affect the market standing in the industry (Broklyn et al., 2024; Yu, 2024). Edited political speeches or fake interviews are published to sway public perception. There is a need for better detection techniques, media literacy programs, and international cooperation to manage deepfake technologies.

Undermine biometric security

Cybercriminals can sometimes use deepfake technology to undermine biometric security systems, including facial recognition, voice authentication, and retinal scanning. Attackers could obtain unauthorized access to financial accounts, secure networks, or personal devices by utilizing deepfake voices or faces (Yu, 2024). These attacks can cause massive data breaches and financial losses. A hacker might use a deepfake voice to impersonate an account holder during a phone-based security check. Fake faces can trick facial recognition security systems at banks and businesses (Broklyn et al., 2024). Even the most advanced security systems are threatened by deepfakes, which are increasingly harder to detect. Cybersecurity experts suggest behavioral biometrics, multifactor authentication, and AI-powered synthetic media abnormality detection systems that have also been compromised, highlighting the danger that deepfakes cause.

Sabotage forensic investigations

Deepfakes can sabotage evidence and investigations from the data storage point and undermine forensic and legal investigations by injecting false evidence into criminal or court proceedings, which raises doubts about the authenticity of information for the process (Yu et al., 2021). For example, a doctored video could accuse someone of a crime they did not commit, and deepfake audio may incriminate an individual in a crime by fabricating conversations or admissions. Deepfake evidence may impede government or business investigations, considering that they might lose track of the cases and the danger of liar dividend in applying deepfakes. Considering the implication of deepfakes on cybersecurity, the next chapter explores the real-world cases that have been reported in the mainstream media in different parts of the world.

Real-world case studies of deepfake

Political manipulation

Deepfake technology is applied to create a realistic fake post, which is used as a tool for high-profile scams in businesses and political manipulation. The Russo-Ukrainian War presents an excellent case study for understanding how deepfakes influence democracies and political processes, focusing on the experience of the Ukrainian president and territorial integrity against Russian-state-sponsored hacking groups. This case demonstrates the generation of deepfake videos and how they are distributed through social and mainstream media, pointing out their potential impact on today’s conflicts. The conflict brought to the fore the extensive use of deepfake technology during conflicts as a device for misinformation and disinformation (Twomey et al., 2023). Deepfake videos depict the two governments’ efforts downplaying their values and commitment to the conflict. The presentation of these recordings exemplifies how cybercriminals can excel at causing harm to their adversaries, a perfect case for Ukraine and Russia in this conflict.

The deepfake that will be explored in this case involves President Volodymyr Zelensky calling on his soldiers to surrender their weapons. The video, which was posted on a Ukrainian news website, presented Zelensky announcing that the war was over, something that did not resonate with most Ukrainians who considered it false. At the time this video was circulating, the ticker on the channel’s live television feed reported similar information – falsely claiming that Ukraine was surrendering. Looking at the video, it is evident that there was improper lip sync, Zelensky’s accent was inaccurate, and his head and voice appeared fake, especially after careful examination. The post elicited comments across the globe. A notable comment was made by a professor of digital media forensics at the University of California, Berkley, Hany Farid, who said, “This is the first one we’ve seen that really got some legs, but I suspect it’s the tip of the iceberg” (Allyn, 2022). The credibility of the video was dealt a bigger blow when President Zelensky responded by saying, “We are defending our land, our children, our families. So, we don’t plan to lay down any arms. Until our victory” (Allyn, 2022). While Zelensky’s response might suggest a potential case of a liar’s dividend, there were glaring inconsistencies in the video that sufficiently sustained his denouncement. The hackers managed to send the video and associated messages extensively across live television broadcasts, including Ukraine 24, the national television, ordered Ukrainians to stop fighting and surrender their weapons. The social media played an important role in amplifying this deepfake. Russia-based VKontakte extensively spread the news.

Figure 3: The Manipulated Video of President Zelensky in February 2022. The video is obtained from the Telegraph Channel on YouTube. The link to the video is: https://www.youtube.com/watch?v=X17yrEV5sl4

Similarly, another case involves developing deepfakes that targeted the political process and the management of the 2023 voting in Slovakia. Manipulated deepfake videos were used to disseminate specifically pro-Russian political information; the content interfered with opponents of Robert Fico, who was later elected prime minister. They were shared through Telegram channels and other encrypted messaging platforms, presenting the opposition figures in a negative way that deepened already existing political rifts. The latter channeled this digital misinformation during Fico’s campaign, and some voters explained that deepfakes influence their decisions based on the credibility of other influential personalities (HKS Misinformation Review, 2023). This case shows that using deepfakes as material for misinformation can go viral and even impact election outcomes, even if the target is not endorsing the videos or the messages.

Business email compromise

Business email compromise (BEC), commonly known as CEO fraud affects an estimated 400 corporates daily. Throughout the globe, CEO fraud poses a major challenge to companies – SMEs and established corporations. In one of the most famous cases in 2019, the scammers attacked a British energy company. They used deepfake audio to pretend to be the CEO of the parent organization of the firm in Germany. The criminal asked the CEO to wire $ 243,000 to Hungary for payment to a supplier with a fake and urgent payment demand (Raza et al., 2022). The CEO, who considered the received call credible, agreed with the request, only to find out that transferring money was the idea of a fraudster. Like most emerging technologies, deepfake voice poses a present danger to corporate information security, as it empowers fraudsters to circumvent voice recognition mechanisms (Yu et al., 2024). This is because the technology used to make the audio and video content look so real that it makes people take actions they would typically not take if they gave it a second thought (Yu et al., 2024).

Adding to the concerns about deepfake manipulation, fraud in Baotou, China, involved using fake video calls. In this case, the fraudster applied a deepfake video of a close friend of the targeted person and asked for about $600,000. Since the victim thought, he was talking to his friend, he agreed to the scammer’s request. Many of the stolen funds were recovered, and, as with the Hatim Erler brothers, the scam exposed people to severe risks due to deepfakes. Such examples can be referred to in this case of the study since personal relations may be used for manipulating individuals by extorting money from them under the guise of close associates, mainly when digital technology is used to imitate such individuals (Economic Times, 2023).

Implications of the case study

The application of deepfake technology in the production of hyper-realistic media poses significant implications for politics and business. The deepfake depicting President Zelensky ordering his military to retreat demonstrates how malicious forces can use these videos to propagate their agenda. It exposes how videos of politicians can easily be manipulated to hoodwink the public. At the same time, the effect of deepfakes in the corporate sector is gross. They demonstrate how fraudsters can alter publicly available images and videos of CEOs to perpetrate crime. Considering the danger of deepfakes in society, it is necessary to deploy appropriate methods to detect them before they cause harm, such as political instability and financial loss. The next chapter explores the different methods that can be used to detect deepfakes.

Deepfake detection methods

Deepfake prediction (DFP) approach

Different methods can be used to detect deepfakes. Today, AI-based technology has become popular. Raza et al. (2022) proposed a “novel deep learning approach for deepfake image detection,” which they call deepfake predictor (DFP). The model is based on VGG16 and convolutional neural network (CNN) architecture, indicating that the model is a combination of VGG16 architecture that is integrated with CNN layers to boost performance. These capabilities include pooling layers to reduce dimensionality, dropout layers applied in mitigating overfitting, and relatively dense layers to enhance prediction. The hybrid system can make highly precise predictions on unseen data to help detect fake and real faces in use. The input images, both real and fake, are passed through the VGG16, which is a pre-trained neural network used in detecting images and extracting features. The obtained features are refined through the CNN layers that are fully integrated to analyze and classify the images as either fake or real.

Figure 4: Deepfake prediction methodology.  The model method was proposed by Raza et al. (2022). DFP approach is fully hyper-parametrized, yielding the best accuracy score.

Another important component of the CNN layers is that an output layer, considered the output neuron with a sigmoid activation function, fundamentally predicts the likelihood of an image being fake. The proposed DFP is designed to be optimized by the Adam optimizer, a binary cross-entropy loss function, and sigmoid activation in the output layer. In their experiment, Raza et al. (2022) determined the feasibility of the model at 94% accuracy, with a 94% F1 score on unseen test data. The loss score was also minimal at a paltry 0.2%, suggesting that the model is robust in detecting deepfake images. Thus, the model can be applied in detecting deepfakes because it is generally the most efficient, considering that it has a reduced computational complexity compared to other models like Xception. DFP can also be applied in real-world cybersecurity contexts to reduce vulnerabilities related to blackmail and identity theft. Raza et al. (2022) summarized the comparison between the noble DFP and other detection methods that used unique datasets, as shown in Table 1 below.

Table 1: Comparison of different detection methods. The list of deepfake detection methodologies is adapted from Raza et al. (2022). 

Biological Signal-based Methods

The biological signal-based methods can be used to detect deepfakes because deepfake videos do not depict accurate human mannerisms, such as blinking, eyebrow movements, or even natural stares. These temporal clues are essential in discriminating original videos from fake ones. Scientists have trained patterns that can pick out irregular blinks in the eyes or movements of the face, which are associated with deepfakes. For example, the neural network model, long-term recurrent CNN (LRCN), was developed to differentiate between open and closed eyes in a video. It determines the blink frequency by cropping the surrounding rectangular regions of the eye into a new pattern of input frames (Yu et al., 2021). Usually, the cropped patterns are fed through the LRCN model to obtain temporal dependencies. The extraction module applies VGG16 to extract the discriminative features from the eye region of the input video. The next step involves passing through sequence learning with the help of execution by the RNN model. In the final stage, a connected layer determines the likelihood of the eye being open or closed, which is then used to calculate the frequency of eye blinks (Yu et al., 2021).

Figure 5: Biological signal analysis. It involves extracting biological signals from face regions of authentic and fake images/ video pairs, and applying transformations to determine spatial coherence and temporal consistency, capturing signal characteristics in feature sets. Adapted from Ciftci et al. (2020).

Physiological signals are also being used more to discern fake videos. These cues are placed on identifying fresh shifts in the body movements that are nearly impossible for deepfake algorithms to copy accurately. AI-based systems can analyze these physiological signs that are not discernible to decide whether a video is real or fake. These models scrutinize everything from how often skin color changes during dictation to any facial developments because of talking, which is an excellent resource against deepfakes. Figure 6 shows a detection methodology that uses mouth movement.

Figure 6: Biological signal analysis. The methodology was proposed by Elhassan et al. (2022) in their study where they investigated mouth movements and transfer learning.

Overview of Other Detection Methods

Other approaches to detecting deepfakes include general networks, temporal consistency, visual artifacts, and camera fingerprints (Yu et al., 2021). Table 2 below compares the various methods used to detect deepfakes. General network approaches treat detection as a frame-level classification task accomplished by CNNs. The trained network is applied to predict all frames of the video extracted from a deepfake. The predictions are determined by calculating the mean on the neural networks, indicating that their precision depends on the neural networks under use. This method is limited by its ability to overfit on specific datasets. The temporal consistency, such as the CNN-RNN, examines the time continuity in a deepfake video. This method derives from the fact that autoencoders are unable to remember previously generated faces (that are generated in multi-frames in videos (Yu et al., 2021). The absence of this temporal awareness contributes to anomalies that suggest the presence of deepfake. An end-to-end trainable recurrent deepfake video detection system, based on convolutional long short-term memory (LSTM), is used to define the sequences of the video frames, and the CNN is applied to extract the frame feature while LSTM analyzes the frame (Yu et al., 2021). The next chapter explores various strategies to mitigate deepfakes.

Detection methodStrengthsWeaknessApplication
General NetworksHighly adaptable to various types of deepfakes; effective at recognizing patterns in data.Requires large datasets for training; computationally intensive.Identifying manipulated videos/images across social media.
Temporal ConsistencyExploits the temporal dimension; effective for video deepfakes.Struggles with single-frame analysis; requires computational resources for time-series analysis.Detecting altered facial movements in videos.
Visual ArtifactsEffective against low-quality deepfakes; easy to implement.May fail against high-quality or well-trained deepfakes.Identifying lighting inconsistencies in face-swapped images.
Camera FingerprintsEffective at detecting source manipulation; works well on high-quality, uncompressed media.Limited by quality requires access to camera-specific information.Authenticating original versus altered camera footage.
Biological Signal-BasedExploits natural, involuntary signals difficult to replicate; strong against face manipulations.Limited to facial deepfakes; requires visible biological features in the videoDetecting faked heart rate patterns in manipulated interview footage.

Table 2: Comparison of strengths and weaknesses of the guiding principle.

Mitigating strategies to combat deepfake threats

Blockchain technology

Mitigating the threats posed by deepfakes requires deploying blockchain technology to verify them and delete them from the source. Blockchain technology can also be used to verify content to combat the creation and spread of deepfakes. The immutable consensus that the distributed blockchain technology guarantees can enable users to determine the point of generated and where the distribution began (Broklyn et al., 2024). This approach can be highly effective in preserving the purity of media shared through the Net since once data gets on the WEB, blockchain makes the information hard to alter. Popular internet sites such as YouTube, Twitter, and Facebook use blockchain systems along with metadata required to prove the originality of an audio or video. This would form a checklist to help authenticate the public media before being released to counter deep fake sensationalism.

Government regulations

The government can also introduce strong laws to mitigate against the consequences of deepfakes and, in doing so, discourage their use. Deepfake is gradually becoming dangerous, and national governments are just beginning to realize this and are creating legislation to guard the public against deepfake (Birrer and Just, 2024). For example, in 2018, the United States signed the Malicious Deep Fake Prohibition Act, which makes deepfakes a criminal offense to fraud, harass, or defame individuals using deepfakes. Similarly, the present legal efforts in countries like China and India entail translating the strategies entailing the control of the production and distribution of deepfake political news (Birrer and Just, 2024). It is becoming essential to create an accountability mechanism for individuals who deliberately create such adverse deepfake effects, particularly where it can assure the distribution of fake news with the intent of gaining financially, manipulating the outcome of an election, and or using it to harass through cyberbullying.

However, there are gains to be made from seizing the ramp, where the rate of technological change is steep. So, if the technology becomes even more sophisticated and efficient, legal provisions must also be modified. In addition to criminalization, governments should understand how to pressure such technology companies to make digital platforms fully responsible for moderating the spread of deepfakes, especially those that could compromise the public good, stability, and sustainability (Broklyn et al., 2024). Tech giants such as Facebook and Google and police services can work together to detect those who use deepfake technology to perpetrate fraud.

Awareness creation and public sensitization

Moreover, awareness creation and sensitization campaigns can mitigate the creation and spread of deepfakes. The other crucial approach suggested is increasing people’s ability to recognize deepfakes and their dangers. In most cases, many people who consume deepfake information do not know that media is manipulative through inaccurate information. Some ways the public can be educated include informing the public on occasions where one can easily abuse a situation, how it can be viewed, and whether the firing squad was fake (Birrer and Just, 2024). Even before one shares a specific video, there is a way of checking whether it is fake. The European Union has been raising awareness and funding projects like the DeepTrace that create awareness of deepfakes and improve detection technologies. The subject should be integrated into schools and universities to ensure youth can analyze the media for authenticity. These strategies should be supported by social media platforms that must raise users’ digital awareness. The risk of exposure to dangerous media could be reduced when social websites provide warnings about other deepfake content and assist in fact-checking efforts. The implementation of these measures has implications for ethical issues and global perspectives. The next chapter explores these ethical and global issues associated with deepfakes.

Ethical and Global Perspectives

Public trust

Deepfake technology raises significant issues that touch on principles of public trust. The growth and distribution of deepfakes eroded public confidence in media and digital communication. Today, it is not easy to tell whether the videos available on social media platforms are real or just fabrications designed to achieve the creator’s ulterior motive (Vaccari and Chadwick, 2020). They are pervasive, and people who are not familiar with detecting deepfakes cannot tell if they are fake or real. For example, such challenges pose major setbacks to legitimate judicial processes that may require credible information to arbitrate. Criminals who have been reliably accused of crimes that are adequately backed by evidence availed before a competent court of law can dismiss audio-visual evidence as merely a fabrication intended to harm their reputation. Such cases raise skepticism in people, and the chance that people will admit their ills is indeterminate (Vaccari and Chadwick, 2020). For example, even criminals can discredit genuinely collected evidence by claiming it is another deepfake in circulation. In light of these issues, it is necessary to develop appropriate measures to mitigate the spread of malicious deepfakes to protect corporates from financial loss and bolster the stability of democracies by reducing political manipulation.

Freedom of expression

The advancement in deepfake technology affects people’s rights to freedom of expression. For example, the government’s attempts to regulate the spread of deepfakes through regulatory measures often infringe on people’s freedom of expression and creativity, as they are barred from expressing their art (Hu and Liu, 2024). This means that individuals who want to demonstrate their skills through deepfake technology cannot do so freely, fearing criminalization and prosecution. For instance, in China, regulations on AI have been considered to violate innovators’ freedom of expression. In some cases, overly strict controls could suppress innovative applications of deepfake technology in art, education, and entertainment (Hu and Liu, 2024). These challenges necessitate adopting a balanced approach where there are appropriate measures to distinguish between the malicious use of deepfake for political manipulation or business fraud.

Global perspectives on deepfakes

Different jurisdictions are considering the consequences of deepfakes in their communities and corporations and are developing suitable mitigation measures. For example, in the United States, existing fraud and defamation laws are being used to prosecute adverse applications of deepfake technologies. These regulations are not effective because they are shallow and do not cover all aspects of deepfake technology. Notwithstanding, there are also state-level regulations that apply to the use of deepfake technology, especially regarding the creation of non-consensual explicit content (Alfiani and Santiago, 2024). The major setback to the operationalization of these guidelines, however, is American values of promoting innovation. The prevailing belief is that the United States’ commitment to being the leading technological hub cannot be limited by any regulation, including those that address the usage of deepfake technology. This is not the case in the European Union, where there are comprehensive regulatory frameworks guiding the use of deepfake technology. For example, the Digital Service Act (DSA) has a specific provision dedicated to addressing GAN-generated content – video, image, and audio (Alfiani and Santiago, 2024). It aims to avert illegal activities online and the spread of disinformation that resonates with a commitment to regulating the malicious use of deepfake technology. These regulations are strengthened by the AI Act, which was formulated to shape Europe’s digital future (Alfiani and Santiago, 2024). Its main objective is to ensure that all AI-generated content – video and audio – is identifiable.

Regulations and legislative acts establish the legal and ethical framework that curbs the malicious production and use of deepfakes. Different jurisdictions have regulations to curtail the risk of deepfakes. However, there are undercutting regulatory frameworks that are essential in averting risk. For example, the US and China have adopted legislation to target the misuse of deepfakes, such as identity theft, financial fraud, and disinformation. Ethical standards for AI use have been widely published worldwide as an efficient measure to combat risks that might emerge from creating malicious deepfakes (Hu and Liu, 2024). At the same time, social media platform accountability has become a core tenet of regulatory framework for corporations such as Facebook and Twitter. Objectively, these corporations must implement robust systems to detect malicious activities, including deepfakes, before their consequences become evident (Hu and Liu, 2024). Deepfake risks continue to present significant issues, especially with advancements in AI technology. International regulatory frameworks have been implemented to address the cross-border challenges associated with deepfake.

Overall, while prevention is an advanced measure to combat risks, regulations establish the ethical and legal framework for producing and deploying deepfakes. The combined value of these measures is based on their ability to create a multi-layered defense system. Prevention limits the technical feasibility of generating and spreading deepfakes for malicious interests. Regulatory frameworks deter actors from exploiting these technologies for malicious gains by emphasizing the legal consequences of a deliberate breach. Therefore, the attempts to combat deepfakes, including their impacts on cybersecurity, require the adoption of appropriate prevention and regulatory measures.

Ethical issues

The challenges associated with deepfakes raise essential ethical issues that users, corporations, and the government should consider amidst its growth in popularity. Deepfakes engrave the issue of consent and autonomy. The main challenge relates to the lack of informed consent whenever criminals create malicious videos and audio that they intend to use to manipulate their target (Tuysuz and Kılıç, 2023). Individuals whose images or videos are used to generate deepfakes often ask about their autonomy over digital identity and consent. Other ethical issues that need consideration are the ethics of digital content, manipulation of identity, and digital agency. These ethical considerations involve misinformation and loss of trust, spread of false information, information integrity, and digital deception (Tuysuz and Kılıç, 2023). Accordingly, it is essential that the use of deepfakes must be informed by the impact on society, moral responsibility, and ethical use guidelines, which require strict compliance with an ethical framework.

Conclusion and recommendation

Deepfake technology rapidly evolves to create cybersecurity challenges to digital communication, institutional trust, and social relationships. The study has explored how advancements in deepfakes have affected business connections and democracies. Powered by GANs, a powerful AI machine learning architecture, deepfakes can potentially create hyper-realistic media that people cannot easily discern from real images or videos. The ability of GANs to generate these synthetic media that people cannot easily classify as unreal is a major challenge to policymakers, individuals targeted with fraud, and corporations that navigate CEO fraud – identity theft and financial fraud. Deepfakes have also been at the center of swaying public opinion, undermining political systems, and perpetuating chaos during conflicts. The manipulated video of President Zelensky calling on the military to withdraw combat clearly demonstrates how deepfakes can be abused in a conflict. This means that advancement in deepfakes increases vulnerabilities to the integrity of biometric security systems, disinformation campaigns, impersonation, and potential interference with legal processes and forensic investigations. Different approaches can be used to detect deepfakes: AI-based and biological options.

These challenges necessitate the implementation of comprehensive mitigation measures. These strategies could include technology solutions using advanced AI-based detection algorithms, blockchain verification technologies, and operationalization of complex authentication tools. Legal and regulatory frameworks can also provide critical insights into mitigating deepfakes. Adopting legislation that criminalizes the creation of malicious deepfakes, fostering international cooperation to address cross-border challenges in managing the risk landscape, and promoting accountability mechanisms for digital platforms are some of the essential regulatory strategies that can address the increasing cases of malicious deepfakes. Given the availability and easy access to deepfake technologies, it is essential to promote public awareness and education programs to bolster the ability to recognize fraudulent videos, audio, and images.

These strategic alternatives require prioritizing media literacy programs, digital awareness campaigns, and integration of deepfake awareness into existing education curricula in schools. These approaches will bolster the public’s knowledge and utilization of deepfakes. A multi-faceted approach can offer more robust mitigation considering the complex challenges deepfakes pose to businesses through financial loss and governments through political manipulation. This approach emphasizes the collaboration of different stakeholders involved in development, distribution, and utilization and the creation of legal and regulatory measures that underpin the challenges deepfake causes in society. 

Summary

Deepfake technology is both a transformative and dangerous innovation. This paper examines the diverse impacts of deepfake technology on cybersecurity by discussing its capabilities, real-world applications, and threats that everyone should pay attention to and possibly brainstorm solutions. Media generated by GANs are considered hyper-realistic because they are difficult to discern from real photos. The iterative process of GANs during image generation effectively culminates in media with striking accuracy. While deepfakes are a good innovation, criminals have majorly exploited them to achieve their malicious motives. Deepfake technology is available through open-source platforms such as GitHub. This has democratized its usage for creative and innovation pursuits, as well as malicious exploitation. In most cases, it has turned out that deepfake technology has been used by criminals to steal information and pressure businesses into losing finances. This study has explored how deepfake technology has been used in the Russo-Ukrainian War, with the most striking example being a political manipulation targeting President Zelensky. The case demonstrated how deepfake could be used to spread disinformation.

The consequences of deepfake technology necessitate developing detection methods. Methods such as Convolutional neural networks, temporary consistency checks, and biological signals have demonstrated viability. Also, blockchain solutions can be essential in verifying the authenticity and background check on the deepfake. Considering the ethical, social, economic, and political consequences of deepfakes, it is necessary to adopt advanced detection technologies with robust legal frameworks to ensure accountability of social media platforms where most of the social engineering occurs. Education and public awareness campaigns can also help empower people to identify deepfakes and resist misleading media. People must implement these conscious efforts while upholding ethics, which will support balancing innovation with trust and privacy.

List of references

Albahar, M. and Almalki, J., 2019. Deepfakes: Threats and countermeasures systematic review. Journal of Theoretical and Applied Information Technology, 97(22), pp.3242-3250. https://www.jatit.org/volumes/Vol97No22/7Vol97No22.pdf

Alfiani, F.R.N. and Santiago, F., 2024. A Comparative Analysis of Artificial Intelligence Regulatory Law in Asia, Europe, and America. In SHS Web of Conferences (Vol. 204, p. 07006). EDP Sciences. https://doi.org/10.1051/shsconf/202420407006

Almutairi, Z. and Elgibreen, H., 2022. A Review of Modern Audio Deepfake Detection Methods: Challenges and Future Directions. Algorithms, 15(5), pp.155; https://doi.org/10.3390/a15050155

Allyn, B., 2022, March 16. Deepfake video of Zelenskyy could be ‘tip of the iceberg’ in info war, experts warn [Online]. NPR Available from  https://www.npr.org/2022/03/16/1087062648/deepfake-video-zelenskyy-experts-war-manipulation-ukraine-russia  [Accessed 4 December 2020].

Birrer, A. and Just, N., 2024. What we know and don’t know about deepfakes: An investigation into the state of the research and regulatory landscape. new media and society, p.14614448241253138. https://doi.org/10.1177/14614448241253138

Broklyn, P., Egon, A. and Shad, R., 2024. Deepfakes and cybersecurity: Detection and mitigation.  https://ssrn.com/abstract=4904874 [Accessed 4 December 2020]

Chesney, R. and Citron, D. K., 2019. Deepfakes and the new disinformation war: The coming age of post-truth geopolitics. Foreign Affairs, 98(1), pp.147-155. https://www.foreignaffairs.com/articles/world/2018-12-11/deepfakes-and-new-disinformation-war. [Accessed 4 December 2020]

Ciftci, U.A., Demir, I. and Yin, L., 2020. Fakecatcher: Detection of synthetic portrait videos using biological signals. IEEE transactions on pattern analysis and machine intelligence. https://doi.org/10.1109/TPAMI.2020.3009287

Economic Times, 2023. May 22. ‘Deepfake’ scam in China fans worries over AI-driven fraud [Online]. Economic Times. https://economictimes.indiatimes.com/tech/technology/deepfake-scam-in-china-fans-worries-over-ai-driven-fraud/articleshow/100421546.cms?from=mdr. [Accessed 4 December 2020]

Elhassan, A., Al-Fawa’reh, M., Jafar, M.T., Ababneh, M. and Jafar, S.T., 2022. DFT-MF: Enhanced deepfake detection using mouth movement and transfer learning. SoftwareX, 19, p.101115. https://doi.org/10.1016/j.softx.2022.101115

HKS Misinformation Review, 2023. Beyond the deepfake hype: AI, democracy, and “the Slovak case” [Online]. MIS Info Review.  https://misinforeview.hks.harvard.edu/article/beyond-the-deepfake-hype-ai-democracy-and-the-slovak-case/  [Accessed 4 December 2020]

Hu, Q. and Liu, W., 2024. The Regulation of Artificial Intelligence in China.” In 2024 3rd International Conference on Social Sciences and Humanities and Arts. Atlantis Press, pp. 681-689. https://doi.org/10.2991/978-2-38476-259-0_71 

Mirsky, Y. and Lee, W., 2021. The creation and detection of deepfakes: A survey. ACM Computing Surveys, 54(1), pp.1–41. https://doi.org/10.48550/arXiv.2004.11138

Mustak, M., Salminen, J., Mäntymäki, M., Rahman, A. and Dwivedi, Y. K., 2023. Deepfakes: Deceptions, mitigations, and opportunities. Journal of Business Research, 154, pp.113368. https://doi.org/10.1016/j.jbusres.2022.113368

Raza, A., Munir, K.  and Almutairi, M., 2022. A novel deep learning approach for deepfake image detection. Applied Sciences, 12(19), pp.9820. https://doi.org/10.3390/app12199820

Seng, L. N., Mamat, N., Abas, H. and Ali, W., 2024. AI integrity solutions for deepfake identification and prevention. Open International Journal of Informatics, 12(1), pp.35-46. https://doi.org/10.11113/oiji2024.12n1.297

Twomey, J., Ching, D., Aylett, M.P., Quayle, M., Linehan, C. and Murphy, G., 2023. Do deepfake videos undermine our epistemic trust? A thematic analysis of tweets that discuss deepfakes in the Russian invasion of Ukraine. Plos one, 18(10), p.e0291668. https://doi.org/10.1371/journal.pone.0291668

Tuysuz, M.K. and Kılıç, A., 2023. Analysing the Legal and Ethical Considerations of Deepfake Technology. Interdisciplinary Studies in Society, Law, and Politics, 2(2), pp.4-10. https://doi.org/10.61838/kman.isslp.2.2.2

Vaccari, C. and Chadwick, A., 2020. Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social media+ Society, 6(1), p.2056305120903408. https://doi.org/10.1177/2056305120903408

Yu, G. A., 2024. Deepfakes as a cybersecurity threat. Право и практика, (2), pp.119-123. https://cyberleninka.ru/article/n/deepfakes-as-a-cybersecurity-threat

Yu, P., Xia, Z., Fei, J. and Lu, Y., 2021. A survey on deepfake video detection. Iet Biometrics, 10(6), pp.607-624. https://doi.org/10.1049/bme2