Приведите определение идеи ошибки

ОШИБКА

неправильность в действиях, мыслях; несоответствие между объектом или явлением, принятым за эталон (материальный объект, решение задачи, действие, которое привело бы к желаемому результату), и объектом/явлением, сопоставленным первому.
Литература: [114].

Источник: Методология: словарь системы основных понятий. 2013

Ошибка

(древ.‑рус. ошибать, шибать – ударять, ударить мимо цели) – непреднамеренное отклонение от истины или установленных правил; неправильность в мыслях, высказываниях, поступках и действиях; то, что невозможно рассчитать и предсказать заранее, опираясь на имеющиеся знания; отклонение значения измеряемой или теоретически определяемой величины от её настоящего значения. О. подразделяются на речевые, грамматические, логические, этические, фактические.

Источник: Истина и ложь в терминах понятиях и определениях. Анапа. 2018

Ошибка

один из видов отклонений от нормативной деятельности. Чтобы неверное действие можно было считать ошибкой, нужно чтобы человек, совершивший это действие, обладал свободой воли, личности, сознания и телесности (иначе это действие является вынужденным, пробующим, спонтанным или недействием), при этом (при наличии свободы воли, личности, сознания и телесности) человек должен иметь достаточную силу воли выполнить действие правильно (иначе это будет слабоволием), иметь личное намерение выполнить действие правильно (иначе это будет преступлением), иметь знания о том (осознавать), что является правильным действием (иначе это будет заблуждением) и физически уметь выполнять действие правильно (иначе это будет неумением) Такое определение ошибки делает природу ошибки виртуальной, поскольку переводит механизм ошибки в иную реальность, виртуальную реальность, где относительно константной реальности нет проблемы свободы и несвободы совершения действия (Н.А. Носов, Словарь виртуальных терминов).

Источник: Теория и практика разрешения виртуального конфликта, Практико-ориентированная монография

Ошибка

Свойство ошибки в том, что ее принимают за истину. Именно этим ошибка отличается от лжи (мы можем понять, что нам лгут, но не в состоянии понять, что сами ошибаемся). Поэтому ошибка всегда бывает невольной. Ошибка – это не просто ложная идея, это ложная идея, принимаемая за истинную. В той мере, в какой она ложна, она имеет лишь отрицательное бытие (Ложность); но в той мере, в какой она является идеей, она является частью действительности и истинного мира (ведь мы действительно ошибаемся, значит, ошибка реально ложна). Вот что говорит, например, Спиноза: «Люди заблуждаются, считая себя свободными. Это мнение основывается только на том, что свои действия они осознают, причин же, которыми они определяются, не знают» («Этика», часть II, теорема 35, схолия). Мы не потому ошибаемся, что свободны, как полагал Декарт; мы считаем себя свободными, потому что ошибаемся, и эта ошибка сама по себе – всего лишь неполная истина (ведь истинно, что мы действуем). Люди ошибаются по незнанию или от бессилия. Ошибка не является противоположностью позитивного знания: всякое знание частично и незакончено. Следовательно, мышление это труд, и ошибка – его обязательный элемент.

Источник: Философский словарь.

Ошибка

констатация неверности ранее введенного утверждения, которому придавался статус истинности или несоответствия результата мыслительного поиска ранее фиксированному вопросу («задачного» или «проблемного»).

Источник: Методологический словарь для стратегов

ОШИБКА

Отклонение от правильного употребления языковых единиц и форм. Результат ошибочного действия учащегося. О. классифицируются по аспектам языка (фонетические, лексические, грамматические) и видам речевой деятельности (понимание иноязычной речи, говорение, чтение, письмо). Особый класс ошибок составляют социокультурные О., являющиеся следствием социокультурного восприятия и оценки. Под типичными О. понимают определенные типы повторяющихся регулярных ошибок. Причины О. видят в межъязыковой и внутриязыковой интерференции либо в причинах дидактического характера. Межъязыковые ошибки возникают под влиянием родного языка и отражают особенности процесса овладения иностранным языком, ход этого процесса и влияние ранее усвоенных явлений изучаемого языка на новый материал. В зависимости от влияния О. на понимание и построение высказывания выделяются ошибки «сильные» (коммуникативные), абсолютно затрудняющие понимание высказывания и «слабые» ошибки (local errors), слабо влияющие на понимание. Анализ, исправление и предотвращение О. – важное условие овладения языком в соответствии с его нормами. Так, при отработке произношения звука, автоматизации употребления грамматической структуры исправления необходимы, поскольку в противном случае будет сформирован некорректный навык. При высказывании в ситуации общения исправлять нужно О., которые искажают мысль, нарушают коммуникацию. В зарубежной методике для обозначения ошибочных действий учащихся наряду с термином error используется термин mistake, который определяется как ошибка (оплошность), представляющая собой отклонение от нормы в потоке речи вследствие усталости, рассеянности и т. п., когда возможна самокоррекция ошибки со стороны участников общения. Такое различие между двумя типами ошибок, обозначаемых разными терминами, было предложено С. П. Кордером (Corder, 1993). В учебной литературе различия между двумя типами О. часто не дифференцируется. Коррекция учителем состоит не только в исправлении ошибок учащихся, сколько в организации дополнительной работы с единицами языка, которые вызывают у учащихся затруднения. При оценке уровня владения языком, помимо чистоты речи, т. е. количества и характера О., следует учитывать соотношение их количества с общим объемом высказывания на иностранном языке, т. е. «плотность ошибок» (Мусницкая, 1996).

Источник: Новый словарь методических терминов и понятий (теория и практика обучения языкам).

ошибки, связанные с нарушением логической правильности рассуждений. Л. о. состоят в том, что утверждается истинность ложных суждений (либо ложность истинных суждений), или логически неправильные рассуждения рассматриваются как правильные (либо логически правильные рассуждения – как неправильные), или недоказанные суждения принимаются за доказанные (либо доказанные – за недоказанные) или, наконец, неверно оценивается осмысленность выражений (бессмысленные выражения принимаются за осмысленные либо осмысленные – за бессмысленные); эти аспекты познават. ошибок могут различным образом сочетаться друг с другом (напр., принятие бессмысленного суждения за осмысленное обычно бывает связано с убеждением в его истинности). Л. о. изучались уже Аристотелем, к-рый в соч. «Опровержение софистических аргументов» проанализировал их виды. На этой основе в традиционной логике, начиная с трудов схоластов, было разработано подробное описание Л. о. В соответствии с выделяемыми в традиционной логике частями доказательства Л. о. были подразделены на ошибки в отношении (1) оснований доказательства (посылок), (2) тезиса и (3) формы рассуждения (демонстрации, или аргументации).

К числу Л. о. типа (1) относится прежде всего Л. о. ложного основания, состоящая в том, что в качестве посылки доказательства принимается ложное суждение (эта Л. о. наз. также основным заблуждением, лат. название – error fundamentalis; лат. названия логич. ошибок получили распространение, начиная с работ схоластич. логиков); поскольку из ложных суждений по законам и правилам логики могут быть выведены в одних случаях ложные, а в других – истинные следствия, постольку наличие в числе посылок ложного суждения оставляет открытым вопрос об истинности доказываемого тезиса. Частным случаем этой Л. о. является такое использование (в качестве посылки доказательства) нек-рого суждения, требующего для своей истинности определ. ограничит, условий, при к-ром это суждение рассматривается безотносительно к этим условиям, что приводит к его ложности.

Другой случай этой Л. о. состоит в том, что вместо нек-рой нужной для данного доказательства истинной посылки берется более сильное суждение, являющееся, однако, ложным (суждение А наз. более сильным, чем суждение В, если из А, в предположении его истинности, следует В, но не наоборот).

Другой вид Л. о. типа (1) – это Л. о. н е д о к а з а н н о г о о с н о в а н и я; она состоит в том, что в качестве посылки используется недоказанное суждение, в силу чего недоказанным оказывается и тезис доказательства. К числу Л. о. этого вида относится т.н. предвосхищение о с н о в а н и я или «предрешение основания» (лат. название – petitio principii), суть к-рого состоит в том, что за основание доказательства принимается суждение, истинность к-рого предполагает истинность тезиса. Важным частным случаем petitio principii является круг в доказательстве. Наиболее грубый случай круга дает Л. о., к-рая наз. idem per idem («то же через то же»), состоящая в том, что суждение «доказывается» посредством (по существу повторением) его же самого.

Л. о. типа (2) состоят в том, что доказываемый тезис в ходе доказательства подменяется нек-рым др. суждением, причем таким, что доказательство этого суждения не влечет доказательства тезиса. В основе этой Л. о. лежит неверное отождествление фактически доказанного суждения с тем тезисом, к-рый должен был быть доказан. Эта Л. о. наз. п о д м е н о й т е з и с а (или игнорированием тезиса, или отступлением от тезиса; лат. название – ignoratio elenchi). При Л. о. этого вида обычно имеется определ. связь между тезисом и подменившим его суждением (напр., сходство их грамматич. формы, сходство по содержанию и т.п.), в силу чего оказывается возможным их ошибочное отождествление. Так, в ряде случаев доказываемый тезис подменяется нек-рым более слабым суждением (суждение А слабее суждения В, если А следует из В, но не наоборот); в таких случаях говорят, что суждение, к-рое фактически доказано, является лишь частью тезиса. Естественно, что доказательство «части тезиса» не означает доказательства этого последнего. О совершающих такую Л. о. говорят: «Кто слишком мало доказывает, тот ничего не доказывает». К этому же типу Л. о. можно отнести и т.н. чрезмерное доказательство, к-рое состоит в подмене тезиса более сильным суждением, причем таким, что из него, помимо тезиса, следует и нек-рое ложное суждение (что свидетельствует о том, что это более сильное, чем тезис, суждение ложно). О совершающих такую Л. о. говорят: «Кто слишком много доказывает, тот ничего не доказывает». В др. случаях тезис, в к-ром говорится о ч.-л. с ограничением к.-л. условиями, подменяется тезисом, рассматриваемым безотносительно к этим условиям. Важным частным случаем подмены тезиса является т.н. аргументация к ч е л о в е к у (argumentum ad hominem), состоящая обычно в том, что обоснование истинности тезиса подменяется рассуждением о достоинствах или недостатках человека, защищающего этот тезис.

Самую большую группу составляют Л. о. типа (3). Грубая Л. о. этого вида – ошибка «н е с л е д у ет» (non sequitur); она состоит в том, что доказываемый тезис (обычно с помощью слов: «итак», «значит», «следовательно» и т.п.) присоединяется к рассуждению, относительно к-рого полагают, что оно доказывает тезис, но к-рое, однако, лишь внешне похоже на его доказательство, фактически же не имеет отношения к существу дела. Другой вид этой ошибки – не менее грубый – состоит в воздействии на чувства людей, воспринимающих доказательство, с целью убеждения их, помимо логич. аргументации, в истинности тезиса. Эта Л. о. наз. аргументацией к публике (argumentum ad publicum).

Менее грубый характер носят Л. о., состоящие в нарушении правильного хода доказательства на к.-л. его шаге. Такие Л. о. возникают в результате неверного отождествления или различения понятий и суждений, используемых в доказательстве, нарушения правил умозаключений, ошибок при операциях с понятиями и т.п. К числу Л. о., связанных с неверным отождествлением и различением, относится омонимия, а также амфиболия (отгреч. ἀμφίβολος – двусмысленный) – Л. о., возникающая в результате неясности или многосмысленности грамматич. конструкции выражения языка, в частности в результате того, что нек-рое грамматич. предложение или оборот речи употребляется в одном и том же рассуждении в различных значениях. К Л. о. этого вида может также вести неправильное различение языковых выражений, являющихся на деле синонимами, и вообще подмена терминов в ходе рассуждения, неверное отождествление значений выражений и т.п. К Л. о. этого же рода относится ошибка, проистекающая из отождествления суждения, в к-ром высказываемое относится к каждому предмету нек-рого класса (разделит, смысл), с суждением того же содержания, но в к-ром высказываемое относится к классу в целом (т.е. к классу как отд. предмету; собират. смысл); в этом случае, в зависимости от направленности рассуждения, говорят или об ошибке «от разделительного смысла к собирательному», или об ошибке «от собирательного смысла к р а з д е л и т е л ь н о м у». Аналогично отожде-ствление высказывания о частях к.-л. предмета с высказыванием об этом предмете как целом, выливается в Л. о., называемые ошибками «о т разделенного к составному» и «от составного к разделенному». К этому же виду Л. о. относится ошибка, в основе к-рой лежит отождествление суждения, истинного при нек-рых ограничивающих условиях («истинного относительно»), с таким же по содержанию суждением, но рассматриваемым безотносительно к этим условиям («истинного безотносительно»), проявляющаяся в ошибочном умозаключении » от истинного относительно к истинному безотносительно»; эта ошибка иначе наз. ошибкой «о т с к а з а н н о г о с условием к сказанному без у с л о в и я».

К числу Л. о. типа (3) относятся, далее, любые нарушения правил вывода в дедуктивных умозаключениях, а также ошибки в индукции, ошибочное применение аналогии и т.п. Таковы, в частности, Л. о., состоящие в нарушении установленных в традиционной логике правил обращения категорич. суждений, правил заключений по схеме логического квадрата; правил простого категорич. силлогизма (сюда относится, напр., «учетверение терминов», лат. название – quaternio terminorum); правил, относящихся к умозаключениям с условными и разделит, посылками (напр., ошибочные умозаключения «от истинности следствия условного суждения к истинности его основания» и «от ложности основания к ложности следствия»); ошибки в энтимемах и пр. Популярная индукция может приводить к ошибке поспешного обобщения. Эта ошибка наз. также заключением «о т с л у ч а й н о г о » (fallacia accidens), т.к. состоит в том, что, обнаружив, что нек-рое свойство налицо во всех наблюдавшихся предметах нек-рого класса, и не встретив противоречащих случаев, полагают, что оно является необходимым для всех предметов этого класса и, следовательно, принадлежит всем им; на деле же это свойство может принадлежать лишь нек-рым (не всем) предметам класса и быть в этом смысле в данном классе случайным. В рассуждениях о причинах явлений встречается Л. о. ложного вывода о причине; напр., когда от констатации определенной последовательности двух событий во времени переходят к заключению о том, что то из этих явлений, к-рое предшествует другому, является его причиной (эта Л. о. наз. «п о с л е э т о г о , значит по причине этого»: post hoc, ergo propter hoc). Л. о., связанные с нарушением правил оперирования с понятиями, – это ошибки при определении понятий и при делении их объема; нарушение правил определения и деления может вести к формулировке ложных суждений, к-рые, будучи использованными в рассуждении, лишают его доказат. силы. Бывают также Л. о., состоящие в допущении в процессе рассуждения логич. противоречий в к.-л. их форме (см. Противоречие в логике).

В традиц. логике все Л. о. подразделяются на непреднамеренные Л. о. – паралогизмы и преднамеренные – софизмы.

Учение традиц. логики о Л. о. охватывает все осн. виды логич. дефектов в содержат, рассуждениях людей. Средства совр. формальной логики позволяют лишь уточнить характеристику многих из них. В связи с развитием математич. логики понятие Л. о. находит естественное распространение на случаи ошибок, связанных с построением и использованием рассматриваемых в ней исчислений; в частности, всякая ошибка в применении правил образования или преобразования выражений исчисления может рассматриваться как Л. о.

Источником Л. о. в мышлении являются различные причины психологич., языкового, логико-гносеологич. и иного характера. Появлению Л. о. способствует прежде всего то, что многие логически неправильные рассуждения внешне похожи на правильные. Немаловажную роль играет также и то, что в обычных содержат, рассуждениях не все их шаги – суждения и умозаключения, в них входящие, – обычно бывают выраженными в явной форме. Сокращенный характер рассуждений часто маскирует неявно подразумеваемые в нем ложные посылки или неправильные логич. приемы. Важным источником Л. о. является недостаточная логич. культура, сбивчивость мышления, нечеткое понимание того, что дано и что требуется доказать в ходе рассуждения, неясность применяемых в нем понятий и суждений. Сбивчивость мышления бывает тесно связана с логич. несовершенством языковых средств, применяемых при формулировке тех или иных суждений и выводов. Источником Л. о. может быть также эмоциональная неуравновешенность или возбужденность. Питательной средой для Л. о., особенно для ошибки ложного основания, являются те или иные предрассудки и суеверия, предвзятые мнения и ложные теории.

В борьбе с Л. о. немаловажное значение имеет использование средств л о г и к и; эти средства дают должный результат в тех областях, где фактич. материал позволяет осуществить предписываемое формальной логикой уточнение формы рассуждений, выявление опущенных звеньев доказательств, развернутое словесное выражение выводов, четкое определение понятий. В этих областях применение логики является эффективным средством устранения сбивчивости, непоследовательности и бездоказательности мышления. Дальнейшее развитие средств логики – уже в рамках математич. логики – привело к оформлению строгой теории дедуктивного вывода, к логич. формализации целых разделов науки, к разработке искусственных (напр., т.н. информационно-логич.) языков. Вместе с тем выяснилось, что чем сложнее область исследования, тем сильнее проявляется неизбежная ограниченность формально-логич. средств. Средства логики сами по себе, как правило, не гарантируют правильности решения науч. и практич. вопросов; при всей их необходимости они дают должный эффект лишь в комплексе всей практич. и познават. деятельности человечества. Стоящая перед каждым человеком задача развить свой ум так, чтобы максимально предохранить себя от заблуждений и Л. о. в теоретич. и практич. деятельности, решается посредством усвоения и активного применения науч. мировоззрения и диалектико-материалистич. филос. метода, применения специальных методов исследования, использования современных приборов для вычисления, измерения и контроля, накопления знаний и практич. опыта, воспитания воли и внимания, развития памяти, навыков логич. мышления, повышения общей культуры и т.п.

Лит.: Асмус В. Ф., Учение логики о доказательстве и опровержении, [М. ], 1954, гл. 6; Уемов А. И., Логические ошибки. Как они мешают правильно мыслить, М., 1958.

Б. Бирюков, В. Швырев. Москва.

Философская Энциклопедия. В 5-х т. — М.: Советская энциклопедия.
Под редакцией Ф. В. Константинова.
1960—1970.

Problem solving is the process of achieving a goal by overcoming obstacles, a frequent part of most activities. Problems in need of solutions range from simple personal tasks (e.g. how to turn on an appliance) to complex issues in business and technical fields. The former is an example of simple problem solving (SPS) addressing one issue, whereas the latter is complex problem solving (CPS) with multiple interrelated obstacles.[1] Another classification of problem-solving tasks is into well-defined problems with specific obstacles and goals, and ill-defined problems in which the current situation is troublesome but it is not clear what kind of resolution to aim for.[2] Similarly, one may distinguish formal or fact-based problems requiring psychometric intelligence, versus socio-emotional problems which depend on the changeable emotions of individuals or groups, such as tactful behavior, fashion, or gift choices.[3]

Solutions require sufficient resources and knowledge to attain the goal. Professionals such as lawyers, doctors, programmers, and consultants are largely problem solvers for issues that require technical skills and knowledge beyond general competence. Many businesses have found profitable markets by recognizing a problem and creating a solution: the more widespread and inconvenient the problem, the greater the opportunity to develop a scalable solution.

There are many specialized problem-solving techniques and methods in fields such as engineering, business, medicine, mathematics, computer science, philosophy, and social organization. The mental techniques to identify, analyze, and solve problems are studied in psychology and cognitive sciences. Also widely researched are the mental obstacles that prevent people from finding solutions; problem-solving impediments include confirmation bias, mental set, and functional fixedness.

Definition[edit]

The term problem solving has a slightly different meaning depending on the discipline. For instance, it is a mental process in psychology and a computerized process in computer science. There are two different types of problems: ill-defined and well-defined; different approaches are used for each. Well-defined problems have specific end goals and clearly expected solutions, while ill-defined problems do not. Well-defined problems allow for more initial planning than ill-defined problems.[2] Solving problems sometimes involves dealing with pragmatics (the way that context contributes to meaning) and semantics (the interpretation of the problem). The ability to understand what the end goal of the problem is, and what rules could be applied, represents the key to solving the problem. Sometimes a problem requires abstract thinking or coming up with a creative solution.

Problem solving has two major domains: mathematical problem solving and personal problem solving. Each concerns some difficulty or barrier that is encountered.[4]

Psychology[edit]

Problem solving in psychology refers to the process of finding solutions to problems encountered in life.[5] Solutions to these problems are usually situation- or context-specific. The process starts with problem finding and problem shaping, in which the problem is discovered and simplified. The next step is to generate possible solutions and evaluate them. Finally a solution is selected to be implemented and verified. Problems have an end goal to be reached; how you get there depends upon problem orientation (problem-solving coping style and skills) and systematic analysis.[6]

Mental health professionals study the human problem-solving processes using methods such as introspection, behaviorism, simulation, computer modeling, and experiment. Social psychologists look into the person-environment relationship aspect of the problem and independent and interdependent problem-solving methods.[7] Problem solving has been defined as a higher-order cognitive process and intellectual function that requires the modulation and control of more routine or fundamental skills.[8]

Empirical research shows many different strategies and factors influence everyday problem solving.[9] Rehabilitation psychologists studying people with frontal lobe injuries have found that deficits in emotional control and reasoning can be re-mediated with effective rehabilitation and could improve the capacity of injured persons to resolve everyday problems.[10] Interpersonal everyday problem solving is dependent upon personal motivational and contextual components. One such component is the emotional valence of «real-world» problems, which can either impede or aid problem-solving performance. Researchers have focused on the role of emotions in problem solving,[11] demonstrating that poor emotional control can disrupt focus on the target task, impede problem resolution, and lead to negative outcomes such as fatigue, depression, and inertia.[12] In conceptualization,[clarification needed]human problem solving consists of two related processes: problem orientation, and the motivational/attitudinal/affective approach to problematic situations and problem-solving skills. People’s strategies cohere with their goals[13] and stem from the process of comparing oneself with others.

Cognitive sciences[edit]

Among the first experimental psychologists to study problem solving were the Gestaltists in Germany, such as Karl Duncker in The Psychology of Productive Thinking (1935).[14] Perhaps best known is the work of Allen Newell and Herbert A. Simon.[15]

Experiments in the 1960s and early 1970s asked participants to solve relatively simple, well-defined, but not previously seen laboratory tasks.[16][17] These simple problems, such as the Tower of Hanoi, admitted optimal solutions that could be found quickly, allowing researchers to observe the full problem-solving process. Researchers assumed that these model problems would elicit the characteristic cognitive processes by which more complex «real world» problems are solved.

An outstanding problem-solving technique found by this research is the principle of decomposition.[18]

Computer science[edit]

[icon]

This section needs expansion. You can help by adding to it. (September 2018)

Much of computer science and artificial intelligence involves designing automated systems to solve a specified type of problem: to accept input data and calculate a correct or adequate response, reasonably quickly. Algorithms are recipes or instructions that direct such systems, written into computer programs.

Steps for designing such systems include problem determination, heuristics, root cause analysis, de-duplication, analysis, diagnosis, and repair. Analytic techniques include linear and nonlinear programming, queuing systems, and simulation.[19] A large, perennial obstacle is to find and fix errors in computer programs: debugging.

Logic[edit]

Formal logic concerns issues like validity, truth, inference, argumentation, and proof. In a problem-solving context, it can be used to formally represent a problem as a theorem to be proved, and to represent the knowledge needed to solve the problem as the premises to be used in a proof that the problem has a solution.

The use of computers to prove mathematical theorems using formal logic emerged as the field of automated theorem proving in the 1950s. It included the use of heuristic methods designed to simulate human problem solving, as in the Logic Theory Machine, developed by Allen Newell, Herbert A. Simon and J. C. Shaw, as well as algorithmic methods such as the resolution principle developed by John Alan Robinson.

In addition to its use for finding proofs of mathematical theorems, automated theorem-proving has also been used for program verification in computer science. In 1958, John McCarthy proposed the advice taker, to represent information in formal logic and to derive answers to questions using automated theorem-proving. An important step in this direction was made by Cordell Green in 1969, who used a resolution theorem prover for question-answering and for such other applications in artificial intelligence as robot planning.

The resolution theorem-prover used by Cordell Green bore little resemblance to human problem solving methods. In response to criticism of that approach from researchers at MIT, Robert Kowalski developed logic programming and SLD resolution,[20] which solves problems by problem decomposition. He has advocated logic for both computer and human problem solving[21] and computational logic to improve human thinking.[22]

Engineering[edit]

When products or processes fail, problem solving techniques can be used to develop corrective actions that can be taken to prevent further failures. Such techniques can also be applied to a product or process prior to an actual failure event—to predict, analyze, and mitigate a potential problem in advance. Techniques such as failure mode and effects analysis can proactively reduce the likelihood of problems.

In either the reactive or the proactive case, it is necessary to build a causal explanation through a process of diagnosis. In deriving an explanation of effects in terms of causes, abduction generates new ideas or hypotheses (asking «how?»); deduction evaluates and refines hypotheses based on other plausible premises (asking «why?»); and induction justifies a hypothesis with empirical data (asking «how much?»).[23] The objective of abduction is to determine which hypothesis or proposition to test, not which one to adopt or assert.[24] In the Peircean logical system, the logic of abduction and deduction contribute to our conceptual understanding of a phenomenon, while the logic of induction adds quantitative details (empirical substantiation) to our conceptual knowledge.[25]

Forensic engineering is an important technique of failure analysis that involves tracing product defects and flaws. Corrective action can then be taken to prevent further failures.

Reverse engineering attempts to discover the original problem-solving logic used in developing a product by disassembling the product and developing a plausible pathway to creating and assembling its parts.[26]

Military science[edit]

In military science, problem solving is linked to the concept of «end-states», the conditions or situations which are the aims of the strategy.[27]: xiii, E-2  Ability to solve problems is important at any military rank, but is essential at the command and control level. It results from deep qualitative and quantitative understanding of possible scenarios. Effectiveness in this context is an evaluation of results: to what extent the end states were accomplished.[27]: IV-24  Planning is the process of determining how to effect those end states.[27]: IV-1 

Processes[edit]

Some models of problem solving involve identifying a goal and then a sequence of subgoals towards achieving this goal. Andersson, who introduced the ACT-R model of cognition, modelled this collection of goals and subgoals as a goal stack in which the mind contains a stack of goals and subgoals to be completed, and a single task being carried out at any time.[28]: 51 

Knowledge of how to solve one problem can be applied to another problem, in a process known as transfer.[28]: 56 

Problem-solving strategies[edit]

Problem-solving strategies are steps to overcoming the obstacles to achieving a goal. The iteration of such strategies over the course of solving a problem is the «problem-solving cycle».[29]

Common steps in this cycle include recognizing the problem, defining it, developing a strategy to fix it, organizing knowledge and resources available, monitoring progress, and evaluating the effectiveness of the solution. Once a solution is achieved, another problem usually arises, and the cycle starts again.

Insight is the sudden aha! solution to a problem, the birth of a new idea to simplify a complex situation. Solutions found through insight are often more incisive than those from step-by-step analysis. A quick solution process requires insight to select productive moves at different stages of the problem-solving cycle. Unlike Newell and Simon’s formal definition of a move problem, there is no consensus definition of an insight problem.[30]

Some problem-solving strategies include:[31]

Abstraction
solving the problem in a tractable model system to gain insight into the real system
Analogy
adapting the solution to a previous problem which has similar features or mechanisms
Brainstorming
(especially among groups of people) suggesting a large number of solutions or ideas and combining and developing them until an optimum solution is found
Critical thinking
analysis of available evidence and arguments to form a judgement via rational, skeptical, and unbiased evaluation
Divide and conquer
breaking down a large, complex problem into smaller, solvable problems
Help-seeking
obtaining external assistance to deal with obstacles
Hypothesis testing
assuming a possible explanation to the problem and trying to prove (or, in some contexts, disprove) the assumption
Lateral thinking
approaching solutions indirectly and creatively
Means-ends analysis
choosing an action at each step to move closer to the goal
Morphological analysis
assessing the output and interactions of an entire system
Proof of impossibility
try to prove that the problem cannot be solved. The point where the proof fails will be the starting point for solving it
Reduction
transforming the problem into another problem for which solutions exist
Research
employing existing ideas or adapting existing solutions to similar problems
Root cause analysis
identifying the cause of a problem
Trial-and-error
testing possible solutions until the right one is found

Problem-solving methods[edit]

  • A3 problem solving – Structured problem improvement approach
  • Design thinking – Processes by which design concepts are developed
  • Eight Disciplines Problem Solving – Eight Disciplines of Team-Oriented Problem Solving Method
  • GROW model – Method for goal setting and problem solving
  • Help-seeking – seeking help
  • How to Solve It – Book by George Pólya
  • Lateral thinking – Manner of solving problems
  • OODA loop – Observe–orient–decide–act cycle
  • PDCA – Iterative design and management method used in business
  • Root cause analysis – Method of identifying the fundamental causes of faults or problems
  • RPR problem diagnosis – problem diagnosis method designed to determine the root cause of IT problems
  • TRIZ – Problem-solving tools
  • Swarm intelligence – Collective behavior of decentralized, self-organized systems
  • System dynamics – Study of non-linear complex systems

Common barriers[edit]

Common barriers to problem solving include mental constructs that impede an efficient search for solutions. Five of the most common identified by researchers are: confirmation bias, mental set, functional fixedness, unnecessary constraints, and irrelevant information.

Confirmation bias[edit]

Confirmation bias is an unintentional tendency to collect and use data which favors preconceived notions. Such notions may be incidental rather than motivated by important personal beliefs: the desire to be right may be sufficient motivation.[32]

Scientific and technical professionals also experience confirmation bias. One online experiment, for example, suggested that professionals within the field of psychological research are likely to view scientific studies that agree with their preconceived notions more favorably than clashing studies.[33] According to Raymond Nickerson, one can see the consequences of confirmation bias in real-life situations, which range in severity from inefficient government policies to genocide. Nickerson argued that those who killed people accused of witchcraft demonstrated confirmation bias with motivation.[citation needed] Researcher Michael Allen found evidence for confirmation bias with motivation in school children who worked to manipulate their science experiments to produce favorable results.[34]

However, confirmation bias does not necessarily require motivation. In 1960, Peter Cathcart Wason conducted an experiment in which participants first viewed three numbers and then created a hypothesis in the form of a rule that could have been used to create that triplet of numbers. When testing their hypotheses, participants tended to only create additional triplets of numbers that would confirm their hypotheses, and tended not to create triplets that would negate or disprove their hypotheses.[35]

Mental set[edit]

Mental set is the inclination to re-use a previously successful solution, rather than search for new and better solutions. It is a reliance on habit.

It was first articulated by Abraham S. Luchins in the 1940s with his well-known water jug experiments.[36] Participants were asked to fill one jug with a specific amount of water by using other jugs with different maximum capacities. After Luchins gave a set of jug problems that could all be solved by a single technique, he then introduced a problem that could be solved by the same technique, but also by a novel and simpler method. His participants tended to use the accustomed technique, oblivious of the simpler alternative.[37] This was again demonstrated in Norman Maier’s 1931 experiment, which challenged participants to solve a problem by using a familiar tool (pliers) in an unconventional manner. Participants were often unable to view the object in a way that strayed from its typical use, a type of mental set known as functional fixedness (see the following section).

Rigidly clinging to a mental set is called fixation, which can deepen to an obsession or preoccupation with attempted strategies that are repeatedly unsuccessful.[38] In the late 1990s, researcher Jennifer Wiley found that professional expertise in a field can create a mental set, perhaps leading to fixation.[38]

Groupthink, in which each individual takes on the mindset of the rest of the group, can produce and exacerbate mental set.[39] Social pressure leads to everybody thinking the same thing and reaching the same conclusions.

Functional fixedness[edit]

Functional fixedness is the tendency to view an object as having only one function, and to be unable to conceive of any novel use, as in the Maier pliers experiment described above. Functional fixedness is a specific form of mental set, and is one of the most common forms of cognitive bias in daily life.

As an example, imagine a man wants to kill a bug in his house, but the only thing at hand is a can of air freshener. He may start searching for something to kill the bug instead of squashing it with the can, thinking only of its main function of deodorizing.

Tim German and Clark Barrett describe this barrier: «subjects become ‘fixed’ on the design function of the objects, and problem solving suffers relative to control conditions in which the object’s function is not demonstrated.»[40] Their research found that young children’s limited knowledge of an object’s intended function reduces this barrier[41] Research has also discovered functional fixedness in educational contexts, as an obstacle to understanding: «functional fixedness may be found in learning concepts as well as in solving chemistry problems.»[42]

There are several hypotheses in regards to how functional fixedness relates to problem solving.[43] It may waste time, delaying or entirely preventing the correct use of a tool.

Unnecessary constraints[edit]

Unnecessary constraints are arbitrary boundaries imposed unconsciously on the task at hand, which foreclose a productive avenue of solution. The solver may become fixated on only one type of solution, as if it were an inevitable requirement of the problem. Typically, this combines with mental set—clinging to a previously successful method.[44][page needed]

Visual problems can also produce mentally invented constraints.[45][page needed] A famous example is the dot problem: nine dots arranged in a three-by-three grid pattern must be connected by drawing four straight line segments, without lifting pen from paper or backtracking along a line. The subject typically assumes the pen must stay within the outer square of dots, but the solution requires lines continuing beyond this frame, and researchers have found a 0% solution rate within a brief allotted time.[46]

This problem has produced the expression «think outside the box».[47][page needed] Such problems are typically solved via a sudden insight which leaps over the mental barriers, often after long toil against them.[48] This can be difficult depending on how the subject has structured the problem in their mind, how they draw on past experiences, and how well they juggle this information in their working memory. In the example, envisioning the dots connected outside the framing square requires visualizing an unconventional arrangement, which is a strain on working memory.[47]

Irrelevant information[edit]

Irrelevant information is a specification or data presented in a problem that is unrelated to the solution.[44] If the solver assumes that all information presented needs to be used, this often derails the problem solving process, making relatively simple problems much harder.[49]

For example: «Fifteen percent of the people in Topeka have unlisted telephone numbers. You select 200 names at random from the Topeka phone book. How many of these people have unlisted phone numbers?»[47][page needed] The «obvious» answer is 15%, but in fact none of the unlisted people would be listed among the 200. This kind of «trick question» is often used in aptitude tests or cognitive evaluations.[50] Though not inherently difficult, they require independent thinking that is not necessarily common. Mathematical word problems often include irrelevant qualitative or numerical information as an extra challenge.

Avoiding barriers by changing problem representation[edit]

The disruption caused by the above cognitive biases can depend on how the information is represented:[50] visually, verbally, or mathematically. A classic example is the Buddhist monk problem:

A Buddhist monk begins at dawn one day walking up a mountain, reaches the top at sunset, meditates at the top for several days until one dawn when he begins to walk back to the foot of the mountain, which he reaches at sunset. Making no assumptions about his starting or stopping or about his pace during the trips, prove that there is a place on the path which he occupies at the same hour of the day on the two separate journeys.

The problem cannot be addressed in a verbal context, trying to describe the monk’s progress on each day. It becomes much easier when the paragraph is represented mathematically by a function: one visualizes a graph whose horizontal axis is time of day, and whose vertical axis shows the monk’s position (or altitude) on the path at each time. Superimposing the two journey curves, which traverse opposite diagonals of a rectangle, one sees they must cross each other somewhere. The visual representation by graphing has resolved the difficulty.

Similar strategies can often improve problem solving on tests.[44][51]

Other barriers for individuals[edit]

People who are engaged in problem solving tend to overlook subtractive changes, even those that are critical elements of efficient solutions.[example needed] This tendency to solve by first, only, or mostly creating or adding elements, rather than by subtracting elements or processes is shown to intensify with higher cognitive loads such as information overload.[52]

Dreaming: problem solving without waking consciousness[edit]

People can also solve problems while they are asleep. There are many reports of scientists and engineers who solved problems in their dreams. For example, Elias Howe, inventor of the sewing machine, figured out the structure of the bobbin from a dream.[53]

The chemist August Kekulé was considering how benzene arranged its six carbon and hydrogen atoms. Thinking about the problem, he dozed off, and dreamt of dancing atoms that fell into a snakelike pattern, which led him to discover the benzene ring. As Kekulé wrote in his diary,

One of the snakes seized hold of its own tail, and the form whirled mockingly before my eyes. As if by a flash of lightning I awoke; and this time also I spent the rest of the night in working out the consequences of the hypothesis.[54]

There also are empirical studies of how people can think consciously about a problem before going to sleep, and then solve the problem with a dream image. Dream researcher William C. Dement told his undergraduate class of 500 students that he wanted them to think about an infinite series, whose first elements were OTTFF, to see if they could deduce the principle behind it and to say what the next elements of the series would be.[55][page needed] He asked them to think about this problem every night for 15 minutes before going to sleep and to write down any dreams that they then had. They were instructed to think about the problem again for 15 minutes when they awakened in the morning.

The sequence OTTFF is the first letters of the numbers: one, two, three, four, five. The next five elements of the series are SSENT (six, seven, eight, nine, ten). Some of the students solved the puzzle by reflecting on their dreams. One example was a student who reported the following dream:[55][page needed]

I was standing in an art gallery, looking at the paintings on the wall. As I walked down the hall, I began to count the paintings: one, two, three, four, five. As I came to the sixth and seventh, the paintings had been ripped from their frames. I stared at the empty frames with a peculiar feeling that some mystery was about to be solved. Suddenly I realized that the sixth and seventh spaces were the solution to the problem!

With more than 500 undergraduate students, 87 dreams were judged to be related to the problems students were assigned (53 directly related and 34 indirectly related). Yet of the people who had dreams that apparently solved the problem, only seven were actually able to consciously know the solution. The rest (46 out of 53) thought they did not know the solution.

Mark Blechner conducted this experiment and obtained results similar to Dement’s.[56][page needed] He found that while trying to solve the problem, people had dreams in which the solution appeared to be obvious from the dream, but it was rare for the dreamers to realize how their dreams had solved the puzzle. Coaxing or hints did not get them to realize it, although once they heard the solution, they recognized how their dream had solved it. For example, one person in that OTTFF experiment dreamed:[56][page needed]

There is a big clock. You can see the movement. The big hand of the clock was on the number six. You could see it move up, number by number, six, seven, eight, nine, ten, eleven, twelve. The dream focused on the small parts of the machinery. You could see the gears inside.

In the dream, the person counted out the next elements of the series—six, seven, eight, nine, ten, eleven, twelve—yet he did not realize that this was the solution of the problem. His sleeping mindbrain[jargon] solved the problem, but his waking mindbrain was not aware how.

Albert Einstein believed that much problem solving goes on unconsciously, and the person must then figure out and formulate consciously what the mindbrain[jargon] has already solved. He believed this was his process in formulating the theory of relativity: «The creator of the problem possesses the solution.»[57] Einstein said that he did his problem solving without words, mostly in images. «The words or the language, as they are written or spoken, do not seem to play any role in my mechanism of thought. The psychical entities which seem to serve as elements in thought are certain signs and more or less clear images which can be ‘voluntarily’ reproduced and combined.»[58]

Cognitive sciences: two schools[edit]


Problem-solving processes differ across knowledge domains and across levels of expertise.[59] For this reason, cognitive sciences findings obtained in the laboratory cannot necessarily generalize to problem-solving situations outside the laboratory. This has led to a research emphasis on real-world problem solving, since the 1990s. This emphasis has been expressed quite differently in North America and Europe, however. Whereas North American research has typically concentrated on studying problem solving in separate, natural knowledge domains, much of the European research has focused on novel, complex problems, and has been performed with computerized scenarios.[60]

Europe[edit]

In Europe, two main approaches have surfaced, one initiated by Donald Broadbent[61] in the United Kingdom and the other one by Dietrich Dörner[62] in Germany. The two approaches share an emphasis on relatively complex, semantically rich, computerized laboratory tasks, constructed to resemble real-life problems. The approaches differ somewhat in their theoretical goals and methodology. The tradition initiated by Broadbent emphasizes the distinction between cognitive problem-solving processes that operate under awareness versus outside of awareness, and typically employs mathematically well-defined computerized systems. The tradition initiated by Dörner, on the other hand, has an interest in the interplay of the cognitive, motivational, and social components of problem solving, and utilizes very complex computerized scenarios that contain up to 2,000 highly interconnected variables.[63]

North America[edit]

In North America, initiated by the work of Herbert A. Simon on «learning by doing» in semantically rich domains,[64] researchers began to investigate problem solving separately in different natural knowledge domains—such as physics, writing, or chess playing—rather than attempt to extract a global theory of problem solving.[65] These researchers have focused on the development of problem solving within certain domains, that is on the development of expertise.[66]

Areas that have attracted rather intensive attention in North America include:

  • calculation[67]
  • computer skills[68]
  • game playing[69]
  • lawyers’ reasoning[70]
  • managerial problem solving[71]
  • mathematical problem solving[72]
  • mechanical problem solving[73]
  • personal problem solving[74]
  • political decision making[75]
  • problem solving in electronics[76]
  • problem solving for innovations and inventions: TRIZ[77]
  • reading[78]
  • social problem solving[11]
  • writing[79]

Characteristics of complex problems[edit]

Complex problem solving (CPS) is distinguishable from simple problem solving (SPS). In SPS there is a singular and simple obstacle. In CPS there may be multiple simultaneous obstacles. For example, a surgeon at work has far more complex problems than an individual deciding what shoes to wear. As elucidated by Dietrich Dörner, and later expanded upon by Joachim Funke, complex problems have some typical characteristics, which include:[1]

  • complexity (large numbers of items, interrelations, and decisions)
  • enumerability[clarification needed]
  • heterogeneity[specify]
  • connectivity (hierarchy relation, communication relation, allocation relation)[clarification needed]
  • dynamics (time considerations)[clarification needed]
    • temporal constraints
    • temporal sensitivity[clarification needed]
    • phase effects[definition needed]
    • dynamic unpredictability[specify]
  • intransparency (lack of clarity of the situation)
    • commencement opacity[definition needed]
    • continuation opacity[definition needed]
  • polytely (multiple goals)[80]
    • inexpressivenes[specify]
    • opposition[specify]
    • transience[specify]

Collective problem solving[edit]

People solve problems on many different levels—from the individual to the civilizational. Collective problem solving refers to problem solving performed collectively. Social issues and global issues can typically only be solved collectively.

The complexity of contemporary problems exceeds the cognitive capacity of any individual and requires different but complementary varieties of expertise and collective problem solving ability.[81]

Collective intelligence is shared or group intelligence that emerges from the collaboration, collective efforts, and competition of many individuals.

In collaborative problem solving people work together to solve real-world problems. Members of problem-solving groups share a common concern, a similar passion, and/or a commitment to their work. Members can ask questions, wonder, and try to understand common issues. They share expertise, experiences, tools, and methods.[82] Groups may be fluid based on need, may only occur temporarily to finish an assigned task, or may be more permanent depending on the nature of the problems.

For example, in the educational context, members of a group may all have input into the decision-making process and a role in the learning process. Members may be responsible for the thinking, teaching, and monitoring of all members in the group. Group work may be coordinated among members so that each member makes an equal contribution to the whole work. Members can identify and build on their individual strengths so that everyone can make a significant contribution to the task.[83] Collaborative group work has the ability to promote critical thinking skills, problem solving skills, social skills, and self-esteem. By using collaboration and communication, members often learn from one another and construct meaningful knowledge that often leads to better learning outcomes than individual work.[84]

Collaborative groups require joint intellectual efforts between the members and involve social interactions to solve problems together. The knowledge shared during these interactions is acquired during communication, negotiation, and production of materials.[85] Members actively seek information from others by asking questions. The capacity to use questions to acquire new information increases understanding and the ability to solve problems.[86]

In a 1962 research report, Douglas Engelbart linked collective intelligence to organizational effectiveness, and predicted that proactively «augmenting human intellect» would yield a multiplier effect in group problem solving: «Three people working together in this augmented mode [would] seem to be more than three times as effective in solving a complex problem as is one augmented person working alone».[87]

Henry Jenkins, a theorist of new media and media convergence, draws on the theory that collective intelligence can be attributed to media convergence and participatory culture.[88] He criticizes contemporary education for failing to incorporate online trends of collective problem solving into the classroom, stating «whereas a collective intelligence community encourages ownership of work as a group, schools grade individuals». Jenkins argues that interaction within a knowledge community builds vital skills for young people, and teamwork through collective intelligence communities contributes to the development of such skills.[89]

Collective impact is the commitment of a group of actors from different sectors to a common agenda for solving a specific social problem, using a structured form of collaboration.

After World War II the UN, the Bretton Woods organization, and the WTO were created. Collective problem solving on the international level crystallized around these three types of organization from the 1980s onward. As these global institutions remain state-like or state-centric it is unsurprising that they perpetuate state-like or state-centric approaches to collective problem solving rather than alternative ones.[90]

Crowdsourcing is a process of accumulating ideas, thoughts, or information from many independent participants, with aim of finding the best solution for a given challenge. Modern information technologies allow for many people to be involved and facilitate managing their suggestions in ways that provide good results.[91] The Internet allows for a new capacity of collective (including planetary-scale) problem solving.[92]

See also[edit]

  • Actuarial science – Statistics applied to risk in insurance and other financial products
  • Analytical skill – Crucial skill in all different fields of work and life
  • Creative problem-solving – mental process of searching for an original and previously unknown solution to a problem
  • Collective intelligence – Group intelligence that emerges from collective efforts
  • Community of practice
  • Coworking – Practice of independent contractors or scientists sharing office space without supervision
  • Crowdsolving – Sourcing services or funds from a group
  • Divergent thinking – A method of generating creative ideas
  • Grey problem – IT service problem where the causing technology is unknown or unconfirmed, making the problem solving difficult to allocate
  • Innovation – Practical implementation of improvements
  • Instrumentalism – Position in the philosophy of science
  • Problem statement – Description of an issue
  • Problem structuring methods
  • Structural fix – solving a problem or resolving a conflict by bringing about structural changes in underlying structures that provoked or sustained these problems
  • Subgoal labeling
  • Troubleshooting – Form of problem solving, often applied to repair failed products or processes
  • Wicked problem – Problem that is difficult or impossible to solve

Notes[edit]

  1. ^ a b Frensch, Peter A.; Funke, Joachim, eds. (2014-04-04). Complex Problem Solving. doi:10.4324/9781315806723. ISBN 9781315806723.
  2. ^ a b Schacter, D.L.; Gilbert, D.T.; Wegner, D.M. (2011). Psychology (2nd ed.). New York: Worth Publishers. p. 376.
  3. ^ Blanchard-Fields, F. (2007). «Everyday problem solving and emotion: An adult developmental perspective». Current Directions in Psychological Science. 16 (1): 26–31. doi:10.1111/j.1467-8721.2007.00469.x. S2CID 145645352.
  4. ^ Zimmermann, Bernd (2004). On mathematical problem-solving processes and history of mathematics. ICME 10. Copenhagen.
  5. ^ Granvold, Donald K. (1997). «Cognitive-Behavioral Therapy with Adults». In Brandell, Jerrold R. (ed.). Theory and Practice in Clinical Social Work. Simon and Schuster. pp. 189. ISBN 978-0-684-82765-0.
  6. ^ Robertson, S. Ian (2001). «Introduction to the study of problem solving». Problem Solving. Psychology Press. ISBN 0415203007.
  7. ^ Rubin, M.; Watt, S. E.; Ramelli, M. (2012). «Immigrants’ social integration as a function of approach-avoidance orientation and problem-solving style». International Journal of Intercultural Relations. 36 (4): 498–505. doi:10.1016/j.ijintrel.2011.12.009. hdl:1959.13/931119.
  8. ^ Goldstein F. C.; Levin H. S. (1987). «Disorders of reasoning and problem-solving ability». In M. Meier; A. Benton; L. Diller (eds.). Neuropsychological rehabilitation. London: Taylor & Francis Group.
  9. ^
    • Vallacher, Robin; M. Wegner, Daniel (2012). «Action Identification Theory». Handbook of Theories of Social Psychology. pp. 327–348. doi:10.4135/9781446249215.n17. ISBN 9780857029607.
    • Margrett, J. A; Marsiske, M (2002). «Gender differences in older adults’ everyday cognitive collaboration». International Journal of Behavioral Development. 26 (1): 45–59. doi:10.1080/01650250143000319. PMC 2909137. PMID 20657668.
    • Antonucci, T. C; Ajrouch, K. J; Birditt, K. S (2013). «The Convoy Model: Explaining Social Relations From a Multidisciplinary Perspective». The Gerontologist. 54 (1): 82–92. doi:10.1093/geront/gnt118. PMC 3894851. PMID 24142914.

  10. ^ Rath, Joseph F.; Simon, Dvorah; Langenbahn, Donna M.; Sherr, Rose Lynn; Diller, Leonard (2003). «Group treatment of problem‐solving deficits in outpatients with traumatic brain injury: A randomised outcome study». Neuropsychological Rehabilitation. 13 (4): 461–488. doi:10.1080/09602010343000039. S2CID 143165070.
  11. ^ a b
    • D’Zurilla, T. J.; Goldfried, M. R. (1971). «Problem solving and behavior modification». Journal of Abnormal Psychology. 78 (1): 107–126. doi:10.1037/h0031360. PMID 4938262.
    • D’Zurilla, T. J.; Nezu, A. M. (1982). «Social problem solving in adults». In P. C. Kendall (ed.). Advances in cognitive-behavioral research and therapy. Vol. 1. New York: Academic Press. pp. 201–274.

  12. ^ RATH, J (2004). «The construct of problem solving in higher level neuropsychological assessment and rehabilitation*1». Archives of Clinical Neuropsychology. 19 (5): 613–635. doi:10.1016/j.acn.2003.08.006. PMID 15271407.
  13. ^ Hoppmann, Christiane A.; Blanchard-Fields, Fredda (2010). «Goals and everyday problem solving: Manipulating goal preferences in young and older adults». Developmental Psychology. 46 (6): 1433–1443. doi:10.1037/a0020676. PMID 20873926.
  14. ^ Duncker, Karl (1935). Zur Psychologie des produktiven Denkens [The psychology of productive thinking] (in German). Berlin: Julius Springer.
  15. ^ Newell, Allen; Simon, Herbert A. (1972). Human problem solving. Englewood Cliffs, N.J.: Prentice-Hall.
  16. ^ For example:
    • X-ray problem, by Duncker, Karl (1935). Zur Psychologie des produktiven Denkens [The psychology of productive thinking] (in German). Berlin: Julius Springer.
    • Disk problem, later known as Tower of Hanoi, by Ewert, P. H.; Lambert, J. F. (1932). «Part II: The Effect of Verbal Instructions upon the Formation of a Concept». The Journal of General Psychology. Informa UK Limited. 6 (2): 400–413. doi:10.1080/00221309.1932.9711880. ISSN 0022-1309.

  17. ^ Mayer, R. E. (1992). Thinking, problem solving, cognition (Second ed.). New York: W. H. Freeman and Company.
  18. ^ Armstrong, J. Scott; Denniston, William B., Jr.; Gordon, Matt M. (1975). «The Use of the Decomposition Principle in Making Judgments» (PDF). Organizational Behavior and Human Performance. 14 (2): 257–263. doi:10.1016/0030-5073(75)90028-8. S2CID 122659209. Archived from the original (PDF) on 2010-06-20.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  19. ^ Malakooti, Behnam (2013). Operations and Production Systems with Multiple Objectives. John Wiley & Sons. ISBN 978-1-118-58537-5.
  20. ^ Kowalski, Robert (1974). «Predicate Logic as a Programming Language» (PDF). Information Processing. 74.
  21. ^ Kowalski, Robert (1979). Logic for Problem Solving (PDF). Artificial Intelligence Series. Vol. 7. Elsevier Science Publishing. ISBN 0444003681.
  22. ^ Kowalski, Robert (2011). Computational Logic and Human Thinking: How to be Artificially Intelligent (PDF). Cambridge University Press.
  23. ^ Staat, Wim (1993). «On abduction, deduction, induction and the categories». Transactions of the Charles S. Peirce Society. 29 (2): 225–237.
  24. ^ Sullivan, Patrick F. (1991). «On Falsificationist Interpretations of Peirce». Transactions of the Charles S. Peirce Society. 27 (2): 197–219.
  25. ^ Ho, Yu Chong (1994). Abduction? Deduction? Induction? Is There a Logic of Exploratory Data Analysis? (PDF). Annual Meeting of the American Educational Research Association. New Orleans, La.
  26. ^ «Einstein’s Secret to Amazing Problem Solving (and 10 Specific Ways You Can Use It)». Litemind. 2008-11-04. Archived from the original on 2017-06-21. Retrieved 2017-06-11.
  27. ^ a b c «Commander’s Handbook for Strategic Communication and Communication Strategy» (PDF). United States Joint Forces Command, Joint Warfighting Center, Suffolk, Va. 27 October 2009. Archived from the original (PDF) on April 29, 2011. Retrieved 10 October 2016.
  28. ^ a b Robertson, S. Ian (2017). Problem solving: perspectives from cognition and neuroscience (2nd ed.). London: Taylor & Francis. ISBN 978-1-317-49601-4. OCLC 962750529.
  29. ^ Bransford, J. D.; Stein, B. S (1993). The ideal problem solver: A guide for improving thinking, learning, and creativity (2nd ed.). New York: W.H. Freeman.
  30. ^
    • Ash, Ivan K.; Jee, Benjamin D.; Wiley, Jennifer (2012). «Investigating Insight as Sudden Learning». The Journal of Problem Solving. 4 (2). doi:10.7771/1932-6246.1123. ISSN 1932-6246.
    • Chronicle, Edward P.; MacGregor, James N.; Ormerod, Thomas C. (2004). «What Makes an Insight Problem? The Roles of Heuristics, Goal Conception, and Solution Recoding in Knowledge-Lean Problems». Journal of Experimental Psychology: Learning, Memory, and Cognition. 30 (1): 14–27. doi:10.1037/0278-7393.30.1.14. ISSN 1939-1285. PMID 14736293. S2CID 15631498.
    • Chu, Yun; MacGregor, James N. (2011). «Human Performance on Insight Problem Solving: A Review». The Journal of Problem Solving. 3 (2). doi:10.7771/1932-6246.1094. ISSN 1932-6246.

  31. ^ Wang, Y.; Chiew, V. (2010). «On the cognitive process of human problem solving» (PDF). Cognitive Systems Research. Elsevier BV. 11 (1): 81–92. doi:10.1016/j.cogsys.2008.08.003. ISSN 1389-0417. S2CID 16238486.
  32. ^ Nickerson, Raymond S. (1998). «Confirmation bias: A ubiquitous phenomenon in many guises». Review of General Psychology. 2 (2): 176. doi:10.1037/1089-2680.2.2.175. S2CID 8508954.
  33. ^ Hergovich, Andreas; Schott, Reinhard; Burger, Christoph (2010). «Biased Evaluation of Abstracts Depending on Topic and Conclusion: Further Evidence of a Confirmation Bias Within Scientific Psychology». Current Psychology. Springer Science and Business Media LLC. 29 (3): 188–209. doi:10.1007/s12144-010-9087-5. ISSN 1046-1310.
  34. ^ Allen, Michael (2011). «Theory‐led confirmation bias and experimental persona». Research in Science & Technological Education. Informa UK Limited. 29 (1): 107–127. Bibcode:2011RSTEd..29..107A. doi:10.1080/02635143.2010.539973. ISSN 0263-5143.
  35. ^ Wason, P. C. (1960). «On the failure to eliminate hypotheses in a conceptual task». Quarterly Journal of Experimental Psychology. 12 (3): 129–140. doi:10.1080/17470216008416717. S2CID 19237642.
  36. ^ Luchins, Abraham S. (1942). «Mechanization in problem solving: The effect of Einstellung». Psychological Monographs. 54 (248).
  37. ^ Öllinger, Michael; Jones, Gary; Knoblich, Günther (2008). «Investigating the Effect of Mental Set on Insight Problem Solving» (PDF). Experimental Psychology. Hogrefe Publishing Group. 55 (4): 269–282. doi:10.1027/1618-3169.55.4.269. ISSN 1618-3169. PMID 18683624.
  38. ^ a b Wiley, Jennifer (1998). «Expertise as mental set: The effects of domain knowledge in creative problem solving». Memory & Cognition. 24 (4): 716–730. doi:10.3758/bf03211392. PMID 9701964.
  39. ^ Cottam, Martha L.; Dietz-Uhler, Beth; Mastors, Elena; Preston, Thomas (2010). Introduction to Political Psychology (2nd ed.). New York: Psychology Press.
  40. ^ German, Tim P.; Barrett, H. Clark (2005). «Functional Fixedness in a Technologically Sparse Culture». Psychological Science. SAGE Publications. 16 (1): 1–5. doi:10.1111/j.0956-7976.2005.00771.x. ISSN 0956-7976. PMID 15660843. S2CID 1833823.
  41. ^ German, Tim P.; Defeyter, Margaret A. (2000). «Immunity to functional fixedness in young children». Psychonomic Bulletin and Review. 7 (4): 707–712. doi:10.3758/BF03213010. PMID 11206213.
  42. ^ Furio, C.; Calatayud, M. L.; Baracenas, S.; Padilla, O. (2000). «Functional fixedness and functional reduction as common sense reasonings in chemical equilibrium and in geometry and polarity of molecules». Science Education. 84 (5): 545–565. doi:10.1002/1098-237X(200009)84:5<545::AID-SCE1>3.0.CO;2-1.
  43. ^ Adamson, Robert E (1952). «Functional fixedness as related to problem solving: A repetition of three experiments». Journal of Experimental Psychology. 44 (4): 1952. doi:10.1037/h0062487.
  44. ^ a b c Kellogg, R. T. (2003). Cognitive psychology (2nd ed.). California: Sage Publications, Inc.
  45. ^ Meloy, J. R. (1998). The Psychology of Stalking, Clinical and Forensic Perspectives (2nd ed.). London, England: Academic Press.
  46. ^ MacGregor, J.N.; Ormerod, T.C.; Chronicle, E.P. (2001). «Information-processing and insight: A process model of performance on the nine-dot and related problems». Journal of Experimental Psychology: Learning, Memory, and Cognition. 27 (1): 176–201. doi:10.1037/0278-7393.27.1.176. PMID 11204097.
  47. ^ a b c Weiten, Wayne (2011). Psychology: themes and variations (8th ed.). California: Wadsworth.
  48. ^ Novick, L. R.; Bassok, M. (2005). «Problem solving». In Holyoak, K. J.; Morrison, R. G. (eds.). Cambridge handbook of thinking and reasoning. New York, N.Y.: Cambridge University Press. pp. 321–349.
  49. ^ Walinga, Jennifer (2010). «From walls to windows: Using barriers as pathways to insightful solutions». The Journal of Creative Behavior. 44 (3): 143–167. doi:10.1002/j.2162-6057.2010.tb01331.x.
  50. ^ a b Walinga, Jennifer; Cunningham, J. Barton; MacGregor, James N. (2011). «Training insight problem solving through focus on barriers and assumptions». The Journal of Creative Behavior.
  51. ^ Vlamings, Petra H. J. M.; Hare, Brian; Call, Joseph (2009). «Reaching around barriers: The performance of great apes and 3–5-year-old children». Animal Cognition. 13 (2): 273–285. doi:10.1007/s10071-009-0265-5. PMC 2822225. PMID 19653018.
  52. ^
    • Gupta, Sujata (7 April 2021). «People add by default even when subtraction makes more sense». Science News. Retrieved 10 May 2021.
    • Adams, Gabrielle S.; Converse, Benjamin A.; Hales, Andrew H.; Klotz, Leidy E. (April 2021). «People systematically overlook subtractive changes». Nature. 592 (7853): 258–261. Bibcode:2021Natur.592..258A. doi:10.1038/s41586-021-03380-y. ISSN 1476-4687. PMID 33828317. S2CID 233185662. Retrieved 10 May 2021.

  53. ^ Kaempffert, Waldemar B. (1924). A Popular History of American Invention. Vol. 2. New York: Charles Scribner’s Sons. p. 385.
  54. ^
    • Kekulé, August (1890). «Benzolfest-Rede». Berichte der Deutschen Chemischen Gesellschaft. 23: 1302–1311.
    • Benfey, O. (1958). «Kekulé and the birth of the structural theory of organic chemistry in 1858». Journal of Chemical Education. 35 (1): 21–23. Bibcode:1958JChEd..35…21B. doi:10.1021/ed035p21.

  55. ^ a b Dement, W.C. (1972). Some Must Watch While Some Just Sleep. New York: Freeman.
  56. ^ a b Blechner, Mark J. (2018). The Mindbrain and Dreams: An Exploration of Dreaming, Thinking, and Artistic Creation. New York: Routledge.
  57. ^ Fromm, Erika O. (1998). «Lost and found half a century later: Letters by Freud and Einstein». American Psychologist. 53 (11): 1195–1198. doi:10.1037/0003-066x.53.11.1195.
  58. ^ Einstein, Albert (1954). «A Mathematician’s Mind». Ideas and Opinions. New York: Bonanza Books. p. 25.
  59. ^ Sternberg, R. J. (1995). «Conceptions of expertise in complex problem solving: A comparison of alternative conceptions». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 295–321.
  60. ^ Funke, J. (1991). «Solving complex problems: Human identification and control of complex systems». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 185–222. ISBN 0-8058-0650-4. OCLC 23254443.
  61. ^
    • Broadbent, Donald E. (1977). «Levels, hierarchies, and the locus of control». Quarterly Journal of Experimental Psychology. 29: 181–201.
    • Berry, Dianne C.; Broadbent, Donald E. (1995). «Implicit learning in the control of complex systems: A reconsideration of some of the earlier claims» (PDF). In Frensch, P.A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 131–150.

  62. ^
    • Dörner, Dietrich (1975). «Wie Menschen eine Welt verbessern wollten» [How people wanted to improve the world]. Bild der Wissenschaft (in German). 12: 48–53.
    • Dörner, Dietrich (1985). «Verhalten, Denken und Emotionen» [Behavior, thinking, and emotions]. In Eckensberger, L. H.; Lantermann, E. D. (eds.). Emotion und Reflexivität (in German). München, Germany: Urban & Schwarzenberg. pp. 157–181.
    • Dörner, Dietrich; Wearing, Alex J. (1995). «Complex problem solving: Toward a (computer-simulated) theory» (PDF). In Frensch, P.A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 65–99.

  63. ^
    • Buchner, A. (1995). «Theories of complex problem solving». In Frensch, P.A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 27–63.
    • Dörner, D.; Kreuzig, H. W.; Reither, F.; Stäudel, T., eds. (1983). Lohhausen. Vom Umgang mit Unbestimmtheit und Komplexität [Lohhausen. On dealing with uncertainty and complexity] (in German). Bern, Switzerland: Hans Huber.
    • Ringelband, O. J.; Misiak, C.; Kluwe, R. H. (1990). «Mental models and strategies in the control of a complex system». In Ackermann, D.; Tauber, M. J. (eds.). Mental models and human-computer interaction. Vol. 1. Amsterdam: Elsevier Science Publishers. pp. 151–164.

  64. ^
    • Anzai, K.; Simon, H. A. (1979). «The theory of learning by doing». Psychological Review. 86 (2): 124–140. doi:10.1037/0033-295X.86.2.124. PMID 493441.
    • Bhaskar, R.; Simon, Herbert A. (1977). «Problem Solving in Semantically Rich Domains: An Example from Engineering Thermodynamics». Cognitive Science. Wiley. 1 (2): 193–215. doi:10.1207/s15516709cog0102_3. ISSN 0364-0213.

  65. ^ e.g., Sternberg, R. J.; Frensch, P. A., eds. (1991). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. ISBN 0-8058-0650-4. OCLC 23254443.
  66. ^
    • Chase, W. G.; Simon, H. A. (1973). «Perception in chess». Cognitive Psychology. 4: 55–81.
    • Chi, M. T. H.; Feltovich, P. J.; Glaser, R. (1981). «Categorization and representation of physics problems by experts and novices». Cognitive Science. 5 (2): 121–152. doi:10.1207/s15516709cog0502_2.
    • Anderson, J. R.; Boyle, C. B.; Reiser, B. J. (1985). «Intelligent tutoring systems». Science. 228 (4698): 456–462. Bibcode:1985Sci…228..456A. doi:10.1126/science.228.4698.456. PMID 17746875. S2CID 62403455.

  67. ^ Sokol, S. M.; McCloskey, M. (1991). «Cognitive mechanisms in calculation». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 85–116. ISBN 0-8058-0650-4. OCLC 23254443.
  68. ^ Kay, D. S. (1991). «Computer interaction: Debugging the problems». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 317–340. ISBN 0-8058-0650-4. OCLC 23254443.
  69. ^ Frensch, P. A.; Sternberg, R. J. (1991). «Skill-related differences in game playing». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J .: Lawrence Erlbaum Associates. pp. 343–381. ISBN 0-8058-0650-4. OCLC 23254443.
  70. ^ Amsel, E.; Langer, R.; Loutzenhiser, L. (1991). «Do lawyers reason differently from psychologists? A comparative design for studying expertise». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 223–250. ISBN 0-8058-0650-4. OCLC 23254443.
  71. ^ Wagner, R. K. (1991). «Managerial problem solving». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 159–183. PsycNET: 1991-98396-005.
  72. ^
    • Pólya, George (1945). How to Solve It. Princeton University Press.
    • Schoenfeld, A. H. (1985). Mathematical Problem Solving. Orlando, Fla.: Academic Press.

  73. ^ Hegarty, M. (1991). «Knowledge and processes in mechanical problem solving». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 253–285. ISBN 0-8058-0650-4. OCLC 23254443.
  74. ^ Heppner, P. P.; Krauskopf, C. J. (1987). «An information-processing approach to personal problem solving». The Counseling Psychologist. 15: 371–447.
  75. ^ Voss, J. F.; Wolfe, C. R.; Lawrence, J. A.; Engle, R. A. (1991). «From representation to decision: An analysis of problem solving in international relations». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 119–158. ISBN 0-8058-0650-4. OCLC 23254443. PsycNET: 1991-98396-004.
  76. ^ Lesgold, A.; Lajoie, S. (1991). «Complex problem solving in electronics». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 287–316. ISBN 0-8058-0650-4. OCLC 23254443.
  77. ^ Altshuller, Genrich (1994). And Suddenly the Inventor Appeared. Translated by Lev Shulyak. Worcester, Mass.: Technical Innovation Center. ISBN 978-0-9640740-1-9.
  78. ^ Stanovich, K. E.; Cunningham, A. E. (1991). «Reading as constrained reasoning». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 3–60. ISBN 0-8058-0650-4. OCLC 23254443.
  79. ^ Bryson, M.; Bereiter, C.; Scardamalia, M.; Joram, E. (1991). «Going beyond the problem as given: Problem solving in expert and novice writers». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 61–84. ISBN 0-8058-0650-4. OCLC 23254443.
  80. ^ Sternberg, R. J.; Frensch, P. A., eds. (1991). Complex problem solving: Principles and mechanisms. Hillsdale, NJ: Lawrence Erlbaum Associates. ISBN 0-8058-0650-4. OCLC 23254443.
  81. ^ Hung, Woei (2013). «Team-based complex problem solving: a collective cognition perspective». Educational Technology Research and Development. 61 (3): 365–384. doi:10.1007/s11423-013-9296-3. S2CID 62663840.
  82. ^ Jewett, Pamela; MacPhee, Deborah (2012). «Adding Collaborative Peer Coaching to Our Teaching Identities». The Reading Teacher. 66 (2): 105–110. doi:10.1002/TRTR.01089.
  83. ^ Wang, Qiyun (2009). «Design and Evaluation of a Collaborative Learning Environment». Computers and Education. 53 (4): 1138–1146. doi:10.1016/j.compedu.2009.05.023.
  84. ^ Wang, Qiyan (2010). «Using online shared workspaces to support group collaborative learning». Computers and Education. 55 (3): 1270–1276. doi:10.1016/j.compedu.2010.05.023.
  85. ^ Kai-Wai Chu, Samuel; Kennedy, David M. (2011). «Using Online Collaborative tools for groups to Co-Construct Knowledge». Online Information Review. 35 (4): 581–597. doi:10.1108/14684521111161945. ISSN 1468-4527. S2CID 206388086.
  86. ^ Legare, Cristine; Mills, Candice; Souza, Andre; Plummer, Leigh; Yasskin, Rebecca (2013). «The use of questions as problem-solving strategies during early childhood». Journal of Experimental Child Psychology. 114 (1): 63–7. doi:10.1016/j.jecp.2012.07.002. PMID 23044374.
  87. ^ Engelbart, Douglas (1962). «Team Cooperation». Augmenting Human Intellect: A Conceptual Framework. Vol. AFOSR-3223. Stanford Research Institute.
  88. ^ Flew, Terry (2008). New Media: an introduction. Melbourne: Oxford University Press.
  89. ^ Henry, Jenkins. «Interactive audiences? The ‘collective intelligence’ of media fans» (PDF). Archived from the original (PDF) on April 26, 2018. Retrieved December 11, 2016.
  90. ^ Finger, Matthias (2008-03-27). «Which governance for sustainable development? An organizational and institutional perspective». In Park, Jacob; Conca, Ken; Finger, Matthias (eds.). The Crisis of Global Environmental Governance: Towards a New Political Economy of Sustainability. Routledge. p. 48. ISBN 9781134059829.
  91. ^
    • Guazzini, Andrea; Vilone, Daniele; Donati, Camillo; Nardi, Annalisa; Levnajić, Zoran (10 November 2015). «Modeling crowdsourcing as collective problem solving». Scientific Reports. 5: 16557. arXiv:1506.09155. Bibcode:2015NatSR…516557G. doi:10.1038/srep16557. PMC 4639727. PMID 26552943.
    • Boroomand, A.; Smaldino, P.E. (2021). «Hard Work, Risk-Taking, and Diversity in a Model of Collective Problem Solving». Journal of Artificial Societies and Social Simulation. 24 (4).

  92. ^ Stefanovitch, Nicolas; Alshamsi, Aamena; Cebrian, Manuel; Rahwan, Iyad (30 September 2014). «Error and attack tolerance of collective problem solving: The DARPA Shredder Challenge». EPJ Data Science. 3 (1). doi:10.1140/epjds/s13688-014-0013-1.

Further reading[edit]

  • Beckmann, Jens F.; Guthke, Jürgen (1995). «Complex problem solving, intelligence, and learning ability» (PDF). In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 177–200.
  • Brehmer, Berndt (1995). «Feedback delays in dynamic decision making». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 103–130.
  • Brehmer, Berndt; Dörner, D. (1993). «Experiments with computer-simulated microworlds: Escaping both the narrow straits of the laboratory and the deep blue sea of the field study». Computers in Human Behavior. 9: 171–184.
  • Dörner, D. (1992). «Über die Philosophie der Verwendung von Mikrowelten oder ‘Computerszenarios’ in der psychologischen Forschung» [On the proper use of microworlds or «computer scenarios» in psychological research]. In Gundlach, H. (ed.). Psychologische Forschung und Methode: Das Versprechen des Experiments. Festschrift für Werner Traxel (in German). Passau, Germany: Passavia-Universitäts-Verlag. pp. 53–87.
  • Eyferth, K.; Schömann, M.; Widowski, D. (1986). «Der Umgang von Psychologen mit Komplexität» [On how psychologists deal with complexity]. Sprache & Kognition (in German). 5: 11–26.
  • Funke, Joachim (1993). «Microworlds based on linear equation systems: A new approach to complex problem solving and experimental results» (PDF). In Strube, G.; Wender, K.-F. (eds.). The cognitive psychology of knowledge. Amsterdam: Elsevier Science Publishers. pp. 313–330.
  • Funke, Joachim (1995). «Experimental research on complex problem solving» (PDF). In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 243–268.
  • Funke, U. (1995). «Complex problem solving in personnel selection and training». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 219–240.
  • Groner, M.; Groner, R.; Bischof, W. F. (1983). «Approaches to heuristics: A historical review». In Groner, R.; Groner, M.; Bischof, W. F. (eds.). Methods of heuristics. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 1–18.
  • Hayes, J. (1980). The complete problem solver. Philadelphia: The Franklin Institute Press.
  • Huber, O. (1995). «Complex problem solving as multistage decision making». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 151–173.
  • Hübner, Ronald (1989). «Methoden zur Analyse und Konstruktion von Aufgaben zur kognitiven Steuerung dynamischer Systeme» [Methods for the analysis and construction of dynamic system control tasks] (PDF). Zeitschrift für Experimentelle und Angewandte Psychologie (in German). 36: 221–238.
  • Hunt, Earl (1991). «Some comments on the study of complexity». In Sternberg, R. J.; Frensch, P. A. (eds.). Complex problem solving: Principles and mechanisms. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 383–395.
  • Hussy, W. (1985). «Komplexes Problemlösen—Eine Sackgasse?» [Complex problem solving—a dead end?]. Zeitschrift für Experimentelle und Angewandte Psychologie (in German). 32: 55–77.
  • Kluwe, R. H. (1993). «Chapter 19 Knowledge and Performance in Complex Problem Solving». The Cognitive Psychology of Knowledge. Advances in Psychology. Vol. 101. pp. 401–423. doi:10.1016/S0166-4115(08)62668-0. ISBN 9780444899422.
  • Kluwe, R. H. (1995). «Single case studies and models of complex problem solving». In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 269–291.
  • Kolb, S.; Petzing, F.; Stumpf, S. (1992). «Komplexes Problemlösen: Bestimmung der Problemlösegüte von Probanden mittels Verfahren des Operations Research—ein interdisziplinärer Ansatz» [Complex problem solving: determining the quality of human problem solving by operations research tools—an interdisciplinary approach]. Sprache & Kognition (in German). 11: 115–128.
  • Krems, Josef F. (1995). «Cognitive flexibility and complex problem solving» (PDF). In Frensch, P. A.; Funke, J. (eds.). Complex problem solving: The European Perspective. Hillsdale, N.J.: Lawrence Erlbaum Associates. pp. 201–218.
  • Müller, H. (1993). Komplexes Problemlösen: Reliabilität und Wissen [Complex problem solving: Reliability and knowledge] (in German). Bonn, Germany: Holos.
  • Paradies, M.W.; Unger, L. W. (2000). TapRooT—The System for Root Cause Analysis, Problem Investigation, and Proactive Improvement. Knoxville, Tenn.: System Improvements.
  • Putz-Osterloh, Wiebke (1993). «Chapter 15 Strategies for Knowledge Acquisition and Transfer of Knowledge in Dynamic Tasks». The Cognitive Psychology of Knowledge. Advances in Psychology. Vol. 101. pp. 331–350. doi:10.1016/S0166-4115(08)62664-3. ISBN 9780444899422.
  • Riefer, David M.; Batchelder, William H. (1988). «Multinomial modeling and the measurement of cognitive processes» (PDF). Psychological Review. 95: 318–339. Archived from the original (PDF) on 2018-11-25.
  • Schaub, H. (1993). Modellierung der Handlungsorganisation (in German). Bern, Switzerland: Hans Huber.
  • Strauß, B. (1993). Konfundierungen beim Komplexen Problemlösen. Zum Einfluß des Anteils der richtigen Lösungen (ArL) auf das Problemlöseverhalten in komplexen Situationen [Confoundations in complex problem solving. On the influence of the degree of correct solutions on problem solving in complex situations] (in German). Bonn, Germany: Holos.
  • Strohschneider, S. (1991). «Kein System von Systemen! Kommentar zu dem Aufsatz ‘Systemmerkmale als Determinanten des Umgangs mit dynamischen Systemen’ von Joachim Funke» [No system of systems! Reply to the paper ‘System features as determinants of behavior in dynamic task environments’ by Joachim Funke]. Sprache & Kognition (in German). 10: 109–113.
  • Tonelli, Marcello (2011). Unstructured Processes of Strategic Decision-Making. Saarbrücken, Germany: Lambert Academic Publishing. ISBN 978-3-8465-5598-9.
  • Van Lehn, Kurt (1989). «Problem solving and cognitive skill acquisition». In Posner, M. I. (ed.). Foundations of cognitive science (PDF). Cambridge, Mass.: MIT Press. pp. 527–579.
  • Wisconsin Educational Media Association (1993), Information literacy: A position paper on information problem-solving, WEMA Publications, vol. ED 376 817, Madison, Wis.{{citation}}: CS1 maint: location missing publisher (link) (Portions adapted from Michigan State Board of Education’s Position Paper on Information Processing Skills, 1992.)

External links[edit]

  • Learning materials related to Solving Problems at Wikiversity

1.10. Правила определения

Существует несколько логических правил определения. Нарушение хотя бы одного из них приводит к тому, что содержание понятия не раскрывается, и определение не достигает своей цели, являясь неверным. Рассмотрим эти правила и ошибки, возникающие при их нарушении.

1. Определение не должно быть широким, т. е. определение не должно превышать своим объемом определяемое понятие. Например, определение: Солнце – это небесное тело является широким: определение – небесное тело – по объему намного больше определяемого понятия – Солнце. Из приведенного в качестве примера определения далеко не вполне понятно, что такое Солнце, ведь небесное тело – это и любая планета, и любая галактика и т. д. и т. п. В данном случае можно также сказать, что пользуясь классическим способом определения, мы подвели определяемое понятие Солнце под родовое понятие небесное тело, но не сделали второй шаг – не указали на его видовое отличие.

2. Определение не должно быть узким, т. е. определение не должно быть по своему объему меньше определяемого понятия. Например, определение: Геометрия – это наука о треугольниках является узким. Геометрия действительно наука о треугольниках, но не только о них, а в нашем примере она сведена только к треугольникам, т. е. определение получилось по объему меньше определяемого понятия, в результате чего из приведенного определения не совсем понятно, что такое геометрия, содержание понятия в данном случае не раскрывается. Как видим, ошибка узкого определения противоположна ошибке широкого определения. Если определение не должно быть широким и не должно быть узким, то каким же тогда оно должно быть? Оно должно быть соразмерным, т. е. определяемое понятие и определение должны быть равны друг другу. Вернемся к определению: Астрономия – это наука о небесных телах, которое является соразмерным. В этом примере определяемое понятие астрономия и определение наука о небесных телах находятся в отношении равнозначности (астрономия – это именно наука о небесных телах, а наука о небесных телах – это только астрономия). Определение является соразмерным тогда, когда между его первой частью (определяемым понятием) и второй (определением) можно поставить знак равенства или тождества. Если же вместо этого между первой и второй частью определения ставится знак «больше» или «меньше», то оно является ошибочным – широким или узким соответственно. В данном случае мы видим проявление одного из основных законов логики – закона тождества, который упоминался во введении к этой книге.

3. В определении не должно быть круга, т. е. в определении нельзя употреблять понятия, которые являются определяемыми. Например, в определении: Клеветник – это человек, который занимается клеветой присутствует круг, поскольку понятие клеветник определяется через понятие клевета, т. е. фактически – через самое себя. (Если бы, выслушав приведенное только что определение, мы спросили бы, что такое клевета, нам вполне могли бы ответить, что клевета – это то, чем занимается клеветник). Присутствующий в определении круг (или, по-гречески, тавтология – повтор) приводит к тому, что содержание понятия не раскрывается, и определение является ошибочным. Только на первый взгляд круг в определении может не показаться ошибкой. Наверняка найдутся люди, которые скажут, что из определения: Клеветник – это человек, который занимается клеветой вполне понятно и кто такой клеветник, и что такое клевета. Однако они могут так утверждать только потому, что им ранее было известно значение терминов клеветник и клевета. Станет ли понятно, что такое экзистенциализм из следующего кругового определения: Экзистенциализм – это философское направление XX века, в котором ставятся и всесторонне рассматриваются различные экзистенциальные вопросы и проблемы? Узнаем ли мы, что такое синергетика, благодаря такому круговому определению: Синергетика – это раздел современного естествознания, который изучает разнообразные синергетические явления и процессы?

4. Определение не должно быть двусмысленным, т. е. в нем нельзя употреблять термины в переносном значении. Вспомним всем хорошо знакомое с детства определение: Лев – это царь зверей. В данном определении термин царь используется в переносном смысле, но кроме этого, у него есть еще и прямой смысл. Получается, что в определении употребляется один термин, а возможных смыслов у него два, т. е. определение является двусмысленным (вновь нарушается логический закон тождества: одно слово, два смысла – 1 = 2). Двусмысленность вполне уместна в качестве художественного приема, но в определении она недопустима, поскольку содержание понятия в данном случае не раскрывается. Так, например, если наша задача заключается не в том, чтобы создать запоминающуюся метафору или удачный афоризм, а в том, чтобы действительно ответить на вопрос, кто такой лев или что такое краткость, то определения: Лев – это царь зверей, Краткость – это сестра таланта являются логически неправильными, т. к. не отвечают на поставленный вопрос.

5. Определение не должно быть сложным и непонятным, или оно должно быть коммуникабельным. Рассмотрим следующее определение: Энтропия – это термодинамическая функция, характеризующая часть внутренней энергии замкнутой системы, которая не может быть преобразована в механическую работу. Это определение взято не из научного доклада и не из докторской диссертации, а из учебника для студентов гуманитарных специальностей (Концепции современного естествознания. Под ред. В. Н. Лавриненко и В. П. Ратникова. М.: ЮНИТИ, 1997. С. 264). Данное определение не широкое и не узкое, в нем нет круга и двусмысленности, оно верно и с научной точки зрения. Это определение кажется безупречным за тем только исключением, что оно является сложным и непонятным для людей, которые не занимаются специально естественными науками, т. е. для большинства людей. Определение должно быть понятным для того, кому оно адресовано, иначе при всей своей формальной правильности оно не будет раскрывать содержание понятия для своего адресата. Непонятные определения также называют некоммуникабельными, т. е. создающими преграды для общения между людьми.

6. Определение не должно быть только отрицательным. Например, определение: Квадрат – это не треугольник является только отрицательным. Квадрат – это действительно не треугольник, но данное определение не раскрывает содержание понятия квадрат, ведь указав на то, чем не является объект, обозначенный определяемым понятием, мы не указали на то, чем он является (окружность, трапеция, пятиугольник и т. п. – это тоже не квадрат). Определение может быть отрицательным в том случае, когда оно дополнено положительной частью. Например, определение: Квадрат – это не треугольник, а прямоугольник, у которого все стороны равны – правильное. Важно, чтобы определение не было только отрицательным.

Приведем еще несколько примеров правильных определений, а также – определений, в которых нарушены рассмотренные правила и допущены различные ошибки.

а) Сутки – это отрезок времени, в течение которого Земля делает полный оборот вокруг своей оси (правильное определение).

б) Жанр – это устойчивая форма какого-либо произведения искусства (правильное определение).

в) Собака – это друг человека (двусмысленное определение).

г) Творческое мышление – это мышление, которое обеспечивает решение творческих задач (круг в определении).

д) Революция – это крупное историческое событие, в результате которого в обществе меняется политическая власть (узкое определение).

е) Бесхозное имущество – это имущество, не имеющее собственника или собственник которого неизвестен (правильное определение).

ж) Лошадь – это млекопитающее позвоночное животное (широкое определение).

з) Суффикс – это выделяющаяся в составе словоформы послекорневая аффиксальная морфема (некоммуникабельное определение).

Итак, основные ошибки, возникающие при нарушении правил определения понятия – это широкое определение, узкое определение, круг в определении, двусмысленное определение, сложное и непонятное определение, только отрицательное определение. Наша задача – не допускать этих ошибок и уметь находить их в различных определениях, которые часто встречаются не только в повседневной жизни и обыденном мышлении, но даже, как то ни удивительно, – в научной и учебной литературе. Последнее обстоятельство зачастую является одним из мотивов негативного отношения учащихся (студентов и школьников) к учебе, которую они нередко воспринимают как скучное, тяжелое и утомительное занятие.

Данный текст является ознакомительным фрагментом.

Читайте также

§ 3. НЕЯВНЫЕ ОПРЕДЕЛЕНИЯ

§ 3. НЕЯВНЫЕ ОПРЕДЕЛЕНИЯ
Контекстуальные определения. В контекстуальных определениях выясняется смысл контекста, в который входит определяемый термин. Например, «Предложение “р” истинно, если и только если p». Эти контекстуальные определения имеют форму: К(а)? Т, где а —

§ 4. ПРАВИЛА ОПРЕДЕЛЕНИЯ. ОШИБКИ В ОПРЕДЕЛЕНИЯХ

§ 4. ПРАВИЛА ОПРЕДЕЛЕНИЯ. ОШИБКИ В ОПРЕДЕЛЕНИЯХ
Ограничимся рассмотрением правил, относящихся к реальным определениям, наиболее употребимым в праве. Второе и третье из этих правил применимы и к номинальным определениям. Другие правила номинальных определений,

Определения

Определения
Может быть, просто порыскать по толковым словарям? Но не хочется с них начинать. Хочется услышать живые голоса тех, кто присматривался к философии по-своему. Что удалось разглядеть тому или другому?…Вот некоторые изречения-определения, выписанные из разных

1.10. Правила определения

1.10. Правила определения
Существует несколько логических правил определения. Нарушение хотя бы одного из них приводит к тому, что содержание понятия не раскрывается, и определение не достигает своей цели, являясь неверным. Рассмотрим эти правила и ошибки, возникающие при

I. Опыт определения

I. Опыт определения
Философ остается философом до тех пор, пока он чувствует насущность вновь и вновь возвращаться к этому исходному — с годами все более трудному и мучительному — вопрошанию (приходится поднимать все больший груз уже выношенных и, казалось бы,

Опыт определения

Опыт определения
1. Сразу — одно жесткое утверждение.Философия есть культура размышления о возможности помыслить[2] начало бытия (в его абсолютной всеобщности). Размышление о возможности (начала?!) бытия.Поверну это утверждение еще раз: философ стремится помыслить начало

§ 2. ЯВНЫЕ ОПРЕДЕЛЕНИЯ

§ 2. ЯВНЫЕ ОПРЕДЕЛЕНИЯ
Определения через род и видовое отличие. Пример: “Криминалистическая рекомендация — это научно обоснованный и апробированный практический совет, касающийся выбора и применения технико-криминалистических средств, криминалистических приемов и

§ 4. ПРАВИЛА ОПРЕДЕЛЕНИЯ. ОШИБКИ В ОПРЕДЕЛЕНИЯХ

§ 4. ПРАВИЛА ОПРЕДЕЛЕНИЯ. ОШИБКИ В ОПРЕДЕЛЕНИЯХ
Ограничимся рассмотрением правил, относящихся к реальным определениям, наиболее употребимым в праве. Второе и третье из этих правил применимы и к номинальным определениям. Другие правила номинальных определений,

Определения

Определения
В помощь читателю слова, которые с наибольшей вероятностью могут вызвать недопонимание, определены в постраничных сносках при первом их появлении в тексте. Иногда слова имеют по нескольку значений. Определения в сносках относятся только к тем значениям,

АКСИОМЫ КАК ОПРЕДЕЛЕНИЯ

АКСИОМЫ КАК ОПРЕДЕЛЕНИЯ
Частым и важным для науки случаем контекстуальных определений являются аксиоматические определения, т. е. определения понятий с помощью аксиом. Аксиомы — это утверждения, принимаемые без доказательства. Совокупность аксиом какой-то теории

ОПРЕДЕЛЕНИЯ-ОПИСАНИЯ И ОПРЕДЕЛЕНИЯ-ТРЕБОВАНИЯ

ОПРЕДЕЛЕНИЯ-ОПИСАНИЯ И ОПРЕДЕЛЕНИЯ-ТРЕБОВАНИЯ
Лет 200-300 тому назад в большом ходу были разного рода сборники правил хорошего тона. Вот как в одной из к таких книг — «Свойства порядочного человека» — определялся порядочный человек: «Он соединяет благовоспитанность с

19. Правила определения

19. Правила определения
Истинность определения зависит не только от правильности подачи его содержания, но и от того, насколько стройно и последовательно будет выстроена его форма. Если истинность определения зависит от того, точно ли отражает его содержание все

ОПРЕДЕЛЕНИЯ

ОПРЕДЕЛЕНИЯ
Определить объект — значит определить обозначающее его языковое выражение. Последнее называется понятием. Определить объект и определить понятие об объекте — это одно и то же. Общеизвестны определения путем указания родовых (общих) и видовых (специфических,

Два определения веры

Два определения веры
Слова, которые мы используем, очень важны. Они помогают нам прояснить ситуацию или, наоборот, сделать ее запутанной, неясной и туманной. Я привожу два моих любимых определения веры и затем отделяю веру от надежды.[9]
1. Вера – признание чего-либо

Правила годного определения

Правила годного определения
Повторюсь, идея в том, чтобы указать род понятия, а потом указать отличие, которое позволит отделить понятие от его «братьев». При этом, во время порождения определения, нам следует соблюдать следующие правила:1. Определение должно быть

Понравилась статья? Поделить с друзьями:

Интересное по теме:

  • Приборная панель камаз ошибки
  • Приведенные докладчиком факторы никого не убедили ошибка
  • Приведение меча наиболее частой ошибкой является
  • Приборная панель газон некст ошибки
  • Приватный сервер геншин импакт ошибка 502

  • Добавить комментарий

    ;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: