Download Tema 2: Fundamentos de psicología del aprendizaje

Document related concepts

Condicionamiento operante wikipedia , lookup

Ingeniería del comportamiento wikipedia , lookup

Modificación de conducta wikipedia , lookup

Teoría del aprendizaje social wikipedia , lookup

Reforzamiento wikipedia , lookup

Transcript
Tema 2: Bases de psicología
del aprendizaje
Análisis Funcional de la Conducta
Control de la conducta
• Cualquier ser vivo tiene que comportarse
• En su ambiente, algunos comportamientos serán más
adaptativos que otros.
• Problema: cómo controlar el comportamiento para que sea lo
más adaptativo posible?
Control de la conducta
Dos tipos de soluciones
Mecanismos innatos:
• Fijos, desarrollados por evolución, codificados en los genes
Mecanismos de aprendizaje
• Flexibles
Mecanismos innatos y aprendizaje
•
Cuanto más controlada está una conducta por mecanismos
innatos, más difícil es modificarla mediante aprendizaje.
•
En muchos casos, es imposible
•
En nuestra especie, casi todo se puede modificar.
•
Sin embargo, conviene tener en cuenta esta dificultad extra.
Mecanismos innatos
• Ritmos biológicos
• Reflejos
• Pautas fijas de acción
• Tendencias
Mecanismos innatos en humanos
•
Somos la especia más “descontrolada”
•
Incluso en los comportamientos más vitales (alimentación,
apareamiento, crianza…)
•
No tenemos propiamente PFAs
•
Sí tenemos tendencias
Tendencias innatas en humanos
•
Jerarquía, prestigio, reputación.
•
Afecto, atención, aprecio.
•
Seguridad, tranquilidad, propiedad
•
Clan, familia
•
Vida social, comunicación, expresión, rituales colectivos
•
Exploración, curiosidad, intercambio
•
Aspectos de cada sexo
Mecanismos de aprendizaje
•
Preasociativos
– Habituación
– Sensibilización
•
Condicionamiento respondente (clásico o pavloviano)
•
Condicionamiento operante
•
Otros
– Por modelos
– Vicario
– Por reglas
– Simbólicos
Aprendizaje preasociativo:
Habituación y sensibilización
Habituación
Aprender a no reaccionar a lo irrelevante.
Inestimable valor adaptativo
• Un estímulo se repite o se mantiene
• Pero no se vincula con nada importante
• La respuesta a él decae.
Es la forma más elemental de aprendizaje que se conoce
Habituación
No confundir con:
•
•
•
•
•
•
Hábito
Costumbre
Adaptación sensorial
Fatiga o agotamiento
Saciación
Eliminación de respuestas por condicionamiento
• En sentido técnico, H = decremento de la R a un E por
presentación sostenida o repetida de éste, sin mediar
proceso asociativo.
Habituación
•
•
•
•
•
•
•
•
El perro y el ruido
Zumbidos
Tráfico
Broncas
Carteles
Quejicas y monstruos
Cuadros de diálogo
El nuevo semáforo
Habituación: propiedades
• La caída de la R es función del número de repeticiones del E
(exponencial negativa, aprox.)
• En muchos casos se da recuperación espontánea de la R
(habituación a corto plazo).
• El intervalo para la recuperación varía mucho.
• La recuperación se produce más fácilmente si se han dado
pocas repeticiones del E y muy seguidas.
Habituación: propiedades
• Tanto más difícil cuanto más intenso es el estímulo
• Hay estímulos más “habituables” que otros.
• Presenta generalización, aunque limitada.
• Frecuentemente la presentación de estímulos similares al
habituado produce deshabituación (la R reaparece).
Sensibilización
Aumento de la respuesta a un estímulo por la mera la
presentación repetida de éste, sin que se produzca
asociación
Propiedades
• Curva ascendente
• Se produce más con Es intensos
• El mismo E puede provocar habituación o sensibilización,
dependiendo de la intesidad
• En muchos casos sólo ocurre a corto plazo, aunque puede
llegar a cronificarse.
Mecanismos de aprendizaje: propiedades
generales
Sobreaprendizaje
• Mantenimiento de las condiciones de aprendizaje
una vez que ya se ha alcanzado el criterio de éste
• Aumenta mucho la persistencia temporal de lo
aprendido
• Efecto universal en todos los sistemas de
aprendizaje conocidos.
Generalización
• “trasladar” lo aprendido respecto a un estímulo o
situación a otros estímulos o situaciones
semejantes
• Es decir: grado de “tolerancia” del aprendizaje a
variaciones más o menos ligeras en el estímulo o
situación estimular.
Discriminación
• Aprender a responder a un estímulo dado, pero no
hacerlo a otros muy parecidos a él (o viceversa)
Historial de aprendizaje
• El conjunto de todas las situaciones de aprendizaje
(habituación, condicionamiento, etc.) que un
organismo ha atravesado a lo largo de su vida.
• Es un concepto teórico: resulta inaccesible en la
práctica (salvo en animales de laboratorio)
Repertorio conductual
• El conjunto de respuestas que un organismo es
capaz de efectuar, junto con sus respectivas
probabilidades.
• Es un concepto teórico; no se confecciona en la
práctica (excepto para especies muy simples).
Condicionamiento
Condicionamiento
• El ambiente no es aleatorio
• Por el contrario, presenta pautas.
• Pautas: conjuntos de sucesos relacionados entre sí.
• Contingencia: relación entre dos sucesos por la cual la
aparición de uno de ellos altera la subsiguiente probabilidad
del otro.
• El condicionamiento es el mecanismo por el que los seres
vivos aprendemos las contingencias relevantes para nuestra
adaptación al medio
Contingencia
Nos interesan dos grandes tipos:
• Contingencias entre dos sucesos ambientales
– El primero actúa como señal del segundo
– El organismo aprende a utilizarlo así.
– Condicionamiento clásico o respondiente
• Contingencias entre una acción o R del organismo y un
suceso ambiental (consecuente o consecuencia)
– Si el organismo realiza la R, se altera la probabilidad de la
consecuencia
– Habitualmente hay un elemento estimular anterior,
llamado antecedente, que determina si la contingencia
está activa o no
Condicionamiento operante
Intuitivamente:
• Aprender de los resultados de nuestra conducta.
• Repetiremos las conductas que nos funcionan bien en un tipo
dado de situación, y no repetiremos las que vayan seguidas
de resultados dañinos.
Técnicamente:
aprendemos una contingencia entre tres eventos:
- Antecedente
- Conducta
- Consecuencia o consecuente
Condicionamiento clásico
• Aprendemos a usar las señales que presagian
sucesos importantes para nosotros
• Ello nos permitirá “anticipar” dichos sucesos e
iniciar de antemano las conductas más adaptativas
respecto a ellos.
¿Clásico u operante?
• En el CO el organismo recibe o no el premio, el
castigo etc. dependiendo de su conducta. Si
estudias, te dan chuches; si no, no.
• El organismo “depende de sí mismo”
• En el CC el organismo recibe la señal (la campana)
y a continuación el “evento señalizado” (la carne)
con independencia de su conducta.
• El organismo está “a verlas venir”.
Condicionamiento operante
Condicionamiento operante
Antecedente
Caja de Skinner
Respuesta
Pulsar palanca
Consecuente
Pellet (comida)
Signos de afecto
Con la pareja
Lloriquear
Mesa familiar
Decir palabrota
Bronca
Con los amigos
Decir palabrota
Risas
Llamada del amo
Correr al amo
Trocito comida
Resultado
• La fuerza de esa respuesta se modifica, para las situaciones
en que esté presente el antecedente
• Lo que es lo mismo, esa R se hace más o menos probable
para el futuro.
– Cuando la fuerza de la R aumenta, decimos que el
consecuente es un refuerzo
– Cuando la fuerza de la R disminuye, decimos que el
consecuente es un castigo
Elementos del CO: Respuesta (R)
• En principio, puede ser cualquier R incluida en el repertorio
conductual del organismo.
• Esta limitación se amplía drásticamente mediante el
moldeado (ver más adelante)
• Desde una R muy simple hasta una secuencia conductual
compleja
• En humanos, pueden ser también tipos de verbalizaciones,
clases de pensamientos, etc.
Elementos del CO: Consecuente
• Suceso que afecta a la fuerza o probabilidad de la respuesta
a la que sigue consistentemente.
• Dos grandes tipos
– Refuerzo o reforzador: Aumenta, fortalece la R a la que
sigue
– Castigo: Reduce o debilita la R a la que sigue
• Por tanto, refuerzo y castigo se definen como tales por sus
efectos en la R, no porque sean agradables o desagradables.
Elementos del CO: Consecuente - refuerzo
• Refuerzo – estribillo:
“Un refuerzo es un refuerzo porque refuerza”
Consecuente – refuerzo positivo y negativo
• Refuerzo positivo (R+ o ”erre más”):
– La conducta aumenta, se fortalece (eso es lo que significa
“refuerzo”)
– el organismo obtiene algo, se le administra alguna
cosa, el ambiente le da algo (eso quiere decir “positivo”).
– Típicamente, algo “agradable”
• Refuerzo negativo (R- o ”erre menos”):
– La conducta aumenta, se fortalece (refuerzo)
– El organismo deja de recibir o experimentar algo, se le
“quita” algo (eso quiere decir “negativo”).
– Típicamente, algo nocivo o dañino.
Consecuente – castigo positivo y negativo
• Castigo positivo (C+ o ”ce más”):
– La conducta se reduce (eso es lo que significa “castigo”)
– El organismo recibe algo, se le administra alguna cosa,
el ambiente le da algo (eso es lo que significa “positivo”).
– Típicamente, algo doloroso, dañino, nocivo
• Castigo negativo (C- o ”ce menos”):
– La conducta se reduce ( “castigo”)
– El organismo deja de recibir o experimentar algo, se le
“quita” algo (eso es lo que significa “negativo”).
– Típicamente, algo beneficioso, grato, apetitivo.
Atención - Errores típicos
• “Positivo” no significa “bueno o agradable”
• “Negativo” no significa “malo o dañino”
“Castigo positivo” suena raro.  Lenguaje natural
“Puesto que un castigo es algo que duele, ¿qué puede tener de
positivo un castigo?” ERROR
“Refuerzo negativo” suena raro.  Lenguaje natural
“Un refuerzo es agradable, cómo va a ser negativo”?  ERROR
Estos errores se deben a confundir los términos técnicos con
palabras del lenguaje natural. CUIDADO con ellos.
Consecuente:
R+ y R-
Ejemplos
• Cada vez que coloca algo en su sitio, su padre le dice algo
como “Muy bien, chica mayor!”
• Cuando deja de mirarle a los ojos siente menos angustia
• Le habló bastante mal. El dejó de mirarla y de dirigirse a ella.
• Ella suele conseguir que dejen de echarle la bronca poniendo
carita de pena.
• El entrevistador detiene sus gestos de asentimiento cuando
el entrevistado se desvía del tema
• Él se puso tan insistente que al final ella accedió a
acompañarle al cine.
Elementos del CO: Contingencia
Relación estadística (probabilística) entre la R y el consecuente.
• Es cuestión de grado.
• Es máxima si siempre que el organismo emita la respuesta, y
sólo entonces, recibe el consecuente.
• Si el consecuente no sigue siempre a la R, la contingencia es
más baja.
• La contingencia es lo que se aprende. No es una propiedad
del organismo ni del aprendizaje, sino del ambiente.
Elementos del CO: Contingencia
Se puede pensar en las contingencias como “reglas” que rigen
en una situación ambiental, p. ej.:
– Si se pulsa la palanca, siempre sale comida
– Si dices una palabrota, te llevas una bronca la mayoría de
las veces
– Si pones cara triste, algunas veces te darán algo.
Estrictamente, las contingencias operantes suelen incluir el
antecedente:
– Si delante de Mamá dices tacos, te puedes llevar una
colleja
– Si delante de Papá dices tacos, se le ve que le da la risa
– Si pones cara de pena con él, te hará caso
Elementos del CO: Contingencia
La relación entre la magnitud de la contingencia y la eficacia
del condicionamiento no es simple. Por ejemplo:
• Si se puede recibir el consecuente sin realizar la conducta, el
condicionamiento pierde eficacia.
• Si se recibe el consecuente sólo en algunos casos en que se
hace la R, pero no en todos (contingencia parcial), el
reforzamiento se hace más eficaz, pero el castigo se debilita.
Elementos del CO: Antecedente
• Estímulo o configuración estimular que permite al organismo
identificar la situación en que está activa una contingencia de
refuerzo o de castigo
• A veces el CO queda muy vinculado al antecedente, otras
veces es bastante independiente de él.
• MUY IMPORTANTE: No confundir con “historia” o “vida
pasada”.
Elementos del CO: Antecedente
• Conducta: meter la moneda y pulsar
• Consecuente: producto
• Antecedente: luces encendidas.
• Si las luces están apagadas, la
contingencia entre la conducta y el
consecuente no está activa.
Elementos del CO: Antecedente
Antecedente - estribillo:
El antecedente está presente
Elementos del CO: Antecedente
Cuando el antecedente es un estímulo concreto, se denomina
“estímulo discriminativo” o simplemente “discriminativo”.
Dos tipos:
• ED o E+ : indica la disponibilidad de un consecuente (la
contingencia está activa)
•
EΔ o E- : informa de su no-disponibilidad (contingencia no
vigente o inactiva).
La distinción terminológica entre “antecedente” y “E.
discriminativo” debe entenderse como muy flexible.
Moldeado (“shaping”)
Obtención gradual de una R que no estaba presente en el
repertorio conductual del organismo, mediante reforzamiento
de Rs que son aproximaciones sucesivas a la deseada.
Es el principal procedimiento de aprendizaje de Rs
genuinamente nuevas para el organismo.
No confundir con “modelado” (modeling): aprendizaje de una
conducta observando a otro organismo efectuarla.
Adquisición, extinción y mantenimiento
Adquisición: situación en que el organismo se expone a una
contingencia y la aprende.
Extinción: situación en que se rompe la contingencia entre la
respuesta y el consecuente.
– Es por sí misma un procedimiento muy importante.
Mantenimiento: circunstancias que impiden que una conducta
entre en extinción.
– Típicamente son contingencias de refuerzo.
– A menudo difíciles de discernir
– A menudo importantes para la intervención
Tipos de entrenamiento en CI
Positivo
(dar)
Negativo
(quitar)
Refuerzo (Más R)
Castigo (Menos R)
Entrenamiento
de recompensa
Entrenamiento de
castigo
Entrenamiento de
escape
Entrenamiento de
evitación
Entrenamiento de
omisión
Condicionamiento clásico
Condicionamiento clásico
Algunos estímulos constituyen señales más o menos fiables de
sucesos importantes para nosotros.
Mediante CC aprendemos a servirnos de ellas.
Este aprendizaje no tiene por qué ser consciente (no suele
serlo) y no debe confundirse con medios “intelectuales” de
anticipación.
Condicionamiento clásico
•El organismo recibe un estímulo neutro seguido de un estímulo
importante para él.
•Esto se repite una y otra vez
•El organismo aprende a dar una R, que antes no daba, al
estímulo originalmente neutro.
Timbre  (nada)
Timbre … comida
Timbre … comida
Timbre … comida
…
Timbre … comida
Timbre  R
Elementos del CC: Estímulo incondicionado (EI)
• Estímulo que suscita regularmente una R. no aprendida y
medible en todos los miembros normales de una especie.
• Es decir, tiene importancia intrínseca.
• Ejemplos: Comida, descarga eléctrica, feromonas, golpe,
quemadura, soplo de aire en los ojos, pinchazo, etc.
• En nuestro caso y en el de otras especies con SNs muy
sofisticados, el papel funcional del EI lo puede hacer un
estímulo cuyas propiedades se hayan aprendido
previamente.
Elementos del CC: Respuesta incondicionada (RI)
• La R. no aprendida y medible suscitada por el EI de forma
regular.
• Un EI puede suscitar más de una RI
• Ejemplos: huida, salivación, flexión, deglución, reflejo
pupilar, náuseas...
Elementos del CC: Estímulo neutro/condicionado (EN/EC)
• Estímulo originalmente neutro
• Es neutro en el sentido de que por sí mismo no suscita una
R. específica
• Puede producir alguna respuesta genérica (R. de orientación,
parpadeos, etc.)
• Durante el condicionamiento actúa como “señal” del EI: le
precede sistemáticamente.
Elementos del CC: Respuesta condicionada (RC)
• Respuesta que, una vez condicionado el organismo, resulta
provocada por el EC.
• Frecuentemente (pero no siempre) es semejante a RI.
• En tales casos, la magnitud de RC es siempre inferior a la de
RI.
Elementos del CC: Contingencia
• Relación estadística entre el EC y el EI por la cual el primero
es más o menos fiable como predictor del segundo.
• Es lo mismo que en CO, sólo que aquí el vínculo es entre dos
estímulos, en vez de entre una conducta y un consecuente.
• En CC, las contingencias de más magnitud producen siempre
mejor aprendizaje que las más bajas.
Elementos del CC: tipos de contingencia
• Positiva total: EI siempre sigue a EC
– EC es una señal perfecta de EI
• Positiva parcial: EI sigue a EC la mayoría de las veces, pero
no todas
– EC es una señal de EI, pero no perfecta.
• Negativa total: EI nunca sigue a EC.
– EC es una señal perfecta de la ausencia de EI
• Negativa parcial: EI no sigue a EC la mayoría de las veces.
– EC es una señal de la ausencia de EI, pero no perfecta.
• Contingencia nula: EC y EI van cada uno por su lado, sin
relación alguna. La aparición de EC no nos dice nada sobre
EI. Si aparece EC lo mismo puede aparecer EI que no.
Tipos de contingencia: ejemplos
• 9 de cada 10 veces que suena la campana, le damos un
trocito de comida.
• Siempre que le pedimos algo y dice que “ya veremos” luego
es que no.
• Cuando sale el sol entre las nubes, lo mismo me puedo
encontrar el semáforo abierto que no.
• Si frunce el ceño de esa forma, lo más seguro es que no nos
dé nada.
• Si suena el ruido del tubo, fijo que le cae pienso a la rata.
Fases del CC
• Adquisición: progresivo establecimiento de una RC al
presentar seguidos EC y EI de forma repetida.
• Extinción: decaimiento de la RC al presentar el EC solo.
Generalización del CC
• Se refiere al hecho de que un organismo emita la RC ante
estímulos algo diferentes del EC original
• Por ejemplo, si el EC es un tono de 200 Hz, un organismo
puede emitir la RC ante un tono de 210 Hz
• Se tratará siempre de una R más débil que la que se da al EC
original.
Discriminación en el CC
• Durante la adquisición se presentan dos ENs semejantes (por
ejemplo, dos luces de diferente intensidad)
• Uno de ellos se empareja con el EI (y es por tanto el EC)
mientras el otro no se empareja con EI.
• El organismo discrimina entre ambos estímulos: da la RC al
verdadero EC y no al otro.
Tipos de CC
• Según el carácter del EI:
– Apetitivo: Se usan EIs que naturalmente suscitan RIs de
acercamiento, consumo, etc.
– Aversivo: se usan EIs que naturalmente suscitan RIs de
huida, defensa, etc.
• Según el efecto conductual:
– Excitatorio: Produce una tendencia a responder al EC.
• Se obtiene con contingencias positivas
– Inhibitorio: Produce una tendencia a no responder al EC.
• Se obtiene con contingencias negativas.
Tipos de CC
• Muy importante: Existen situaciones de CC
–
–
–
–
Excitatorias y apetitivas
Excitatorias y aversivas
Inhibitorias y apetitivas
Inhibitorias y aversivas.
Factores del CC
•
•
•
•
Contigüidad: Intervalo entre estímulos
Contingencia
Valor de señal
Familiaridad
Condicionamiento operante:
el entrenamiento de recompensa
Factores del CO
• Programa de refuerzo
• Demora de la recompensa
• Magnitud de la recompensa
• Impulso
Magnitud del reforzador
• Aumentos en la cantidad o calidad del reforzador mejoran la
actuación del organismo en la situación de adquisición
• Sin embargo, las recompensas cuantiosas producen
conductas menos estables, que se extinguen más
fácilmente.
Estribillo: El buen psicólogo es tacaño con los R+
Demora de la recompensa
Es el intervalo entre la R y el R+
• Cuanto más breve, mejor.
• A partir de una cierta demora (pocos segundos) ya no se
produce condicionamiento
• Una vez que el organismo emite la R, tenemos una breve
ventana para reforzarla
Estribillo:El refuerzo YA
Mediante reforzadores secundarios,
esta limitación se puede eliminar en gran medida.
Impulso
Es el estado motivacional del organismo respecto a aquello que
usamos como R+
• Por ejemplo, no es probable que funcionen recompensas
alimentarias con un animal saciado.
• En el laboratorio se operativiza en términos de deprivación:
gato 12 horas sin beber, rata al 80% de su peso…
• No confundir con motivadores típicamente humanos, como
los incentivos, salarios, objetivos, metas vitales, etc.
• En humanos: muy importante asegurarlo, para no emplear
“recompensas equivocadas”.
Programas de refuerzo
Refuerzo continuo y refuerzo parcial
Refuerzo continuo:
• Hay contingencia perfecta entre R y R+
• Es decir, siempre que se da la R se obtiene recompensa
• Es fácil ver que esto es un caso muy particular
• En la vida real no suele ocurrir mucho
• No es ni mucho menos la pauta de refuerzo más eficaz
Refuerzo parcial:
• La contingencia entre R y R+ no es perfecta
• No siempre que se da la R se obtiene recompensa
• Aquí son posibles infinidad de pautas distintas (programas)
• Más realista, y a menudo más eficaz
Programa de refuerzo: concepto
Es una regla que especifica la pauta con que se administran los
refuerzos según responda el organismo.
Por ejemplo:
– Dar recompensa sólo a las respuestas impares (primera,
tercera, quinta, etc.)
– Recompensar sólo las conductas que se mantengan al
menos dos minutos sin interrupción
– Dar la recompensa sólo a las respuestas que se emiten
transcurridos 10 segundos o más desde la anterior.
– Etc. etc.
Programa de refuerzo: concepto
En sentido estricto, un programa de refuerzo es una regla sin
ambigüedad ninguna, totalmente precisa. Por ejemplo:
– Dar recompensa sólo a las respuestas impares (primera,
tercera, quinta, etc.) es un programa de refuerzo.
– Dar recompensa a la mitad de las respuestas no lo es
(resulta impreciso: hay muchas maneras distintas de
hacerlo).
Este sentido estricto es muy importante en laboratorio; no
tanto en la clínica o el mundo natural.
Y en efecto, el “mundo natural” está lleno de programas de
refuerzo =)
Programa de refuerzo: tipos
Hay infinidad. Sólo veremos algunos de los más importantes
Tipos generales:
– Básicos o simples: se refieren a una sola R, y exigen una
condición simple para administrar la recompensa
– Complejos: Son combinaciones de los anteriores: una sola
R, pero una exigencia compuesta para dar recompensa.
– Concurrentes: se refieren a dos o más Rs alternativas en la
misma situación.
– Otros: programas de duración, de tasas bajas, etc.
Programas básicos
Hay cuatro tipos:
– Razón fija
– Razón variable
– Intervalo fijo
– Intervalo variable
Programas básicos: Razón fija
• Se recompensa cada enésima R emitida por el organismo: la
quinta, la novena, la vigésima…
• Es decir, se exige al organismo un número fijo de Rs. para
darle cada recompensa
• Notación: RF-5, RF-9, RF-20…
Programa RF-5
Ultimo R+
recibido
Nuevo R+
5ª respuesta
Tiempo
Programas básicos: Razón variable
• Es como RF, pero se exige al organismo un número variable
de Rs. para darle cada recompensa.
• Por ejemplo, en un RV-5:
– Damos la primera recompensa a la 7ª R.
– Segunda recompensa a la 3ª R.
– Tercera recompensa a la 6ª
– Etc.
• Y globalmente, la media aritmética de las recompensas
exigidas es 5
• Notación: RV-5, RV-9, RV-20…
• Los programas RV, por tanto, mantienen siempre cierta
incertidumbre sobre “cuándo toca” recibir R+
• Son más “naturales que los RF.
Programas básicos: Intervalo fijo
• Se recompensa la primera R emitida por el organismo una
vez transcurrido un intervalo desde la última recompensa
administrada
• Tras cada recompensa hay un “tiempo muerto”
• Notación: IF-5”, IF-30”, IF-90”…
Programa IF-10”
Ultimo R+
recibido
Nuevo R+
Rs no reforzadas
(dentro del
intervalo)
1ª R tras
el fin del
intervalo
Tiempo
Intervalo de 10”
Programas básicos: Intervalo variable
• Es como IF, pero la duración del intervalo es diferente para
cada recompensa (oscilando en torno a un promedio).
• Por ejemplo, en un IV-10” podría suceder lo siguiente:
– El intervalo “muerto” tras la primera recompensa dura 5”.
– El intervalo tras la segunda recompensa dura 14”.
– El intervalo tras la tercera recompensa dura 6”
– Etc.
• Y globalmente, la media aritmética de los intervalos aplicados
es de 10”
• Notación: IV-5”, IV-25”, IV-120”…
• Los programas IV, por tanto, mantienen cierta incertidumbre
sobre cuándo la recompensa vuelve a estar disponible
• Son más “naturales que los IF.
Razón fija: efectos en la R.
• Producen una tasa de respuesta (TR) alta, tanto más alta
cuanto mayor sea la razón.
• La respuesta es tanto más difícil de extinguir cuanto
mayor sea la razón (RF-1 se extingue muy fácilmente)
• Asimismo, la TR resultante es bastante estable (constante)
• Esa estabilidad se reduce cuando la tasa es muy alta:
aparecen las pausas post-reforzamiento.
• Pausas post-reforzamiento: el organismo detiene sus
respuestas transitoriamente justo después de recibir la
recompensa (parece como si se tomara un descanso).
Razón variable: efectos en la R.
• TR muy alta (incluso más que con RF) y tanto más alta
cuanto mayor sea la razón.
• Se obtiene una R muy difícil de extinguir, llegando a
cronificarse.
• TR muy estable (constante)
• No aparecen pausas post-reforzamiento, salvo en valores
altísimos, y a veces ni así.
Intervalo fijo: efectos en la R.
• TR no muy alta y tanto más baja cuanto mayor sea el valor
del intervalo.
• Con adquisiciones prolongadas, aparece el efecto de
festoneado.
• Efecto de festoneado: El organismo aprende a concentrar
todas sus respuestas cerca del fin del intervalo
• Es como si le hubiera “cogido el tranquillo” al programa: justo
después de recibir refuerzo no vale la pena responder, pero
cuando el intervalo está cerca de su fin es muy probable que
una R reciba recompensa.
Intervalo variable: efectos en la R.
• TR no muy alta y tanto más baja cuanto mayor sea el valor
del intervalo.
• TR muy estable (constante): sin variaciones locales
sistemáticas.
• No aparece efecto de festoneado: El programa no tiene un
“ritmo” temporal que el organismo pueda aprender y
aprovechar.
• Muy utilizados para la implantación de líneas base
conductuales.
Programas básicos: efectos generales
• Los programas de razón dan TRs altas
• Los programas variables dan TRs estables, constantes.
• Estos resultados son muy consistentes entre especies
(incluida la nuestra).
Extinción
Extinción
Proceso muy importante por sí mismo:
• Indicador de la efectividad de la adquisición
• Potente técnica de eliminación de conductas problemáticas
Importante (errores frecuentes):
• El término extinción se refiere a la eliminación de una R por
desaparición de su contingencia con el consecuente
• Hay otros modos de eliminar Rs que no son extinción (p.ej.
castigo)
Extinción: curso temporal
Fases típicas de la extinción:
1. Explosión (o pico) de respuesta
– Aumento transitorio de la TR y de la intensidad
– Problemático en la práctica profesional
2. Aumento de la variabilidad en la morfología de R
3. Aumento de conductas alternativas
4. Alteraciones emocionales (frustración, agresividad)
– Tener en cuenta en la intervención
5. Descenso y caída de la TR (hasta cero)
6. Recuperación espontánea
– Va siendo cada vez menor hasta la extinción total
– Importante contar con ella en la intervención
Extinción: factores
•
Magnitud de la recompensa:
– Las conductas adquiridas mediante recompensas
cuantiosas o de alta calidad se extinguen más
rápidamente
•
Cantidad de entrenamiento durante la adquisición:
– Las adquisiciones prolongadas dan Rs más resistentes a la
extinción.
– El efecto del sobreaprendizaje
•
Programa de refuerzo
– ERPE: efecto del refuerzo parcial
– Cuanto más generoso el programa, más fácil la extinción
– Cuanto más cambios de programa en la adquisición, más
resistencia a la extinción.
Otros programas de refuerzo (no básicos)
Otros programas de refuerzo
Algunos especialmente importantes:
• Programas RDB
• Programas de duración
• Programas concurrentes
– Concurrentes RF-RF
– Concurrentes IV-IV
– Concurrentes encadenados
Programas RDB
RDB = reforzamiento diferencial de tasas bajas
• Administrar la recompensa sólo si no ha habido
otra en un periodo anterior de una duración dada
• Cada respuesta, por tanto, vuelve a iniciar el
“tiempo muerto”.
• IMPORTANTE: no confundir con los de intervalo
• Bastante utilizados en clínica e intervención
educativa
Programas de duración
Recompensamos una conducta sólo si se mantiene
sin interrupción por un tiempo determinado.
• Permiten implantar conductas sostenidas
• Bastante utilizados en intervención educativa y
adiestramiento de animales
• Por ejemplo, la atención en clase, el “junto” de
los perros, etc.
Programas concurrentes
• Dos o más operantes sometidos cada uno a una
contingencia de refuerzo distinta.
• Reflejan una situación más natural: normalmente tenemos
varias alternativas de conducta posibles.
• En laboratorio se emplean cajas de Skinner modificadas,
con 2 o más palancas.
Palanca A
Comedero
Palanca B
Programas concurrentes RF-RF
Dos palancas, cada una de ellas sometida a un
programa de RF distinto
• Por ejemplo, a: RF-5 B: RF-15
• A la larga, el organismo aprende a maximizar el
operante más “rentable”
Este resultado tiene una implicación muy
importante para el profesional:
Refuerzo de alternativas:
• Es posible reducir o eliminar una conducta
aumentando la tasa de refuerzo de otras
incompatibles con ella.
Programas concurrentes IV-IV
Dos palancas, cada una de ellas sometida a un
programa de IV distinto
• Por ejemplo, A: IV-5” B: IV-20”
• A la larga el organismo responde a ambos
operantes en proporción a la tasa de refuerzo
que ofrecen.
• Esto se conoce como Ley de la Igualación:
• En este tipo de situaciones, los organismos
tienden a igualar la tasa relativa de respuesta a
la tasa relativa de refuerzo.
• Es notable que consigan adaptarse casi
óptimamente a una situación tan notablemente
difícil
Programas concurrentes encadenados
Dos fases:
• Fase de elección:
– el organismo no recibe recompensa
– elige con qué programa trabajará en la siguiente fase
• Fase terminal o de respuesta:
– El organismo “trabaja” con el operante que ha elegido
en la fase anterior
– El que no ha elegido no está disponible
• Transcurrido un tiempo, se vuelve a empezar, y el proceso
se repite.
Programas concurrentes encadenados
Resultados:
• Al final, el organismo aprende a elegir siempre el programa
más rentable
• Se observa a menudo una cierta preferencia por los
programas variables
– El organismo “trabaja” con el operante que ha elegido
en la fase anterior
– El que no ha elegido no está disponible
• Transcurrido un tiempo, se vuelve a empezar, y el proceso
se repite.
Conducta de elección y autocontrol
Experimentos de autocontrol (Rachlin y Green):
• En la fase terminal
– Un operante está asociado con una recompensa
pequeña, pero inmediata, sin demora apenas.
– El otro operante da una recompensa muy grande, pero
con una demora bastante alta.
• Se observa que los organismos acaban eligiendo siempre
la primera.
• También humanos.
• “Esclavos de lo inmediato”
Conducta de elección y autocontrol
Rachlin y Green (1972) demostraron que esta elección se
puede invertir, es decir, se puede hacer que el organismo
prefiera la recompensa más grande pero demorada.
Para ello basta poner una demora uniforme entre la fase de
elección y la terminal
Con esto se rompe la “inmediatez”.
Este fenómeno tiene importantes aplicaciones clínicas.